Tre rekommendationer

1. Imre Lakatos, Science and pseudoscience

Vetenskapsfilosofi är något folk i allmänhet, och jag själv i synnerhet, borde läsa mer av och tänka mer på. Svårt verkar det också — trots käcka bilder och Richard Feynman-citat. Imre Lakatos var en vetenskapsfilosof vars namn jag stött på här och där, men inte läst något av förrän alldeles nyligen. Via Dynamic Ecology hittade jag en länk till ett av hans föredrag:

As opposed to Popper the methodology of scientific research programmes does not offer instant rationality. One must treat budding programmes leniently: programmes may take decades before they get off the ground and become empirically progressive. Criticism is not a Popperian quick kill, by refutation. Important criticism is always constructive: there is no refutation without a better theory. Kuhn is wrong in thinking that scientific revolutions are sudden, irrational changes in vision. … On close inspection both Popperian crucial experiments and Kuhnian revolutions turn out to be myths: what normally happens is that progressive research programmes replace degenerating ones.

2. Trudy Mackay, The genetic architecture of quantitative traits

Jag var på ESEB-konferensen i Lissabon i somras och det var helt fantastiskt på snart sagt alla sätt (mitt glada jollrande om konferensen finns här och här). Bland det bästa var det här föredraget från Trudy Mackay — en av dem som bokstavligen skrev boken om kvantitativ genetik.  Mackay pratade om hennes grupps arbete med genetisk kartläggning av kvantitativa egenskaper i bananflugor och om gen–gen-interaktioner, som det verkar finnas förvånansvärt många av — vilket gör saker mer komplicerade och roligare. Naturligtvis blir det ganska tekniskt efter hand och presentationsbilderna är tyvärr oläsliga, men det rekommenderas ändå varmt. Dessutom börjar Mackay med en genomgång av vad kvantitativ genetik är, varför det är viktigt och varför en kan lära sig så mycket från bananflugor. Det här är ett av mina favoritcitat:

Those of you who don’t work with flies might be surprised to learn that flies vary for any phenotype that an investigator has the imagination to develop a quantitative assay for.

http://www.youtube.com/watch?v=csNjY99BDqg

Några fler föredrag från konferensen har publicerats och det kommer bli fler på ESEB2013:s YouTube-kanal.

3. Richard Lenski, Telliamed Revisited

Richard Lenski är evolutionsbiolog som förmodligen är mest känd för sitt Long Term Evolution Experiment — ett evolutionsexperiment med bakterien Escherichia coli. På sin blogg skriver han bland annat om vad de hittat i det experimentet — börja till exempel med den här posten:

Fitness is the central phenotype in evolutionary theory; it integrates and encapsulates the effects of all mutations and their resulting phenotypic changes on reproductive success.  Fitness depends, of course, on the environment, and here we measure fitness in the same medium and other conditions as used in the LTEE.  We estimate the mean fitness of a sample from a particular population at a particular generation by competing the sample against the ancestral strain, and we distinguish them based on a neutral genetic marker.  Prior to the competition, both competitors have been stored in a deep freezer, then revived, and acclimated separately for several generations before they are mixed to start the assay proper.  Fitness is calculated as the ratio of their realized growth rates as the ancestor and its descendants compete head-to-head under the conditions that prevailed for 500 … or 5000 … or 50,000 generations.

Pig and chimp dna just won’t splice — eller: ta en titt på Wikipedia och mejla mig

Okej, titeln hänvisar till South Park som ju verkligen inte är en särskilt bra serie. Men det visar sig att South Park-figuren Dr. Alphonso Mephesto (så!) har en sorts verklig motsvarighet — verkligheten överträffar dikten och så vidare. Det finns tydligen en genetiker som driver en egen hypotes om människans utveckling: att vi kommer från hybrider mellan schimpanser och grisar. Det finns som bekant ingen åsikt som är så konstig att det inte är någon som driver den. Och på något sätt har The Daily Mail, som är tämligen ökänd för sin dåliga vetenskapsjournalistik, fått för sig att skriva om det. Och direkt från the Daily Mails hemsida kommer den till Aftonbladet.

Eugene McCarthy heter han som driver idén att människan är en schimpans–grishybrid. Det är han förmodligen ganska ensam om att tro — varför framgår nog om en läser hans väldigt långdragna hemsida. Jag har bara läst den länkade artikeln där han än så länge kommit fram till att det inte finns något som tyder på att schimpanser och grisar kan få fertil avkomma, att det finns andra förklaringar till kroppsliga likheter mellan människor och grisar samt att människan genetiskt inte särskilt liknar grisen men däremot schimpansen. Vad som talar för hans hypotes har han inte hunnit med.

Men det var inte hypotesen som sådan jag tänkte skriva om utan vetenskapsjournalistik. (Om du verkligen undrar om grisarna och schimpanserna, se PZ Myers bloggpost. Myers är för övrigt professor i biologi, så hans akademiska position smäller klart högre än min, och han har valt ett annat South Park-klipp som illustration.) Det är såklart väldigt lätt att skälla på de som skrivit artiklarna i Daily Mail och Aftonbladet — det borde väl vem som helst fatta att ”teorin” ifråga är ett påhitt från en tok? Eller? Jag vet faktiskt inte! Jag tycker kanske att den som skriver ett referat borde kunna ta sig tillbaka till källan och se att det inte är något publicerat forskningsresultat, utan en ganska suspekt egen hemsida. Men när det gäller påståendet att människan är en schimpans-grishybrid? Det låter absurt, men det finns det också en hel del riktig forskning som gör. Forskare och vetenskapskommunikatörer är dessutom väldigt förtjusta i att hitta på slående och uppseendeväckande rubriker och sammanfattningar. Det kanske faktiskt inte är så lätt att veta vad som är rimligt och inte.

Det är utan tvivel så att forskare — inklusive små doktorander som undertecknad — ibland kan vara dryga på Twitter eller skriva arga mejl när de tycker någon har publicerat något dumt. Och de är, precis som journalister och reportrar upptagna och under ständig tidspress. Men de flesta bör vara vana vid och intresserade av att förklara vetenskap. Så om du är reporter, sitter med en artikel i knät och undrar vad det betyder och om det är trovärdigt — ring någon! Skicka ett mejl! Det ingår faktiskt i vårt jobb att dela med oss av kunskap. Även om någon som jag absolut inte är expert på det mesta inom biologi, så har vi i alla fall haft mycket övning i att läsa och utvärdera vetenskapliga påståenden.

Power overwhelming II: hur vilseledande är små studier?

Alla vet att stickprovsstorlek spelar roll: stora undersökningar och experiment är i allmänhet trovärdigare än små. Frågan är bara: hur stora och hur trovärdiga? I den förra posten skrev jag lite om klassiska styrkeberäkningar och tog som exempel en studie av Raison m. fl. om antiinflammatoriska antikroppar mot depression. (Spoiler: det verkar inte ha någon större effekt.) Nyss såg jag en kort förhandspublicerad artikel av Andrew Gelman och John Carlin som utvecklar ett lite annat sätt att se på styrka — eller designanalys, som de skriver — med två nya mått på studiers dålighet. Föreställ dig ett experiment som fungerar ungefär som det med antikropparna: två grupper av deprimerade patienter får en ny medicin (här: antikroppen infliximab) eller placebo, och det som intresserar oss är skillnaden mellan grupperna är efter en tids behandling.

I klassiska styrkeberäkningar handlar det om kontrollera risken att göra så kallat typ 2-fel, vilket betyder att missa en faktisk skillnad mellan grupperna. Typ 1-fel är att råka se en skillnad som egentligen inte finns där. Det här sättet att resonera har Gelman inte mycket till övers för. Han (och många andra) brukar skriva att vi oftast redan vet redan från början att skillnaden inte är noll: det vi behöver veta är inte om det finns en skillnad mellan de som fått infliximab och de andra, utan i vilken riktning skillnaden går — är patienterna som blivit behandlade friskare eller sjukare? — och ifall skillnaden är stor nog att vara trovärdig och betydelsefull.

Därför föreslår Gelman & Carlin att vi ska titta på två andra typer av fel, som de kallar typ S, teckenfel, och typ M, magnitudfel. Teckenfel är att säga att skillnaden går åt ena hållet när den i själva verket går åt det andra. Magnitudfel är att säga att en skillnad är stor när den i själva verket är liten — Gelman & Carlin mäter magnitudfel med en exaggeration factor, som är den skattade skillnaden i de fall där det är stort nog att anses signifikant skild från noll dividerat med den verkliga skillnaden.

Låt oss ta exemplet med infliximab och depression igen. Gelman & Carlin understryker hur viktigt det är att inte ta sina antaganden om effektstorlek ur luften, så jag har letat upp några artiklar som är sammanställningar av många studier av antidepressiva mediciner. Om vi antar att utgångsläget är 24 enheter på Hamiltons depressionsskala (vilket är ungefär vad patienterna hade i början av experimentet) motsvarar medeleffekten i Kahn & cos systematiska litteraturstudie en skillnad på 2.4 enheter. Det överensstämmer ganska väl med Gibbons & cos metaanalys av fluoxetine and venlafaxine där skillnaden överlag var 2.6 enheter. Storosum & cos metaanalys av tricykliska antidepressiva medel har en skillnad på 2.8 enheter. Det är såklart omöjligt att veta hur stor effekt infliximab skulle ha ifall det fungerar, men det verkar väl rimligt att anta något i samma storleksordning som fungerande mediciner? I antikroppsstudiens styrkeberäkning kom de fram till att de borde ha en god chans att detektera en skillnad på 5 enheter. Den uppskattningen verkar ha varit ganska optimistisk.

Precis som med den första styrkeberäkningen så har jag gjort simuleringar. Jag har prövat skillnader på 1 till 5 enheter. Det är 60 deltagare i varje grupp, precis som i experimentet, och samma variation som författarna använt till sin styrkeberäkning. Jag låter datorn slumpa fram påhittade datamängder med de parametrarna och sedan är det bara att räkna ut risken för teckenfel och överskattningsfaktorn.

typM_typS

Det här diagrammet visar chansen att få ett signifikant resultat (alltså styrkan) samt risken för teckenfel vid olika verkliga effektstorlekar. Den grå linjen markerar 2.5 enheter. Jämfört med Gelmans & Carlins exempel ser risken för teckenfel inte så farlig ut: den är väldigt nära noll vid realistiska effekter. Styrkan är fortfarande sådär, knappa 30% för en effekt på 2.5 enheter.

exaggeration

Det här diagrammet är överskattningsfaktorn vid olika effektstorlekar — jag försökte demonstrerar samma sak med histogram i förra posten. Vid 5 enheter, som är den effektstorlek författarna räknat med, har kurvan hunnit plana ut nära ett, alltså ingen större överskattning. Men vid 2.5 får vi ändå räkna med att skillnaden ser ut att vara dubbelt så stor som den är. Sammanfattningsvis: författarna bör kunna utesluta stora effekter som fem enheter på Hamiltonskalan, men dagens antidepressiva mediciner verkar ha betydligt mindre effekt än så. Alltså finns det risk att missa realistiska effekter och ännu värre blir det förstås när de börjar dela upp försöket i mindre undergrupper.

Litteratur

Gelman A & Carlin J (2013) Design analysis, prospective or retrospective, using external information. Manuskript på Gelmans hemsida.

Storosum JG, Elferink AJA, van Zwieten BJ, van den Brink W, Gersons BPR, van Strik R, Broekmans AW (2001) Short-term efficacy of tricyclic antidepressants revisited: a meta-analytic study European Neuropsychopharmacology 11 pp. 173-180 http://dx.doi.org/10.1016/S0924-977X(01)00083-9.

Gibbons RD, Hur K, Brown CH, Davis JM, Mann JJ (2012) Benefits From Antidepressants. Synthesis of 6-Week Patient-Level Outcomes From Double-blind Placebo-Controlled Randomized Trials of Fluoxetine and Venlafaxine. Archives of General Psychiatry 69 pp. 572-579 doi:10.1001/archgenpsychiatry.2011.2044

Khan A, Faucett J, Lichtenberg P, Kirsch I, Brown WA (2012) A Systematic Review of Comparative Efficacy of Treatments and Controls for Depression. PLoS ONE  e41778 doi:10.1371/journal.pone.0041778

Raison CL, Rutherford RE, Woolwine BJ, Shuo C, Schettler P, Drake DF, Haroon E, Miller AH (2013) A Randomized Controlled Trial of the Tumor Necrosis Factor Antagonist Infliximab for Treatment-Resistant DepressionJAMA Psychiatry 70 pp. 31-41. doi:10.1001/2013.jamapsychiatry.4

Kod

Gelman & Carlin skriver om en R-funktion för felberäkningarna, men jag hittar den inte. För min simulering, se github.

Populär/vetenskapligt föredrag om hönskammar imorgon

Jag har helt missat att göra reklam för detta, men imorgon klockan fyra ska jag hålla ett kort föredrag om hönskammen som en del av Linköpings universitetsbiblioteks Fängslande forskning på femton minuter. Jag kommer använda kammen, som är ett sexuellt ornament hos höns, som exempel för att berätta om hur vi försöker reda ut den genetiska grunden för skillnader mellan tama och vilda höns. Orden ”Redan Charles Darwin …” kommer nämnas. Dessutom miljöteknik, medicinsk teknik och tunnfilmsfysik. Jag utgår ifrån att allt kommer vara roligt, men jag vet att Anette Karlssons forskning om muskler i magnetkamera ensamt skulle varit värt ett besök.

Slide03Slide06Slide07

Power overwhelming: inflammation, depression och varför det är ett sådant tjat om stickprovsstorlek

förekommen anledning och vid närmare eftertanke tänkte jag utveckla varför det svaga positiva resultatet i den nyliga studien (Raison m fl 2013) av immunhämmande antikroppar mot depression inte är så trovärdigt — och varför författarna själva är mycket försiktiga i sina slutsatser. Observera — det här är inte en kritik av författarna. Jag använder bara deras artikel som räkneexempel. De är garanterat väl medvetna om problemet, men dock skyldiga till att ha uttryckt sig lite väl optimistiskt. Forskare är ofta lite väl optimistiska när de pratar om sina egna resultat.

Det finns flera lite olika sätt att räkna statistisk osäkerhet, men i den här artikeln angriper de huvudexperimentet med klassisk statistik. De mäter upp en skillnad (i det här fallet: minskning i Hamiltons depressionsskala under behandlingens gång) mellan två grupper (de som fått infliximab och placebo) och prövar om den är skild från noll. Det är ganska typiskt att säga att ett värde är signifikant skilt från noll om det är 5% chans att se ett så extremt värde av en slump ifall ingen skillnad finns. Å andra sidan, för att inte missa skillnader behöver vi göra ett experiment med tillräcklig sannolikhet att se en effekt om den faktiskt finns där. Detta kallas styrka. Små försök är inte trovärdiga därför att de har låg styrka.

I artikeln ifråga presenterar författarna en styrkeberäkning av sitt huvudexperiment: de vill visa att under rimliga antaganden om variation och effektstorlek så räcker 60 deltagare för att ha god chans att visa en effekt om den finns där (se Methods i artikeln). Med 5% signifikansnivå och en variation hämtad från litteraturen har de 80% chans att detektera en skillnad på 5 enheter på Hamiltonskalan. Så om det finns en skillnad som de missat är den antagligen betydligt mindre än så.

Sedan valde de att begränsa sig till deltagare med ”hög CRP”. Skillnaden på 3.1 enheter (se Comment och figur 3 i artikeln) är inte statistisk signifikant: alltså, osäkerheten är så stor att den skulle kunna vara noll eller mindre än noll. Hur stort borde uppföljningsförsöket vara för att kunna säga något hyfsat säkert om den här effekten? För att ha 80% styrka att detektera den skillnaden behöver de 162 deltagare, alltså hundra människor fler än första gången. Men det finns goda nyheter också: det är förstås möjligt att de genom att kontrollera CRP och begränsa sig till människor med mycket inflammation faktiskt minskar variationen jämfört med vad de antog i sin styrkeberäkning, så siffrorna behöver kanske inte vara fullt så pessimistiska.

Men antag att vi hittar en signifikant skillnad genom att bryta ner materialet i grupper och göra vidare analyser på dessa mindre grupper. Det finns två anledningar att vara lite skeptisk. Det första är att ju fler jämförelser och olika analyser vi prövar, desto större är risken att prata känslor med en död lax: alltså att råka på en tillräckligt stor skillnad bara av en slump. Även osannolika saker händer, efter hand. För det andra är det inte nog med att studier med liten styrka har liten chans att hitta något; om de hittar något tenderar resultaten att vara överskattningar.

Det kan vi se genom att simulera en situation med låg styrka: ett experiment med 22 deltagare, samma variation som ovan och en effekt på 5 enheter. Sedan låter vi datorn upprepa experimentet 1000 gånger. Resultaten varierar naturligtvis lite på grund av slumpen, men följande fick jag fram: 367 gånger var skillnaden signifikant skild från noll på 5%-nivån, vilket stämmer bra med den uppskattade styrkan på 36%. Histogrammen nedan visar den uppskattade effekten i de fall där skillnaden var signifikant. Oftast är den betydligt större än fem; när styrkan är låg är signifikanta resultat oftast överskattningar. Om vi testar att öka stickprovsstorleken, först till 60 och sedan till 100 blir problemet mindre.

infliximab_power_hist

Litteratur

Charles L. Raison, Robin E. Rutherford, Bobbi J. Woolwine, Chen Shuo, Pamela Schettler, Daniel F. Drake, Ebrahim Haroon, Andrew H. Miller. (2013) A Randomized Controlled Trial of the Tumor Necrosis Factor Antagonist Infliximab for Treatment-Resistant Depression. JAMA Psychiatry 70 ss. 31-41. doi:10.1001/2013.jamapsychiatry.4

Kod

För den intresserade finns R-kod för mina styrkeberäkningar på github.

Öppna data, kunskap och #sverigeligger

Trogna läsare, i den mån min blogg har sådant, har nog lagt märke till att jag tittat lite närmare på Aftonbladet och United minds undersökning om svenskarnas sexvanor och kom till lite andra slutsatser om förhållandet mellan sex och partisympatier. Men oavsett det så finns det två saker jag vill passa på att påpeka lite starkare:

1. Jag är åter igen inte en av dem som tycker att en stor undersökning om sex är onödig, fånig, ointressant eller vad gnällspikarna nu säger. Tvärtom! Sex är intressant, sex är viktigt och det finns inget annat sätt att få veta när folk har sex, hur de har sex och vad de känner inför det än att fråga dem. Och det finns inget annat sätt att bringa ordning i stora mängder data än statistisk analys. Jag instämmer helt när Aftonbladets skribenter frågar efter en vetenskaplig undersökning. Jag har på mitt bord den tidigare undersökningen från 1997 (Bo Lewin (red). ”Sex i Sverige. Om sexuallivet i Sverige 1996”,  Uppsala) och jag tänkte citera en passage från följebrevet som gavs till dem som deltog, som jag tycker fint illustrerar värdet av sådana undersökningar:

Några resultat av undersökningen 1967

Detta trodde forskare och myndigheter före undersökningen

1. Ungdomars första sexuella erfarenhet sker ofta efter en danstillställning där man druckit sprit och knutit tillfälliga intima bekantskaper. (…)

2. Mycket få ungdomar använder preventivmedel vid sitt första samlag. (…)

3. Jordbrukare har stor kunskap om sex och har också en friare inställning. (…)

Detta tyckte man var helt rimliga antaganden, ja rent av självklara, som stämde med sunt förnuft och med vad lärda män sa. En sak hade de gemensamt: De var alla felaktiga!

2. Det är värt att upprepa hur coolt det är att Aftonbladet och United minds släppt data från undersökningen! Den här skärmbilden visar min favoritgrej med undersökningen (min inringning):

ladda_ner_undersokning

Hur häftigt är inte det? Fritt tillgängliga öppna data är en stor grej både inom vetenskap och offentliga organisationer, och jag är väldigt glad att Aftonbladet och United minds inte bara släpper sina data — de lägger dessutom en länk till datafilen på kampanjsidan, som om det vore den självklaraste sak i världen. Att de gör det möjliggör oberoende analys (som mina små diagram). Föredömligt!

Mer om Aftonbladets sexundersökning

Igår kväll var jag dryg på Twitter men ikväll känner jag ett behov att komma med något lite mer konstruktivt (fast bara lite), det vill säga rita några fler diagram och säga ett par sensmoraler.

dryg_tweet

Aftonbladet och United minds har alltså gjort en enkät om sex som tidningen försöker krama fram det mesta ur. Jag läste först om den när det började handla om skillnader i sexvanor mellan folk som röstar på olika partier, men Aftonbladet har tidigare påstått att den visar någon sorts ”bottenrekord” i sexuell aktivitet. I gårdagens post visade jag ett diagram över de som i undersökningen svarat på vilket parti de skulle rösta på om det var val idag och hur många gånger de uppgav att de haft sex de senaste 30 dagarna. Det är en ganska rörig bild, men den gör i alla fall tydligt att Aftonbladets rubrik, ”Kristdemokrater har mest sex” är snömos. Underrubriken, ”stora skillnader mellan partiväljarna” är inte heller sann. Vad som är sant är att medelvärdet i antalet ligg är högst bland de som kryssat kristdemokraterna. Här är diagrammet igen:

Rplot02

På den horisontala axeln ser vi alltså vilket parti de svarade och på den vertikala antalet gånger de haft sex de senaste 30 dagarna. (Någon undrade hur det kommer sig att punkter kan hamna strax under noll? För att alla punkter inte ska hamna ovanpå varandra har vi lagt på ett lite slumpvis brus.) Allra längst upp vid femtio (fler än femtio var det största alternativet) finns två punkter: två deltagare i undersökningen som svarat att de haft sex fler än femtio gånger senaste månaden och skulle rösta på KD. Dessa två extrempunkter drar upp medelvärdet för KD-gruppen, som är jämförelsevis liten och får den att verka extremare än den egentligen är. Så — första sensmoralen: Rita diagram och se efter om de numeriska resultaten verkar rimliga!

Men undersökningen innehåller massor av andra frågor. En av dem föranledde Ivar Arpi, ledarskribent på Svenska dagbladet, att också vara dryg på Twitter.

dryg_tweet_2

Ligger det något i det då? Aftonbladets graf visar, åter igen, i medeltal mer onani för de som kryssat SD och V. Men medelvärdet är som sagt känsligt för extrema värden. Och, som det här diagrammet visar, precis som sex med andra så har onanifrekvensen en väldigt ojämn fördelning. Det är många som uppger att de onanerar lite och några få som onanerar mycket. Här kommer samma typ av prickdiagram men med onanifrekvensen på den vertikala axeln (och punkter som är färgade efter kön, för här är en variabel där det faktiskt verkar finnas en märkbar könsskillnad):

onani1

Det är en ganska rörig bild, som sagt. Men den visar i alla fall ett liknande mönster som ovan. Här ser SD och V inte särskilt speciella ut, eller hur? Men Aftonbladet visar inte alla data, utan bara medelvärden. Medelvärden är som sagt känsliga för extrema värden. Det mittersta värdet, medianen, är ett annat lägesmått som inte är lika känsligt. Låt oss titta på medianer och medelvärden:

onani_prickdiagram

Så, medelvärdet (den röda pricken) är hela tiden högre än medianen (den turkosa) — det tyder på att fördelningen är sned och att de flesta observationerna har låga värden. Inget nytt. Om vi tittar på medianerna verkar inte V och SD lika extrema. SD får median på två gånger per månad, precis som nästan alla partier. V och MP har medianen tre. Inte ens om vi tar medelvärdena för vad de är så blir det någon vidare imponerande skillnad. Medelvärdet för onani bland de som kryssat V och SD är ungefär sju. Medelvärdet för M är ungefär 5.5. Att onanera en och en halv gång mer eller mindre i månaden, är det en skillnad att twittra om? Andra sensmoralen: Titta på siffrorna och fundera på om skillnaden är stor (eller liten) nog för att vara meningsfull.

Tyvärr är det ganska lätt att lura sig själv med dataanalys och se saker som inte finns där. Aftonbladets artiklar innehåller flera pinsamma citat av forskare, politiker med flera som resonerar om varför folk nuförtiden eller folk som röstar si eller så har sex på olika sätt. De kan tjäna som exempel på hur lätt det alltid är att hitta på en rimlig historia sådär i efterhand som förklarar de siffror som råkade trilla ut ur analysen. Till sist: jag tillhör inte de som tycker att undersökningens ämne är fånigt och onödigt i sig. En undersökning av sex i Sverige kan definitivt vara nyttig och intressant. Så tack Aftonbladet och United minds för att ni gjort era data fritt tillgängliga! På den fronten är ni verkligen ett föredöme. Men inga tack för att ni sprider dåliga tolkningar utan vidare stöd i ert data.

Fotnot

Tanja Suhinina har också bloggat förtjänstfullt om undersökningen (och länkat till mitt lilla diagram! woho!) och kritiserar inte bara delen om politiska sympatier utan också själva huvudnyheten om ”bottenrekordet”. Det resultatet verkar också sådär lagom pålitligt.

Att tolka agarosgel

Några ord och bilder om att tolka och tyda resultaten av agarosgelelektrofores:

tolka_gel

I bilden står det:

Martins guide till att tolka agarosgel

Vanlig gel efter pcr (för sekvensering eller dylikt): produkt av förväntad längd; ett band från specifik pcr. Inget band i negativ kontroll. Korta svaga primer dimer-band kan vara acceptabelt. Stege.

Storleksbestämning (t.ex. gentypning med mikrosatelliter): Olika alleler ger olika lång produkt (ofta en liten skillnad). Två band — heterozygot. Det behövs en negativ kontroll här också, men jag ritade en för liten gel.

Den ökända fruktade tomma gelen: Kolla dina anteckningar och beräkningar! Gör om pcr-reaktionen minst en gång innan du blir förtvivlad! Avsaknad av band betyder inte att sekvensen saknas. För att visa avsaknad av den sökta sekvensen krävs smarta positiva kontroller.

Lycka till i labbet!

Undervisning: agarosgelelektrofores

agarosgelelektrofores

Typa mikrosatelliter med pcr och agarosgelelektrofores: pedagogiskt exempel på hur molekylärbiologi är väntetidernas biologi. Det är ju ganska komiskt att de två (jämförelsevis) komplicerade stegen dna-isolering och pcr hinns med på kanske tre timmar medan att köra en gel tar fyra. Ändå var separationen lite sådär. Vi kan dra till med högre agaroskoncentration, men då kommer det ta ännu mer tid.