Senaste poster
Populära
Google Scholar
« Metod för ekonomer och mer om mänsklig altruismn (?) | Main | Underliga felaktigheter om Sverige »
tisdag
feb212006

Små och stora sannolikheter: Hur du lever länge.

DN-debatt drabbar doktorer samma kring hur farligt det är att snusa jämfört med att röka. De verkar inte vara helt eniga. Själv har jag noterat att folk ofta agerar lite underligt på små jämfört med stora sannolikheter, och framför allt inte riktigt skiljer på vad forskare fortfarande träter omkring och vad de spekulerar om skulle kunna ha en liten effekt.

Med existerande kunskap går det att skapa flera enkla tumregler för hur man undviker att dö. Googla most common causes of death och du får ett bra hum om varför folk i västvärlden ibland dör i förtid:
  • Cancer, ffa lungcancer.
  • Hjärt- och kärlsjukdomar.
  • Trafikolyckor, självmord och andra olyckor.

Det fina (?) med detta är vi har ganska hyfsade möjligheter att påverka sannolikheten att drabbas av ovanstående: Sannolikheten att få cancer sänker du rejält genom att inte röka och genom att äta varierad kost med mycket frukt och grönsaker.

Dessa två plus lite motion sänker även risken för hjärt- och kärlsjukdomar (övriga faktorer, som kön, arvsmassa och ålder är betydligt svårare att göra något åt).

När det gäller trafikolyckor och andra olyckor, är alkohol och trötthet dominerande riskfaktorer, vilket också ger en enkel tumregel: Kör inte bil när du är trött och/eller berusad. Detta minskar dock inte risken att bli påkörd, varför detta råd får en moralisk boost: Lyd det och du minskar risken att toka till det för dina medmänniskor.

Hur man undviker självmord verkar vara en underlig fråga, men alkohol och droger dyker upp även här. Dessutom leder de flesta självmordsförsök inte till dödsfall, så rådet får väl bli att låta bli, och om detta inte går se till att du blir hittad innan det är för sent. Cyniska ekonomer klickar här.

Slutligen: Jag skriver om de största dödsorsakerna och huvudorsakerna till dessa, för att de som vill ska kunna sila mygg från kameler. Tillsatser i maten och besprutningsmedel är exempelvis inte någon stor cancerorsak (se cancerlänken ovan). Och mäns våld mot kvinnor är inte största dödsorsaken för kvinnor i någon åldersgrupp, trots att motsatsen påstås lite då och då.

Därmed inte sagt att man bör dricka hormoslyr till maten och slå sin fru. [var detta verkligen ett nödvändigt förtydligande?]

PrintView Printer Friendly Version

EmailEmail Article to Friend

Reader Comments (7)

Huvet på spiken!
Av alla de "larmrapporter" som media blåser upp med jämna mellanrum är det i stort sett INGEN som är statistiskt signifikan, Akrylamid i chips, vin är nyttigt/skadligt, mammografiscreening är bra, kaffe eller te är nyttigt/skadligt, mobiltelefoner blir man galen av, att sola är bra/dåligt etc etc, det brukar röra sig om typ: 54% bättre än kontrollgruppen eller så. Det förtjänar att upprepas: DET ÄR INTE SIGNIFIKANT!. Man skulle få liknande spridning i 10 test försök på något som inte har NÅGON SOM HELST inverkan på testgrupperna. För att räknas som statisktisk signifikant behövs MINST en faktor 2, dvs 100% förbättring eller HALVERING av risk. t.ex. rökning som det har varit en del tveksamheter om ger 20-30 ggr högre relativ risk att få lungkancer, dvs 20000-30000% och numera är det ingen tvekan om rökning. Passiv rökning däremot kan t.ex. INTE påstås ge någon riskökning. Skrupulösa forskare gör massor med databearbetningar av otaliga tester, då och då får man en statistisk fluktuation som man kan använda för att få nya anslag, men då skall man först ringa Aftonbladet för att förbättra förhandlingspositionen.
Vad vi ser resultatet av är en ohelig allians mellan media och stadssubventionerad forskning, karriärer för forskare på t.ex. Karolinska och sälja lösnummer för Expressen.
21 feb | Unregistered Commenterpeter w
stadssubventionerad forskning? har vi decentraliserat så mycket nu?

som vanligt, lysande inlägg av dr bergh. men beskedet är tråkigt. sluta supa, röka och äta gott. tur att man har sin frihet att ta kål på sig själv, långsamt långsamt.
21 feb | Unregistered Commenterkricke
NB1: "statistiskt signifikant" kan tolkas som att vart tjugonde "forskningsresultat" orsakas av slumpen (vid 95 procents konfidensintervall...)

NB2: Ibland är effekter signifikanta men likväl pyttesmå. Size matters, som mccloskey lärt oss...
21 feb | Unregistered Commenterbergh
Ursakta min engelska... First, if you get an effect of "54% better" among the treatment group in a randomized experiment, you're doing pretty well! So, let's say the treatment has an effect of 54% (ie the treatment leads to a change of 54% in the size of the parameter of interest), if it is statistically significant, that's a pretty damn big effect! I have no idea what peter w is talking about when he says you need "at least a factor of 2..." What's the magnitude of the effect got to do with its statistical significance? A hypothesis test is based, basically, on the type of distribution of the population in question and whether we accept or reject the null is, in part, based on what (arbitrary) level of significance we decide on, not the size of the effect obtained from a statistical procedure.

If I knew with some level of certainty that drinking four pints of bitter a day would make me half as likely to suffer from impotence, I might well be down at the pub...

Second, Andreas is right to point out the difference between statistical significance and substantive significance. However, I don't think he is strictly speaking correct when he says 1/20 research results can be said to be caused by chance according to a 95%CI. There is more than one way to think about the confidence interval. One is to say, what would happen if we repeated our study a large number of times? Then the CI would be thought of as 95% of the "samples" or studies will contain the interval we calculated. Another interpretation is of the CI as a single observation. So then we could say that the probability that the interval contains our result is 95%. That assumes that all research results are a random sample from a normal distribution. They are probably not. For one thing, the population of "research results" is probably biased since it's much more likely that a positive result gets published than a nill result (yes, this is the main point made by peter w, just that he doesn't make it very well). What Andreas is talking about (the likelihood of a result being caused by chance across ALL fields) is actually meta-analysis which is a whole other ball of wax.

The other point is that we shouldn't fall into the common trap of mistaking correlation for causation. And that's the point of all these randomized experiments. Randomization of treatment makes it possible to make causal inferences (or at least it improves our ability to do so). Having said that, I agree that medical research is sometimes not particularly robust.
21 feb | Unregistered CommenterDaniel
Utmärkt Daniel, jag putsar upp mina skrala statistiska insikter accordingly. Och införlivar uttrycket "en helt annan vaxboll" i mitt svenska ordförråd :-)
22 feb | Registered Commenterbergh
Några citat från några forskare om relativ risk

"In epidemiologic research, [increases in risk of less than 100 percent] are considered small and are usually difficult to interpret. Such increases may be due to chance, statistical bias, or the effects of confounding factors that are sometimes not evident"
.[Source: National Cancer Institute, Press Release, October 26, 1994.]

"As a general rule of thumb, we are looking for a relative risk of 3 or more before accepting a paper for publication." - Marcia Angell, editor of the New England Journal of Medicine"

"My basic rule is if the relative risk isn't at least 3 or 4, forget it." - Robert Temple, director of drug evaluation at the Food and Drug Administration.

"An association is generally considered weak if the odds ratio [relative risk] is under 3.0 and particularly when it is under 2.0, as is the case in the relationship of ETS and lung cancer." - Dr. Kabat, IAQC epidemiologist

22 feb | Unregistered Commenterpeter w
peter w is still confused between substantive and statistical significance. Whether we consider some effect to be substantively interesting is based on, among other things, how large the effect is, what the nature of the variable is, what kind of study it is... To dismiss small effect sizes by saying, "Such increases may be due to chance, statistical bias, or the effects of confounding factors that are sometimes not evident" is kind of obvious. That's we do hypotheses tests, controll for possibly confounding factors etc etc. But a small effect does not mean it is statistically insignificant. Whether it is or not depends on, again, among other things, the kind of sample used etc etc. If the medical study is based on shitty sampling, well, then you'll get shitty results. To paraphrase, shit in, shit out.

Think of it this way, consider a very low probability event, say being hit by lightning (the odds in the US are apparently about 1/700000 in any given year). Now suppose research shows that if you play golf in a lightning storm you double your odds of being struck. Now suppose a higher probability event (I don't know, a certain group getting some kind of disease) were research indicates that some treatment has the effect of lowering your chances of getting this illness by a factor of .25. And for argument's sake, let's say that both results are highly statistically significant; the likelihood that they are caused by chance is close to zero. Which is the more important effect? When you play golf in a storm you double your chances of getting hit by lightning. But the odds are still vanishingly small. On the other hand, using some treatment only lowers your chance of getting the disease by 25%, but the odds of getting the disease are relatively high already...

Again, none of the quotes you found speak to statistical significance which is what your original post alluded to. "An association is generally considered weak if the odds ratio [relative risk] is under 3.0 and particularly when it is under 2.0..." Yes, but this assumes the effects are statistically significant. That is, an odds-ratio of 10 is meaningless if the effect is statisitically insiginificant.
22 feb | Unregistered CommenterDaniel

PostPost a New Comment

Enter your information below to add a new comment.

My response is on my own website »
Author Email (optional):
Author URL (optional):
Post:
 
All HTML will be escaped. Hyperlinks will be created for URLs automatically.