Ritið : tímarit Hugvísindastofnunar - 01.01.2015, Page 142
141
þurfum við að setja fram örlítið táknmál og átta okkur á hugtakinu skilyrtar
líkur (e. conditional probability). Við látum p(A) standa fyrir líkurnar á því að
fullyrðingin A sé sönn.16 Skilyrtar líkur, táknað p(A|B), eru líkurnar á því
að A sé sönn að því gefnu að B sé sönn. nú, rétt eins og röklegu tengslin
milli P og Q tengja saman líkurnar á P og Q, þá mynda skilyrtu líkurnar á
A að gefnu B tengsl milli líknanna á A og B. Um þetta fjallar regla Bayes,
sem yfirleitt er sett fram á eftirfarandi formi:
(1) p(A|B) = p(A)p(B|A)/p(B)
Þessi jafna segir okkur að skilyrtu líkurnar á A að gefnu B eru í öfugu hlut-
falli við líkurnar á B en í réttu hlutfalli við líkurnar á A og skilyrtu líkunum
á B að gefnu A.
Best er að átta sig á þessu með því að skoða einfalt dæmi. Hverjar eru
líkurnar á því að ég sé kominn með flensu (F) að því gefnu að ég hafi
hnerrað ítrekað (H)? Líkurnar á því að ég sé með flensu óháð hnerrunum
tel ég ekki miklar og set því p(F) = 0,1 eða 10%. Ég hnerra frekar sjaldan
undir venjulegum kringumstæðum og gef mér því að líkurnar á ítrekuðum
hnerrum séu litlar, eða p(H) = 0,2. Hins vegar tel ég nokkuð miklar líkur á
að ég færi að hnerra svona oft ef ég væri kominn með flensu, svo ég set því
að skilyrtu líkurnar á hnerrum að gefinni flensu séu p(H|F) = 0,7. Regla
Bayes segir okkur þá að skilyrtu líkurnar á að ég sé kominn með flensu að
því gefnu að ég fari að hnerra séu:
(2) p(F|H) = p(F)p(H|F)/p(H) = 0,1 · 0,7 / 0,2 = 0,35
Samkvæmt bayesískri þekkingarfræði á ég því að leggja 35% trúnað á skil-
yrtu fullyrðinguna sem segir að hnerri ég ítrekað sé ég kominn með flensu.
og ástæða þess að ég á að leggja nákvæmlega svona mikinn trúnað á þessa
fullyrðingu er að það leiðir af líkindafræðinni bakvið reglu Bayes og því
að ég á að leggja 10% trúnað á F, 20% trúnað á H og 70% trúnað á H að
gefnu F. Þannig tengir regla Bayes saman líkur á því að ólíkar fullyrðingar
séu sannar með afar gagnlegum hætti.
Glöggir lesendur munu hafa tekið eftir því að hingað til hef ég ekki
fjallað sérstaklega um rökstuðning vísindakenninga. nú er loksins komið
að því. Í bayesískri þekkingarfræði er gerður greinarmunur á algildum rök-
16 p(·) er svokallað líkindafall (e. probability function), þ.e. fall frá fullyrðingum á borð
við A yfir í rauntölur á bilinu 0 og upp í 1 sem uppfyllir skilyrðin í frumsetningum
Kolmogorovs.
TVÖ VIðHoRF TIL VÍSInDALEGRAR ÞEKKInGAR – EðA EITT?