Wiskundige formule kan vliegtuig helpen vinden

Naar aanleiding van het artikel in De Standaard van 15/3/2014 Wiskundige formule kan vliegtuig helpen vinden, denk ik dat het interessant is om het basisprincipe van deze techniek even toe te lichten.

Het gaat eigenlijk niet zo zeer over een wiskundige formule, maar eigenlijk over een aparte statistische benadering, namelijk Bayesiaanse statistiek.
Thomas Bayes
Bayesiaanse statistiek is gebaseerd op het werk van dominee Bayes An Essay toward a Problem in the Doctrine of Chances dat na zijn dood in 1763 door Richard Price werd gepubliceerd en spijtig genoeg al vlug in de vergetelheid raakte. De grote wiskundige Laplace vond 11 jaar later volledig onafhankelijke het theorema terug uit en stelde het voor in een werk getiteld: Mémoire sur la Probabilité des Causes par les Événements. Laplace werkte de methodiek volledig verder uit en eigenlijk zouden we moeten spreken over Laplaciaanse statistiek in plaats van Bayesiaanse (bijna hetzelfde als met Higgs en Englert).

De grondslag van Bayesiaanse statistiek is het begrip voorwaardelijke of conditionele waarschijnlijkheid. We kennen allemaal het begrip kans, bijvoorbeeld de weerman(-vrouw) zegt dat ermorgen een kans is van 60% dat het regent, de kans op een zes bij een zuivere dobbelsteen is 1/6, enz. Wiskundig drukken we de kans op een gebeurtenis A uit door de notatie P(A), de waarschijnlijkheid (probabiliteit) van de gebeurtenis A.

Rendered by QuickLaTeX.com

In bovenstaand Venn-diagram stellen de cirkels A en B twee verschillende gebeurtenissen voor. Bijvoorbeeld cirkel A stelt de voetbalmatchen voor die FC De Kampioenen heeft gewonnen en cirkel B de dagen dat het regende. Waar cirkels A en B elkaar overlappen stelt de gebeurtenis voor dat FC De Kampioenen won en het ook regende. We stellen dit gezamenlijk voorkomen voor als A \cap B.

De wet van de voorwaardelijke waarschijnlijkheid stelt nu dat de kans op gebeurtenis A nadat gebeurtenis B heeft plaatsgevonden, voorgesteld door P(A | B), gelijk is aan de kans dat de twee gebeurtenissen samen zich voordoen P(A \cap B), gedeeld door de kans dat B zich voordoet, met andere woorden:

    \[ {P(A | B) = \frac{P(A \cap B)}{P(B)} \]

Merk op dat anderzijds de kans op het gezamenlijk voorkomen van A en B kan geschreven worden als: {P(A \cap B) = P(A | B)}.{P(B) = P(B | A).P(A).

Bij Bayesiaanse statistiek stellen A en B, respectievelijk een te onderzoeken hypothese en de gegevens die verzameld werden om de juistheid van die hypothese na te gaan.

Zeg dat A de hypothese is en B de bekomen data of gegevens, dan is volgens Bayes de kans op juistheid van de hypothese nadat de data geobserveerd werden, gelijk aan:

    \[ P(A | B)= \frac{P(B | A).P(A)}{P(B)} \]

In deze formule stelt P(A) het prior geloof of prior belief voor in de juistheid van onze hypothese, voor er gegevens voorhanden waren.

Een klein voorbeeldje om dit te verduidelijken:

Wat is de kans op winst voor FC De Kampioenen als het regent tijdens de match?
Hypothese A = FC De Kampioenen wint
Veronderstel dat FC De Kampioenen in het voorbije seizoen 3 matchen gewonnen heeft van de 10 die ze speelden. Dus onze prior waarschijnlijkheid is P(A)=3/10. Tijdens die gewonnen matchen regende het twee keer, dus P(B|A) = 2/3.
In totaal regende het 4 keer tijdens de 10 matchen. P(B) = 4/10.
Dan leert ons regeltje dat de kans op winst gegeven dat het regent gelijk is aan:

    \[ P(A | B) = \frac{\frac{2}{3} \times \frac{3}{10}}{\frac{4}{10}} = \frac{1}{2} \]

Met andere woorden, door gebruik te maken van de extra informatie (regen) stijgt ons geloof in winst voor FC De Kampioenen van 3/10 naar 1/2.

Een meer algemene vorm van de stelling van Bayes, bekomt men door toepassing Wet van de Totale Kans en P(B) af te leiden als: P(B) = P(A \cap B) + P(\overline{A} \cap B) (\overline{A} is NIET A of A complement, alles in de figuur wat buiten cirkel A valt). De Wet op de Totale Kans wordt duidelijk als je ziet dat in het Venn-diagram de totale oppervlakte van cirkel B bestaat uit het gebied dat overlappend is met cirkel A, dus A \cap B en het gebied van B dat niet door cirkel A wordt overlapt, dus \overline{A} \cap B.

Als we dan P(A \cap B) voorstellen als P(B | A).P(A) en P(\overline{A} \cap B) als P(B | \overline{A}).P(\overline{A}), dan bekomen we de algemene vorm van de wet van Bayes:

    \[ P(A|B) = \frac{P(B|A).P(A)}{P(B|A).P(A) + P(B|\overline{A}).P(\overline{A})} \]

Een klein voorbeeld om dit duidelijk te maken:

Een dokter onderzoekt een kind met koorts. De dokter weet dat de griep in het land is en schat de kans op griepprevalentie in op 70% (P(A)).
Uit handboeken leert hij dat 80% van de grieppatienten koorts vertonen (P(B|A)). En dat slechts 14% van de patienten zonder griep koorts hebben (P(B|\overline{A})).
De dokter vraagt zich nu af wat de kans is dat dit kindje griep wanneer hij in acht neemt dat het koorts heeft.

Een kleine berekening toont ons dat de kans op griep na waarnemen van koorts is:

    \[ P(A|B) = \frac{0.80 \times 0.70}{0.80 \times 0.70 + 0.14 \times 0.30} = 0.93 \]

Dus na het waarnemen van koorts is de kans dat het kindje griep heeft, gestegen van 70% (de prevalentie) tot 93%.

Tot zo ver heb ik voor de prior P(A) echte waargenomen kansen gebruikt, zoals het aantal keer dat FC De Kampioenen in het verleden heeft gewonnen, of de prevalentie van griep tijdens een epidemie. Het leuke aan Bayesiaanse methodes is nu juist dat we deze a priori kans ook door een subjectieve mening, zeg maar een geloof kunnen vervangen. We spreken dan ook in de vakliteratuur van een prior belief. Echt spannend wordt het als je weet dat de posterior kans die we berekenen, terug kan gebruikt worden als prior (belief) en dit proces zich eindeloos kan herhalen, tot uiteraard P(A|B.....) = 1.

Het is dit principe dat bij de zoektochten naar het vliegtuig wordt toegepast en de techniek zo krachtig maakt. We blijven bewijs verzamelen tot we bijna zeker zijn dat we het hebben gevonden.

Om het voorbeeld uit het artikel in De Standaard van de dobbelsteen nu eens te nemen. Voor een “echte” goede (unbiased in het Engels) dobbelsteen is de kans op een 6 = 1/6 en laat ons nu even onderstellen dat we een dobbelsteen geknoeid noemen als deze kans 1/3 is.
We denken dat er een kans is van 1/10 dat er met de dobbelsteen geknoeid is (prior belief).
We werpen twee keer met de dobbelsteen en bekomen 2 keer een 6.
Vermits:
P (Tweemaal zes | Geknoeid) = 1/3 \times 1/3 = 1/9
P (Tweemaal zes | Niet geknoeid) = 1/6 \times 1/6 = 1/36
P (Geknoeid) = 1/10
P (Niet Geknoeid) = 9/10
Dan is:
P(Geknoeid | Tweemaal zes) = \frac{1/9 \times 1/10}{1/9 \times 1/10 + 1/36 \times 9/10} = 4/13 = 0.31
Dus als we twee keer een zes werpen is ons geloof in een valse dobbelsteen gestegen van 0.10 naar 0.31.

Laten we nog een derde keer met de dobbelsteen werpen. Het is weer een 6!

Dan gaan we ons geloof bijwerken en wordt 0.31 nu onze prior en krijgen we:

    \[ \frac{1/3 \times 0.31}{1/3 \times 0.31 + 1/6 \times 0.69} = 0.473 \]

als kans op een niet geknoeide dobbelsteen.
En als bij de laatste worp het een ander aantal ogen was geweest, geen 6?
P(Geen zes | Niet geknoeid) = 5/6
P(Geen zes | Geknoeid) = 2/3

    \[ \frac{2/3 \times 0.31}{2/3 \times 0.31 + 5/6 \times 0.69} = 0.264 \]

Ons geloof in knoeien met de dobbelsteen is dus terug gedaald.

Fascinerend he die mengeling tussen dat subjectieve element van het prior geloof en de objectieve wiskunde en hoe je mening door de data wordt veranderd.

Nu is het wel zo dat bij echte Bayesian Statististics zelf het allemaal toch nog ietsjes complexer is. We werken dan niet meer met puntsprobabiliteiten, maar met mathematische functies die een redelijk complexe vorm kunnen aannemen. Ons a priori geloof drukken we ook uit in zo een mathematische functie. En die functie wordt dan aangepast door de data, wat ons een posteriorfunctie oplevert. Omdat het op de duur niet meer mogelijk is om dit zuiver wiskundig aan te vatten worden dan bepaalde computerintensieve methoden toegepast. Maar het principe blijft steeds hetzelfde: een posterior kans wordt afgeleid uit een prior geloof en de data; en deze posterior kan dienst doen als nieuwe prior wanneer er nieuwe data tevoorschijn komen. Bayesiaanse methoden werden in WO II ondermeer toegepast door Alan Turing om de Duitse Enigma code te breken, onderzeeërs op te sporen, enz. Meer over dit alles in het boek The Theory That Would Not Die door S.B. McGrayne.

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Verplichte velden zijn gemarkeerd met *