Autor des Abschnitts: Danielle J. Navarro and David R. Foxcroft

Bayessche Hypothesentests

In Kapitel Das Überprüfen von Hypothesen habe ich den frequentistischen Ansatz für Hypothesentests beschrieben. Die Beschreibung dieses Ansatzes nahm ein ganzes Kapitel in Anspruch, da der Nullhypothesentest eine sehr komplizierte Konstruktion ist, die für die meisten Menschen nur schwer verständlich ist. Im Gegensatz dazu ist der Bayessche Ansatz zur Hypothesenprüfung unglaublich einfach. Wählen wir eine Situation, die dem frequentistischen Szenario sehr ähnlich ist. Es gibt zwei Hypothesen, die wir miteinander vergleichen wollen, eine Nullhypothese h0 und eine Alternativhypothese h1. Bevor wir das Experiment durchführen, haben wir einige Überzeugungen P(h) darüber, welche Hypothesen wahr sind. Wir führen ein Experiment durch und erhalten Daten d. Im Gegensatz zur frequentistischen Statistik können wir in der Bayesschen Statistik über die Wahrscheinlichkeit sprechen, dass die Nullhypothese wahr ist. Besser noch, sie erlaubt uns die Berechnung der a-posteriori-Wahrscheinlichkeit der Nullhypothese, unter Verwendung der Bayes-Regel:

\[P(h_0 | d) = \frac{P(d|h_0) P(h_0)}{P(d)}\]

Diese Formel sagt uns genau, wie viel Vertrauen wir in die Nullhypothese haben können, nachdem wir die Daten d beobachtet haben. In ähnlicher Weise können wir berechnen, wie viel Vertrauen wir in die Alternativhypothese setzen sollten, indem wir fast die gleiche Gleichung verwenden. Wir müssen nur den tiefgestellten Index ändern:

\[P(h_1 | d) = \frac{P(d|h_1) P(h_1)}{P(d)}\]

Das ist alles so einfach, dass ich mir wie ein Idiot vorkomme, wenn ich mir die Mühe mache, diese Gleichungen aufzuschreiben, da ich ja nur die Bayes-Regel aus dem vorherigen Abschnitt kopiere.[1]

Der Bayes-Faktor

In der Praxis neigen die meisten Bayesianischen Datenanalysten dazu, nicht von den rohen Posterior-Wahrscheinlichkeiten P(h0|d) und P(h1|d) zu sprechen. Stattdessen neigen wir dazu, vom Verhältnis der a-posteriori-Wahrscheinlichkeiten zu sprechen. Stellen Sie sich das wie eine Wette vor. Angenommen, die a-posteriori-Wahrscheinlichkeit der Nullhypothese beträgt 25% und die a-posteriori-Wahrscheinlichkeit der Alternativhypothese beträgt 75%. Die Alternativhypothese ist dreimal so wahrscheinlich wie die Nullhypothese, also sagen wir, das Verhältnis sei 3:1 zugunsten der Alternative. Mathematisch gesehen müssen wir zur Berechnung des Verhältnisses der a-posteriori-Wahrscheinlichkeiten nur die eine posteriori-Wahrscheinlichkeit durch die andere dividieren

\[\frac{P(h_1 | d)}{P(h_0 | d)} = \frac{0.75}{0.25} = 3\]

Oder, um dasselbe in Form der obigen Gleichungen zu schreiben

\[\frac{P(h_1 | d)}{P(h_0 | d)} = \frac{P(d|h_1)}{P(d|h_0)} \times \frac{P(h_1)}{P(h_0)}\]

Es lohnt sich, diese Gleichung näher zu erläutern. Hier gibt es drei verschiedene Begriffe, die Sie kennen sollten. Auf der linken Seite haben wir die a-posteriori-Wahrscheinlichkeit, die angibt, was Sie über die relative Plausibilität der Nullhypothese und der alternativen Hypothese glauben, nachdem Sie die Daten gesehen haben. Auf der rechten Seite haben wir die a-priori-Wahrscheinlichkeit (prior odds), die angeben, was Sie dachten, bevor Sie die Daten gesehen haben. In der Mitte befindet sich der Bayes-Faktor, der den Grad an Evidenz beschreibt, den die Daten liefern

\[\begin{split}\begin{array}{ccccc}\displaystyle \frac{P(h_1 | d)}{P(h_0 | d)} & = & \displaystyle\frac{P(d|h_1)}{P(d|h_0)} & \times & \displaystyle\frac{P(h_1)}{P(h_0)} \\[6pt] \\[-2pt] \uparrow & ~ & \uparrow & ~ & \uparrow \\[6pt] \mbox{a-posteriori-Wahrscheinlichkeit} & ~ & \mbox{Bayes-Faktor} & ~ & \mbox{a-priori-Wahrscheinlichkeit} \\ \end{array}\end{split}\]

Der Bayes-Faktor (oft als BF abgekürzt) nimmt im Bayesschen Hypothesentest eine besondere Stellung ein, da er eine ähnliche Funktion erfüllt wie der p-Wert in frequentistischen Hypothesentests. Der Bayes-Faktor quantifiziert die Stärke der Evidenz, die von den Daten geliefert wird. Daher ist der Bayes-Faktor, das Resultat, das man gewöhnlich angibt, wenn man einen Bayes-Hypothesentest durchführt. Der Grund für die Angabe von Bayes-Faktoren anstelle von a-posteriori-Wahrscheinlichkeiten ist, dass verschiedene Forscher unterschiedliche Prioritäten haben. Manche Leute glauben eher, dass die Nullhypothese wahr ist, andere glauben eher, dass sie falsch ist. Aus diesem Grund ist es für einen angewandten Forscher besser, den Bayes-Faktor anzugeben. Auf diese Weise kann jeder, der die Arbeit liest, den Bayes-Faktor mit seiner eigenen persönlichen a-priori-Wahrscheinlichkeit multiplizieren und selbst ausrechnen, wie die a-posteriori-Wahrscheinlichkeit aussehen würde. In jedem Fall tun wir gerne so, als würden wir die Nullhypothese und die Alternative gleichermaßen berücksichtigen. In diesem Fall ist die a-priori-Wahrscheinlichkeit gleich 1, und die a-posteriori-Wahrscheinlichkeit entsprechen dem Bayes-Faktor.

Interpretieren von Bayes-Faktoren

Eine der schönen Seiten des Bayes-Faktors ist, dass die Zahlen von sich aus aussagekräftig sind. Wenn Sie ein Experiment durchführen und einen Bayes-Faktor von 4 berechnen, bedeutet dies, dass die aus Ihren Daten gewonnenen Erkenntnisse einer Wettquote von 4:1 zugunsten der Alternativhypothese entsprechen. Es hat einige Versuche gegeben, Standards für Evidenz festzulegen, die in einem wissenschaftlichen Kontext als aussagekräftig gelten können. Die beiden am häufigsten verwendeten stammen von Jeffreys (1961) und Kass und Raftery (1995). Von den beiden ziehe ich die Tabelle von Kass und Raftery (1995) vor, weil sie etwas konservativer ist. Hier ist sie also:

Bayes-Faktor

Interpretation

1 – 3

Vernachlässigbare Evidenz

3 – 20

Evidenz

20 – 150

Starke Evidenz

> 150

Sehr starke Evidenz

Und um ganz ehrlich zu sein, denke ich, dass selbst die Standards von Kass und Raftery (1995) eher großzügig sind. Wenn es nach mir ginge, würde ich die Kategorie „Evidenz“ als „schwache Evidenz“ bezeichnen. Für mich ist alles im Bereich von 3:1 bis 20:1 bestenfalls „schwache“ oder „bescheidene“ Evidenz. Aber es gibt hier keine harten Regeln. Was als starke oder schwache Evidenz gilt, ängt ganz davon ab, wie konservativ Sie sind und auf welchen Standards Ihre Kollegen bestehen, bevor sie bereit sind, eine Erkenntnis als „wahr“ zu bezeichnen.

In jedem Fall ist zu beachten, dass alle oben aufgeführten Zahlen sinnvoll sind, wenn der Bayes-Faktor größer als 1 ist (d. h., die Evidenz spricht für die Alternativhypothese). Ein großer praktischer Vorteil des Bayesschen Ansatzes gegenüber dem frequentistischen Ansatz ist, dass er auch die Quantifizierung der Evidenz für die Nullhypothese ermöglicht. In diesem Fall ist der Bayes-Faktor kleiner als 1. Sie können sich dafür entscheiden, einen Bayes-Faktor kleiner als 1 anzugeben, aber um ehrlich zu sein, finde ich das verwirrend. Nehmen wir zum Beispiel an, dass die Wahrscheinlichkeit der Daten unter der Nullhypothese P(d|h0) gleich 0,2 ist, und die entsprechende Wahrscheinlichkeit P(d|h1) unter der Alternativhypothese 0,1 ist. Unter Verwendung der oben genannten Gleichungen würde der Bayes-Faktor hier lauten

\[\mbox{BF} = \frac{P(d|h_1)}{P(d|h_0)} = \frac{0.1}{0.2} = 0.5\]

Wörtlich genommen besagt dieses Ergebnis, dass die Evidenz zugunsten der Alternative 0,5 zu 1 ist. Das ist für mich schwer zu verstehen. Für mich macht es viel mehr Sinn, die Gleichung „auf den Kopf zu stellen“ und die Evidenz zugunsten der Nullhypothese anzugeben. Mit anderen Worten, wir berechnen Folgendes

\[\mbox{BF}^\prime = \frac{P(d|h_0)}{P(d|h_1)} = \frac{0.2}{0.1} = 2\]

Und wir würden einen Bayes-Faktor von 2:1 zugunsten der Nullhypothese ausweisen. Das ist viel einfacher zu verstehen, und Sie können dies anhand der obigen Tabelle interpretieren.