Autor des Abschnitts: Danielle J. Navarro and David R. Foxcroft

Statistische Analysen, die im Buch nicht behandelt werden

Die Statistik ist ein riesiges Gebiet. Die Werkzeuge, die ich in diesem Buch beschrieben habe (χ²-Tests, t-Tests, Regression und ANOVA), decken die wichtigsten Methoden für alltägliche Datenanalysen ab und sind weit verbreitet; sie bilden den Kern der meisten Bücher mit einer Einführung in Statistik. Es gibt jedoch noch eine Menge anderer Werkzeuge. Es gibt so viele Situationen in der Datenanalyse, die von diesen Werkzeugen nicht abgedeckt werden, und es wäre schön, Ihnen ein Gefühl dafür zu vermitteln, wie viel mehr es zum Beispiel gibt:

  • Nicht-lineare Regression. Bei der Erörterung der Regression in Kapitel Korrelation und lineare Regression haben wir gesehen, dass die Regression davon ausgeht, dass die Beziehung zwischen Prädiktoren und Ergebnissen linear ist. Andererseits haben wir beim einfacheren Problem der Korrelation gesehen, dass es Hilfsmittel (z. B. Spearman-Korrelationen) gibt, mit denen sich nicht-lineare Beziehungen zwischen Variablen untersuchen lassen. In der Statistik gibt es eine Reihe von Instrumenten, verwendet werden können, um nicht-linearer Regressionen durchzuführen. So wird bei einigen nicht-linearen Regressionsmodellen davon ausgegangen, dass die Beziehung zwischen Prädiktoren und Ergebnissen monoton ist (z. B. isotonische Regression), während andere davon ausgehen, dass sie glatt, aber nicht notwendigerweise monoton ist (z. B. Lowess-Regression), während wieder andere davon ausgehen, dass die Beziehung eine bekannte Form hat, die zufällig nicht linear ist (z.B. polynomiale Regression).

  • Logistische Regression. Eine weitere Variante der Regression wird benutzt, wenn die Ergebnisvariable binär nominal, multinomial nominal (mehrere Gruppen) oder ordinal ordinal ist, die Prädiktoren aber kontinuierlich continuous sind. Nehmen wir zum Beispiel an, Sie untersuchen soziale Medien und möchten wissen, ob es möglich ist, vorherzusagen, ob jemand auf Twitter ist oder nicht, und zwar in Abhängigkeit von seinem Einkommen, seinem Alter und einer Reihe anderer Variablen. Dies ist im Grunde ein Regressionsmodell, aber Sie können keine normale lineare Regression verwenden, weil die Ergebnisvariable kategorisch ist (z. B. ob Sie auf Twitter sind oder nicht). Da die Ergebnisvariable kategorisch ist, gibt es keine Möglichkeit, dass die Residuen normal verteilt sein könnten. Es gibt eine Reihe von Werkzeugen, die Statistiker in dieser Situation anwenden können und das bekannteste davon ist die logistische Regression.

  • Das Allgemeine Lineare Modell (ALM / GLM). Das ALM ist eigentlich eine Familie von Modellen, die logistische Regression, lineare Regression, nicht-lineare Regression (verschiedene Modelle), ANOVA und viele andere umfasst. Der Grundgedanke des ALM ist im Wesentlichen derselbe, der auch linearen Modellen zugrunde liegt, aber es berücksichtigt die Vorstellung, dass Ihre Daten möglicherweise nicht normalverteilt sind, und lässt nicht-lineare Beziehungen zwischen Prädiktoren und Ergebnissen zu. Es gibt viele sehr nützliche Analysen, die Sie im Rahmen des ALM durchführen können, so dass es sehr nützlich ist, darüber Bescheid zu wissen.

  • Ereigniszeitanalyse (survival analysis). In Kapitel Eine kurze Einführung in Forschungsdesigns habe ich über die „differentielle Attrition“ gesprochen, die Tendenz der Teilnehmer, die Studie auf nicht-zufällige Weise zu verlassen. Damals ging es um ein mögliches methodisches Problem, aber es gibt viele Situationen, in denen Unterschiede in der Fluktuation genau das ist, was Sie interessiert. Nehmen wir zum Beispiel an, dass Sie herausfinden wollen, wie lange die Leute verschiedene Arten von Computerspielen in einer einzigen Sitzung spielen. Neigen die Leute dazu, RTS-Spiele (Echtzeitstrategiespiele) länger zu spielen als FPS-Spiele (Ego-Shooter)? Sie könnten Ihre Studie wie folgt gestalten. Die Teilnehmer kommen ins Labor und können so lange oder so wenig spielen, wie sie möchten. Wenn sie fertig sind, zeichnen Sie die Zeit auf, die sie gespielt haben. Nehmen wir jedoch an, dass sie aus ethischen Gründen nicht länger als zwei Stunden spielen dürfen. Viele Leute werden vor Ablauf der zwei Stunden aufhören zu spielen, so dass Sie genau wissen, wie lange sie gespielt haben. Einige Teilnehmer werden jedoch die Zwei-Stunden-Grenze überschreiten, so dass Sie nicht wissen, wie lange sie weitergespielt hätten, wenn Sie die Studie hätten fortsetzen können. Infolgedessen sind Ihre Daten systematisch zensiert (ausgewählt): Sie schließen alle sehr langen Zeiten aus. Wie kann man diese Daten vernünftig analysieren? Das ist das Problem, das die Überlebensanalyse löst. Sie wurde speziell für diese Situation entwickelt, in der systematisch eine „Seite“ der Daten fehlt, weil die Studie beendet wurde. Sie ist in der Gesundheitsforschung weit verbreitet und wird in diesem Zusammenhang oft buchstäblich zur Analyse des Überlebens verwendet. So kann man z.B. Menschen mit einer bestimmten Krebsart verfolgen, von denen einige die Behandlung A und andere die Behandlung B erhalten haben, aber man hat nur Mittel, um sie 5 Jahre lang zu verfolgen. Am Ende des Studienzeitraums sind einige Personen noch am Leben, andere nicht. In diesem Zusammenhang ist die Ereigniszeitanalyse nützlich, um festzustellen, welche Behandlung wirksamer ist, und um etwas über das Sterberisiko zu erfahren, dem die Menschen im Laufe der Zeit ausgesetzt sind.

  • Gemischte Modelle (mixed models). Die ANOVA für wiederholte Messungen wird häufig in Situationen verwendet, in denen Beobachtungen innerhalb von Versuchseinheiten geclustert sind. Ein gutes Beispiel hierfür ist die Beobachtung einzelner Personen über mehrere Zeitpunkte hinweg. Nehmen wir an, Sie verfolgen die Zufriedenheit von zwei Personen über einen bestimmten Zeitraum. Aarons Zufriedenheit beginnt bei 10, fällt dann auf 8 und dann auf 6. Belindas Zufriedenheit beginnt bei 6, steigt dann auf 8 und dann auf 10. Beide Personen haben das gleiche „Gesamt“-Glücksniveau (der Durchschnitt über die drei Zeitpunkte ist 8), so dass eine ANOVA-Analyse mit wiederholten Messungen Aaron und Belinda auf die gleiche Weise behandeln würde. Aber das ist eindeutig falsch. Aarons Zufriedenheit nimmt ab, während die von Belinda zunimmt. Wenn Sie die Daten eines Experiments, bei dem sich Personen im Laufe der Zeit verändern können, optimal analysieren wollen, brauchen Sie ein leistungsfähigeres Instrument als die ANOVA für wiederholte Messungen. Die Werkzeuge, die zur Lösung dieses Problems verwendet werden, heißen „gemischte“ Modelle, weil sie so konzipiert sind, dass sie sowohl einzelne experimentelle Einheiten (z. B. das Glück einzelner Personen im Laufe der Zeit) als auch Gesamteffekte (z. B. die Wirkung von Geld auf das Glück im Laufe der Zeit) erfassen. Die ANOVA für wiederholte Messungen ist vielleicht das einfachste Beispiel für ein gemischtes Modell, aber man kann mit gemischten Modellen eine Menge tun, was man mit der ANOVA für wiederholte Messungen nicht tun kann.

  • Multidimensionale Skalierung. Die Faktorenanalyse ist ein Beispiel für ein Modell des „unüberwachten Lernens“. Das bedeutet, dass Sie im Gegensatz zu den meisten der erwähnten Tools für das „überwachte Lernen“ Ihre Variablen nicht in Prädiktoren und Ergebnisse aufteilen können. Bei der Regression handelt es sich um überwachtes Lernen, bei der Faktorenanalyse hingegen um unbeaufsichtigtes Lernen. Sie ist jedoch nicht die einzige Art von unüberwachtem Lernmodell. Bei der Faktorenanalyse geht es zum Beispiel um die Analyse von Korrelationen zwischen Variablen. Es gibt jedoch viele Situationen, in denen man tatsächlich an der Analyse von Ähnlichkeiten oder Unähnlichkeiten zwischen Objekten, Gegenständen oder Personen interessiert ist. Es gibt eine Reihe von Instrumenten, die man in dieser Situation einsetzen kann. Das bekannteste davon ist die multidimensionale Skalierung (MDS). Bei der MDS geht es darum, eine „geometrische“ Darstellung der verschiedenen Elemente zu finden. Jedes Element wird als Punkt in einem Raum „gezeichnet“, und der Abstand zwischen zwei Punkten ist ein Maß dafür, wie unähnlich sich diese Elemente sind.

  • Cluster-Analyse. Ein weiteres Beispiel für ein unüberwachtes Lernmodell ist die Cluster-Analyse (auch als Klassifizierung bezeichnet), bei dem alle Elemente in sinnvolle Gruppen eingeteilt werden sollen, so dass ähnliche Elemente denselben Gruppen zugewiesen werden. Viele Verfahren zur Cluster-Analyse sind unüberwacht, d. h., Sie wissen nichts über die Gruppen. Es gibt andere „überwachte“ Cluster-Analysemethoden, bei denen Sie die Gruppenzugehörigkeit auf der Basis anderer Variablen vorhersagen, und diese Gruppenzugehörigkeit ist tatsächlich beobachtbar. Die logistische Regression ist ein gutes Beispiel für eine Analyse, die auf diese Weise funktioniert. Wenn man die Gruppenzugehörigkeiten jedoch nicht kennt, muss man andere Werkzeuge verwenden (z. B. k-means clustering). Es gibt sogar Situationen, in denen man eine sogenannte „semi-überwachte“ Cluster-Analyse durchführen möchte, bei der man die Gruppenzugehörigkeit für einige Elemente kennt, für andere jedoch nicht. Wie Sie sich wahrscheinlich denken können, sind Cluster-Analysen ein ziemlich umfassendes Thema und eine ziemlich nützliche Sache, über die man Bescheid wissen sollte.

  • Kausale Modelle. Eine Sache, über die ich in diesem Buch noch nicht viel gesprochen habe, ist, wie man statistische Modellierung nutzen kann, um etwas über die kausalen Beziehungen zwischen Variablen zu erfahren. Betrachten Sie zum Beispiel die folgenden drei Variablen, die von Interesse sein könnten, wenn man darüber nachdenkt, wie jemand in einem Erschießungskommando starb. Wir könnten messen wollen, ob ein Hinrichtungsbefehl erteilt wurde (Variable A), ob ein Schütze sein Gewehr abgefeuert hat (Variable B) und ob die Person von einer Kugel getroffen wurde (Variable C) oder nicht. Diese drei Variablen sind alle miteinander korreliert (z. B. gibt es eine Korrelation zwischen dem Abfeuern von Schusswaffen und der Tatsache, dass Menschen von Kugeln getroffen werden), aber wir wollen eigentlich stärkere Aussagen über sie machen, als nur über Korrelationen zu sprechen. Wir wollen über Kausalität sprechen. Wenn wir annehmen, dass der Ausführungsbefehl (A) dazu führt, dass der Schütze feuert (B), was dazu führt, dass jemand erschossen wird (C), so können wir dies durch eine gerichtete Pfeilschreibweise ausdrücken: A → B → C. Diese „Kausalkette“ ist eine grundlegend andere Erklärung für Ereignisse als eine, bei welcher der Schütze zuerst schießt, was die Schießerei B → C verursacht, und dann den Vollstrecker dazu veranlasst, „rückwirkend“ den Vollstreckungsbefehl zu erteilen, B → A. Dieses Modell der „gemeinsamen Wirkung“ besagt, dass A und C beide durch B verursacht werden. Sie können sehen, warum dies unterschiedlich ist. Im ersten Kausalmodell hätte es keine Schießerei gegeben, wenn es uns gelungen wäre, den Scharfrichter davon abzuhalten, den Befehl zu erteilen (und damit A zu ändern). Im zweiten Modell wäre die Schießerei so oder so passiert, weil der Schütze nicht den Hinrichtungsbefehl befolgt hat. In der Statistik gibt es eine umfangreiche Literatur, die sich mit dem Versuch befasst, die kausalen Beziehungen zwischen Variablen zu verstehen, und es gibt eine Reihe verschiedener Hilfsmittel, mit denen Sie verschiedene kausale Aussagen über Ihre Daten testen können. Das am weitesten verbreitete Instrument (zumindest in der Psychologie) ist sind lineare Strukturgleichungsmodelle (SEM), und irgendwann möchte ich das Buch erweitern, um darüber zu sprechen.

Natürlich ist auch diese Aufzählung unvollständig. Ich habe die Zeitreihenanalyse, die Item-Response-Theorie, die Warenkorbanalyse, die Klassifizierungs- und Regressionsbäume oder viele andere Themen nicht erwähnt. Die obige Liste ist jedoch im Wesentlichen mein Wunschzettel für dieses Buch. Sicherlich würde es die Länge des Buches verdoppeln, aber es würde bedeuten, dass der Umfang breit genug geworden ist, um die meisten Dinge abzudecken, die Forscher innerhalb der Psychologie benutzen.