Falsche Beziehung

Der Begriff „falsche Beziehung“ wird häufig in der Statistik und insbesondere in experimentellen Forschungstechniken verwendet, die beide versuchen, direkte kausale Beziehungen zu verstehen und vorherzusagen (X → Y). Eine nicht-kausale Korrelation kann durch einen Antezedenzfall, der beides verursacht (W → X und W → Y), falsch erzeugt werden. Vermittlungsvariablen (X → W → Y) schätzen, wenn sie nicht erkannt werden, einen Gesamteffekt anstelle eines direkten Effekts ohne Anpassung für die Vermittlungsvariable M. Aus diesem Grund stellen experimentell identifizierte Korrelationen keine kausalen Beziehungen dar, es sei denn, falsche Beziehungen können ausgeschlossen werden.

ExperimenteEdit

In Experimenten können falsche Beziehungen häufig identifiziert werden, indem andere Faktoren kontrolliert werden, einschließlich solcher, die theoretisch als mögliche Störfaktoren identifiziert wurden. Stellen Sie sich zum Beispiel einen Forscher vor, der versucht festzustellen, ob ein neues Medikament Bakterien abtötet. Wenn der Forscher das Medikament auf eine Bakterienkultur anwendet, sterben die Bakterien ab. Um jedoch das Vorhandensein einer verwirrenden Variablen auszuschließen, wird eine andere Kultur Bedingungen ausgesetzt, die so nahezu wie möglich mit denen der erstgenannten Kultur identisch sind, während die zweite Kultur nicht dem Arzneimittel ausgesetzt ist. Wenn unter diesen Bedingungen ein unsichtbarer Störfaktor vorliegt, stirbt auch diese Kontrollkultur ab, so dass aus den Ergebnissen der ersten Kultur keine Schlussfolgerung über die Wirksamkeit des Arzneimittels gezogen werden kann. Wenn andererseits die Kontrollkultur nicht stirbt, kann der Forscher die Hypothese, dass das Arzneimittel wirksam ist, nicht zurückweisen.

Nicht experimentelle statistische AnalysenEdit

Disziplinen, deren Daten meistens sind Nicht experimentelle wie die Wirtschaft verwenden normalerweise Beobachtungsdaten, um kausale Zusammenhänge herzustellen. Die in der Wirtschaft verwendeten statistischen Techniken werden als Ökonometrie bezeichnet. Die wichtigste statistische Methode in der Ökonometrie ist die multivariable Regressionsanalyse. Typischerweise ist eine lineare Beziehung wie

y = a 0 + a 1 x 1 + a 2 x 2 + ⋯ + akxk + e {\ Anzeigestil y = a_ {0} + a_ {1} x_ {1} + a_ {2} x_ {2} + \ cdots + a_ {k} x_ {k} + e}

wird angenommen, wobei y {\ displaystyle y} die abhängige Variable ist (angenommen die verursachte Variable), xj {\ displaystyle x_ {j}} für j = 1, …, k ist die j-te unabhängige Variable (vermutlich eine verursachende Variable), und e {\ displaystyle e} ist der Fehlerterm (der die kombinierten Effekte aller enthält andere verursachende Variablen, die nicht mit den enthaltenen unabhängigen Variablen korreliert sein müssen). Wenn Grund zu der Annahme besteht, dass keines der x j {\ displaystyle x_ {j}} s durch y verursacht wird, werden Schätzungen der Koeffizienten a j {\ displaystyle a_ {j}} erhalten. Wenn die Nullhypothese, dass aj = 0 {\ displaystyle a_ {j} = 0} ist, verworfen wird, dann die alternative Hypothese, dass aj ≠ 0 {\ displaystyle a_ {j} \ neq 0} und äquivalent das xj {\ displaystyle x_ {j }} bewirkt, dass y nicht abgelehnt werden kann. Wenn andererseits die Nullhypothese, dass aj = 0 {\ displaystyle a_ {j} = 0} nicht zurückgewiesen werden kann, kann die Hypothese, dass xj {\ displaystyle x_ {j}} auf y keine kausale Wirkung hat, nicht zurückgewiesen werden . Hier ist der Begriff der Kausalität ein Begriff der beitragenden Kausalität: Wenn der wahre Wert aj ≠ 0 {\ displaystyle a_ {j} \ neq 0} ist, führt eine Änderung von xj {\ displaystyle x_ {j}} zu einer Änderung von y Sofern sich keine anderen verursachenden Variablen, die entweder in der Regression enthalten sind oder im Fehlerterm enthalten sind, so ändern, dass ihre Wirkung genau ausgeglichen wird; daher reicht eine Änderung von x j {\ displaystyle x_ {j}} nicht aus, um y zu ändern. Ebenso ist eine Änderung von xj {\ displaystyle x_ {j}} nicht erforderlich, um y zu ändern, da eine Änderung von y durch etwas verursacht werden kann, das im Fehlerterm enthalten ist (oder durch eine andere im Modell enthaltene ursächliche erklärende Variable).

Regressionsanalyse steuert andere relevante Variablen, indem sie als Regressoren (erklärende Variablen) aufgenommen werden. Dies hilft, einen irrtümlichen Rückschluss auf die Kausalität aufgrund des Vorhandenseins einer dritten zugrunde liegenden Variablen zu vermeiden, die sowohl die potenziell verursachende Variable als auch die potenziell verursachte Variable beeinflusst: Ihre Auswirkung auf die potenziell verursachte Variable wird erfasst, indem sie direkt in die Regression einbezogen wird Dieser Effekt wird nicht als Störeffekt der potenziell verursachenden interessierenden Variablen aufgegriffen. Darüber hinaus hilft die Verwendung der multivariaten Regression, die falsche Schlussfolgerung zu vermeiden, dass ein indirekter Effekt von beispielsweise x1 (z. B. x1 → x2 → y) ein direkter Effekt (x1 → y) ist.

Genau wie ein Der Experimentator muss darauf achten, ein experimentelles Design zu verwenden, das jeden Störfaktor kontrolliert, und der Benutzer der multiplen Regression muss darauf achten, alle Störfaktoren zu kontrollieren, indem er sie in die Regressoren einbezieht.Wenn ein Störfaktor in der Regression weggelassen wird, wird seine Auswirkung standardmäßig im Fehlerterm erfasst, und wenn der resultierende Fehlerterm mit einem (oder mehreren) der eingeschlossenen Regressoren korreliert, kann die geschätzte Regression verzerrt oder inkonsistent sein ( siehe ausgelassene variable Verzerrung).

Zusätzlich zur Regressionsanalyse können die Daten untersucht werden, um festzustellen, ob eine Granger-Kausalität vorliegt. Das Vorhandensein der Granger-Kausalität zeigt sowohl an, dass x vor y steht, als auch, dass x eindeutige Informationen über y enthält.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.