Relația falsă

Termenul „relație falsă” este utilizat în mod obișnuit în statistici și în special în tehnicile experimentale de cercetare, ambele încercând să înțeleagă și să prezică relațiile cauzale directe (X → Y). O corelație non-cauzală poate fi creată fals printr-un antecedent care le provoacă pe ambele (W → X și W → Y). Variabilele de mediere, (X → W → Y), dacă nu sunt detectate, estimează un efect total, mai degrabă decât un efect direct, fără ajustare pentru variabila de mediere M. Din această cauză, corelațiile identificate experimental nu reprezintă relații de cauzalitate decât dacă pot fi excluse relațiile false.

ExperimentsEdit

În experimente, relațiile false pot fi adesea identificate controlând alți factori, inclusiv cei care au fost identificați teoretic ca posibili factori de confuzie. De exemplu, luați în considerare un cercetător care încearcă să stabilească dacă un medicament nou ucide bacteriile; atunci când cercetătorul aplică medicamentul pentru o cultură bacteriană, bacteriile mor. Dar pentru a ajuta la excluderea prezenței unei variabile confuzive, o altă cultură este supusă unor condiții cât mai aproape identice cu cele cu care se confruntă prima cultură menționată, dar a doua cultură nu este supusă drogului. Dacă există un factor de confuzie nevăzut în aceste condiții, această cultură de control va muri și ea, astfel încât din rezultatele primei culturi nu se poate trage nicio concluzie a eficacității medicamentului. Pe de altă parte, dacă cultura de control nu moare, atunci cercetătorul nu poate respinge ipoteza că medicamentul este eficient.

Analize statistice non-experimentale Editare

Discipline ale căror date sunt în mare parte non-experimentale, cum ar fi economia, folosesc de obicei date observaționale pentru a stabili relații cauzale. Corpul de tehnici statistice utilizate în economie se numește econometrie. Principala metodă statistică în econometrie este analiza de regresie multivariabilă. De obicei, o relație liniară, cum ar fi

y = a 0 + a 1 x 1 + a 2 x 2 + ⋯ + akxk + e {\ displaystyle y = a_ {0} + a_ {1} x_ {1} + a_ {2} x_ {2} + \ cdots + a_ {k} x_ {k} + e}

este ipotezat, în care y {\ displaystyle y} este variabila dependentă (presupusă a fi variabila cauzată), xj {\ displaystyle x_ {j}} pentru j = 1, …, k este a x-a variabilă independentă (presupusă a fi o variabilă cauzală) și e {\ displaystyle e} este termenul de eroare (care conține efectele combinate ale tuturor alte variabile cauzale, care trebuie necorelate cu variabilele independente incluse). Dacă există motive să credem că nici unul dintre x j {\ displaystyle x_ {j}} s nu este cauzat de y, atunci se obțin estimări ale coeficienților a j {\ displaystyle a_ {j}}. Dacă ipoteza nulă că aj = 0 {\ displaystyle a_ {j} = 0} este respinsă, atunci ipoteza alternativă că aj ≠ 0 {\ displaystyle a_ {j} \ neq 0} și echivalent că xj {\ displaystyle x_ {j }} cauzele y nu pot fi respinse. Pe de altă parte, dacă ipoteza nulă că aj = 0 {\ displaystyle a_ {j} = 0} nu poate fi respinsă, atunci în mod echivalent ipoteza fără efect cauzal al xj {\ displaystyle x_ {j}} pe y nu poate fi respinsă . Aici noțiunea de cauzalitate este una de cauzalitate contributivă: Dacă valoarea adevărată aj ≠ 0 {\ displaystyle a_ {j} \ neq 0}, atunci o modificare în xj {\ displaystyle x_ {j}} va avea ca rezultat o schimbare în y cu excepția cazului în care alte variabile variabile cauzale, fie incluse în regresie, fie implicite în termenul de eroare, se schimbă în așa fel încât să compenseze exact efectul acesteia; astfel, o modificare în x j {\ displaystyle x_ {j}} nu este suficientă pentru a schimba y. La fel, o modificare a xj {\ displaystyle x_ {j}} nu este necesară pentru a schimba y, deoarece o schimbare în y ar putea fi cauzată de ceva implicit în termenul de eroare (sau de o altă variabilă explicativă cauzală inclusă în model).

Controalele analizei de regresie pentru alte variabile relevante, incluzându-le ca regresori (variabile explicative). Acest lucru ajută la evitarea inferenței greșite a cauzalității datorită prezenței unei a treia variabile subiacente care influențează atât variabila potențial cauzală, cât și variabila potențial cauzată: efectul său asupra variabilei potențial cauzate este captat prin includerea sa directă în regresie, deci acel efect nu va fi preluat ca un efect fals al variabilei potențial cauzale a interesului. În plus, utilizarea regresiei multivariate ajută la evitarea greșită a deducerii că un efect indirect al, să zicem x1 (de exemplu, x1 → x2 → y) este un efect direct (x1 → y).

La fel ca un experimentatorul trebuie să aibă grijă să folosească un design experimental care să controleze fiecare factor de confuzie, așa că, de asemenea, utilizatorul regresiei multiple trebuie să fie atent să controleze toți factorii de confuzie, incluzându-i printre regresori.Dacă un factor de confuzie este omis din regresie, efectul său este captat în mod implicit în termenul de eroare și dacă termenul de eroare rezultat este corelat cu unul (sau mai mulți) dintre regresorii incluși, atunci regresia estimată poate fi influențată sau inconsecventă ( vezi polarizarea variabilelor omise).

În plus față de analiza de regresie, datele pot fi examinate pentru a determina dacă există cauzalitatea Granger. Prezența cauzalității Granger indică atât faptul că x precedă y, cât și că x conține informații unice despre y.

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *