Termiä ”väärä suhde” käytetään yleisesti tilastoissa ja erityisesti kokeellisissa tutkimustekniikoissa, jotka molemmat yrittävät ymmärtää ja ennustaa suoria syy-suhteita (X → Y). Ei-kausaalinen korrelaatio voidaan luoda väärin ennakkotapaus, joka aiheuttaa molemmat (W → X ja W → Y). Välittävät muuttujat (X → W → Y), jos niitä ei havaita, arvioivat kokonaisvaikutuksen pikemminkin kuin välittömän vaikutuksen säätämättä välittäjämuuttujaa M. Tämän vuoksi kokeellisesti tunnistetut korrelaatiot eivät edusta syy-yhteyttä, elleivät väärät suhteet voida sulkea pois.
ExperimentsEdit
Kokeissa väärät suhteet voidaan usein tunnistaa hallitsemalla muita tekijöitä, mukaan lukien ne, jotka on teoreettisesti tunnistettu mahdollisiksi sekoittaviksi tekijöiksi. Harkitse esimerkiksi tutkijaa, joka yrittää selvittää, tappaaako uusi lääke bakteereja; kun tutkija levittää lääkettä bakteeriviljelmään, bakteerit kuolevat. Mutta sekoittavan muuttujan läsnäolon estämiseksi toinen viljelmä altistuu olosuhteille, jotka ovat mahdollisimman identtiset kuin ensin mainitun viljelmän kohdalla olevat, mutta toiselle viljelmälle ei altisteta lääkettä. Jos näissä olosuhteissa on näkymätön sekoittava tekijä, myös tämä kontrolliviljelmä kuolee, joten ensimmäisen viljelmän tuloksista ei voida tehdä johtopäätöksiä lääkkeen tehosta. Toisaalta, jos kontrolliviljelmä ei kuole, tutkija ei voi hylätä hypoteesia lääkkeen tehokkuudesta.
Ei-kokeelliset tilastolliset analyysitMuokkaa
Tieteenalat, joiden tiedot ovat enimmäkseen ei-kokeelliset, kuten taloustiede, käyttävät yleensä havainnointitietoja syy-yhteyksien luomiseen. Taloustieteessä käytettyjen tilastollisten tekniikoiden kokonaisuutta kutsutaan ekonometriaksi. Tärkein tilastollinen menetelmä ekonometriassa on monivaihteleva regressioanalyysi. Tyypillisesti lineaarinen suhde, kuten
y = a 0 + a 1 x 1 + a 2 x 2 + ⋯ + akxk + e {\ displaystyle y = a_ {0} + a_ {1} x_ {1} + a_ Oletetaan {2} x_ {2} + \ cdots + a_ {k} x_ {k} + e}
, jossa y {\ displaystyle y} on riippuva muuttuja (oletetaan olevan aiheuttama muuttuja), xj {\ displaystyle x_ {j}} j = 1, …, k on j. riippumaton muuttuja (oletetaan olevan kausaalinen muuttuja), ja e {\ displaystyle e} on virhetermi (joka sisältää kaikkien muut syy-muuttujat, joita ei tarvitse korreloida mukana olevien riippumattomien muuttujien kanssa). Jos on syytä uskoa, että mikään x j {\ displaystyle x_ {j}} – ta ei johdu y: stä, saadaan arviot kertoimista a j {\ displaystyle a_ {j}}. Jos null-hypoteesi, että aj = 0 {\ displaystyle a_ {j} = 0} hylätään, vaihtoehtoinen hypoteesi, että aj ≠ 0 {\ displaystyle a_ {j} \ neq 0} ja vastaavasti, että xj {\ displaystyle x_ {j }} aiheuttaa y: n hylkäämisen. Toisaalta, jos nollahypoteesia, jonka mukaan aj = 0 {\ displaystyle a_ {j} = 0}, ei voida hylätä, vastaavasti hypoteesia, jonka mukaan xj {\ displaystyle x_ {j}} ei aiheuta kausaalista vaikutusta y: hen, ei voida hylätä . Tällöin kausaalisuuden käsite on myötävaikuttava syy-yhteys: Jos todellinen arvo aj ≠ 0 {\ displaystyle a_ {j} \ neq 0}, niin muutos xj {\ displaystyle x_ {j}} johtaa muutokseen y ellei jokin muu syy-muuttuja, joko regressioon sisällytetty tai implisiittinen virhetermissä, muutu tavalla, joka kompensoi tarkalleen sen vaikutuksen; joten muutos x j {\ displaystyle x_ {j}} ei riitä muuttamaan y: tä. Samoin muutos xj {\ displaystyle x_ {j}} ei ole välttämätön y: n muuttamiseksi, koska y: n muutoksen voi aiheuttaa jokin virhetermiin sisältyvä implisiitti (tai jokin muu malliin sisältyvä syy-selittävä muuttuja).
Regressioanalyysi hallitsee muita asiaankuuluvia muuttujia sisällyttämällä ne regressoreiksi (selittävät muuttujat). Tämä auttaa välttämään syy-yhteyden virheellistä päättelemistä, joka johtuu kolmannesta, taustalla olevasta muuttujasta, joka vaikuttaa sekä potentiaaliseen kausaaliseen muuttujaan että mahdollisesti aiheuttamaan muuttujaan: sen vaikutus mahdollisesti aiheuttamaan muuttujaan kaapataan sisällyttämällä se suoraan regressioon, joten tätä vaikutusta ei pidetä kiinnostavan potentiaalisen kausaalisen muuttujan vääränä vaikutuksena. Lisäksi monimuuttujan regressiolla voidaan välttää virheellinen päätelmä siitä, että esimerkiksi x1: n epäsuora vaikutus (esim. X1 → x2 → y) on suora vaikutus (x1 → y).
Aivan kuten kokeilijan on oltava varovainen käyttääkseen kokeellista suunnittelua, joka kontrolloi kaikkia häiritseviä tekijöitä, joten myös moniregressioiden käyttäjän on oltava varovaisia kontrolloimaan kaikkia häiritseviä tekijöitä sisällyttämällä ne regresorien joukkoon.Jos häiritsevä tekijä jätetään pois regressiosta, sen vaikutus siepataan oletusarvoisesti virhetermiin ja jos tuloksena oleva virhetermi korreloi yhden (tai useamman) mukana olevien regresorien kanssa, arvioitu regressio voi olla puolueellinen tai epäjohdonmukainen ( katso pois jätetty muuttujan puolueellisuus).
Regressioanalyysin lisäksi tietoja voidaan tutkia sen selvittämiseksi, onko Grangerin syy-yhteys olemassa. Grangerin syy-seuraus osoittaa sekä, että x edeltää y: tä, että että x sisältää ainutlaatuista tietoa y: stä.