Termen ”falskt förhållande” används vanligtvis i statistik och i synnerhet i experimentella forskningstekniker, som båda försöker förstå och förutsäga direkta kausala förhållanden (X → Y). En icke-kausal korrelation kan falskt skapas av en antecedent som orsakar båda (W → X och W → Y). Medierande variabler, (X → W → Y), om de inte upptäcks, uppskattar en total effekt snarare än direkt effekt utan justering för den medierande variabeln M. På grund av detta representerar experimentellt identifierade korrelationer inte orsakssambanden såvida inte falska förhållanden kan uteslutas.
ExperimentEdit
I experiment kan falska förhållanden ofta identifieras genom att kontrollera för andra faktorer, inklusive de som teoretiskt har identifierats som möjliga förvirrande faktorer. Tänk till exempel på en forskare som försöker avgöra om ett nytt läkemedel dödar bakterier; när forskaren applicerar läkemedlet på en bakteriekultur, dör bakterierna. Men för att hjälpa till att utesluta närvaron av en förvirrande variabel utsätts en annan kultur för förhållanden som är nästan identiska med dem som står inför den förstnämnda kulturen, men den andra kulturen utsätts inte för läkemedlet. Om det finns en osynlig förvirrande faktor under dessa förhållanden kommer denna kontrollkultur att dö också, så att ingen slutsats av läkemedlets effektivitet kan dras från resultaten från den första kulturen. Å andra sidan, om kontrollkulturen inte dör, kan forskaren inte avvisa hypotesen att läkemedlet är effektivt.
Icke-experimentella statistiska analyser Redigera
Discipliner vars data mestadels är icke-experimentell, såsom ekonomi, använder vanligtvis observationsdata för att fastställa orsakssamband. Sammanfattningen av statistiska tekniker som används i ekonomi kallas ekonometri. Den viktigaste statistiska metoden i ekonometri är multivariabel regressionsanalys. Vanligtvis ett linjärt förhållande som
y = a 0 + a 1 x 1 + a 2 x 2 + ⋯ + akxk + e {\ displaystyle y = a_ {0} + a_ {1} x_ {1} + a_ {2} x_ {2} + \ cdots + a_ {k} x_ {k} + e}
är hypotes, där y {\ displaystyle y} är den beroende variabeln (antas vara den orsakade variabeln), xj {\ displaystyle x_ {j}} för j = 1, …, k är den j: te oberoende variabeln (antas vara en orsakande variabel), och e {\ displaystyle e} är feluttrycket (som innehåller de kombinerade effekterna av alla andra orsaksvariabler, som måste vara okorrelerade med de inkluderade oberoende variablerna). Om det finns anledning att tro att ingen av x j {\ displaystyle x_ {j}} orsakas av y, erhålls uppskattningar av koefficienterna a j {\ displaystyle a_ {j}}. Om nollhypotesen att aj = 0 {\ displaystyle a_ {j} = 0} avvisas, är den alternativa hypotesen att aj ≠ 0 {\ displaystyle a_ {j} \ neq 0} och motsvarande att xj {\ displaystyle x_ {j }} orsakar att y inte kan avvisas. Å andra sidan, om nollhypotesen att aj = 0 {\ displaystyle a_ {j} = 0} inte kan avvisas, kan hypotesen om ingen kausal effekt av xj {\ displaystyle x_ {j}} på motsvarande sätt inte avvisas . Här är begreppet kausalitet en bidragande orsakssamband: Om det sanna värdet aj ≠ 0 {\ displaystyle a_ {j} \ neq 0}, kommer en förändring i xj {\ displaystyle x_ {j}} att resultera i en förändring i y såvida inte någon annan orsakande variabel (er), antingen inkluderade i regressionen eller implicit i feltermen, ändras på ett sådant sätt att den exakt kompenserar dess effekt; en ändring i x j {\ displaystyle x_ {j}} är därför inte tillräcklig för att ändra y. På samma sätt är en förändring i xj {\ displaystyle x_ {j}} inte nödvändig för att ändra y, eftersom en förändring i y kan orsakas av något implicit i feltermen (eller av någon annan orsakande förklarande variabel som ingår i modellen).
Regressionsanalys kontrollerar andra relevanta variabler genom att inkludera dem som regressorer (förklarande variabler). Detta hjälper till att undvika felaktig slutsats av kausalitet på grund av närvaron av en tredje, underliggande, variabel som påverkar både den potentiellt orsakande variabeln och den potentiellt orsakade variabeln: dess effekt på den potentiellt orsakade variabeln fångas genom att inkludera den direkt i regressionen, så den effekten kommer inte att plockas upp som en falsk effekt av den potentiellt orsakande variabeln av intresse. Dessutom hjälper användningen av multivariat regression att undvika felaktiga slutsatser om att en indirekt effekt av, säg x1 (t.ex. x1 → x2 → y) är en direkt effekt (x1 → y).
Precis som en experimenter måste vara försiktig med att använda en experimentell design som styr för varje förvirrande faktor, så måste också användaren av multipel regression vara noga med att kontrollera för alla förvirrande faktorer genom att inkludera dem bland regressorerna.Om en förvirrande faktor utelämnas från regressionen, fångas dess effekt som standard i feltermen, och om den resulterande felperioden är korrelerad med en (eller flera) av de inkluderade regressorerna, kan den uppskattade regressionen vara partisk eller inkonsekvent ( se utelämnad variabel bias).
Förutom regressionsanalys kan data undersökas för att avgöra om Granger-kausalitet finns. Närvaron av Granger-kausalitet indikerar både att x föregår y och att x innehåller unik information om y.