Was ist die Methode der kleinsten Quadrate?
Die Methode der kleinsten Quadrate ist eine Form der mathematischen Regressionsanalyse, mit der die am besten passende Linie für einen Datensatz ermittelt wird, um die Beziehung zwischen den Datenpunkten visuell zu demonstrieren. Jeder Datenpunkt repräsentiert die Beziehung zwischen einer bekannten unabhängigen Variablen und einer unbekannten abhängigen Variablen.
Was sagt Ihnen die Methode der kleinsten Quadrate?
Die Methode der kleinsten Quadrate liefert die allgemeine Begründung für die Platzierung der Linie der besten Anpassung unter den untersuchten Datenpunkten. Die gebräuchlichste Anwendung dieser Methode, die manchmal als „linear“ oder „gewöhnlich“ bezeichnet wird, zielt darauf ab, eine gerade Linie zu erzeugen, die die Summe der Quadrate der Fehler minimiert, die durch die Ergebnisse der zugehörigen Gleichungen erzeugt werden, wie z als quadratische Residuen, die sich aus Unterschieden im beobachteten Wert und dem erwarteten Wert ergeben, basierend auf diesem Modell.
Diese Methode der Regressionsanalyse beginnt mit einer Reihe von Datenpunkten Auf einem Diagramm der x- und y-Achse aufgetragen. Ein Analyst, der die Methode der kleinsten Quadrate verwendet, generiert eine Linie der besten Anpassung, die die mögliche Beziehung zwischen unabhängigen und abhängigen Variablen erklärt.
Bei der Regressionsanalyse werden abhängige Variablen in der Vertikalen dargestellt y-Achse, während unabhängige Variablen auf der horizontalen x-Achse dargestellt sind. Diese Bezeichnungen bilden die Gleichung für die Linie der besten Anpassung, die nach der Methode der kleinsten Quadrate bestimmt wird.
Im Gegensatz zu einem linearen Problem, einem nichtlinearen Problem der kleinsten Quadrate hat keine geschlossene Lösung und wird im Allgemeinen durch Iteration gelöst. Die Entdeckung der Methode der kleinsten Quadrate wird Carl Friedrich Gauss zugeschrieben, der die Methode 1795 entdeckte.
Key Takeaways
- Die Methode der kleinsten Quadrate ist ein statistisches Verfahren, um die beste Anpassung für einen Satz von Datenpunkten zu finden, indem die Summe der Offsets oder Residuen von Punkten aus der gezeichneten Kurve minimiert wird.
- Kleinste Quadrate Regression wird verwendet, um das Verhalten abhängiger Variablen vorherzusagen.
Beispiel für die Methode der kleinsten Quadrate
Ein Beispiel für Die Methode der kleinsten Quadrate ist ein Analyst, der die Beziehung zwischen den Aktienrenditen eines Unternehmens und den Renditen des Index testen möchte, für den die Aktie eine Komponente ist. In diesem Beispiel versucht der Analyst, die Abhängigkeit der Aktienrenditen von den Indexrenditen zu testen. Um dies zu erreichen, werden alle Renditen in einem Diagramm dargestellt. Die Indexrenditen werden dann als unabhängige Variable bezeichnet, und die Aktienrenditen sind die abhängige Variable. Die Linie der besten Anpassung liefert dem Analytiker Koeffizienten, die den Grad der Abhängigkeit erklären.
Die Linie der Best-Fit-Gleichung
Die Linie der besten Anpassung, aus der bestimmt wird Die Methode der kleinsten Quadrate hat eine Gleichung, die die Geschichte der Beziehung zwischen den Datenpunkten erzählt. Die Linie der Best-Fit-Gleichungen kann durch Computersoftwaremodelle bestimmt werden, die eine Zusammenfassung der zu analysierenden Ausgaben enthalten, wobei die Koeffizienten und zusammenfassenden Ausgaben die Abhängigkeit der getesteten Variablen erklären.
Regressionslinie der kleinsten Quadrate
Wenn die Daten eine schlankere Beziehung zwischen zwei Variablen aufweisen, wird die Linie, die am besten zu dieser linearen Beziehung passt, als Regressionslinie der kleinsten Quadrate bezeichnet, wodurch der vertikale Abstand von den Datenpunkten zu minimiert wird die Regressionslinie. Der Begriff „kleinste Quadrate“ wird verwendet, da es sich um die kleinste Summe von Fehlerquadraten handelt, die auch als „Varianz“ bezeichnet wird.