Definicja metody najmniejszych kwadratów


Co to jest metoda najmniejszych kwadratów?

Metoda „najmniejszych kwadratów” jest formą analizy regresji matematycznej używaną do określenia linii najlepszego dopasowania dla zbioru danych, zapewniając wizualną demonstrację zależności między punktami danych. Każdy punkt danych przedstawia relację między znaną zmienną niezależną a nieznaną zmienną zależną.

Co mówi metoda najmniejszych kwadratów?

Metoda najmniejszych kwadratów zapewnia ogólne uzasadnienie dla umieszczenia linii najlepszego dopasowania wśród badanych punktów danych. Najpowszechniejsze zastosowanie tej metody, czasami określane jako „liniowa” lub „zwykła”, ma na celu utworzenie prostej, która minimalizuje sumę kwadratów błędów, które są generowane przez wyniki skojarzonych równań, takich jak jako podniesione do kwadratu reszty wynikające z różnic w wartości obserwowanej i wartości oczekiwanej na podstawie tego modelu.

Ta metoda analizy regresji rozpoczyna się od zbioru punktów danych, które mają być wykreślone na wykresie osi X i Y. Analityk korzystający z metody najmniejszych kwadratów wygeneruje linię najlepszego dopasowania, która wyjaśnia potencjalny związek między zmiennymi niezależnymi i zależnymi.

W analizie regresji zmienne zależne są przedstawiane w pionie oś y, podczas gdy zmienne niezależne są przedstawione na poziomej osi x. Oznaczenia te utworzą równanie dla linii najlepszego dopasowania, która jest określana metodą najmniejszych kwadratów.

W przeciwieństwie do problemu liniowego, nieliniowy problem najmniejszych kwadratów nie ma zamkniętego rozwiązania i zazwyczaj jest rozwiązywany przez iterację. Odkrycie metody najmniejszych kwadratów przypisuje się Carlowi Friedrichowi Gaussowi, który odkrył tę metodę w 1795 roku.

Kluczowe wnioski

  • Metoda najmniejszych kwadratów to procedura statystyczna mająca na celu znalezienie najlepszego dopasowania dla zestawu punktów danych poprzez minimalizację sumy przesunięć lub reszt punktów z wykreślonej krzywej.
  • Najmniejsze kwadraty regresja służy do przewidywania zachowania zmiennych zależnych.

Przykład metody najmniejszych kwadratów

Przykład metodą najmniejszych kwadratów jest analityk, który chce przetestować związek między zwrotami z akcji spółki a zwrotami indeksu, którego składnikiem jest dana akcja. W tym przykładzie analityk próbuje sprawdzić zależność stóp zwrotu z akcji od stóp zwrotu z indeksu. Aby to osiągnąć, wszystkie zwroty są wykreślane na wykresie. Zwroty indeksu są następnie określane jako zmienna niezależna, a zwroty akcji są zmienną zależną. Linia najlepszego dopasowania dostarcza analitykowi współczynników wyjaśniających poziom zależności.

Linia równania najlepszego dopasowania

Linia najlepszego dopasowania określona na podstawie metoda najmniejszych kwadratów ma równanie, które opowiada historię relacji między punktami danych. Linia równań najlepszego dopasowania może być określona przez modele oprogramowania komputerowego, które zawierają podsumowanie wyników do analizy, gdzie współczynniki i podsumowanie wyników wyjaśniają zależność testowanych zmiennych.

Linia regresji metodą najmniejszych kwadratów

Jeśli dane pokazują mniejszą zależność między dwiema zmiennymi, linia, która najlepiej pasuje do tej liniowej zależności, nazywana jest linią regresji metodą najmniejszych kwadratów, która minimalizuje pionową odległość od punktów danych do linia regresji. Termin „najmniejsze kwadraty” jest używany, ponieważ jest to najmniejsza suma kwadratów błędów, nazywana również „wariancją”.

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *