OLS vs MLE
Często próbujemy zniknąć, gdy temat dotyczy statystyki. Dla niektórych radzenie sobie ze statystykami jest przerażającym doświadczeniem. Nienawidzimy liczb, linii i wykresów. Niemniej jednak musimy zmierzyć się z tą wielką przeszkodą, aby zakończyć naukę. Jeśli nie, Twoja przyszłość byłaby ciemna. Bez nadziei i bez światła. Aby móc przekazywać statystyki, często spotykamy OLS i MLE. „OLS” oznacza „zwykłe najmniejsze kwadraty”, podczas gdy „MLE” oznacza „oszacowanie maksymalnego prawdopodobieństwa”. Zazwyczaj te dwa terminy statystyczne są ze sobą powiązane. Dowiedzmy się o różnicach między zwykłymi oszacowaniami najmniejszych kwadratów i maksymalnego prawdopodobieństwa.
Zwykłe najmniejsze kwadraty lub OLS można również nazwać liniowymi najmniejszymi kwadratami. Jest to metoda przybliżonego określania nieznanych parametrów zlokalizowanych w modelu regresji liniowej. Zgodnie z księgami statystycznymi i innymi źródłami online zwykłe najmniejsze kwadraty uzyskuje się przez zminimalizowanie całkowitej kwadratowej odległości pionowej między obserwowanymi odpowiedziami w zestawie danych a odpowiedziami przewidywanymi przez przybliżenie liniowe. Za pomocą prostej formuły można wyrazić wynikowy estymator, zwłaszcza pojedynczy regresor, umieszczony po prawej stronie modelu regresji liniowej.
Na przykład masz zestaw równań, który składa się z kilku równań o nieznanych parametrach. Możesz użyć zwykłej metody najmniejszych kwadratów, ponieważ jest to najbardziej standardowe podejście do znalezienia przybliżonego rozwiązania dla zbyt zdeterminowanych systemów. Innymi słowy, jest to twoje ogólne rozwiązanie w minimalizowaniu sumy kwadratów błędów w twoim równaniu. Dopasowywanie danych może być najbardziej odpowiednią aplikacją. Źródła internetowe stwierdzają, że dane, które najlepiej pasują do zwykłych najmniejszych kwadratów, minimalizują sumę kwadratów reszt. „Resztkowa” to „różnica między wartością obserwowaną a dopasowaną wartością dostarczoną przez model”.
Szacowanie maksymalnego prawdopodobieństwa (MLE) jest metodą stosowaną do szacowania parametrów modelu statystycznego i do dopasowywania modelu statystycznego do danych. Jeśli chcesz znaleźć pomiar wysokości każdego koszykarza w określonej lokalizacji, możesz użyć oszacowania maksymalnego prawdopodobieństwa. Zwykle występują problemy, takie jak koszty i ograniczenia czasowe. Jeśli nie możesz sobie pozwolić na zmierzenie wszystkich wysokości koszykarzy, oszacowanie maksymalnego prawdopodobieństwa byłoby bardzo przydatne. Korzystając z oszacowania maksymalnego prawdopodobieństwa, możesz oszacować średnią i wariancję wzrostu swoich pacjentów. MLE ustawiłby średnią i wariancję jako parametry przy określaniu konkretnych wartości parametrycznych w danym modelu.
Podsumowując, oszacowanie maksymalnego prawdopodobieństwa obejmuje zestaw parametrów, które można wykorzystać do przewidywania danych potrzebnych w rozkładzie normalnym. Dany, ustalony zestaw danych i jego model prawdopodobieństwa prawdopodobnie wygenerowałyby przewidywane dane. MLE dałby nam jednolite podejście, jeśli chodzi o oszacowanie. Ale w niektórych przypadkach nie możemy zastosować oszacowania maksymalnego prawdopodobieństwa z powodu wykrytych błędów lub problem w rzeczywistości nawet nie istnieje.
Więcej informacji na temat OLS i MLE można znaleźć w książkach statystycznych, aby uzyskać więcej przykładów. Encyklopedia internetowa Strony internetowe są również dobrym źródłem dodatkowych informacji.
Streszczenie:
„OLS” oznacza „zwykłe najmniejsze kwadraty”, podczas gdy „MLE” oznacza „oszacowanie maksymalnego prawdopodobieństwa”.
Zwykłe najmniejsze kwadraty lub OLS można również nazwać liniowymi najmniejszymi kwadratami. Jest to metoda przybliżonego określania nieznanych parametrów zlokalizowanych w modelu regresji liniowej.
Oszacowanie maksymalnego prawdopodobieństwa (MLE) jest metodą stosowaną do oszacowania parametrów modelu statystycznego i dopasowania modelu statystycznego do danych.