Unterschiede zwischen OLS und MLE
- 584
- 57
- Hugo Poehn
OLS gegen MLE
Wir versuchen oft zu verschwinden, wenn es um Statistiken geht. Für einige ist der Umgang mit Statistiken wie eine schreckliche Erfahrung. Wir hassen die Zahlen, die Zeilen und die Grafiken. Trotzdem müssen wir uns diesem großen Hindernis stellen, um die Schule zu beenden. Wenn nicht, wäre Ihre Zukunft dunkel. Keine Hoffnung und kein Licht. Um Statistiken bestehen zu können, begegnen wir oft OLS und MLE. "OLS" steht für "gewöhnliche kleinste Quadrate", während "MLE" für "maximale Wahrscheinlichkeitsschätzung" steht.Normalerweise hängen diese beiden statistischen Begriffe miteinander zusammen. Lassen Sie uns die Unterschiede zwischen gewöhnlichen kleinsten Quadraten und maximalen Wahrscheinlichkeitsschätzungen kennenlernen.
Die gewöhnlichen kleinsten Quadrate oder OLs können auch als lineare kleinste Quadrate bezeichnet werden. Dies ist eine Methode, um die unbekannten Parameter in einem linearen Regressionsmodell zu bestimmen. Nach statistischen Büchern und anderen Online -Quellen werden die gewöhnlichen kleinsten Quadrate erhalten, indem die Gesamtzahl der quadratischen vertikalen Abstände zwischen den beobachteten Antworten innerhalb des Datensatzes und den Antworten, die durch die lineare Näherung vorhergesagt wurden. Durch eine einfache Formel können Sie den resultierenden Schätzer ausdrücken, insbesondere den einzelnen Regressor, der sich auf der rechten Seite des linearen Regressionsmodells befindet.
Zum Beispiel haben Sie eine Reihe von Gleichungen, die aus mehreren Gleichungen bestehen, die unbekannte Parameter haben. Sie können die gewöhnliche Methode mit den kleinsten Quadräten verwenden, da dies der Standardansatz ist, um die ungefähre Lösung für Ihre übermäßig bestimmten Systeme zu finden. Mit anderen Worten, es ist Ihre allgemeine Lösung bei der Minimierung der Summe der Fehlerquadrate in Ihrer Gleichung. Datenanpassung können Ihre am besten geeignete Anwendung sein. Online -Quellen haben angegeben, dass die Daten, die am besten zu den gewöhnlichen kleinsten Quadraten passt, die Summe der quadratischen Residuen minimiert. "Residual" ist "die Differenz zwischen einem beobachteten Wert und dem von einem Modell bereitgestellten Anpassungswert.”
Die maximale Wahrscheinlichkeitsschätzung oder MLE ist eine Methode zur Schätzung der Parameter eines statistischen Modells und zur Anpassung eines statistischen Modells an Daten. Wenn Sie die Höhenmessung jedes Basketballspieler an einem bestimmten Ort finden möchten, können Sie die maximale Wahrscheinlichkeitsschätzung verwenden. Normalerweise würden Sie auf Probleme wie Kosten und Zeitbeschränkungen stoßen. Wenn Sie es sich nicht leisten konnten, alle Höhen der Basketballspieler zu messen, wäre die maximale Wahrscheinlichkeitsschätzung sehr praktisch. Mit der maximalen Wahrscheinlichkeitsschätzung können Sie den Mittelwert und die Varianz der Höhe Ihrer Probanden schätzen. Der MLE würde den Mittelwert und die Varianz als Parameter bei der Bestimmung der spezifischen parametrischen Werte in einem gegebenen Modell festlegen.
Zusammenfassend lässt sich sagen. Eine gegebene, feste Datenmenge und sein Wahrscheinlichkeitsmodell würden wahrscheinlich die vorhergesagten Daten erzeugen. Der MLE würde uns einen einheitlichen Ansatz geben, wenn es um die Schätzung geht. In einigen Fällen können wir jedoch nicht die maximale Wahrscheinlichkeitsschätzung verwenden, da anerkannte Fehler oder das Problem in der Realität nicht einmal existieren.
Weitere Informationen zu OLS und MLE finden Sie in statistischen Büchern, um weitere Beispiele zu erhalten. Online -Enzyklopädie -Websites sind auch gute Quellen für zusätzliche Informationen.
Zusammenfassung:
-
"OLS" steht für "gewöhnliche kleinste Quadrate", während "MLE" für "maximale Wahrscheinlichkeitsschätzung" steht.”
-
Die gewöhnlichen kleinsten Quadrate oder OLs können auch als lineare kleinste Quadrate bezeichnet werden. Dies ist eine Methode, um die unbekannten Parameter in einem linearen Regressionsmodell zu bestimmen.
-
Die maximale Wahrscheinlichkeitsschätzung oder MLE ist eine Methode zur Schätzung der Parameter eines statistischen Modells und zur Anpassung eines statistischen Modells an Daten.
- « Unterschiede zwischen Pfingsten und dem jüdischen Wochenfest
- Unterschiede zwischen einem Dozer und einem Lader »