Was lerne ich hier?
Dieses Tool erklärt
Maximum Likelihood Estimation (MLE) — einen der
wichtigsten Schätzmechanismen der Statistik. Und es macht einen entscheidenden
Unterschied klar:
Likelihood ist nicht Wahrscheinlichkeit.
- Was ist Likelihood — und warum ist sie eine Funktion des Parameters, nicht der Daten?
- Wie entsteht eine Likelihood-Landschaft und wo liegt ihr Gipfel?
- Warum rechnet man mit Log-Likelihood statt Likelihood?
- Wie funktioniert MLE für Poisson und Bernoulli — nicht nur Normalverteilung?
Die drei Stufen
- Stufe 1 — Ein Datenpunkt: Schiebe die Verteilung über den festen Datenpunkt.
Beobachte, wie der Dichtewert am Datenpunkt (= Likelihood) sich verändert.
Der Gipfel zeigt: MLE = μ̂ = y.
- Stufe 2 — Viele Daten: Gesamtlikelihood = Produkt der Einzeldichten
(= Summe der Log-Dichten). Rechts: die Log-Likelihood-Landschaft über μ.
Tipp: „Auch σ variieren" aktivieren für die 2D-Heatmap.
- Stufe 3 — Andere Familien: MLE mit Poisson (Zähldaten) und Bernoulli (0/1).
Gleiches Prinzip, andere Formel. AIC/BIC ermöglichen Vergleich zwischen Familien.
Likelihood ≠ Wahrscheinlichkeit
Wahrscheinlichkeit: Parameter fix → wie wahrscheinlich sind diese Daten?
Likelihood: Daten fix, beobachtet → wie plausibel ist dieser Parameter?
Die Likelihood ist
keine Wahrscheinlichkeitsverteilung über den Parameter —
sie integriert nicht zu 1. Erst ein Prior macht daraus einen Posterior (Bayes-Theorem).
Warum das für Bayes wichtig ist
MLE liefert den plausibelsten Parameter ohne Prior-Information.
Bayesianische Schätzung gewichtet diese Likelihood mit einem Prior:
Posterior ∝ Likelihood × Prior.
Mit flachem Prior → Posterior-Modus ≈ MLE.
Das macht MLE zum konzeptuellen Fundament für alles Weitere.
Danach → Vom LM zum GLM: Linkfunktionen und
warum GLMs dieselbe MLE-Logik auf andere Verteilungen anwenden