Was lerne ich hier?
Dieses Tool zeigt,
warum ein lineares Modell (LM) für bestimmte Datentypen
strukturell falsch ist — und wie ein GLM mit passender Verteilung das Problem löst.
- Was passiert, wenn man die falsche Likelihood wählt?
- Was ist eine Linkfunktion — und wozu braucht man sie?
- Wie wählt man die richtige Verteilungsfamilie?
Die drei Szenarien
- Binäre Daten (0/1): Das LM kann Wahrscheinlichkeiten < 0 oder
> 1 vorhersagen. GLM mit Bernoulli + Logit-Link hält Vorhersagen in (0,1).
- Zähldaten (0, 1, 2, …): Das LM kann negative Vorhersagen liefern.
GLM mit Poisson + Log-Link garantiert positive Erwartungswerte.
- Positive, schiefe Daten: Die Normalverteilungsannahme des LM
passt nicht. Gamma-GLM mit Log-Link modelliert die Rechtsschiefi korrekt.
Linkfunktion — kurz erklärt
Der lineare Prädiktor η = a + b·x kann jeden Wert annehmen (−∞ bis +∞).
Viele Outcomes haben aber einen eingeschränkten Wertebereich:
Logit-Link (Bernoulli):
log(p/(1-p)) = η →
jedes η ergibt ein p ∈ (0,1)
Log-Link (Poisson, Gamma):
log(λ) = η →
λ = e^η ist immer positiv
Identität (Normal):
E[y] = η — das klassische LM
AIC-Vergleich lesen
ΔAIC = AIC(LM) − AIC(GLM) — je größer, desto schlechter das LM.
Faustregeln: < 2 = kaum Unterschied · 2–10 = moderater Vorteil · > 10 = LM klar ungeeignet.
Wichtig: Beide Modelle werden mit
derselben Likelihood bewertet — fairer Vergleich.
Warum das für Bayes wichtig ist
Die Wahl der Likelihood ist in Bayes genauso zentral wie in MLE.
Ein Bayes-Modell besteht aus
Likelihood × Prior — wählt man die falsche
Likelihood (z.B. Normal für 0/1-Daten), ist das Modell strukturell falsch,
egal wie gut der Prior ist.
Weiter → GLM Bedingte Verteilungen: wie GLMs
für jeden x-Wert eine eigene Verteilung modellieren