Was lerne ich hier?
Wenn Daten eine
Gruppenstruktur haben (Personen, Schulen, Kliniken),
sind einfache Regressionen problematisch — Beobachtungen innerhalb einer Gruppe
sind nicht unabhängig. Mixed Models lösen das durch
Random Effects:
jede Gruppe bekommt einen eigenen Intercept u₀ⱼ, der aus einer gemeinsamen
Verteilung N(0, τ₀) stammt.
Empfohlene Erkundung
- Mit Partial Pooling starten — das ist das LMM/GLMM
- No Pooling vs. Complete Pooling vergleichen — wo divergieren die Linien?
- τ₀ (Random-Effect-SD) variieren — ab wann ist Shrinkage sichtbar?
- ⚡ Ausreißer-Gruppe zuschalten — wie reagiert jede Pooling-Strategie?
- Anzahl der Gruppen J und Gruppengrößen n_j variieren — wie verändert sich das Shrinkage?
- AIC/BIC in den Modellergebnissen vergleichen — wann schneidet Partial Pooling besser ab als No/Complete Pooling?
- ⚠ Simpson-Preset laden und Complete Pooling beobachten — warum ist Partial Pooling hier unverzichtbar?
Die wichtigsten Panels
Gruppenlinien: Fixed Effect (γ₀₀ + γ₁₀·x) + gruppenspezifische
Abweichung u₀ⱼ — Partial Pooling schrupft alle Linien zum Grand Mean
Shrinkage-Diagramm: No-Pooling-Schätzung → Partial-Pooling-Schätzung;
Pfeile zeigen die Zugkraft. Gruppen mit kleinem n werden stärker gezogen.
ICC-Balken: τ₀²/(τ₀²+σ²) — Anteil der Varianz zwischen Gruppen.
ICC > 0.05 signalisiert, dass ein Mixed Model nötig ist.
Simpson-Warnung: erscheint, wenn Complete Pooling die Richtung
des Slopes umkehrt — das klassische Simpson's Paradoxon.
GLM-Familien
Gaussian: stetige Daten — klassisches LMM
Poisson: Zähldaten (0,1,2,…) — Log-Link
Gamma: positive stetige Daten — Log-Link
Logistisch: 0/1-Daten — Logit-Link