Was lerne ich hier?
Der vollständige Bayes-Zyklus für eine lineare Regression:
Prior → Likelihood → Posterior. Du steuerst die wahren
Parameter
und die Prior-Annahmen — und siehst sofort, wie beides
den Posterior formt.
Das Modell
α ~ N(μ_α, σ_α) · β ~ N(μ_β, σ_β) · σ ~ HalfNormal(s_σ)
y ~ N(α + β·x, σ) — die Likelihood
Linke Sidebar:
wahre Parameter (simulieren die Daten) ·
Priors (deine Vorannahmen über α, β, σ)
Die fünf Panels
- Kruschke-Diagramm — generative Modellstruktur: Hyperpriors → Priors → Likelihood → Daten
- Prior Predictive — wie sehen Regressionslinien aus, bevor wir Daten sehen? (McElreath Kap. 4)
- Prior vs. Posterior — wie verschieben die Daten unsere Überzeugungen über die Regressionsgerade?
- Marginalverteilungen — α, β, σ: Prior → Posterior im direkten Vergleich
- MCMC-Sampler — gemeinsamer Sample (β, σ) mit Metropolis-Hastings; Heatmap + Trace-Plots
CI vs. Prädiktionsintervall
95% CI Mittelwert (grün, schmal): Unsicherheit über die
Lage der Regressionsgerade — enthält nur Parameterunsicherheit.
95% PPI neue Beobachtung (gestrichelt, breiter): wo fällt
ein neuer Datenpunkt? Enthält zusätzlich die Residualstreuung σ.
Bei kleinem σ liegen CI und PPI nah beieinander — bei großem σ
ist das PPI deutlich breiter.
Gaussian vs. Ausreißer-robust
Gaussian: y ~ N(α + β·x, σ) — standard
Ausreißer: y ~ t(ν, α + β·x, σ) — schwerere Tails,
robuster gegenüber einzelnen Extremwerten
Weiter → Bayesian PP Check:
Posterior Predictive Checks für Modelldiagnose