Was lerne ich hier?
Was bedeutet es, eine Gerade durch Datenpunkte zu legen — und warum ist
genau
eine Gerade die „beste"? Dieses Tool beantwortet das in drei Schritten:
- Was ist eine Regressionsgerade — und wie liest man a und b?
- Was sind Residuen — und warum quadriert man sie (RSS)?
- Wie minimiert OLS den RSS — und was bedeutet das geometrisch?
- Was sind bedingte Normalverteilungen entlang der Geraden?
Schritt-für-Schritt
- Datenpunkte einzeichnen — klicke ins Feld. 8–15 Punkte reichen.
- Gerade selbst einpassen — verschiebe a und b mit den Slidern.
Beobachte den RSS: Wann wird er kleiner?
- OLS aufdecken — klicke „★ Beste OLS-Gerade". Deine blaue Gerade
bleibt sichtbar: Vergleiche sie direkt mit der optimalen.
Tipp: Aktiviere
Bedingte Verteilungen im OLS-Schritt — die kleinen Glockenkurven
zeigen, was das Modell über die Streuung annimmt.
Was bedeuten die Kennzahlen?
RSS (Residual Sum of Squares) = Σ(y − ŷ)² — Summe der quadrierten Abweichungen.
OLS minimiert diesen Wert exakt.
R² — Anteil der Varianz in y, der durch x erklärt wird. R²=1: perfekte Vorhersage.
R²=0: die Gerade erklärt nichts.
σ — geschätzte Streuung der Residuen. Im Bayes-Modell entspricht σ dem
Prior auf die Fehlerverteilung:
y ~ Normal(μ, σ).
Warum das für Bayes wichtig ist
Das lineare Modell ist der Ausgangspunkt für alles Weitere. Im Bayesianischen Kontext:
OLS entspricht Maximum Likelihood unter Normalverteilung. Sobald man Priors hinzufügt,
entsteht daraus Bayesianische Regression — mit demselben Residualkonzept.
Danach → Maximum Likelihood: Warum OLS und MLE
bei Normalverteilung dasselbe ergeben