Schritt 1: DAG aufbauen
DAG-Zeichenfläche
Golem Builder Füge Variablen in der Seitenleiste hinzu,
dann klicke auf Knoten, um Kanten zu ziehen.
Normal
Exposition (X)
Outcome (Y)
Adjustierungsset
Collider
Latent (U)
Kausalanalyse
Effekt von Interesse:
MUSS kontrollieren
    DARF NICHT kontrollieren
      KANN kontrollieren
        Alle Pfade
        Jede Aussage A ⊥⊥ B | Z muss empirisch überprüfbar sein — sie sagt aus, dass A und B bedingt unabhängig sind, wenn man für Z kontrolliert (z.B. per Partialkorrelation oder Chi-Quadrat-Test). Stimmen die Daten nicht damit überein, ist der DAG falsch spezifiziert.
        Mindestens 3 Knoten benötigt.
        Spezifiziere für jede Kante einen Regressionskoeffizienten (β) und für jede Wurzelvariable (ohne Elternknoten) eine Verteilung. Klicke danach auf einen der Code-Generatoren.
        Kantengewichte (β)
        Von→ Nachβ×W (Moderator)β_int
        Wurzelknoten-Verteilungen
        VariableVerteilungMittelwert / pSD / –
        Simulationseinstellungen
        💡 Selbst ausprobieren — Bias sichtbar machen:
        Generiere die simulierten Daten, dann verändere die Modellformel und beobachte was passiert:
         · Confounder weglassen (aus brms/glmmTMB-Code entfernen) → β(X) wird verzerrt (Confounding Bias)
         · Collider aufnehmen (zur Formel hinzufügen) → öffnet Scheinassoziation zwischen X und Y (Berkson Bias)
         · Mediator kontrollieren bei totalem Effekt → unterschätzt β(X), weil der indirekte Pfad blockiert wird
        Der wahre β steht im Simulationscode — vergleiche ihn mit dem Schätzer im gefitteten Modell!
        Konzepte
        DAG
        Was ist ein DAG?
        Ein Directed Acyclic Graph (gerichteter azyklischer Graph) kodiert Kausalannahmen explizit. Pfeile zeigen die Richtung kausaler Einflüsse – kein Pfad darf in sich selbst zurückführen. DAGs zwingen uns, unsere Annahmen offenzulegen, bevor wir Modelle bauen (McElreath 2020, Kap. 5–6).
        Confounder
        Confounder (Gabel / Fork)
        Eine gemeinsame Ursache Z von X und Y erzeugt eine Scheinkorrelation zwischen X und Y. Die Struktur Z → X und Z → Y heißt Fork. Ohne Kontrolle von Z ist der Schätzer für X → Y verzerrt. Das Backdoor-Kriterium verlangt, Z in die Regression aufzunehmen.
        Collider
        Collider
        Wenn X → C ← Y, ist C ein Collider. Der Pfad X – C – Y ist normalerweise blockiert. Wenn wir auf C konditionieren (es kontrollieren oder restringieren), öffnen wir diesen Pfad und erzeugen eine artifizielle Assoziation zwischen X und Y – Berkson's Bias. Collider dürfen NICHT kontrolliert werden.
        Mediator
        Mediator (Kette / Chain)
        In einer Kette X → M → Y ist M ein Mediator. Kontrollieren von M blockiert den kausalen Pfad von X nach Y – wir würden den totalen kausalen Effekt unterschätzen. Mediatoren werden meist nicht kontrolliert, außer man möchte explizit den direkten Effekt schätzen.
        Backdoor
        Backdoor-Kriterium (Pearl)
        Ein Adjustierungsset Z erfüllt das Backdoor-Kriterium für X → Y, wenn Z (1) alle Hintertür-Pfade von X nach Y blockiert und (2) keine Nachkommen von X enthält. Ein Hintertür-Pfad beginnt mit einem Pfeil, der in X hineinzeigt. Dieses Kriterium ist die formale Grundlage für valide Kausalschätzung aus Beobachtungsdaten.
        Simulation
        Simulierte Daten als Goldstandard
        Wenn wir den datengenerierenden Prozess selbst schreiben, kennen wir die wahren Kausaleffekte. So können wir prüfen: Schätzt unser Modell den richtigen Wert? Bias durch Collider oder fehlende Confounderkontrolle wird sichtbar. Simulation ist das wichtigste Werkzeug zum Verstehen kausaler Modelle.
        Instrumentalvariablen (IV)

        Eine Instrumentalvariable Z erlaubt kausale Identifikation auch dann, wenn ein ungemessener Confounder U existiert. Z muss drei Bedingungen erfüllen: (1) Relevanz: Z→X (Z beeinflusst die Exposition), (2) Exklusion: Z hat keinen direkten Effekt auf Y außer über X, (3) Unabhängigkeit: Z teilt keine gemeinsamen Ursachen mit Y (Z ist unabhängig von U).

        Frequentistisch: Two-Stage Least Squares (2SLS) via ivreg(Y ~ X | Z). Bayesianisch: Joint-Modell beider Gleichungen mit korrelierten Residuen — rescor = TRUE schätzt ρ (Konfundierungsstärke durch U) direkt als Posterior.

        Angrist & Pischke (2009). Mostly Harmless Econometrics. Princeton UP. — McElreath (2020). Statistical Rethinking, Kap. 15.

        Front Door Criterion (Pearl)

        Wenn U X und Y konfundiert, aber ein Mediator M existiert mit (1) M auf allen Pfaden X→Y, (2) kein Backdoor X→M, (3) alle Backdoors M→Y durch X blockiert — dann ist der kausale Effekt ohne U zu messen identifizierbar.

        Front Door Formel: P(Y|do(X)) = Σm P(M|X) · Σx' P(Y|M,X=x') · P(X=x'). Im linearen Fall: β_FD = β_XM × β_MY, wobei β_MY durch Kontrolle für X geschätzt wird (X blockt M←X←U→Y).

        Bayesianisch: multivariates brms-Modell mit rescor = FALSE liefert die gemeinsame Posteriori von β_XM und β_MY — deren Produkt ist der kausale Gesamteffekt als volle Posterior-Verteilung.

        Pearl (2009). Causality, Kap. 3.3. Cambridge UP. — Pearl, Glymour & Jewell (2016). Causal Inference in Statistics: A Primer. Wiley.

        Golem Builder — Hilfe