Wenn Sie Fragen stellen möchten,
einfach per Mail, direkt oder per WhatsApp
0178 87 55 145 oder
0157 740 58 477.
Ich beantworte Fragen gerne und gebe gern den einen oder anderen Tipp. Wenn Sie etwas von mir rechnen lassen möchten, bräuchte ich Einblick in Ihre Daten (Excel, SPSS-Daten) und eine Liste Ihrer Fragen (eine Word-Seite).

Randomiserung, was sind die Vorteile einer randomisierten Studie


Vorteile der Randomisierung


Randomisierte kontrollierte Studien (RCTs) gelten als „Goldstandard“. Das mag Viele verblüffen, sind sie in deren Vorstellung doch meist als weltfremde Grundlagenforschung ohne Praxisbezug (externe Validität) und Forschung im Elfenbeinturm verschrieen.

Randomisierte kontrollierte Studien sind aber unverzichtbar, insbesondere, wenn man ernsthaft an der Kausalität interessiert ist, z.B. wenn man tatsächlich wissen möchte, ob eine Behandlung oder einer Intervention "wirkt". Grundlagenforschung ja, Anwendungsfälle in der Praxis müssen eben dann in Studienform noch "nachgeschoben" werden. Elfenbeinturm trifft definitiv nicht zu, denn beispielsweise alle zugelassenen Arzneimittel mußten eine solche Studie durchlaufen, d.h. hier hat man Klarheit, dass sie kausal wirken.

Die zufällige Zuteilung zu verschiedenen Gruppen hat folgende Vorteile:

Zufall heißt Nullkorrelation mit allem Übrigen, d.h. die Gruppierung korreliert mit nichts anderem, nicht mit Störfaktoren (Vorerkankungen, Gene, Lebensstil) oder Selektionsfaktoren (Alter, Geschlecht).
Ein Selektionsbias (Bevorzugung) ist daher eliminiert, denn der Studienleiter hat ja keinen Einfluss darauf, wer der Studienteilnehmer in welcher Gruppe ist.

Confounder, werden gleichmäßig verteilt. Diese Confounder wie Alter, Geschlecht, Genetik oder Lebensstil sind natürlich noch da, aber ihr Einfluß wird durch die randomisierte Gruppenzuteilung gleichmäßig verteilt (jede randomisierte Studie muss zeigen, ob das gelungen ist), d.h. sie werden balanciert. Damit werden die Gruppen besser vergleichbar. Andere Studiendesigns haben hiermit allergrößte Probleme und die Behauptung, dass eine Wirkung gelungen sei, wird oft bezweifelt und eher den Selektionseffekten und den übrigen Kovariaten zugeschrieben (bzw. umgekehrt: man es nicht ausschließen, dass Kovariaten die gezeigte Wirkung mitgetriggert haben, was eine solche Studie dann stark entwertet).

Randomiserte Studien sind aktuell die einzigen Designs, mit denen mach Kausalität zeigen kann. Wenn sich die Gruppen nur noch durch die untersuchte Intervention unterscheiden und die Korrelation zu Störgrößen auf Null gesetzt wurden, können beobachtete Effekte direkt dann auf die Intervention zurückgeführt werden. D.h. Ursache-Wirkungs-Beziehungen sind damit gut untersuchbar und später auch interpretierbar, was bedeutet, dass die vorliegenden Ergebnisse auf andere Kollektive transferierbar sind, die man (noch) nicht kennt.

Statistisch ist man außerdem auf der eher sicheren Seite, denn viele statistische Tests brauchen eine Zufallsverteilung als Grundlage.

Randomiserte Studien können noch "geboostert" werden, denn mit einer Verblindung (weder Patient, noch der intervenierende Arzt wissen, um welche Gruppe bzw. Behandlung es geht). So stellt man sicher, dass keine speziellen Erwartungenhaltungen (auf beiden Seiten, bei Arzt oder Patient) das Ergebnis verfälschen.

Fazit: Randomisierte Studien erlaubten eine objektive und eine kausale Wirksamkeitsbewertung von Therapien oder Interventionen. Aus Sicht von (Interventions-)zulassenden Behörden sind sie unverzichtbar. Und: Beim Lesen eines Papers ist es für das eigene Urteil hilfreich, wenn man weiß, dass die Störgrößen balanciert, d.h. mehr oder weniger (mit Blick auf die Hauptfrage) ausgeschalten sind.


SPSS, R, und andere Apps für die Statistik


SPSS

PSPP als freie Alternative vs. SPSS

R als kostenlose Alternative

Vergleich von R vs SPSS vs. Jamovi vs SAS

R installieren

Weitere Links

SPSS, das Allround-Knife

Der Chi²-Test

Eine ANOVA zur Frage von Gruppenunterschieden (ANOVA = Analysis of Variance)

Der t-Test zur Frage von Gruppenunterschieden

Der t-Test zur Frage, ob sich Messwiederholungen unterscheiden

Der U-Test zur Frage von Gruppenunterschieden

R, ein kostenloses Programm mit starker Verbreitung

Übereinstimmung zweier Methoden graphisch anzeigen lassen (Bland-Altman Plot)

Ein lineares Vorhersagemodell rechnen (eine lineare mulitple Regression)

Eine Korrelation rechnen

Eine Rang-Korrelation (nach Spearman) rechnen

Fragen zusammenfassen (summieren, aggregieren)

Eine mixed ANOVA (Vergleich zwischen Gruppen, die eine Messwiederholung haben) rechnen

Ein Torten-/Kuchen-Diagramm in 3D

Ein Balken-/Histogramm erstellen (2 Gruppen im Vergleich)

Eine deskriptive Statistik erstellen

Eine ordinale Regression rechnen

Eine Inzidenzrate bewerten

Zwei Gruppen im Mittel mittels Python vergleichen (t-Test)

Zwei Gruppen (ohne Rückgriff auf die vielen Voraussetzungen des t-Tests) mittels Python vergleichen (U-Test)

Zwei binäre Reihen auf Änderung prüfen (McNemar-Test)

Eine Verlaufsgraphik von Mittelwerten mit Streubalken

Ein 2D-Kuchen mit ggplot

Eine Inzidenzrate mit R bewerten (passt meine Beobachtete zu der der Population, die ich aus der Literatur kenne?)

Zwei Inzidenzen mit R vergleichen

Eine Rang-Varianzanalyse (Rang-ANOVA, Kruskal-Wallis-Test) rechnen, d.h. 2 oder mehr Gruppen vergleichen

Eine Partialkorrelation rechnen, d.h. eine Korrelation (Eiskremverzehr und Sonnenbrand), aus der eine Drittvariable (Sonnenstunden) eliminiert ist

Einen Median-Test rechnen, d.h. weichen 2 Gruppen unterschiedlich stark vom Gesamt-Median ab?

Eine Regession zur Vorhersage bzw. Erklärung von Häufigkeitsdaten rechnen (Poisson-Regresion)

Ein einfaches Säulendiagramm mehrerer Gruppen

Ein Balken-/Histogramm erstellen (die Verteilung einer Population)

Ein Säulendiagramm, wenn wiederholt gemessen wird

Vorteile einer randomisierten Studie

Vorteile von Apriori-Hypothesen

Ein Boxplot für mehrere Gruppen