Startseite » Vereinfachen Sie Ihre Berechnungen ganz einfach. » Statistikrechner » Inter-Rater-Zuverlässigkeitsrechner online

Inter-Rater-Zuverlässigkeitsrechner online

Zeige deine Liebe:

Dieses spezielle Tool hilft Forschern und Statistikern, indem es ein standardisiertes Maß für die Übereinstimmung zwischen Bewertern bereitstellt, das über den Zufall hinausgeht. Es ist besonders nützlich in Bereichen wie Psychologie, Medizin und jeder Forschung, die Beobachtungsdaten verwendet.

Formel des Inter-Rater-Zuverlässigkeitsrechners

Das Haupt Die zur Messung der Zuverlässigkeit zwischen Bewertern verwendete Formel ist Cohens Kappa (k), die den Grad der Übereinstimmung zwischen zwei Bewertern quantifiziert. Die Formel lautet:

Inter-Rater-Zuverlässigkeit

Kennzahlen:

  • P_o ist die beobachtete Übereinstimmung zwischen den Bewertern.
  • P_e ist die zufällig erwartete Übereinstimmung.
[VORLÄUFIGE VOLLAUTOMATISCHE TEXTÜBERSETZUNG - muss noch überarbeitet werden. Wir bitten um Ihr Verständnis.]  Pascal-Dreieck-Rechner online

Schritt-für-Schritt-Anleitung zur Verwendung des Inter-Rater-Zuverlässigkeitsrechners

Erstellen Sie eine Kontingenztabelle:

Erstellen Sie eine Tabelle, um unterschiedliche Bewertungen aufzuzeichnen, die von zwei Bewertern vergeben wurden. Zum Beispiel:

Bewerter B: JaBewerter B: Nein
Bewerter A: Jaab
Bewerter A: Neincd

Berechnen Sie die beobachtete Übereinstimmung (P_o):

P_o = (a + d) / (a ​​+ b + c + d)

Berechnen Sie die erwartete Vereinbarung (P_e):

P_e = ((a + b) * (a + c) + (c + d) * (b + d)) / (a ​​+ b + c + d)^2

Berechnen Sie Cohens Kappa:

Setzen Sie die Werte von oben in die Kappa-Formel von Cohen ein, um das Ergebnis zu erhalten.

Tabelle der allgemeinen Begriffe und relevanten Berechnungen

BedingungenDefinition
Zuverlässigkeit zwischen BewerternEin Maß dafür, wie konsistent unterschiedliche Bewerter dieselben Phänomene bewerten.
Cohens Kappa (k)Eine Statistik, die die Interbewerter-Zuverlässigkeit für kategoriale Elemente misst.
Beobachtete Übereinstimmung (P_o)Der Anteil der Male, in denen die Bewerter zustimmen.
Erwartete Vereinbarung (P_e)Die Wahrscheinlichkeit, dass die Bewerter zufällig einer Meinung sind.
KontingenztabelleEine Matrix zur Berechnung der Übereinstimmungen und Meinungsverschiedenheiten zwischen Bewertern.

Diese Tabelle bietet eine schnelle Referenz zum Verständnis der wichtigsten Begriffe und Berechnungen, die bei der Bewertung der Zuverlässigkeit zwischen Bewertern verwendet werden, und hilft dabei, den methodischen Ansatz des Zuverlässigkeitsrechners zu verstehen.

[VORLÄUFIGE VOLLAUTOMATISCHE TEXTÜBERSETZUNG - muss noch überarbeitet werden. Wir bitten um Ihr Verständnis.]  Korrelationskoeffizientenrechner online

Beispiel eines Inter-Rater-Zuverlässigkeitsrechners

Szenario:

Zwei Psychologen untersuchen eine Gruppe von Patienten auf eine bestimmte psychische Erkrankung und müssen dabei jeden Patienten entweder als „hohes Risiko“ oder als „geringes Risiko“ einstufen. Nach der Beurteilung von 10 Patienten zeichneten sie ihre Beurteilungen wie folgt auf:

  • Bewerter A: Hohes Risiko: 5 Patienten, niedriges Risiko: 5 Patienten
  • Beurteiler B: Hohes Risiko: 4 Patienten, niedriges Risiko: 6 Patienten

Ihre Einschätzungen lauten konkret:

Patienten IDBewertung durch Bewerter ABewertung durch Bewerter B
1Hohes RisikoHohes Risiko
2Niedriges RisikoNiedriges Risiko
3Hohes RisikoNiedriges Risiko
4Niedriges RisikoNiedriges Risiko
5Hohes RisikoHohes Risiko
6Niedriges RisikoHohes Risiko
7Hohes RisikoHohes Risiko
8Niedriges RisikoNiedriges Risiko
9Hohes RisikoNiedriges Risiko
10Niedriges RisikoNiedriges Risiko

Berechnungen:

Erstellen Sie eine Kontingenztabelle:
Beurteiler B: Hohes RisikoBeurteiler B: Geringes Risiko
Bewerter A: Hohes Risiko3 (a)2 (b)
Bewerter A: Geringes Risiko1 (c)4(d)
Berechnen Sie die beobachtete Übereinstimmung (P_o):

P_o = (a + d) / (a ​​+ b + c + d) = (3 + 4) / 10 = 0.7

[VORLÄUFIGE VOLLAUTOMATISCHE TEXTÜBERSETZUNG - muss noch überarbeitet werden. Wir bitten um Ihr Verständnis.]  Rechner für den durchschnittlichen Wachstumsfaktor
Berechnen Sie die erwartete Vereinbarung (P_e):

P_e = [((a + b) * (a + c) + (c + d) * (b + d)) / (a ​​+ b + c + d)^2]
= [((3 + 2) * (3 + 1) + (1 + 4) * (2 + 4)) / 10^2]
= [20 + 30] / 100 = 0.5

Berechnen Sie Cohens Kappa:

k = (P_o – P_e) / (1 – P_e) = (0.7 – 0.5) / (1 – 0.5) = 0.4

Dieser Cohen-Kappa-Wert von 0.4 deutet auf eine moderate, nicht zufällige Übereinstimmung zwischen den beiden Bewertern hin.

Die häufigsten FAQs

Was ist Interrater-Reliabilität?

Es misst die Übereinstimmung zwischen verschiedenen Bewertern und stellt so sicher, dass die Bewertungen für verschiedene Beobachter konsistent sind.

Warum wird Cohens Kappa zur Messung der Zuverlässigkeit bevorzugt?

Cohens Kappa geht davon aus, dass die Übereinstimmung zufällig auftritt, was ein genaueres Maß für die Zuverlässigkeit liefert als eine einfache prozentuale Übereinstimmung.

    Hinterlasse einen Kommentar