Casa » Semplifica i tuoi calcoli con facilità. » Calcolatori statistici » Calcolatore online dell'affidabilità Inter Rater

Calcolatore online dell'affidabilità Inter Rater

Mostra il tuo amore:

Questo strumento specializzato aiuta ricercatori e statistici fornendo una misura standardizzata di accordo tra valutatori oltre ogni possibilità. È particolarmente utile in campi come la psicologia, la medicina e qualsiasi ricerca che coinvolga dati osservativi.

Formula del calcolatore di affidabilità Inter Rater

chiave La formula utilizzata per misurare l'affidabilità tra valutatori è la Kappa di Cohen (k), che quantifica il livello di accordo tra due valutatori. La formula è:

Affidabilità tra valutatori

Dove:

  • P_o è l'accordo osservato tra i valutatori.
  • P_e è l'accordo atteso per caso.
Vedi anche  Calcolatore online della deviazione percentuale

Guida passo passo all'utilizzo del calcolatore di affidabilità Inter Rater

Costruisci una tabella di contingenza:

Crea una tabella per registrare diverse valutazioni assegnate da due valutatori. Per esempio:

Valutatore B: SìValutatore B: no
Valutatore A: Sìab
Valutatore A: Nocd

Calcolare l'accordo osservato (P_o):

P_o = (a + d) / (a ​​+ b + c + d)

Calcola l'accordo previsto (P_e):

P_e = ((a + b) * (a + c) + (c + d) * (b + d)) / (a ​​+ b + c + d)^2

Calcolare la Kappa di Cohen:

Utilizzando i valori di cui sopra, sostituirli nella formula Kappa di Cohen per ottenere il risultato.

Tabella delle condizioni generali e dei relativi calcoli

TermineDefinizione
Affidabilità tra valutatoriUna misura di quanto valutatori diversi valutano costantemente gli stessi fenomeni.
Kappa di Cohen (k)Una statistica che misura l'affidabilità tra valutatori per gli elementi categoriali.
Accordo rispettato (P_o)La percentuale di volte in cui i valutatori sono d'accordo.
Accordo previsto (P_e)La probabilità che i valutatori siano d'accordo per caso.
Tabella di contingenzaUna matrice utilizzata per calcolare gli accordi e i disaccordi tra i valutatori.

Questa tabella fornisce un riferimento rapido per comprendere i termini chiave e i calcoli utilizzati nella valutazione dell'affidabilità tra valutatori, aiutando a comprendere l'approccio metodologico del calcolatore di affidabilità.

Vedi anche  Calcolatore di tariffe casuali

Esempio di calcolatore di affidabilità tra valutatori

Scenario:

Due psicologi stanno valutando un gruppo di pazienti per una specifica condizione psicologica, dove devono classificare ciascun paziente come "ad alto rischio" o "a basso rischio". Dopo aver valutato 10 pazienti, hanno registrato le loro valutazioni come segue:

  • Valutatore A: Alto rischio: 5 pazienti, Basso rischio: 5 pazienti
  • Valutatore B: Alto rischio: 4 pazienti, Basso rischio: 6 pazienti

Le loro valutazioni riguardano nello specifico:

ID pazienteValutatore A ValutazioneValutazione del valutatore B
1Ad alto rischioAd alto rischio
2A basso rischioA basso rischio
3Ad alto rischioA basso rischio
4A basso rischioA basso rischio
5Ad alto rischioAd alto rischio
6A basso rischioAd alto rischio
7Ad alto rischioAd alto rischio
8A basso rischioA basso rischio
9Ad alto rischioA basso rischio
10A basso rischioA basso rischio

calcoli:

Costruisci una tabella di contingenza:
Grado B: rischio elevatoValutazione B: rischio basso
Grado A: rischio elevato3 (a)2 (b)
Valutazione A: rischio basso1 c)4(d)
Calcolare l'accordo osservato (P_o):

P_o = (a + d) / (a ​​+ b + c + d) = (3 + 4) / 10 = 0.7

Vedi anche  S Calcolatrice in pool online
Calcola l'accordo previsto (P_e):

P_e = [((a + b) * (a + c) + (c + d) * (b + d)) / (a ​​+ b + c + d)^2]
= [((3 + 2) * (3 + 1) + (1 + 4) * (2 + 4)) / 10^2]
= [20 + 30] / 100 = 0.5

Calcolare la Kappa di Cohen:

k = (P_o – P_e) / (1 – P_e) = (0.7 – 0.5) / (1 – 0.5) = 0.4

Questo valore Kappa di Cohen pari a 0.4 suggerisce un accordo moderato oltre ogni possibilità tra i due valutatori.

Domande frequenti più comuni

Cos’è l’affidabilità tra valutatori?

Misura l’accordo tra diversi valutatori, garantendo che le valutazioni siano coerenti tra diversi osservatori.

Perché si preferisce il Kappa di Cohen per misurare l'affidabilità?

Il Kappa di Cohen considera l'accordo avvenuto per caso, fornendo una misura di affidabilità più accurata rispetto al semplice accordo percentuale.

    Lascia un tuo commento