Mesures de la Concordance Inter-Evaluateurs dans R

Mesures de la Concordance Inter-Evaluateurs dans R

Mesures de la Concordance Inter-Evaluateurs dans R

La fiabilité inter-évaluateurs consiste en des mesures statistiques permettant d’évaluer le degré d’accord entre deux ou plusieurs évaluateurs (c.-à-d., “juges”, “observateurs”). D’autres synonymes sont : accord inter-évaluateurs, accord inter-observateurs ou conformité inter-évaluateurs.

Dans ce cours, vous apprendrez les bases et comment calculer les différentes mesures statistiques pour analyser la fiabilité inter-évaluateurs. Il s’agit notamment:

  • Kappa de Cohen : Il peut être utilisé pour deux variables nominales ou deux variables ordinales. Il tient compte des accords stricts entre les observateurs. Il est le plus approprié pour deux variables nominales.
  • Kappa pondéré : Il ne doit être pris en compte que pour deux variables ordinales. Il permet un accord partiel.
  • Kappa de Light, qui est la moyenne des Kappa de Cohen si on utilise plus de deux variables catégorielles.
  • Kappa de Fleiss : pour deux ou plusieurs variables catégorielles (nominales ou ordinales)
  • Coefficient de corrélation intraclasse (ICC) pour les données continues ou ordinales

Vous apprendrez également à visualiser la concordance entre les évaluateurs. Le cours présente les principes de base de ces tâches et fournit des exemples de R.

Related Book

Inter-Rater Reliability Essentials: Practical Guide in R



Version: English

Leçons

  1. Ce chapitre explique les bases du coefficient de corrélation intra-classe (ICC), qui peut être utilisé pour mesurer l'accord entre plusieurs évaluateurs sur une échelle ordinale ou continue. Nous montrons également comment calculer et interpréter les valeurs ICC à l'aide du logiciel R.

No Comments

Give a comment

Want to post an issue with R? If yes, please make sure you have read this: How to Include Reproducible R Script Examples in Datanovia Comments

Teachers