{"id":10339,"date":"2019-11-10T11:01:59","date_gmt":"2019-11-10T09:01:59","guid":{"rendered":"https:\/\/www.datanovia.com\/en\/?post_type=dt_lessons&#038;p=10339"},"modified":"2019-11-12T02:49:16","modified_gmt":"2019-11-12T00:49:16","slug":"kappa-de-cohen-dans-r-pour-deux-variables-categorielles","status":"publish","type":"dt_lessons","link":"https:\/\/www.datanovia.com\/en\/fr\/lessons\/kappa-de-cohen-dans-r-pour-deux-variables-categorielles\/","title":{"rendered":"Kappa de Cohen dans R: Pour Deux Variables Cat\u00e9gorielles"},"content":{"rendered":"<div id=\"rdoc\">\n<p>Le <strong>kappa de Cohen<\/strong><span class=\"citation\">(Jacob Cohen 1960, <span class=\"citation\">J Cohen (1968)<\/span>)<\/span> sert \u00e0 mesurer l\u2019accord entre deux \u00e9valuateurs (c.-\u00e0-d. \u201cjuges\u201d, \u201cobservateurs\u201d) ou entre deux m\u00e9thodes de classification. Ce processus mesurant le d\u00e9gr\u00e9 de concordance entre \u00e9valuateurs s\u2019appelle la <em>fid\u00e9lit\u00e9 inter-\u00e9valuateur<\/em>.<\/p>\n<p>Traditionnellement, la fiabilit\u00e9 entre les \u00e9valuateurs \u00e9tait mesur\u00e9e comme un simple pourcentage global de concordance, calcul\u00e9 comme \u00e9tant le nombre de cas o\u00f9 les deux \u00e9valuateurs sont d\u2019accord divis\u00e9 par le nombre total de cas consid\u00e9r\u00e9s.<\/p>\n<p>Ce pourcentage de concordance est critiqu\u00e9 en raison de son incapacit\u00e9 \u00e0 prendre en compte la concordance al\u00e9atoire ou attendue par hasard, qui est la proportion de concordance que l\u2019on s\u2019attendrait \u00e0 avoir si les deux \u00e9valuateurs ont bas\u00e9e leur \u00e9valuation simplement sur le hasard.<\/p>\n<p>Le kappa de Cohen est une mesure de concordance couramment utilis\u00e9e qui \u00e9limine cet accord al\u00e9atoire li\u00e9 au hasard. En d\u2019autres termes, il tient compte de la possibilit\u00e9 que les \u00e9valuateurs devinent au moins certaines variables en raison de l\u2019incertitude.<\/p>\n<p>Il y a beaucoup de situations o\u00f9 vous pouvez calculer le Kappa de Cohen. Par exemple, vous pourriez utiliser le kappa de Cohen pour d\u00e9terminer l\u2019accord entre deux m\u00e9decins pour diagnostiquer les patients en groupe pronostic \u201cbon\u201d, \u201cinterm\u00e9diaire\u201d et \u201cmauvais\u201d.<\/p>\n<div class=\"block\">\n<p>Le <strong>kappa de Cohen<\/strong> peut \u00eatre utilis\u00e9 pour deux variables cat\u00e9gorielles, qui peuvent \u00eatre soit deux variables nominales soit deux variables ordinales. D\u2019autres variantes existent, notamment:<\/p>\n<ul>\n<li>Le <strong>Kappa pond\u00e9r\u00e9<\/strong> \u00e0 utiliser uniquement pour les variables ordinales.<\/li>\n<li>Le <strong>Kappa de Light<\/strong>, qui n\u2019est que la moyenne de toutes les Kappa de Cohen possibles lorsqu\u2019il y a plus de deux variables cat\u00e9gorielles (Conger 1980).<\/li>\n<li>Le <strong>kappa de Fleiss<\/strong>, qui est une adaptation du kappa de Cohen pour n \u00e9valuateurs, o\u00f9 n peut \u00eatre 2 ou plus.<\/li>\n<\/ul>\n<\/div>\n<p>Ce chapitre d\u00e9crit comment mesurer l\u2019accord inter-\u00e9valuateurs \u00e0 l\u2019aide du kappa de Cohen et du Kappa de Light.<\/p>\n<p>Vous apprendrez:<\/p>\n<ul>\n<li>Les <strong>bases<\/strong>, <strong>formule<\/strong> et explication \u00e9tape par \u00e9tape du <strong>calcul manuel<\/strong><\/li>\n<li>Exemples de code R pour <strong>calculer le kappa de Cohen<\/strong> pour deux \u00e9valuateurs<\/li>\n<li>Comment <strong>calculer le kappa de Light<\/strong> pour plus de deux \u00e9valuateurs<\/li>\n<li><strong>Interpr\u00e9tation du coefficient kappa<\/strong><\/li>\n<\/ul>\n<p>Contents:<\/p>\n<div id=\"TOC\">\n<ul>\n<li><a href=\"#bases-et-calculs-manuels\">Bases et calculs manuels<\/a>\n<ul>\n<li><a href=\"#formule\">Formule<\/a><\/li>\n<li><a href=\"#kappa-pour-2x2-tables\">Kappa pour 2x2 tables<\/a><\/li>\n<li><a href=\"#kappa-pour-deux-variables-categorielles-a-niveaux-multiples\">Kappa pour deux variables cat\u00e9gorielles \u00e0 niveaux multiples<\/a><\/li>\n<\/ul>\n<\/li>\n<li><a href=\"#interpretation-ampleur-de-laccord\">Interpr\u00e9tation : Ampleur de l\u2019accord<\/a><\/li>\n<li><a href=\"#hypotheses-et-exigences\">Hypoth\u00e8ses et exigences<\/a><\/li>\n<li><a href=\"#hypotheses-statistiques\">Hypoth\u00e8ses statistiques<\/a><\/li>\n<li><a href=\"#exemple-de-donnees\">Exemple de donn\u00e9es<\/a><\/li>\n<li><a href=\"#calcul-de-kappa\">Calcul de Kappa<\/a>\n<ul>\n<li><a href=\"#kappa-pour-deux-evaluateurs\">Kappa pour deux \u00e9valuateurs<\/a><\/li>\n<li><a href=\"#kappa-pour-plus-de-deux-evaluateurs\">Kappa pour plus de deux \u00e9valuateurs<\/a><\/li>\n<\/ul>\n<\/li>\n<li><a href=\"#rapporter\">Rapporter<\/a><\/li>\n<li><a href=\"#resume\">R\u00e9sum\u00e9<\/a><\/li>\n<li><a href=\"#references\">References<\/a><\/li>\n<\/ul>\n<\/div>\n<div class='dt-sc-hr-invisible-medium  '><\/div>\n<div class='dt-sc-ico-content type1'><div class='custom-icon' ><a href='https:\/\/www.datanovia.com\/en\/fr\/produit\/concordance-inter-juges-lessentiel-guide-pratique-dans-r\/' target='_blank'><span class='fa fa-book'><\/span><\/a><\/div><h4><a href='https:\/\/www.datanovia.com\/en\/fr\/produit\/concordance-inter-juges-lessentiel-guide-pratique-dans-r\/' target='_blank'> Livre associ\u00e9 <\/a><\/h4>Concordance Inter-Juges: L'Essentiel - Guide Pratique dans R<\/div>\n<div class='dt-sc-hr-invisible-medium  '><\/div>\n<div id=\"bases-et-calculs-manuels\" class=\"section level2\">\n<h2>Bases et calculs manuels<\/h2>\n<div id=\"formule\" class=\"section level3\">\n<h3>Formule<\/h3>\n<p>La <strong>formule du Kappa de Cohen<\/strong> est d\u00e9finie comme suit:<\/p>\n<p><img decoding=\"async\" src=\"https:\/\/www.datanovia.com\/en\/wp-content\/uploads\/dn-tutorials\/inter-rater-reliability\/images\/cohen-s-kappa-formula.png\" alt=\"La formule du Kappa de Cohen\" \/><\/p>\n<ul>\n<li>Po : proportion de l\u2019accord observ\u00e9<\/li>\n<li>Pe : proportion d\u2019un accord al\u00e9atoire<\/li>\n<\/ul>\n<div class=\"warning\">\n<p>kappa peut varier de -1 (aucun accord) \u00e0 +1 (accord parfait).<\/p>\n<ul>\n<li>lorsque k = 0, l\u2019accord n\u2019est pas meilleur que ce qui serait obtenu par hasard.<\/li>\n<li>lorsque k est n\u00e9gatif, l\u2019accord est inf\u00e9rieur \u00e0 l\u2019accord attendu par hasard.<\/li>\n<li>lorsque k est positif, l\u2019accord d\u2019\u00e9valuation d\u00e9passe l\u2019accord al\u00e9atoire.<\/li>\n<\/ul>\n<\/div>\n<\/div>\n<div id=\"kappa-pour-2x2-tables\" class=\"section level3\">\n<h3>Kappa pour 2x2 tables<\/h3>\n<p>Pour expliquer comment calculer la concordence observ\u00e9e et attendue, consid\u00e9rons le tableau de contingence suivant. On a demand\u00e9 \u00e0 deux psychologues cliniciens de diagnostiquer si 70 personnes souffrent de d\u00e9pression ou non.<\/p>\n<p><strong>Structure des donn\u00e9es<\/strong>:<\/p>\n<pre><code>##        Doctor2\r\n## Doctor1 Yes No Total\r\n##   Yes   a   b  R1   \r\n##   No    c   d  R2   \r\n##   Total C1  C2 N<\/code><\/pre>\n<p>O\u00f9:<\/p>\n<ul>\n<li>a, b, c et d sont les <strong>nombre d\u2019individus observ\u00e9s<\/strong> (O);<\/li>\n<li>N = a + b + c + c + d, c\u2019est-\u00e0-dire le total du tableau;<\/li>\n<li>R1 et R2 sont le total des lignes 1 et 2, respectivement. Celles-ci repr\u00e9sentent <strong>les marges de la ligne<\/strong> dans le jargon statistique.<\/li>\n<li>C1 et C2 sont le total des colonnes 1 et 2, respectivement. Ce sont les <strong>marges des colonne<\/strong>.<\/li>\n<\/ul>\n<p><strong>Exemple de donn\u00e9es<\/strong>:<\/p>\n<pre><code>##        doctor2\r\n## doctor1 yes no Sum\r\n##     yes  25 10  35\r\n##     no   15 20  35\r\n##     Sum  40 30  70<\/code><\/pre>\n<p><strong>Proportion de l\u2019accord observ\u00e9<\/strong>. Le nombre total d\u2019accords observ\u00e9s est la somme des entr\u00e9es diagonales. La proportion d\u2019accord observ\u00e9 est : <code>somme(valeurs.diagonales)\/N<\/code>, o\u00f9 N est le total des comptes du tableau.<\/p>\n<ul>\n<li>25 participants ont \u00e9t\u00e9 diagnostiqu\u00e9s oui par les deux m\u00e9decins<\/li>\n<li>20 participants ont \u00e9t\u00e9 diagnostiqu\u00e9s non par les deux<\/li>\n<\/ul>\n<p>donc, <code>Po = (a + d)\/N = (25 + 20)\/70 = 0.643<\/code><\/p>\n<p><strong>Proportion d\u2019accords par chance<\/strong>. La proportion attendue de l\u2019accord est calcul\u00e9e comme suit.<\/p>\n<p>\u00c9tape 1 : D\u00e9terminer la probabilit\u00e9 que les deux m\u00e9decins disent oui au hasard:<\/p>\n<ol style=\"list-style-type: lower-alpha;\">\n<li>Le Docteur 1 dit oui \u00e0 35\/70 (0,5) participants. Cela repr\u00e9sente la proportion marginale de la ligne 1, qui est <code>row1.sum\/N<\/code>.<\/li>\n<li>Le Docteur 2 dit oui \u00e0 40\/70 (0,57) participants. Cela repr\u00e9sente la proportion marginale de la colonne 1, qui est la suivante <code>column1.sum\/N<\/code>.<\/li>\n<li>Probabilit\u00e9 totale que les deux m\u00e9decins disent oui au hasard est <code>0.5*0.57 = 0.285<\/code>. Il s\u2019agit du produit des proportions marginales de la ligne 1 et de la colonne 1.<\/li>\n<\/ol>\n<p>\u00c9tape 2. D\u00e9terminer la probabilit\u00e9 que les deux m\u00e9decins disent Non au hasard :<\/p>\n<ol style=\"list-style-type: lower-alpha;\">\n<li>Le Docteur 1 dit non \u00e0 35\/70 (0,5) participants. Il s\u2019agit de la proportion marginale de la ligne 2: <code>row2.sum\/N<\/code>.<\/li>\n<li>Le Docteur 2 dit non \u00e0 30\/70 (0,428) participants. Il s\u2019agit de la proportion marginale de la colonne 2: <code>column2.sum\/N<\/code>.<\/li>\n<li>Probabilit\u00e9 totale que les deux m\u00e9decins disent non au hasard est <code>0.5*0.428 = 0.214<\/code>. Il s\u2019agit du produit des proportions marginales de la ligne 2 et de la colonne 2.<\/li>\n<\/ol>\n<p>donc, la probabilit\u00e9 totale pr\u00e9vue par hasard est la suivante <code>Pe = 0.285+0.214 = 0.499<\/code>. Techniquement, cela peut \u00eatre consid\u00e9r\u00e9 comme la somme du produit des proportions marginales des lignes et des colonnes: <code>Pe = sum(rows.marginal.proportions x columns.marginal.proportions)<\/code>.<\/p>\n<p><strong>Le kappa de Cohen<\/strong>. Enfin, le kappa de Cohen est <code>(0.643 - 0.499)\/(1-0.499) = 0.28<\/code>.<\/p>\n<\/div>\n<div id=\"kappa-pour-deux-variables-categorielles-a-niveaux-multiples\" class=\"section level3\">\n<h3>Kappa pour deux variables cat\u00e9gorielles \u00e0 niveaux multiples<\/h3>\n<p>Dans la section pr\u00e9c\u00e9dente, nous avons montr\u00e9 comment calculer manuellement la valeur de kappa pour une table 2x2 (variables binomiales : oui vs non). Ceci peut \u00eatre g\u00e9n\u00e9ralis\u00e9 aux variables cat\u00e9gorielles \u00e0 cat\u00e9gories multiples comme suit.<\/p>\n<p>Les \u00e9valuations des deux \u00e9valuateurs peuvent \u00eatre r\u00e9sum\u00e9es dans un tableau de contingence k\u00d7k, o\u00f9 k est le nombre de cat\u00e9gories.<\/p>\n<p><strong>Exemple de tableau de contingence de kxk<\/strong> pour \u00e9valuer l\u2019accord sur k cat\u00e9gories par deux \u00e9valuateurs diff\u00e9rents:<\/p>\n<pre><code>##           rater2\r\n## rater1     Level.1 Level.2 Level... Level.k Total\r\n##   Level.1  n11     n12     ...      n1k     n1+  \r\n##   Level.2  n21     n22     ...      n2k     n2+  \r\n##   Level... ...     ...     ...      ...     ...  \r\n##   Level.k  nk1     nk2     ...      nkk     nk+  \r\n##   Total    n+1     n+2     ...      n+k     N<\/code><\/pre>\n<p><strong>Terminologies<\/strong>:<\/p>\n<ul>\n<li>La colonne \u201cTotal\u201d (<code>n1+, n2+, ...., nk+<\/code>) indique la somme de chaque ligne, connue sous le nom de <strong>marges des lignes<\/strong> ou <strong>effectifs marginaux<\/strong>. Ici, la somme totale d\u2019une ligne donn\u00e9e <code>i<\/code> est nom\u00e9e <code>ni+<\/code>.<\/li>\n<li>La ligne \u201cTotal\u201d (<code>n+1, n+2, ...., n+k<\/code>) indique la somme de chaque colonne, appel\u00e9e <strong>marges des colonnes<\/strong>. Ici, la somme totale d\u2019une colonne donn\u00e9e <code>i<\/code> est nom\u00e9e <code>n+i<\/code><\/li>\n<li>N est la somme totale de toutes les cellules du tableau<\/li>\n<li>Pour une ligne\/colonne donn\u00e9e, la <strong>proportion marginale<\/strong> est la division de la marge ligne\/colonne par N. C\u2019est ce qu\u2019on appelle aussi les fr\u00e9quences ou probalit\u00e9s marginales. Pour une ligne <code>i<\/code>, la proportion marginale est <code>Pi+ = ni+\/N<\/code>. De m\u00eame, pour une colonne donn\u00e9e <code>i<\/code>, la proportion marginale est <code>P+i = n+i\/N<\/code>.<\/li>\n<li>Pour chaque cellule du tableau, la proportion peut \u00eatre calcul\u00e9e en divisant le nombre de cellules par N.<\/li>\n<\/ul>\n<p>La <strong>proportion de concordance observ\u00e9e<\/strong> (Po) est la somme des proportions diagonales, ce qui correspond \u00e0 la proportion de cas o\u00f9 les deux \u00e9valuateurs ont assign\u00e9 les m\u00eamse cat\u00e9gories.<\/p>\n<p><img decoding=\"async\" src=\"https:\/\/www.datanovia.com\/en\/wp-content\/uploads\/dn-tutorials\/inter-rater-reliability\/images\/proportion-of-observed-agreement-formula-2.png\" alt=\"Formule de la proportion de l\u2019accord observ\u00e9e\" \/><\/p>\n<p>La <strong>proportion d\u2019un accord al\u00e9atoire<\/strong> (Pe) est la somme des produits des proportions marginales des lignes et des colonnes:<code>pe = sum(row.marginal.proportions x column.marginal.proportions)<\/code><\/p>\n<p><img decoding=\"async\" src=\"https:\/\/www.datanovia.com\/en\/wp-content\/uploads\/dn-tutorials\/inter-rater-reliability\/images\/proportion-of-expected-agreement-formula-2.png\" alt=\"Formule de la probabilit\u00e9 d\u2019un accord al\u00e9atoire\" \/><\/p>\n<p>Ainsi, le <strong>kappa de Cohen\u2019s<\/strong> peut \u00eatre calcul\u00e9 en introduisant Po et Pe dans la formule: <code>k = (Po - Pe)\/(1 - Pe)<\/code>.<\/p>\n<p><strong>Intervalles de confiance Kappa<\/strong>. Pour un \u00e9chantillon de grande taille, l\u2019erreur type (SE) de kappa peut \u00eatre calcul\u00e9e comme suit <span class=\"citation\">(J. L. Fleiss and Cohen 1973, <span class=\"citation\">J. L. Fleiss, Cohen, and Everitt (1969)<\/span>, <span class=\"citation\">Friendly, Meyer, and Zeileis (2015)<\/span>)<\/span>:<\/p>\n<p><img decoding=\"async\" src=\"https:\/\/www.datanovia.com\/en\/wp-content\/uploads\/dn-tutorials\/inter-rater-reliability\/images\/kappa-standard-error-formula.png\" alt=\"Erreur type de kappa\" \/><\/p>\n<p>Une fois que SE(k) est calcul\u00e9, un intervalle de confiance de <code>100(1 - alpha)%<\/code> pour kappa peut \u00eatre calcul\u00e9 en utilisant la distribution normale standard comme suit:<\/p>\n<p><img decoding=\"async\" src=\"https:\/\/www.datanovia.com\/en\/wp-content\/uploads\/dn-tutorials\/inter-rater-reliability\/images\/kappa-confidence-interval-formula.png\" alt=\"Intervalle de confiance de kappa\" \/><\/p>\n<p>Par exemple, la formule de l\u2019intervalle de confiance \u00e0 95 % est la suivante: <code>k +\/- 1.96 x SE<\/code>.<\/p>\n<p><strong>R pour calculer pas \u00e0 pas le kappa de Cohen<\/strong>:<\/p>\n<pre class=\"r\"><code># Tableau de contingence\r\nxtab &lt;- as.table(rbind(c(25, 10), c(15, 20)))\r\n# Statistiques descriptives\r\ndiagonal.counts &lt;- diag(xtab)\r\nN &lt;- sum(xtab)\r\nrow.marginal.props &lt;- rowSums(xtab)\/N\r\ncol.marginal.props &lt;- colSums(xtab)\/N\r\n# Calculer kappa (k)\r\nPo &lt;- sum(diagonal.counts)\/N\r\nPe &lt;- sum(row.marginal.props*col.marginal.props)\r\nk &lt;- (Po - Pe)\/(1 - Pe)\r\nk<\/code><\/pre>\n<div class=\"block\">\n<p>Dans les sections suivantes, vous apprendrez une fonction R en une seule ligne de commande pour calculer Kappa.<\/p>\n<\/div>\n<\/div>\n<\/div>\n<div id=\"interpretation-ampleur-de-laccord\" class=\"section level2\">\n<h2>Interpr\u00e9tation : Ampleur de l\u2019accord<\/h2>\n<p>Dans la plupart des applications, on s\u2019int\u00e9resse g\u00e9n\u00e9ralement davantage \u00e0 l\u2019ampleur du coefficient kappa plut\u00f4t qu\u2019\u00e0 la significativit\u00e9 statistique de kappa. Les classifications suivantes ont \u00e9t\u00e9 sugg\u00e9r\u00e9es pour interpr\u00e9ter la force de l\u2019accord en fonction de la valeur Kappa de Cohen<span class=\"citation\">(Altman 1999, <span class=\"citation\">Landis JR (1977)<\/span>)<\/span>.<\/p>\n<table>\n<thead>\n<tr class=\"header\">\n<th>Valeur de k<\/th>\n<th>Force de l\u2019accord<\/th>\n<\/tr>\n<\/thead>\n<tbody>\n<tr class=\"odd\">\n<td>&lt; 0<\/td>\n<td>M\u00e9diocre<\/td>\n<\/tr>\n<tr class=\"even\">\n<td>0,01 - 0,20<\/td>\n<td>L\u00e9ger<\/td>\n<\/tr>\n<tr class=\"odd\">\n<td>0,21-0,40<\/td>\n<td>Passable<\/td>\n<\/tr>\n<tr class=\"even\">\n<td>0,41-0,60<\/td>\n<td>Mod\u00e9r\u00e9<\/td>\n<\/tr>\n<tr class=\"odd\">\n<td>0,61-0,80<\/td>\n<td>Substantiel<\/td>\n<\/tr>\n<tr class=\"even\">\n<td>0,81 - 1,00<\/td>\n<td>Presque parfait<\/td>\n<\/tr>\n<\/tbody>\n<\/table>\n<p>Toutefois, cette interpr\u00e9tation permet de dire que tr\u00e8s peu d\u2019accord entre les \u00e9valuateurs est \u201csubstantiel\u201d. D\u2019apr\u00e8s le tableau, 61 % de concordance est consid\u00e9r\u00e9 comme bon, mais cela peut imm\u00e9diatement \u00eatre consid\u00e9r\u00e9 comme probl\u00e9matique selon le domaine. Pr\u00e8s de 40 % des donn\u00e9es repr\u00e9sentent des donn\u00e9es erron\u00e9es. Dans le domaine de la recherche en soins de sant\u00e9, cela pourrait d\u00e9boucher sur des recommandations visant \u00e0 modifier la pratique sur la base de preuves erron\u00e9es. Pour un laboratoire clinique, avoir 40% d\u2019\u00e9valuations d\u2019\u00e9chantillons erron\u00e9es serait un probl\u00e8me de qualit\u00e9 extr\u00eamement s\u00e9rieux<span class=\"citation\">(McHugh 2012)<\/span>.<\/p>\n<p>C\u2019est la raison pour laquelle de nombreux textes recommandent un accord de 80 % comme minimum acceptable de l\u2019accord inter-\u00e9valuateurs. Tout kappa inf\u00e9rieur \u00e0 0,60 indique un accord inad\u00e9quat entre les \u00e9valuateurs et un manque de confiance dans les r\u00e9sultats de l\u2019\u00e9tude.<\/p>\n<div class=\"block\">\n<p>Fleiss et al. (2003) ont d\u00e9clar\u00e9 ceci pour la plupart des applications,<\/p>\n<ul>\n<li>des valeurs sup\u00e9rieures \u00e0 0,75 ou plus peuvent \u00eatre consid\u00e9r\u00e9es comme un excellent accord au-del\u00e0 du hasard,<\/li>\n<li>des valeurs inf\u00e9rieures \u00e0 0,40 environ peuvent \u00eatre consid\u00e9r\u00e9es comme un mauvais accord au-del\u00e0 du hasard, et<\/li>\n<li>des valeurs comprises entre 0,40 et 0,75 peuvent \u00eatre consid\u00e9r\u00e9es comme repr\u00e9sentatives d\u2019un accord juste \u00e0 bon au-del\u00e0 du hasard.<\/li>\n<\/ul>\n<\/div>\n<p>Une autre interpr\u00e9tation logique de kappa de <span class=\"citation\">(McHugh 2012)<\/span> est sugg\u00e9r\u00e9e dans le tableau ci-dessous:<\/p>\n<table>\n<thead>\n<tr class=\"header\">\n<th>Valeur de k<\/th>\n<th>Niveau d\u2019accord<\/th>\n<th>% de donn\u00e9es fiables<\/th>\n<\/tr>\n<\/thead>\n<tbody>\n<tr class=\"odd\">\n<td>0 - 0,20<\/td>\n<td>Aucun<\/td>\n<td>0 - 4\u2030<\/td>\n<\/tr>\n<tr class=\"even\">\n<td>0,21 - 0,39<\/td>\n<td>Minimal<\/td>\n<td>4 - 15%<\/td>\n<\/tr>\n<tr class=\"odd\">\n<td>0,40 - 0,59<\/td>\n<td>Faible<\/td>\n<td>15 - 35%<\/td>\n<\/tr>\n<tr class=\"even\">\n<td>0,60 - 0,79<\/td>\n<td>Mod\u00e9r\u00e9<\/td>\n<td>35 - 63%<\/td>\n<\/tr>\n<tr class=\"odd\">\n<td>0,80 - 0,90<\/td>\n<td>Fort<\/td>\n<td>64 - 81%<\/td>\n<\/tr>\n<tr class=\"even\">\n<td>Au-dessus de 0,90<\/td>\n<td>Presque parfait<\/td>\n<td>82 - 100%<\/td>\n<\/tr>\n<\/tbody>\n<\/table>\n<p>Dans le tableau ci-dessus, la colonne \u201c% de donn\u00e9es fiables\u201d correspond \u00e0 kappa au carr\u00e9, \u00e9quivalent du coefficient de corr\u00e9lation au carr\u00e9 (R^2), qui est directement interpr\u00e9table.<\/p>\n<\/div>\n<div id=\"hypotheses-et-exigences\" class=\"section level2\">\n<h2>Hypoth\u00e8ses et exigences<\/h2>\n<p>Vos donn\u00e9es doivent r\u00e9pondre aux hypoth\u00e8ses suivantes pour le calcul du Kappa de Cohen.<\/p>\n<ol style=\"list-style-type: decimal;\">\n<li>Vous avez <strong>deux variables cat\u00e9gorielles de r\u00e9sultats<\/strong>, qui peuvent \u00eatre <strong>ordinales<\/strong> ou <strong>nominales<\/strong>.<\/li>\n<li>Les deux variables de r\u00e9sultats doivent avoir exactement les <strong>m\u00eames cat\u00e9gories<\/strong><\/li>\n<li>Vous avez <strong>des observations appari\u00e9es<\/strong> ; chaque sujet est class\u00e9 deux fois par <strong>deux \u00e9valuateurs ou m\u00e9thodes ind\u00e9pendants<\/strong>.<\/li>\n<li>Les <strong>m\u00eames deux \u00e9valuateurs<\/strong> sont utilis\u00e9s pour tous les participants.<\/li>\n<\/ol>\n<\/div>\n<div id=\"hypotheses-statistiques\" class=\"section level2\">\n<h2>Hypoth\u00e8ses statistiques<\/h2>\n<ul>\n<li><strong>Hypoth\u00e8se nulle<\/strong> (H0): <code>kappa = 0<\/code>. L\u2019accord est le m\u00eame que l\u2019accord al\u00e9atoire.<\/li>\n<li><strong>Hypoth\u00e8se alternative<\/strong> (Ha): <code>kappa \u2260 0<\/code>. L\u2019accord est diff\u00e9rent d\u2019un accord al\u00e9atoire.<\/li>\n<\/ul>\n<\/div>\n<div id=\"exemple-de-donnees\" class=\"section level2\">\n<h2>Exemple de donn\u00e9es<\/h2>\n<p>Nous utiliserons les donn\u00e9es sur les diagnostics psychiatriques fournies par deux m\u00e9decins cliniciens. 30 patients ont \u00e9t\u00e9 inscrits et class\u00e9s par chacun des deux m\u00e9decins en 5 cat\u00e9gories<span class=\"citation\">(J. Fleiss and others 1971)<\/span> : 1. D\u00e9pression, 2. Trouble de la personnalit\u00e9, 3. Schizophr\u00e9nie, 4. N\u00e9vrose, 5. Autre.<\/p>\n<p>Les donn\u00e9es sont organis\u00e9es dans le tableau de contingence 5x5 suivant:<\/p>\n<pre class=\"r\"><code># Donn\u00e9es de d\u00e9monstration\r\ndiagnoses &lt;- as.table(rbind(\r\n  c(7, 1, 2, 3, 0), c(0, 8, 1, 1, 0),\r\n  c(0, 0, 2, 0, 0), c(0, 0, 0, 1, 0),\r\n  c(0, 0, 0, 0, 4)\r\n  ))\r\ncategories &lt;- c(\"Depression\", \"Personality Disorder\",\r\n                \"Schizophrenia\", \"Neurosis\", \"Autre\")\r\ndimnames(diagnoses) &lt;- list(Doctor1 = categories, Doctor2 = categories)\r\ndiagnoses<\/code><\/pre>\n<pre><code>##                       Doctor2\r\n## Doctor1                Depression Personality Disorder Schizophrenia Neurosis Autre\r\n##   Depression                    7                    1             2        3     0\r\n##   Personality Disorder          0                    8             1        1     0\r\n##   Schizophrenia                 0                    0             2        0     0\r\n##   Neurosis                      0                    0             0        1     0\r\n##   Autre                         0                    0             0        0     4<\/code><\/pre>\n<\/div>\n<div id=\"calcul-de-kappa\" class=\"section level2\">\n<h2>Calcul de Kappa<\/h2>\n<div id=\"kappa-pour-deux-evaluateurs\" class=\"section level3\">\n<h3>Kappa pour deux \u00e9valuateurs<\/h3>\n<p>La fonction R <code>Kappa()<\/code> [package vcd] peut \u00eatre utilis\u00e9e pour calculer le Kappa non pond\u00e9r\u00e9 et pond\u00e9r\u00e9. La version non pond\u00e9r\u00e9e correspond au Kappa de Cohen, qui fait l\u2019objet de ce chapitre. Les Kappa pond\u00e9r\u00e9s ne doivent \u00eatre consid\u00e9r\u00e9s que pour les variables ordinales et sont largement d\u00e9crits au chapitre @ref(weighted-kappa).<\/p>\n<pre class=\"r\"><code># install.packages(\"vcd\")\r\nlibrary(\"vcd\")\r\n# Calculer kapa\r\nres.k &lt;- Kappa(diagnoses)\r\nres.k<\/code><\/pre>\n<pre><code>##            value    ASE    z Pr(&gt;|z|)\r\n## Unweighted 0.651 0.0997 6.53 6.47e-11\r\n## Weighted   0.633 0.1194 5.30 1.14e-07<\/code><\/pre>\n<pre class=\"r\"><code># Intervalles de confiance\r\nconfint(res.k)<\/code><\/pre>\n<pre><code>##             \r\n## Kappa          lwr   upr\r\n##   Unweighted 0.456 0.847\r\n##   Weighted   0.399 0.867<\/code><\/pre>\n<div class=\"notice\">\n<p>Notez que, dans les r\u00e9sultats ci-dessus, <code>ASE<\/code> est l\u2019erreur type asymptotique de la valeur kappa.<\/p>\n<\/div>\n<div class=\"success\">\n<p>Dans notre exemple, le kappa de Cohen (k) = 0,65, ce qui repr\u00e9sente un degr\u00e9 d\u2019accord moyen \u00e0 bon selon la classification de Fleiss et al. (2003). Ceci est confirm\u00e9 par la p-value obtenue (p &lt; 0,05), indiquant que notre kappa calcul\u00e9e est significativement diff\u00e9rent de z\u00e9ro.<\/p>\n<\/div>\n<\/div>\n<div id=\"kappa-pour-plus-de-deux-evaluateurs\" class=\"section level3\">\n<h3>Kappa pour plus de deux \u00e9valuateurs<\/h3>\n<p>S\u2019il y a plus de 2 \u00e9valuateurs, alors la moyenne de tous les kappa possibles est connue sous le nom de <strong>kappa de Light<\/strong> <span class=\"citation\">(Conger 1980)<\/span>. Vous pouvez le calculer en utilisant la fonction <code>kappam.light()<\/code> [package irr], qui prend une matrice en entr\u00e9e. Les colonnes de la matrice sont des \u00e9valuateurs et les lignes sont des individus.<\/p>\n<pre class=\"r\"><code># install.packages(\"irr\")\r\nlibrary(irr)\r\n# Charger et inspecter les donn\u00e9es de d\u00e9mo\r\ndata(\"diagnoses\", package = \"irr\")\r\nhead(diagnoses[, 1:3], 4)<\/code><\/pre>\n<pre><code>##                       Doctor2\r\n## Doctor1                Depression Personality Disorder Schizophrenia\r\n##   Depression                    7                    1             2\r\n##   Personality Disorder          0                    8             1\r\n##   Schizophrenia                 0                    0             2\r\n##   Neurosis                      0                    0             0<\/code><\/pre>\n<pre class=\"r\"><code># Calculez la kappa de Light entre les 3 premiers \u00e9valuateurs\r\nkappam.light(diagnoses[, 1:3])<\/code><\/pre>\n<pre><code>##  Light's Kappa for m Raters\r\n## \r\n##  Subjects = 5 \r\n##    Raters = 3 \r\n##     Kappa = 0.172 \r\n## \r\n##         z = 0.69 \r\n##   p-value = 0.49<\/code><\/pre>\n<\/div>\n<\/div>\n<div id=\"rapporter\" class=\"section level2\">\n<h2>Rapporter<\/h2>\n<p>Le kappa de Cohen a \u00e9t\u00e9 calcul\u00e9 pour \u00e9valuer l\u2019accord entre deux m\u00e9decins dans le diagnostic des troubles psychiatriques chez 30 patients. Il y avait un bon accord entre les deux m\u00e9decins, kappa = 0,65 (IC \u00e0 95 %, 0,46 \u00e0 0,84), p &lt; 0,0001.<\/p>\n<\/div>\n<div id=\"resume\" class=\"section level2\">\n<h2>R\u00e9sum\u00e9<\/h2>\n<p>Ce chapitre d\u00e9crit les bases et la formule du kappa de Cohen. De plus, nous montrons comment calculer et interpr\u00e9ter le coefficient kappa dans R. Nous fournissons \u00e9galement des exemples de codes R pour le calcul du Kappa de Light, qui est la moyenne de toutes les kappa possibles entre deux \u00e9valuateurs lorsque vous avez plus de deux \u00e9valuateurs.<\/p>\n<p>D\u2019autres variantes du kappa de Cohen comprennent : le kappa pond\u00e9r\u00e9 (pour deux variables ordinales, chapitre @ref(weighted-kappa)) et le kappa de Fleiss (pour deux variables ou plus, chapitre @ref(weighted-kappa)).<\/p>\n<\/div>\n<div id=\"references\" class=\"section level2 unnumbered\">\n<h2>References<\/h2>\n<div id=\"refs\" class=\"references\">\n<div id=\"ref-Altman1999\">\n<p>Altman, Douglas G. 1999. <em>Practical Statistics for Medical Research<\/em>. Chapman; Hall\/CRC Press.<\/p>\n<\/div>\n<div id=\"ref-Cohen1968\">\n<p>Cohen, J. 1968. \u201cWeighted Kappa: Nominal Scale Agreement with Provision for Scaled Disagreement or Partial Credit.\u201d <em>Psychological Bulletin<\/em> 70 (4): 213\u2014220. doi:<a href=\"https:\/\/doi.org\/10.1037\/h0026256\">10.1037\/h0026256<\/a>.<\/p>\n<\/div>\n<div id=\"ref-Cohen1960\">\n<p>Cohen, Jacob. 1960. \u201cA Coefficient of Agreement for Nominal Scales.\u201d <em>Educational and Psychological Measurement<\/em> 20 (1): 37\u201346. doi:<a href=\"https:\/\/doi.org\/10.1177\/001316446002000104\">10.1177\/001316446002000104<\/a>.<\/p>\n<\/div>\n<div id=\"ref-Conger1980\">\n<p>Conger, A. J. 1980. \u201cIntegration and Generalization of Kappas for Multiple Raters.\u201d <em>Psychological Bulletin<\/em> 88 (2): 322\u201328.<\/p>\n<\/div>\n<div id=\"ref-Fleiss1971\">\n<p>Fleiss, J.L., and others. 1971. \u201cMeasuring Nominal Scale Agreement Among Many Raters.\u201d <em>Psychological Bulletin<\/em> 76 (5): 378\u201382.<\/p>\n<\/div>\n<div id=\"ref-Fleiss1973\">\n<p>Fleiss, Joseph L., and Jacob Cohen. 1973. \u201cThe Equivalence of Weighted Kappa and the Intraclass Correlation Coefficient as Measures of Reliability.\u201d <em>Educational and Psychological Measurement<\/em> 33 (3): 613\u201319. doi:<a href=\"https:\/\/doi.org\/10.1177\/001316447303300309\">10.1177\/001316447303300309<\/a>.<\/p>\n<\/div>\n<div id=\"ref-Fleiss1969\">\n<p>Fleiss, Joseph L., Jacob Willem Cohen, and Brian Everitt. 1969. \u201cLarge Sample Standard Errors of Kappa and Weighted Kappa.\u201d <em>Psychological Bulletin<\/em> 72: 332\u201327.<\/p>\n<\/div>\n<div id=\"ref-Friendly2015\">\n<p>Friendly, Michael, D. Meyer, and A. Zeileis. 2015. <em>Discrete Data Analysis with R: Visualization and Modeling Techniques for Categorical and Count Data<\/em>. 1st ed. Chapman; Hall\/CRC.<\/p>\n<\/div>\n<div id=\"ref-Landis1977\">\n<p>Landis JR, Koch GG. 1977. \u201cThe Measurement of Observer Agreement for Categorical Data\u201d 1 (33). Biometrics: 159\u201374.<\/p>\n<\/div>\n<div id=\"ref-McHugh2012\">\n<p>McHugh, Mary. 2012. \u201cInterrater Reliability: The Kappa Statistic.\u201d <em>Biochemia Medica : \u010casopis Hrvatskoga Dru\u0161tva Medicinskih Biokemi\u010dara \/ HDMB<\/em> 22 (October): 276\u201382. doi:<a href=\"https:\/\/doi.org\/10.11613\/BM.2012.031\">10.11613\/BM.2012.031<\/a>.<\/p>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<p><!--end rdoc--><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Ce chapitre d\u00e9crit les bases et la formule du kappa de Cohen pour deux variables ou plus. De plus, nous montrons comment calculer et interpr\u00e9ter le coefficient kappa dans R. <\/p>\n","protected":false},"author":1,"featured_media":10340,"parent":0,"menu_order":0,"comment_status":"open","ping_status":"closed","template":"","class_list":["post-10339","dt_lessons","type-dt_lessons","status-publish","has-post-thumbnail","hentry"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v25.2 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Kappa de Cohen dans R: Meilleure R\u00e9f\u00e9rence - Datanovia<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/www.datanovia.com\/en\/fr\/lessons\/kappa-de-cohen-dans-r-pour-deux-variables-categorielles\/\" \/>\n<meta property=\"og:locale\" content=\"fr_FR\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Kappa de Cohen dans R: Meilleure R\u00e9f\u00e9rence - Datanovia\" \/>\n<meta property=\"og:description\" content=\"Ce chapitre d\u00e9crit les bases et la formule du kappa de Cohen pour deux variables ou plus. De plus, nous montrons comment calculer et interpr\u00e9ter le coefficient kappa dans R.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/www.datanovia.com\/en\/fr\/lessons\/kappa-de-cohen-dans-r-pour-deux-variables-categorielles\/\" \/>\n<meta property=\"og:site_name\" content=\"Datanovia\" \/>\n<meta property=\"article:modified_time\" content=\"2019-11-12T00:49:16+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/www.datanovia.com\/en\/wp-content\/uploads\/2019\/05\/P1040186.JPG.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"1024\" \/>\n\t<meta property=\"og:image:height\" content=\"512\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Dur\u00e9e de lecture estim\u00e9e\" \/>\n\t<meta name=\"twitter:data1\" content=\"14 minutes\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/www.datanovia.com\/en\/fr\/lessons\/kappa-de-cohen-dans-r-pour-deux-variables-categorielles\/\",\"url\":\"https:\/\/www.datanovia.com\/en\/fr\/lessons\/kappa-de-cohen-dans-r-pour-deux-variables-categorielles\/\",\"name\":\"Kappa de Cohen dans R: Meilleure R\u00e9f\u00e9rence - Datanovia\",\"isPartOf\":{\"@id\":\"https:\/\/www.datanovia.com\/en\/fr\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/www.datanovia.com\/en\/fr\/lessons\/kappa-de-cohen-dans-r-pour-deux-variables-categorielles\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/www.datanovia.com\/en\/fr\/lessons\/kappa-de-cohen-dans-r-pour-deux-variables-categorielles\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/www.datanovia.com\/en\/wp-content\/uploads\/2019\/05\/P1040186.JPG.jpg\",\"datePublished\":\"2019-11-10T09:01:59+00:00\",\"dateModified\":\"2019-11-12T00:49:16+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/www.datanovia.com\/en\/fr\/lessons\/kappa-de-cohen-dans-r-pour-deux-variables-categorielles\/#breadcrumb\"},\"inLanguage\":\"fr-FR\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/www.datanovia.com\/en\/fr\/lessons\/kappa-de-cohen-dans-r-pour-deux-variables-categorielles\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"fr-FR\",\"@id\":\"https:\/\/www.datanovia.com\/en\/fr\/lessons\/kappa-de-cohen-dans-r-pour-deux-variables-categorielles\/#primaryimage\",\"url\":\"https:\/\/www.datanovia.com\/en\/wp-content\/uploads\/2019\/05\/P1040186.JPG.jpg\",\"contentUrl\":\"https:\/\/www.datanovia.com\/en\/wp-content\/uploads\/2019\/05\/P1040186.JPG.jpg\",\"width\":1024,\"height\":512},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/www.datanovia.com\/en\/fr\/lessons\/kappa-de-cohen-dans-r-pour-deux-variables-categorielles\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/www.datanovia.com\/en\/fr\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Le\u00e7ons\",\"item\":\"https:\/\/www.datanovia.com\/en\/fr\/lessons\/\"},{\"@type\":\"ListItem\",\"position\":3,\"name\":\"Kappa de Cohen dans R: Pour Deux Variables Cat\u00e9gorielles\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/www.datanovia.com\/en\/fr\/#website\",\"url\":\"https:\/\/www.datanovia.com\/en\/fr\/\",\"name\":\"Datanovia\",\"description\":\"Exploration de Donn\u00e9es et Statistiques pour l'Aide \u00e0 la D\u00e9cision\",\"publisher\":{\"@id\":\"https:\/\/www.datanovia.com\/en\/fr\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/www.datanovia.com\/en\/fr\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"fr-FR\"},{\"@type\":\"Organization\",\"@id\":\"https:\/\/www.datanovia.com\/en\/fr\/#organization\",\"name\":\"Datanovia\",\"url\":\"https:\/\/www.datanovia.com\/en\/fr\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"fr-FR\",\"@id\":\"https:\/\/www.datanovia.com\/en\/fr\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/www.datanovia.com\/en\/wp-content\/uploads\/2018\/09\/datanovia-logo.png\",\"contentUrl\":\"https:\/\/www.datanovia.com\/en\/wp-content\/uploads\/2018\/09\/datanovia-logo.png\",\"width\":98,\"height\":99,\"caption\":\"Datanovia\"},\"image\":{\"@id\":\"https:\/\/www.datanovia.com\/en\/fr\/#\/schema\/logo\/image\/\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Kappa de Cohen dans R: Meilleure R\u00e9f\u00e9rence - Datanovia","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/www.datanovia.com\/en\/fr\/lessons\/kappa-de-cohen-dans-r-pour-deux-variables-categorielles\/","og_locale":"fr_FR","og_type":"article","og_title":"Kappa de Cohen dans R: Meilleure R\u00e9f\u00e9rence - Datanovia","og_description":"Ce chapitre d\u00e9crit les bases et la formule du kappa de Cohen pour deux variables ou plus. De plus, nous montrons comment calculer et interpr\u00e9ter le coefficient kappa dans R.","og_url":"https:\/\/www.datanovia.com\/en\/fr\/lessons\/kappa-de-cohen-dans-r-pour-deux-variables-categorielles\/","og_site_name":"Datanovia","article_modified_time":"2019-11-12T00:49:16+00:00","og_image":[{"width":1024,"height":512,"url":"https:\/\/www.datanovia.com\/en\/wp-content\/uploads\/2019\/05\/P1040186.JPG.jpg","type":"image\/jpeg"}],"twitter_card":"summary_large_image","twitter_misc":{"Dur\u00e9e de lecture estim\u00e9e":"14 minutes"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/www.datanovia.com\/en\/fr\/lessons\/kappa-de-cohen-dans-r-pour-deux-variables-categorielles\/","url":"https:\/\/www.datanovia.com\/en\/fr\/lessons\/kappa-de-cohen-dans-r-pour-deux-variables-categorielles\/","name":"Kappa de Cohen dans R: Meilleure R\u00e9f\u00e9rence - Datanovia","isPartOf":{"@id":"https:\/\/www.datanovia.com\/en\/fr\/#website"},"primaryImageOfPage":{"@id":"https:\/\/www.datanovia.com\/en\/fr\/lessons\/kappa-de-cohen-dans-r-pour-deux-variables-categorielles\/#primaryimage"},"image":{"@id":"https:\/\/www.datanovia.com\/en\/fr\/lessons\/kappa-de-cohen-dans-r-pour-deux-variables-categorielles\/#primaryimage"},"thumbnailUrl":"https:\/\/www.datanovia.com\/en\/wp-content\/uploads\/2019\/05\/P1040186.JPG.jpg","datePublished":"2019-11-10T09:01:59+00:00","dateModified":"2019-11-12T00:49:16+00:00","breadcrumb":{"@id":"https:\/\/www.datanovia.com\/en\/fr\/lessons\/kappa-de-cohen-dans-r-pour-deux-variables-categorielles\/#breadcrumb"},"inLanguage":"fr-FR","potentialAction":[{"@type":"ReadAction","target":["https:\/\/www.datanovia.com\/en\/fr\/lessons\/kappa-de-cohen-dans-r-pour-deux-variables-categorielles\/"]}]},{"@type":"ImageObject","inLanguage":"fr-FR","@id":"https:\/\/www.datanovia.com\/en\/fr\/lessons\/kappa-de-cohen-dans-r-pour-deux-variables-categorielles\/#primaryimage","url":"https:\/\/www.datanovia.com\/en\/wp-content\/uploads\/2019\/05\/P1040186.JPG.jpg","contentUrl":"https:\/\/www.datanovia.com\/en\/wp-content\/uploads\/2019\/05\/P1040186.JPG.jpg","width":1024,"height":512},{"@type":"BreadcrumbList","@id":"https:\/\/www.datanovia.com\/en\/fr\/lessons\/kappa-de-cohen-dans-r-pour-deux-variables-categorielles\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/www.datanovia.com\/en\/fr\/"},{"@type":"ListItem","position":2,"name":"Le\u00e7ons","item":"https:\/\/www.datanovia.com\/en\/fr\/lessons\/"},{"@type":"ListItem","position":3,"name":"Kappa de Cohen dans R: Pour Deux Variables Cat\u00e9gorielles"}]},{"@type":"WebSite","@id":"https:\/\/www.datanovia.com\/en\/fr\/#website","url":"https:\/\/www.datanovia.com\/en\/fr\/","name":"Datanovia","description":"Exploration de Donn\u00e9es et Statistiques pour l'Aide \u00e0 la D\u00e9cision","publisher":{"@id":"https:\/\/www.datanovia.com\/en\/fr\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/www.datanovia.com\/en\/fr\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"fr-FR"},{"@type":"Organization","@id":"https:\/\/www.datanovia.com\/en\/fr\/#organization","name":"Datanovia","url":"https:\/\/www.datanovia.com\/en\/fr\/","logo":{"@type":"ImageObject","inLanguage":"fr-FR","@id":"https:\/\/www.datanovia.com\/en\/fr\/#\/schema\/logo\/image\/","url":"https:\/\/www.datanovia.com\/en\/wp-content\/uploads\/2018\/09\/datanovia-logo.png","contentUrl":"https:\/\/www.datanovia.com\/en\/wp-content\/uploads\/2018\/09\/datanovia-logo.png","width":98,"height":99,"caption":"Datanovia"},"image":{"@id":"https:\/\/www.datanovia.com\/en\/fr\/#\/schema\/logo\/image\/"}}]}},"multi-rating":{"mr_rating_results":[]},"_links":{"self":[{"href":"https:\/\/www.datanovia.com\/en\/fr\/wp-json\/wp\/v2\/dt_lessons\/10339","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.datanovia.com\/en\/fr\/wp-json\/wp\/v2\/dt_lessons"}],"about":[{"href":"https:\/\/www.datanovia.com\/en\/fr\/wp-json\/wp\/v2\/types\/dt_lessons"}],"author":[{"embeddable":true,"href":"https:\/\/www.datanovia.com\/en\/fr\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.datanovia.com\/en\/fr\/wp-json\/wp\/v2\/comments?post=10339"}],"version-history":[{"count":1,"href":"https:\/\/www.datanovia.com\/en\/fr\/wp-json\/wp\/v2\/dt_lessons\/10339\/revisions"}],"predecessor-version":[{"id":10344,"href":"https:\/\/www.datanovia.com\/en\/fr\/wp-json\/wp\/v2\/dt_lessons\/10339\/revisions\/10344"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.datanovia.com\/en\/fr\/wp-json\/wp\/v2\/media\/10340"}],"wp:attachment":[{"href":"https:\/\/www.datanovia.com\/en\/fr\/wp-json\/wp\/v2\/media?parent=10339"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}