Mestre
Estatística k / Coeficiente de Kendall O índice de concordância intra e entre-observadores constitui uma medida utilizada para analisar o acordo entre dois intervalos de observação (intraobservadores) e entre avaliadores (entre-observadores) na atribuição de categorias de uma variável categórica. Em inglês este procedimento geralmente é designado por interjudge reliability ou interobserver reliability. É uma importante medida para determinar o quão bem funciona uma aplicação de alguma medição. A medida estatística de confiabilidade é o kappa de Cohen, descrito em 1960. O kappa é uma medida de concordância intra e entre-observador e mede o grau de concordância além do que seria esperado tão somente pelo acaso e varia geralmente de 0-1 (embora os números negativos sejam possíveis) onde um grande número significa maior confiabilidade, valores próximos ou menores que zero sugerem que o acôrdo é atribuível ao acaso. Como interpetar o kappa: O Kappa varia de +1 a -1
+1: significa que os dois observadores concordaram perfeitamente. Eles classificaram a todos exatamente da mesma forma 0: significa que não existe nenhuma relação entre as classificações dos dois observadores, acima da concordância de acasos que seriam esperadas. -1 significa que os dois observadores classificaram exatamente o oposto. Se um observador diz SIM, o outro sempre diz NÃO A magnitude da Estatística k é uma medida de concordância bastante mais significativa do que a sua própria significância estatística. O erro padrão da estatística k permite-nos estimar a sua significância estatística e também o seu intervalo de confiança de 95%. (Pinto et al). Por exemplo, um índice kappa de 0,77 com erro padrão de 0,03, o seu intervalo de confiança será: multiplique 0,03 por 1,96=0,058 que é semelhante a 0,06 e agora subtraia e some ao Índice kappa e teremos: 0,77