Andre,

​O Kappa ​para dois "raters" é muito simples.É a concordância das observações alem do acaso. Pessoalmente não gosto do Kappa por conta do paradoxo do Kappa. 

O cara que fez esse sitio fez o melhor livro que ja lia respeito de concordâncias. Ele sugere uma estatistica que não por acaso tem o nome dele. Gewtt AC1.

http://www.agreestat.com/

Mas se voce quiser conduzir um kappa o seguinta função é a melhor que já usei, inclusive consegue analisar dados de multirater multireader. 

epicalc::kap

outras funções tambem legais. 
epiR::epi.kappa
epibasix::epiKappa

NO pacote irr também ha varias funções de kappa e outras estatisticas de concordância. Esse pacote é dedicado somente a estatísticas de concordância e confiabilidade. 

Abraço, 

 

Pedro Brasil

Em 26 de outubro de 2015 13:02, André Lucas de Oliveira Moreira <andremoreirazoo@gmail.com> escreveu:
Olá pessoal, tudo bem?
Aqui no trabalho, pela primeira vez me deparei com uma situação em que é necessário comparar a eficiência de técnicas que detectam que uma mesma espécie de parasita. A principio não sabia qual seria o melhor teste para verificar isso, mas me falaram pela primeira vez do kappa. Então tenho buscado sobre o assunto. Porém, nos livros que eu tive acesso fala disso muito rapidamente e não me deram segurança suficiente para executar no R e interpretar os resultados.

Pensando que tenho resultados categóricos (presença e ausência dos parasitos para ambas técnicas), qual seria a melhor forma de analisar isso, melhor pacote e função? Também preciso do valor de p. Seria muito útil se alguém indicasse um tutorial e também algum material teórico que me dê mais segurança no uso desta técnica.


Agradecido,
André

_______________________________________________
R-br mailing list
R-br@listas.c3sl.ufpr.br
https://listas.inf.ufpr.br/cgi-bin/mailman/listinfo/r-br
Leia o guia de postagem (http://www.leg.ufpr.br/r-br-guia) e forneça código mínimo reproduzível.