O teste de Kruskal-Wallis é utilizado para determinar se existe ou não uma diferença estatisticamente significativa entre as medianas de três ou mais grupos independentes. É considerado o equivalente não paramétrico da ANOVA unidirecional.
Se os resultados de um teste de Kruskal-Wallis forem estatisticamente significativos, é adequado efetuar Teste de Dunn para determinar exatamente quais os grupos que são diferentes.
O teste de Dunn efectua comparações de pares entre cada grupo independente e diz-lhe quais os grupos que são estatisticamente diferentes a um determinado nível de α.
Por exemplo, suponha que um investigador quer saber se três medicamentos diferentes têm efeitos diferentes nas dores de costas. Ele recruta 30 indivíduos para o estudo e atribui-lhes aleatoriamente a utilização do Medicamento A, do Medicamento B ou do Medicamento C durante um mês, medindo depois as suas dores de costas no final do mês.
O investigador pode efetuar um teste de Kruskal-Wallis para determinar se a mediana da dor nas costas é igual entre os três medicamentos. Se o valor de p do teste de Kruskal-Wallis for inferior a um determinado limiar, pode dizer-se que os três medicamentos produzem efeitos diferentes.
Em seguida, o investigador pode efetuar o teste de Dunn para determinar que medicamentos produzem efeitos estatisticamente significativos.
Teste de Dunn: A fórmula
É provável que nunca tenha de efetuar o teste de Dunn à mão, uma vez que este pode ser realizado utilizando software estatístico (como R, Python, Stata, SPSS, etc.), mas a fórmula para calcular a estatística do teste z para a diferença entre dois grupos é
z i = y i / σ i
onde i é um dos 1 a m comparações, y i =W A - W B (em que W A é a média da soma das classificações para o i-ésimo grupo) e σ i é calculado como:
σ i = √ ((N(N+1)/12) - (ΣT3 s - T s /(12(N-1)) / ((1/n A )+(1/n B ))
onde N é o número total de observações em todos os grupos, r é o número de classificações empatadas, e T s é o número de observações empatadas no s o valor vinculado específico.
Como controlar a taxa de erro por família
Sempre que efectuarmos comparações múltiplas de uma só vez, é importante controlarmos a taxa de erro por família. Uma forma de o fazer é ajustar os valores p que resultam das comparações múltiplas.
Existem várias formas de ajustar os valores de p, mas os dois métodos de ajuste mais comuns são:
1. o ajuste de Bonferroni
Valor p ajustado = p*m
onde:
- p: O valor p original
- m: O número total de comparações que estão a ser feitas
2) O ajustamento Sidak
Valor p ajustado = 1 - (1-p)m
onde:
- p: O valor p original
- m: O número total de comparações que estão a ser feitas
Ao utilizar um destes ajustamentos do valor p, podemos reduzir drasticamente a probabilidade de cometer um erro do tipo I no conjunto de comparações múltiplas.