O teste de Kruskal-Wallis é utilizado para determinar se existe ou não uma diferença estatisticamente significativa entre as medianas de três ou mais grupos independentes. É considerado o equivalente não paramétrico da ANOVA unidirecional.

Se os resultados de um teste de Kruskal-Wallis forem estatisticamente significativos, é adequado efetuar Teste de Dunn para determinar exatamente quais os grupos que são diferentes.

O teste de Dunn efectua comparações de pares entre cada grupo independente e diz-lhe quais os grupos que são estatisticamente diferentes a um determinado nível de α.

Por exemplo, suponha que um investigador quer saber se três medicamentos diferentes têm efeitos diferentes nas dores de costas. Ele recruta 30 indivíduos para o estudo e atribui-lhes aleatoriamente a utilização do Medicamento A, do Medicamento B ou do Medicamento C durante um mês, medindo depois as suas dores de costas no final do mês.

O investigador pode efetuar um teste de Kruskal-Wallis para determinar se a mediana da dor nas costas é igual entre os três medicamentos. Se o valor de p do teste de Kruskal-Wallis for inferior a um determinado limiar, pode dizer-se que os três medicamentos produzem efeitos diferentes.

Em seguida, o investigador pode efetuar o teste de Dunn para determinar que medicamentos produzem efeitos estatisticamente significativos.

Teste de Dunn: A fórmula

É provável que nunca tenha de efetuar o teste de Dunn à mão, uma vez que este pode ser realizado utilizando software estatístico (como R, Python, Stata, SPSS, etc.), mas a fórmula para calcular a estatística do teste z para a diferença entre dois grupos é

z i = y i / σ i

onde i é um dos 1 a m comparações, y i =W A - W B (em que W A é a média da soma das classificações para o i-ésimo grupo) e σ i é calculado como:

σ i = √ ((N(N+1)/12) - (ΣT3 s - T s /(12(N-1)) / ((1/n A )+(1/n B ))

onde N é o número total de observações em todos os grupos, r é o número de classificações empatadas, e T s é o número de observações empatadas no s o valor vinculado específico.

Como controlar a taxa de erro por família

Sempre que efectuarmos comparações múltiplas de uma só vez, é importante controlarmos a taxa de erro por família. Uma forma de o fazer é ajustar os valores p que resultam das comparações múltiplas.

Existem várias formas de ajustar os valores de p, mas os dois métodos de ajuste mais comuns são:

1. o ajuste de Bonferroni

Valor p ajustado = p*m

onde:

  • p: O valor p original
  • m: O número total de comparações que estão a ser feitas

2) O ajustamento Sidak

Valor p ajustado = 1 - (1-p)m

onde:

  • p: O valor p original
  • m: O número total de comparações que estão a ser feitas

Ao utilizar um destes ajustamentos do valor p, podemos reduzir drasticamente a probabilidade de cometer um erro do tipo I no conjunto de comparações múltiplas.