Brevemente recordaremos, que la herramienta mostrada es una prueba no paramétrica formulada por Fiedman(1937), frecuentemente usada en el campo observacional, y que sustituye a un ANOVA simple de medidas repetidas.
Esta técnica no necesita asumir la distribución normal, pero si se deben tener en cuenta los siguientes requisitos: Una muestra medida 3 o más veces, habiendo sido extraída por muestreo probabilístico, y siendo la variable medida en escala ordinal o métrica (intervalo o razón).
La Ho asume que las medidas repetidas son iguales, en nuestro ejemplo que usaremos implica asumir que las observaciones son semejantes en el tiempo. Mientras la H1, es que algunas medidas repetidas son distintas (observaciones distintas).
El problema que existía en versiones más antiguas del SPSS, respecto a que no tenía una versión de prueba post-hoc, ya no existe en las versiones mas actuales como el caso del SPSS 25 usado en este trabajo. Y es lo que realmente queremos señalar como mas interesante en esta breve entrada.
Supongamos el siguiente caso sencillo, compuesto por 4 transectos, y 4 observaciones en el tiempo donde se determina el número de ejemplares de la especie salmo trutta en un río asturiano, y que son visibles desde una distancia de 20 metros con cámaras subacuáticas. El ejemplo de vídeo que ilustra nuestro comentario anterior corresponde al muestreo del río Pelliceira (afluente del río Ibias con 10,6 Km) en 2014....
El objetivo de esta técnica de observación es tanto evitar la conducta de escape de los individuos como la interfencia en otro tipo de comportamientos de los salmónidos observados.
Ahora, supongamos que los datos son los siguientes:
Una vez introducidos en la base de datos del SPSS, y definidas las escalas de medida de las columnas numéricas, procederemos a elegir el procedimiento de pruebas no paramétricas:
Y una vez dentro del menú en el campo objetivo, se elige personalizar análisis, y luego rellenamos en el submenú campos con nuestras variables. Posteriormente, en la pestaña de configuración elegimos seleccionar pruebas y pulsamos sobre el botón de Friedman.
En los resultados podemos comprobar que existen diferencias significativas (p<0,05) de forma general,
....que podríamos formalmente decir como observaciones temporales distintas para un chi2(3)=11,757,p=0,008. No obstante, conviene resaltar ahora, que si utilizamos el nuevo criterio propuesto por Benjamin et al.(2017), la conclusión sería distinta. Es decir, no existen realmente esas diferencias.
Si a continuación pulsamos en la parte inferior en el campo comparación entre parejas, obtendremos una nueva ventana con la prueba posthoc.....
....donde ya podemos observar tanto numéricamente como gráficamente (color naranja) que realmente las diferencias (ajuste de Dunn-Boferroni) solo se dan entre la observación tiempo 1 y la observación tiempo 3 (grado de significación ajustada p=0,024).
En caso de ser necesario el tamaño del efecto, de forma global, este procedimiento no lo da directamente, debe completarse usando el coeficiente de Kendall. Para ello, deberemos volver al mismo lugar del caso anterior, pulsando la secuencia:
Analizar--> Pruebas no paramétricas --> Muestras relacionadas --> Configuración y pulsar luego sobre Coeficiente de concordancia de Kendall (k muestras)...
...resultando para nuestro caso una W de Kendall= 0.98, indicativa de un gran tamaño del efecto, o lo que es lo mismo concordancia entre los 4 tiempos de observación y el método de ordenación por rangos.
...resultando para nuestro caso una W de Kendall= 0.98, indicativa de un gran tamaño del efecto, o lo que es lo mismo concordancia entre los 4 tiempos de observación y el método de ordenación por rangos.
Por último, recordar que este estadístico sigue la regla de interpretación aplicada al estadístico de Cohen, 0,1
(efecto pequeño), 0,3 (efecto moderado) y mayor a 0.5 (efecto grande).
Para casos individuales del tamaño del efecto, se deberá seleccionar cada pareja significativa del análisis post-hoc , y aplicar la formula general (usando la ventana de sintaxis):
COMPUTE TE=Z/SQRT(n)
....donde Z es el estadístico de contraste del par de variables significativas, y n el número total de observaciones (no el par de observaciones).
En nuestro caso que sirve de ejemplo, operaremos solo para el par obst3-obst1 (único menor a p<0,05 en el contraste post-hoc):
COMPUTE te=2.625/SQRT(8)
....resultando un valor 0,928
Referencias. Para casos individuales del tamaño del efecto, se deberá seleccionar cada pareja significativa del análisis post-hoc , y aplicar la formula general (usando la ventana de sintaxis):
COMPUTE TE=Z/SQRT(n)
....donde Z es el estadístico de contraste del par de variables significativas, y n el número total de observaciones (no el par de observaciones).
En nuestro caso que sirve de ejemplo, operaremos solo para el par obst3-obst1 (único menor a p<0,05 en el contraste post-hoc):
COMPUTE te=2.625/SQRT(8)
....resultando un valor 0,928
*Benjamin, D. J., Berger, J., Johannesson, M., Nosek, B. A., Wagenmakers, E.-J., Berk, R., … Johnson, V. (2017, July 22). Redefine statistical significance. Retrieved from psyarxiv.com/mky9j
*Friedman, M. (1937). The use of ranks to avoid the assumption of normality implicit in the analysis of variance. Journal of the American Statistical Association, 32 (200), 675–701.