Hogar Cavidad oral Métodos de análisis de la varianza. ANOVA unidireccional

Métodos de análisis de la varianza. ANOVA unidireccional

5.1. Qué ha pasado Análisis de variación?

El análisis de dispersión fue desarrollado en los años 20 del siglo XX por el matemático y genetista inglés Ronald Fisher. Según una encuesta entre científicos que descubrió quién tuvo la mayor influencia en la biología del siglo XX, fue Sir Fisher quien recibió el campeonato (por sus servicios recibió el título de caballero, uno de los más altos honores en Gran Bretaña). ; En este sentido, Fischer es comparable a Charles Darwin, la mayor influencia en la biología del siglo XIX.

El análisis de varianza es ahora una rama separada de la estadística. Se basa en el hecho descubierto por Fisher de que la medida de variabilidad de la cantidad estudiada se puede descomponer en partes correspondientes a los factores que influyen en esta cantidad y las desviaciones aleatorias.

Para comprender la esencia del análisis de varianza, realizaremos el mismo tipo de cálculos dos veces: “manualmente” (con una calculadora) y usando el programa Statistica. Para simplificar nuestra tarea, no trabajaremos con los resultados de una descripción real de la diversidad de ranas verdes, sino con un ejemplo ficticio que se refiere a la comparación de hembras y machos en humanos. Considere la diversidad de alturas de 12 adultos: 7 mujeres y 5 hombres.

Tabla 5.1.1. Ejemplo de ANOVA unidireccional: datos sobre sexo y altura de 12 personas

Realicemos un análisis de varianza unidireccional: comparemos si los hombres y las mujeres del grupo caracterizado difieren en altura de manera estadísticamente significativa o no.

5.2. Prueba de distribución normal

El razonamiento adicional se basa en el hecho de que la distribución en la muestra considerada es normal o cercana a lo normal. Si la distribución está lejos de ser normal, la dispersión (varianza) no es una medida adecuada de su variabilidad. Sin embargo, el análisis de la varianza es relativamente resistente a las desviaciones de la distribución respecto de la normalidad.

La prueba de normalidad de estos datos se puede realizar de dos formas diferentes. Primero: Estadísticas / Estadísticas básicas / Tablas / Estadísticas descriptivas / Pestaña Normalidad. en la pestaña Normalidad Puede elegir qué pruebas de normalidad utilizar. Cuando hace clic en el botón Tablas de frecuencia, aparecerá una tabla de frecuencia y el botón Histogramas mostrará un histograma. La tabla y el histograma mostrarán los resultados de varias pruebas.

El segundo método está asociado con el uso de capacidades adecuadas al construir histogramas. En el cuadro de diálogo para construir histogramas (Grafs / Histograms...), seleccione la pestaña Avanzado. En la parte inferior hay un bloque de Estadísticas. Marquemos a Shapiro-Wilk en él. t est y la prueba de Kolmogorov-Smirnov, como se muestra en la figura.

Arroz. 5.2.1. Pruebas estadísticas de normalidad de distribución en el cuadro de diálogo de trazado de histograma

Como puede verse en el histograma, la distribución del crecimiento en nuestra muestra difiere de lo normal (hay un "fracaso" en el medio).


Arroz. 5.2.2. Histograma construido con los parámetros especificados en la figura anterior.

La tercera línea en el título del gráfico indica los parámetros de la distribución normal a los que la distribución observada resultó ser más cercana. La media general es 173 y la desviación estándar general es 10,4. El siguiente recuadro en el gráfico muestra los resultados de las pruebas de normalidad. D es la prueba de Kolmogorov-Smirnov y SW-W es la prueba de Shapiro-Wilk. Como se puede observar, para todas las pruebas utilizadas, las diferencias entre la distribución de altura y la distribución normal resultaron ser estadísticamente insignificantes ( pag en todos los casos mayor que 0,05).

Entonces, formalmente hablando, las pruebas para que la distribución sea normal no nos "prohibieron" usar el método paramétrico basado en el supuesto de una distribución normal. Como ya se mencionó, el análisis de varianza es relativamente resistente a las desviaciones de la normalidad, por lo que lo seguiremos usando.

5.3. Análisis de varianza unidireccional: cálculos manuales

Para caracterizar la variabilidad de la altura de las personas en el ejemplo dado, calculemos la suma de las desviaciones al cuadrado (en inglés, denominada SS , Suma de Cuadrados o ) valores individuales del promedio: . El valor medio de altura en el ejemplo anterior es 173 centímetros. Basado en esto,

SS = (186–173) 2 + (169–173) 2 + (166–173) 2 + (188–173) 2 + (172–173) 2 + (179–173) 2 + (165–173) 2 + (174–173) 2 + (163–173) 2 + (162–173) 2 + (162–173) 2 + (190–173) 2 ;

SS = 132 + 42 + 72 + 152 + 12 + 62 + 82 + 12 + 102 + 112 + 112 + 172;

SS = 169 + 16 + 49 + 225 + 1 + 36 + 64 + 1 + 100 + 121 + 121 + 289 = 1192.

El valor resultante (1192) es una medida de la variabilidad de todo el conjunto de datos. Sin embargo, constan de dos grupos, cada uno de los cuales puede tener su propio promedio. En los datos dados altura media mujeres - 168 cm y hombres - 180 cm.

Calculemos la suma de las desviaciones al cuadrado para las mujeres:

SS f = (169–168) 2 + (166–168) 2 + (172–168) 2 + (179–168) 2 + (163–168) 2 + (162–168) 2 ;

SS f = 12 + 22 + 42 + 112 + 32 + 52 + 62 = 1 + 4 + 16 + 121 + 9 + 25 + 36 = 212.

También calculamos la suma de las desviaciones al cuadrado para los hombres:

SS m = (186–180) 2 + (188–180) 2 + (174–180) 2 + (162–180) 2 + (190–180) 2 ;

SS m = 62 + 82 + 62 + 182 + 102 = 36 + 64 + 36 + 324 + 100 = 560.

¿De qué depende el valor en estudio de acuerdo con la lógica del análisis de varianza?

Dos valores calculados, SS f Y SS m , caracterizan la variación intragrupo, que en el análisis de varianza suele denominarse “error”. El origen de este nombre está relacionado con la siguiente lógica.

¿Qué determina la altura de una persona en este ejemplo? En primer lugar, sobre la altura media de las personas en general, independientemente de su sexo. En segundo lugar, desde el suelo. Si las personas de un sexo (masculino) son más altas que las del otro (femenino), esto puede representarse como una adición al promedio “universal” de algún valor, el efecto de género. Finalmente, las personas del mismo sexo difieren en altura debido a diferencias individuales. En un modelo que describe la altura como la suma del promedio humano y el ajuste por sexo, las diferencias individuales no tienen explicación y pueden considerarse “error”.

Entonces, de acuerdo con la lógica del análisis de varianza, el valor en estudio se determina de la siguiente manera: , Dónde xij - i-ésimo valor de la cantidad estudiada en j-ésimo valor del factor estudiado; - promedio general; Fj - influencia del valor j-ésimo del factor en estudio; - “error”, la contribución de la individualidad del objeto al que se refiere el valorxij .

Suma de cuadrados intergrupo

Entonces, SS errores = SS f + SS m = 212 + 560 = 772. Con este valor describimos la variabilidad intragrupo (al distinguir grupos por género). Pero hay una segunda parte de la variabilidad: la variabilidad intergrupal, que llamaremosefecto SS (ya que estamos hablando del efecto de dividir la totalidad de los objetos considerados en mujeres y hombres).

La media de cada grupo difiere de la media general. Al calcular la contribución de esta diferencia a la medida general de variabilidad, debemos multiplicar la diferencia entre el grupo y el promedio general por el número de objetos en cada grupo.

efecto SS = = 7×(168–173) 2 + 5×(180–173) 2 = 7×52 + 5×72 = 7×25 + 5×49 = 175 + 245 = 420.

Aquí se manifestó el principio de constancia de la suma de cuadrados, descubierto por Fischer: SS = efecto SS + error SS , es decir. para este ejemplo, 1192 = 440 + 722.

Cuadrados promedio

Comparando las sumas de cuadrados intergrupo e intragrupo en nuestro ejemplo, podemos ver que el primero está asociado con la variación de dos grupos, y el segundo está asociado con 12 valores en 2 grupos. Número de grados de libertad ( df ) para algún parámetro se puede definir como la diferencia entre la cantidad de objetos en el grupo y la cantidad de dependencias (ecuaciones) que conectan estas cantidades.

En nuestro ejemplo efecto df = 2–1 = 1, A errores df = 12–2 = 10.

Podemos dividir las sumas de cuadrados por su número de grados de libertad, lo que nos da los cuadrados medios ( EM , Medias de cuadrados). Hecho esto, podemos establecer que EM - nada más que variaciones (“varianzas”, el resultado de dividir la suma de cuadrados por el número de grados de libertad). Tras este descubrimiento, podemos comprender la estructura de la tabla ANOVA. Para nuestro ejemplo, se verá así:

Efecto

Error

efecto EM Y errores de MS son estimaciones de la varianza intergrupal e intragrupal y, por tanto, pueden compararse según el criterioF (Criterio de Snedecor, que lleva el nombre de Fischer), diseñado para comparar variaciones. Este criterio es simplemente el cociente de dividir la variación mayor por la menor. En nuestro caso es 420 / 77,2 = 5.440.

Determinación de la significación estadística de la prueba de Fisher mediante tablas.

Si tuviéramos que determinar la significancia estadística del efecto manualmente, usando tablas, necesitaríamos comparar el valor del criterio resultante. F con un valor crítico correspondiente a un cierto nivel de significancia estadística para determinados grados de libertad.


Arroz. 5.3.1. Fragmento de una tabla con valores de criterios críticos. F

Como se puede observar, para el nivel de significancia estadística p=0.05 el valor crítico del criterio esF es 4,96. Esto significa que en nuestro ejemplo el efecto del género estudiado se registró en un nivel de significación estadística de 0,05.

El resultado obtenido se puede interpretar de la siguiente manera. La probabilidad de la hipótesis nula, según la cual la altura promedio de mujeres y hombres es la misma y la diferencia registrada en su altura se debe a la aleatoriedad en la selección de muestras, es inferior al 5%. Esto significa que debemos elegir la hipótesis alternativa, que es que la altura promedio de mujeres y hombres es diferente.

5.4. Análisis de varianza de una sola vía ( ANOVA) en el paquete Statistica

En los casos en que los cálculos no se realizan manualmente, sino utilizando programas apropiados (por ejemplo, el paquete Statistica), el valor pag determinado automáticamente. Puedes comprobar que es ligeramente superior al valor crítico.

Para analizar el ejemplo en discusión utilizando la versión más simple del análisis de varianza, debe ejecutar el procedimiento Estadísticas / ANOVA para el archivo con los datos correspondientes y seleccionar la opción ANOVA unidireccional en la ventana Tipo de análisis y en el cuadro de diálogo Especificaciones rápidas. opción en la ventana Método de especificación.


Arroz. 5.4.1. Diálogo General ANOVA/MANOVA (Análisis de Varianza)

En el cuadro de diálogo rápido que se abre, en el campo Variables, es necesario especificar aquellas columnas que contienen los datos cuya variabilidad estamos estudiando (lista de variables dependientes; en nuestro caso, la columna Crecimiento), así como una columna que contiene valores. ​que dividen el valor que se está estudiando en grupos (Predictor categórico (factor); en nuestro caso, la columna Sexo). En esta versión del análisis, a diferencia del análisis multivariado, sólo se puede considerar un factor.


Arroz. 5.4.2. Diálogo ANOVA unidireccional (análisis de varianza unidireccional)

En la ventana Códigos de factores se deben indicar aquellos valores del factor en cuestión que deben procesarse durante este análisis. Todos los valores disponibles se pueden ver usando el botón Zoom; Si, como en nuestro ejemplo, necesita considerar todos los valores del factor (y para el género en nuestro ejemplo solo hay dos), puede hacer clic en el botón Todos. Cuando se especifican las columnas y códigos de factor a procesar, puede hacer clic en Aceptar e ir a la ventana análisis rápido resultados: Resultados ANOVA 1, en la pestaña Rápido.

Arroz. 5.4.3. Pestaña rápida de la ventana de resultados de ANOVA

El botón Todos los efectos/Gráficos le permite ver cómo se comparan las medias de dos grupos. Encima del gráfico se indica el número de grados de libertad, así como los valores de F y p del factor en cuestión.


Arroz. 5.4.4. Visualización gráfica de los resultados de ANOVA.

El botón Todos los efectos le permite obtener una tabla de análisis de varianza similar a la descrita anteriormente (con algunas diferencias significativas).


Arroz. 5.4.5. Tabla con los resultados del análisis de varianza (compárese con una tabla similar obtenida “manualmente”)

La fila inferior de la tabla muestra la suma de cuadrados, el número de grados de libertad y los cuadrados medios del error (variabilidad dentro del grupo). En la línea de arriba hay indicadores similares para el factor en estudio (en en este caso- signo Sexo), así como criterio F (la relación entre los cuadrados medios del efecto y los cuadrados medios del error) y el nivel de su significación estadística. El color rojo muestra que el efecto del factor considerado resultó ser estadísticamente significativo.

Y la primera línea muestra datos sobre el indicador "Interceptar". Este La fila de la tabla presenta un misterio para los usuarios que se unen a Statistica en su sexta versión o posterior. El valor de Intersección probablemente esté relacionado con la descomposición de la suma de cuadrados de todos los valores de datos (es decir, 1862 + 1692... = 360340). El valor del criterio F indicado para ello se obtuvo dividiendo Intercepción de MS/Error de MS = 353220 / 77,2 = 4575,389 y, naturalmente, da un resultado muy bajo valor pag . Es interesante que en Statistica-5 este valor no se calculó en absoluto, y los manuales para usar versiones posteriores del paquete no comentan de ninguna manera sobre su introducción. Probablemente lo mejor que puede hacer un biólogo que utilice Statistica-6 y versiones posteriores es simplemente ignorar la fila Intercepción en la tabla ANOVA.

5.5. ANOVA y pruebas t de Student y Fisher: ¿cuál es mejor?

Como habrás notado, los datos que comparamos mediante el análisis de varianza unidireccional también pudimos examinarlos mediante las pruebas de Student y Fisher. Comparemos estos dos métodos. Para ello, calculemos la diferencia de altura entre hombres y mujeres utilizando estos criterios. Para ello tendremos que seguir el camino Estadísticas/Estadísticas básicas/test t, independientes, por grupos. Naturalmente, las variables dependientes son la variable Crecimiento y la variable Agrupación es la variable Sexo.


Arroz. 5.5.1. Comparación de datos procesados ​​mediante ANOVA mediante las pruebas de Student y Fisher

Como puede ver, el resultado es el mismo que usando ANOVA. pag = 0,041874 en ambos casos, como se muestra en la Fig. 5.4.5, y se muestra en la Fig. 5.5.2 (¡compruébalo tú mismo!).


Arroz. 5.5.2. Resultados del análisis (explicación detallada de la tabla de resultados - en el párrafo dedicado al Student's test)

Es importante enfatizar que si bien el criterio F desde un punto de vista matemático en el análisis considerado según las pruebas de Student y Fisher es el mismo que en ANOVA (y expresa el índice de varianza), su significado en los resultados del análisis presentados en la mesa final es completamente diferente. Cuando se comparan mediante las pruebas de Student y Fisher, la comparación de las medias muestrales se realiza mediante la prueba de Student y la comparación de su variabilidad se realiza mediante la prueba de Fisher. Los resultados del análisis no muestran la variación en sí, sino su Raíz cuadrada- Desviación Estándar.

En ANOVA, por otro lado, la prueba de Fisher se utiliza para comparar las medias de diferentes muestras (como comentamos, esto se hace dividiendo la suma de cuadrados en partes y comparando la suma media de cuadrados correspondiente a las variables entre y dentro de los sujetos). variabilidad).

Sin embargo, la diferencia anterior se refiere más a la presentación de los resultados de un estudio estadístico que a su esencia. Como señala Glantz (1999, p. 99), por ejemplo, la comparación de grupos utilizando la prueba t de Student puede verse como caso especial Análisis de varianza para dos muestras.

Entonces, la comparación de muestras utilizando las pruebas de Student y Fisher tiene una cosa ventaja importante antes del análisis de varianza: en él se pueden comparar muestras en términos de su variabilidad. Pero las ventajas del análisis de varianza son aún más significativas. Entre ellas se incluye, por ejemplo, la posibilidad de comparar varias muestras simultáneamente.

El análisis de varianza es un método estadístico diseñado para evaluar la influencia de varios factores en el resultado de un experimento, así como para la planificación posterior de experimentos similares.

Inicialmente (1918), el análisis de varianza fue desarrollado por el matemático y estadístico inglés R.A. Fischer para procesar los resultados de experimentos agronómicos para identificar las condiciones para obtener el máximo rendimiento de diversas variedades de cultivos agrícolas.

Al configurar un experimento, se deben cumplir las siguientes condiciones:

    Cada variante del experimento debe realizarse en varias unidades de observación (grupos de animales, secciones de campo, etc.)

    La distribución de unidades de observación entre variantes experimentales debe ser aleatoria y no deliberada.

Usos de ANOVA F-criterio(criterio de R.A. Fisher), que representa la relación de dos varianzas:

donde d hecho, d residual son varianzas factoriales (intergrupo) y residuales (intragrupo) por grado de libertad, respectivamente.

Las varianzas factoriales y residuales son estimaciones de la varianza poblacional, calculadas a partir de datos de muestra teniendo en cuenta el número de grados de libertad de variación.

La dispersión factorial (intergrupal) explica la variación de la característica efectiva bajo la influencia del factor en estudio.

La varianza residual (dentro del grupo) explica la variación en la característica efectiva debido a la influencia de otros factores (excepto la influencia del factor en estudio).

En resumen, las varianzas factorial y residual dan la varianza total, expresando la influencia de todas las características de los factores sobre la resultante.

Procedimiento para realizar análisis de varianza:

1. Los datos experimentales se ingresan en una tabla de cálculo y se determinan las cantidades y valores promedio en cada grupo de la población en estudio, así como la cantidad total y el valor promedio para toda la población (Tabla 1).

tabla 1

El valor de la característica resultante para la i-ésima unidad.

en el j-ésimo grupo, x ij

Número de observaciones, f j

Promedio (grupo y total), x j

x 11, x 12, …, x 1 norte

x 21, x 22, …, x 2 norte

x m 1, x m 2, ..., x mn

Número total de observaciones norte calculado como la suma del número de observaciones F j en cada grupo:

Si todos los grupos tienen el mismo número de elementos, entonces el promedio general se encuentra a partir de medias grupales como una media aritmética simple:

Si el número de elementos en los grupos es diferente, entonces el promedio general calculado utilizando la fórmula de la media aritmética ponderada:

2. Se determina la varianza total. D generalmente como la suma de las desviaciones al cuadrado de los valores individuales de la característica resultante del promedio total :

3. Se calcula la varianza factorial (intergrupo) D hecho como la suma de las desviaciones al cuadrado de las medias del grupo del promedio total , multiplicado por el número de observaciones:

4. Se determina el valor de la varianza residual (intragrupo) D ost como la diferencia entre el total D generalmente y factorial D hecho variaciones:

5. Calcula el número de grados de libertad del factor.
varianza como la diferencia entre el número de grupos metro y unidad:

6. Se determina el número de grados de libertad para la dispersión residual.
como la diferencia entre el número de valores individuales de una característica norte y número de grupos metro:

7. Se calcula el valor de la dispersión del factor por un grado de libertad. d hecho como relación de varianza del factor D hecho al número de grados de libertad de dispersión de factores
:

8. Se determina el valor de la dispersión residual por un grado de libertad. d ost como la relación de varianza residual D ost al número de grados de libertad de la dispersión residual
:

9. Se determina el valor calculado del criterio F. F-cálculo como la relación de la varianza del factor por grado de libertad d hecho a la varianza residual por grado de libertad d ost :

10. Utilizando la tabla de prueba de Fisher F, teniendo en cuenta el nivel de significancia adoptado en el estudio, así como teniendo en cuenta los grados de libertad para las varianzas factorial y residual, se encuentra el valor teórico. F mesa .

Un nivel de significancia del 5% corresponde a un nivel de probabilidad del 95% y un nivel de significancia del 1% corresponde a un nivel de probabilidad del 99%. En la mayoría de los casos, se utiliza un nivel de significancia del 5%.

Valor teórico F mesa a un nivel dado de significancia se determina a partir de tablas en la intersección de una fila y una columna, correspondientes a dos grados de libertad de las varianzas:

por línea – residual;

por columna – factorial.

11. Los resultados del cálculo se presentan en una tabla (Tabla 2).

Todas las personas, por naturaleza, luchan por el conocimiento. (Aristóteles. Metafísica)

Análisis de variación

Descripción general introductoria

En esta sección, revisaremos los métodos, supuestos y terminología básicos de ANOVA.

Tenga en cuenta que en la literatura en idioma inglés, el análisis de varianza generalmente se denomina análisis de variación. Por lo tanto, por razones de brevedad, a continuación usaremos algunas veces el término ANOVA (Un análisis oh F Virginia riación) para ANOVA ordinario y el término MANOVA para análisis multivariado de varianza. En esta sección revisaremos secuencialmente las ideas principales del análisis de varianza ( ANOVA), análisis de covarianza ( ÁNCOVA), análisis multivariado de varianza ( MANOVA) y análisis multivariado de covarianza ( MANCOVA). Después de una breve discusión de los méritos del análisis de contraste y las pruebas post hoc, veamos los supuestos en los que se basan los métodos ANOVA. Hacia el final de esta sección, se explican las ventajas de un enfoque multivariado para el análisis de medidas repetidas sobre el enfoque univariado tradicional.

Ideas claves

Propósito del análisis de varianza. El objetivo principal del análisis de varianza es examinar la importancia de las diferencias entre medias. Capítulo (Capítulo 8) proporciona una breve introducción al estudio de la significación estadística. Si simplemente compara las medias de dos muestras, el análisis de varianza dará el mismo resultado que el análisis ordinario. t- prueba para muestras independientes (si se comparan dos grupos independientes de objetos u observaciones) o t- Criterio para muestras dependientes (si se comparan dos variables en el mismo conjunto de objetos u observaciones). Si no está familiarizado con estos criterios, le recomendamos que consulte la descripción general del capítulo introductorio. (Capítulo 9).

De dónde proviene el nombre Análisis de variación? Puede parecer extraño que el procedimiento para comparar medias se llame análisis de varianza. En realidad, esto se debe a que cuando examinamos la significancia estadística de las diferencias entre medias, en realidad estamos analizando varianzas.

Particionar la suma de cuadrados

Para un tamaño de muestra n, la varianza de la muestra se calcula como la suma de las desviaciones al cuadrado de la media de la muestra dividida por n-1 (tamaño de la muestra menos uno). Por lo tanto, para un tamaño de muestra fijo n, la varianza es función de la suma de cuadrados (desviaciones), denotada, por brevedad, SS(De la suma inglesa de cuadrados - suma de cuadrados). La base del análisis de varianza es la separación (o partición) de la varianza en partes. Considere el siguiente conjunto de datos:

Las medias de los dos grupos son significativamente diferentes (2 y 6, respectivamente). Suma de desviaciones al cuadrado adentro cada grupo es igual a 2. Sumándolos, obtenemos 4. Si ahora repetimos estos cálculos Excluyendo pertenencia al grupo, es decir, si calculamos SS con base en la media general de las dos muestras, obtenemos 28. En otras palabras, la varianza (suma de cuadrados) basada en la variabilidad dentro del grupo da como resultado valores mucho más pequeños que cuando se calcula en función de la variabilidad general (en relación con la media global). La razón de esto es obviamente una diferencia significativa entre las medias, y esta diferencia entre las medias explica la diferencia existente entre las sumas de cuadrados. De hecho, si utiliza el módulo para analizar los datos proporcionados Análisis de variación, se obtendrán los siguientes resultados:

Como puede verse en la tabla, la suma total de cuadrados SS=28 se divide por la suma de cuadrados dada por intragrupo variabilidad ( 2+2=4 ; ver segunda fila de la tabla) y la suma de cuadrados debido a la diferencia en los valores medios. (28-(2+2)=24; ver la primera fila de la tabla).

SS errores ySS efecto. Variabilidad dentro del grupo ( SS) generalmente se llama dispersión errores. Esto significa que normalmente no se puede predecir ni explicar cuándo se realiza un experimento. Por otro lado, SS efecto(o variabilidad entre grupos) puede explicarse por las diferencias entre las medias de los grupos de estudio. En otras palabras, pertenecer a un determinado grupo. explica variabilidad intergrupal, porque Sabemos que estos grupos tienen diferentes medios.

Comprobación de importancia. Las ideas básicas de las pruebas de significación estadística se analizan en el Capítulo Conceptos básicos de estadística.(Capítulo 8). Este capítulo también explica las razones por las que muchas pruebas utilizan la relación entre la varianza explicada y la inexplicada. Un ejemplo de este uso es el análisis de la varianza en sí. La prueba de significancia en ANOVA se basa en comparar la varianza debida a la varianza entre grupos (llamada efecto cuadrático medio o EMEfecto) y la varianza debida a la variación dentro del grupo (llamada error medio cuadrado o EMerror). Si la hipótesis nula (igualdad de medias en las dos poblaciones) es cierta, entonces se esperaría una diferencia relativamente pequeña en las medias muestrales debido a la variación aleatoria. Por tanto, bajo la hipótesis nula, la varianza intragrupo prácticamente coincidirá con la varianza total calculada sin tener en cuenta la pertenencia al grupo. Las variaciones resultantes dentro del grupo se pueden comparar usando F- prueba que verifica si el índice de varianza es significativamente mayor que 1. En el ejemplo discutido anteriormente F- el criterio muestra que la diferencia entre las medias es estadísticamente significativa.

Lógica básica del análisis de varianza. En resumen, el propósito de ANOVA es probar la significancia estadística de la diferencia entre medias (para grupos o variables). Esta verificación se lleva a cabo mediante análisis de varianza, es decir dividiendo la varianza total (variación) en partes, una de las cuales se debe a un error aleatorio (es decir, variabilidad intragrupo) y la segunda se asocia con diferencias en los valores medios. Luego, el último componente de la varianza se utiliza para analizar la significancia estadística de la diferencia entre las medias. Si esta diferencia es significativa, se rechaza la hipótesis nula y se acepta la hipótesis alternativa de que existe diferencia entre las medias.

Variables dependientes e independientes. Las variables cuyos valores están determinados por mediciones durante un experimento (por ejemplo, la puntuación de una prueba) se denominan dependiente variables. Las variables que se pueden controlar en un experimento (por ejemplo, métodos de enseñanza u otros criterios para dividir las observaciones en grupos) se denominan factores o independiente variables. Estos conceptos se describen con más detalle en el capítulo. Conceptos básicos de estadística.(Capítulo 8).

Análisis multivariado de varianza.

en lo anterior ejemplo sencillo podría calcular inmediatamente la prueba t para muestras independientes utilizando la opción de módulo adecuada Estadísticas y tablas básicas. Los resultados obtenidos naturalmente coincidirán con los resultados del análisis de varianza. Sin embargo, ANOVA contiene técnicas flexibles y poderosas que pueden usarse para estudios mucho más complejos.

Muchos factores. El mundo es de naturaleza compleja y multidimensional. Las situaciones en las que un determinado fenómeno se describe completamente mediante una variable son extremadamente raras. Por ejemplo, si estamos intentando aprender a cultivar tomates grandes, debemos considerar factores relacionados con la estructura genética de la planta, el tipo de suelo, la luz, la temperatura, etc. Por tanto, al realizar un experimento típico, hay que tener en cuenta una gran cantidad de factores. La razón principal por la que usar ANOVA es preferible a comparaciones repetidas de dos muestras en diferentes niveles de factores usando t- El criterio es que el análisis de varianza es más eficaz y, para muestras pequeñas, más informativo.

Manejo de factores. Supongamos que en el ejemplo de análisis de dos muestras analizado anteriormente, agregamos otro factor, p. Piso- Género. Que cada grupo esté formado por 3 hombres y 3 mujeres. El diseño de este experimento se puede presentar en forma de tabla de 2 por 2:

Experimento. Grupo 1 Experimento. Grupo 2
Hombres2 6
3 7
1 5
Promedio2 6
Mujer4 8
5 9
3 7
Promedio4 8

Antes de hacer los cálculos, puedes observar que en este ejemplo la varianza total tiene al menos tres fuentes:

(1) error aleatorio (dentro de la varianza del grupo),

(2) variabilidad asociada con la membresía del grupo experimental, y

(3) variabilidad debida al género de los objetos de observación.

(Tenga en cuenta que existe otra posible fuente de variabilidad: interacción de factores, del que hablaremos más adelante). ¿Qué pasa si no incluimos? pisogénero como factor en el análisis y calcular el habitual t-¿criterio? Si calculamos sumas de cuadrados, ignorando piso -género(es decir, combinar objetos de diferentes sexos en un grupo al calcular la varianza dentro del grupo, obteniendo así una suma de cuadrados para cada grupo igual a SS=10, y la suma total de cuadrados SS= 10+10 = 20), entonces obtenemos un valor mayor de varianza intragrupo que con un análisis más preciso con división adicional en subgrupos según semi- género(en este caso, las medias dentro del grupo serán iguales a 2, y la suma total de cuadrados dentro del grupo será igual a SS = 2+2+2+2 = 8). Esta diferencia se debe a que el valor promedio de hombres - machos menos que el promedio de mujer -femenino, y esta diferencia de medias aumenta la variabilidad general dentro del grupo cuando no se tiene en cuenta el sexo. Controlar la varianza del error aumenta la sensibilidad (potencia) de la prueba.

Este ejemplo muestra otra ventaja del análisis de varianza en comparación con el análisis convencional. t- criterio para dos muestras. El análisis de varianza permite estudiar cada factor controlando los valores de los factores restantes. Esta es, de hecho, la razón principal de su mayor poder estadístico (se requieren tamaños de muestra más pequeños para obtener resultados significativos). Por esta razón, el análisis de varianza, incluso en muestras pequeñas, proporciona estadísticamente más resultados significativos que simple t- criterio.

Efectos de interacción

Existe otra ventaja de utilizar el análisis de varianza en comparación con el análisis convencional. t- Criterio: el análisis de varianza nos permite detectar interacción entre factores y por tanto permite el estudio de modelos más complejos. Para ilustrarlo, consideremos otro ejemplo.

Efectos principales, interacciones por pares (de dos factores). Supongamos que hay dos grupos de estudiantes y, psicológicamente, los estudiantes del primer grupo están decididos a completar las tareas asignadas y tienen más determinación que los estudiantes del segundo grupo, formado por estudiantes más perezosos. Dividamos cada grupo al azar por la mitad y démosle a la mitad de cada grupo una tarea difícil y a la otra mitad una fácil. Luego mediremos qué tan duro trabajan los estudiantes en estas tareas. Los promedios de este estudio (ficticio) se muestran en la tabla:

¿Qué conclusión se puede sacar de estos resultados? ¿Podemos concluir que: (1) los estudiantes trabajan más intensamente en una tarea compleja; (2) ¿Los estudiantes motivados trabajan más duro que los estudiantes perezosos? Ninguna de estas afirmaciones capta la esencia de la naturaleza sistemática de los medios que se muestran en la tabla. Al analizar los resultados, sería más correcto decir que sólo los estudiantes motivados trabajan más en tareas difíciles, mientras que sólo los estudiantes perezosos trabajan más en tareas fáciles. En otras palabras, el carácter de los estudiantes y la dificultad de la tarea. interactuando influyen mutuamente en el esfuerzo realizado. Ese es un ejemplo interacción de pareja entre el carácter de los estudiantes y la dificultad de la tarea. Tenga en cuenta que las declaraciones 1 y 2 describen efectos principales.

Interacciones de orden superior. Si bien las interacciones por pares siguen siendo relativamente fáciles de explicar, las interacciones de orden superior son mucho más difíciles de explicar. Imaginemos que en el ejemplo considerado anteriormente se introduce otro factor piso -Género y obtuvimos la siguiente tabla de promedios:

¿Qué conclusiones se pueden sacar ahora de los resultados obtenidos? Los gráficos medios facilitan la interpretación de efectos complejos. El módulo ANOVA le permite construir estos gráficos con casi un clic del mouse.

La imagen en los gráficos a continuación representa la interacción de tres factores que se está estudiando.

Al observar los gráficos, podemos ver que en el caso de las mujeres existe una interacción entre la personalidad y la dificultad del examen: las mujeres motivadas trabajan más en una tarea difícil que en una fácil. Para los hombres, la misma interacción se invierte. Se puede observar que la descripción de la interacción entre factores se vuelve más confusa.

Una forma general de describir las interacciones. EN caso general la interacción entre factores se describe como un cambio en un efecto bajo la influencia de otro. En el ejemplo discutido anteriormente, la interacción de dos factores se puede describir como un cambio en el efecto principal del factor que caracteriza la dificultad de la tarea bajo la influencia del factor que describe el carácter del estudiante. Para la interacción de los tres factores del párrafo anterior, podemos decir que la interacción de dos factores (la complejidad de la tarea y el carácter del estudiante) cambia bajo la influencia. géneroGénero. Si se estudia la interacción de cuatro factores, podemos decir que la interacción de los tres factores cambia bajo la influencia del cuarto factor, es decir Existen diferentes tipos de interacciones en diferentes niveles del cuarto factor. Resulta que en muchas áreas la interacción de cinco o incluso más factores no es inusual.

Planes complicados

Diseños entre grupos y dentro de grupos (diseños de medidas repetidas)

Cuando se comparan dos grupos diferentes, se suele utilizar t- criterio para muestras independientes (del módulo Estadísticas y tablas básicas.). Cuando se comparan dos variables en el mismo conjunto de objetos (observaciones), se utiliza t-criterio para muestras dependientes. Para el análisis de varianza, también es importante si las muestras son dependientes o no. Si hay mediciones repetidas de las mismas variables (con diferentes condiciones o en diferentes momentos) para los mismos objetos, luego hablan de la presencia factor de medidas repetidas(también llamado factor intragrupo, ya que la suma de cuadrados dentro del grupo se calcula para evaluar su significancia). Si se comparan diferentes grupos de objetos (por ejemplo, hombres y mujeres, tres cepas de bacterias, etc.), entonces se describe la diferencia entre los grupos. factor intergrupal. Los métodos para calcular los criterios de significancia para los dos tipos de factores descritos son diferentes, pero su lógica general y sus interpretaciones son las mismas.

Planes inter e intragrupo. En muchos casos, el experimento requiere la inclusión en el diseño de un factor entre sujetos y un factor de medidas repetidas. Por ejemplo, se miden las habilidades matemáticas de estudiantes mujeres y hombres (donde piso -Género-factor intergrupal) al inicio y al final del semestre. Las dos medidas de las habilidades de cada estudiante forman un factor intragrupo (factor de medidas repetidas). La interpretación de los efectos e interacciones principales de los factores entre sujetos y de medidas repetidas es consistente, y ambos tipos de factores obviamente pueden interactuar entre sí (por ejemplo, las mujeres adquieren habilidades en el transcurso de un semestre, mientras que los hombres las pierden).

Planes incompletos (anidados)

En muchos casos, el efecto de interacción puede despreciarse. Esto ocurre ya sea cuando se sabe que no hay efecto de interacción en la población, o cuando la implementación de un completo factorial el plan es imposible. Por ejemplo, se está estudiando el efecto de cuatro aditivos para combustible sobre el consumo de combustible. Se seleccionan cuatro coches y cuatro conductores. Lleno factorial el experimento requiere que cada combinación: aditivo, conductor, automóvil aparezca al menos una vez. Esto requiere al menos 4 x 4 x 4 = 64 grupos de pruebas, lo que requiere demasiado tiempo. Además, es poco probable que haya interacción entre el conductor y el aditivo de combustible. Teniendo esto en cuenta, puedes utilizar el plan. cuadrados latinos, que contiene sólo 16 grupos de prueba (los cuatro aditivos se designan con las letras A, B, C y D):

Los cuadrados latinos se describen en la mayoría de los libros sobre diseño experimental (por ejemplo, Hays, 1988; Lindman, 1974; Milliken y Johnson, 1984; Winer, 1962) y no se discutirán en detalle aquí. Tenga en cuenta que los cuadrados latinos son Nonortelleno diseños en los que no se incluyen todas las combinaciones de niveles de factores. Por ejemplo, el conductor 1 conduce el coche 1 sólo con el aditivo A, el conductor 3 conduce el coche 1 sólo con el aditivo C. Niveles de factor aditivos ( A, B, C y D) están anidados en celdas de la tabla automóvil X conductor - como huevos en nidos. Este mnemónico es útil para comprender la naturaleza. anidado o anidado planes. Módulo Análisis de variación proporciona maneras simples Análisis de planes de este tipo.

Análisis de covarianza

Idea principal

en el capitulo Ideas claves Se discutió brevemente la idea del control de factores y cómo la inclusión de factores aditivos reduce la suma de errores cuadrados y aumenta el poder estadístico del diseño. Todo esto se puede extender a variables con un conjunto continuo de valores. Cuando estas variables continuas se incluyen como factores en un diseño, se denominan covariables.

Covariables fijas

Supongamos que estamos comparando las habilidades matemáticas de dos grupos de estudiantes a quienes se les enseñó usando dos libros de texto diferentes. Supongamos también que los datos del cociente intelectual (CI) están disponibles para cada estudiante. Puedes asumir que el coeficiente intelectual está relacionado con las habilidades matemáticas y utilizar esa información. Para cada uno de los dos grupos de estudiantes, se puede calcular el coeficiente de correlación entre el coeficiente intelectual y las habilidades matemáticas. Utilizando este coeficiente de correlación, es posible aislar la proporción de varianza en los grupos que se explica por la influencia del coeficiente intelectual y la proporción de varianza inexplicable (ver también Conceptos básicos de estadística.(Capítulo 8) y Estadísticas y tablas básicas.(Capítulo 9)). La parte restante de la varianza se utiliza en el análisis como varianza del error. Si existe una correlación entre el coeficiente intelectual y las habilidades matemáticas, entonces la varianza del error se puede reducir significativamente SS/(norte-1) .

Impacto de las covariables enF- criterio. F- el criterio evalúa la significancia estadística de la diferencia en los valores medios en los grupos y se calcula la relación de la varianza intergrupal ( EMefecto) a la varianza del error ( EMerror) . Si EMerror disminuye, por ejemplo, cuando se tiene en cuenta el factor IQ, el valor F aumenta.

Muchas covariables. El razonamiento utilizado anteriormente para una sola covariable (IQ) puede extenderse fácilmente a múltiples covariables. Por ejemplo, además del coeficiente intelectual, puedes incluir medidas de motivación, pensamiento espacial, etc. En lugar del coeficiente de correlación habitual, se utiliza un coeficiente de correlación múltiple.

cuando el valorF -disminuye el criterio. A veces, la introducción de covariables en un diseño experimental reduce la importancia F-criterios . Normalmente, esto indica que las covariables están correlacionadas no sólo con la variable dependiente (por ejemplo, habilidades matemáticas) sino también con los factores (por ejemplo, diferentes libros de texto). Supongamos que el coeficiente intelectual se mide al final del semestre, después de casi un año de enseñar a dos grupos de estudiantes utilizando dos libros de texto diferentes. Aunque los estudiantes fueron asignados a grupos al azar, es posible que las diferencias entre los libros de texto sean tan grandes que tanto el coeficiente intelectual como las habilidades matemáticas varíen mucho entre los grupos. En este caso, las covariables no sólo reducen la varianza del error sino también la varianza entre grupos. En otras palabras, después de controlar las diferencias en el coeficiente intelectual entre grupos, las diferencias en las habilidades matemáticas ya no son significativas. Puedes decirlo de otra manera. Después de “descartar” la influencia del coeficiente intelectual, se excluye involuntariamente la influencia del libro de texto en el desarrollo de las habilidades matemáticas.

Promedios ajustados. Cuando una covariable influye en el factor entre sujetos, se debe calcular medios ajustados, es decir. aquellas medias que se obtienen después de eliminar todas las estimaciones de covariables.

Interacciones entre covariables y factores. Así como se examinan las interacciones entre factores, se pueden examinar las interacciones entre covariables y entre grupos de factores. Digamos que uno de los libros de texto es especialmente adecuado para estudiantes inteligentes. El segundo libro de texto es aburrido para los estudiantes inteligentes y el mismo libro de texto es difícil para los estudiantes menos inteligentes. Como resultado, existe una correlación positiva entre el coeficiente intelectual y el resultado del aprendizaje en el primer grupo (estudiantes más inteligentes, mejores resultados) y una correlación negativa nula o leve en el segundo grupo (cuanto más inteligente es el estudiante, menos probabilidades tiene de adquirir habilidades matemáticas). del segundo libro de texto). Algunos estudios analizan esta situación como un ejemplo de violación de los supuestos del análisis de covarianza. Sin embargo, debido a que el módulo ANOVA utiliza los métodos más comunes de análisis de covarianza, es posible, en particular, evaluar la significancia estadística de la interacción entre factores y covariables.

Covariables variables

Si bien las covariables fijas se analizan con bastante frecuencia en los libros de texto, las covariables variables se mencionan con mucha menos frecuencia. Normalmente, cuando realizamos experimentos con mediciones repetidas, nos interesan las diferencias en las mediciones de las mismas cantidades en diferentes momentos. Es decir, estamos interesados ​​en el significado de estas diferencias. Si las covariables se miden simultáneamente con las mediciones de las variables dependientes, se puede calcular la correlación entre la covariable y la variable dependiente.

Por ejemplo, el interés y las habilidades matemáticas podrían explorarse al principio y al final del semestre. Sería interesante comprobar si los cambios en el interés por las matemáticas se correlacionan con los cambios en las habilidades matemáticas.

Módulo Análisis de variación V ESTADÍSTICA Evalúa automáticamente la significancia estadística de los cambios en las covariables en los diseños cuando es posible.

Diseños multivariados: análisis multivariado de varianza y covarianza

Planes intergrupales

Todos los ejemplos discutidos anteriormente incluyeron solo una variable dependiente. Cuando hay varias variables dependientes al mismo tiempo, solo aumenta la complejidad de los cálculos, pero el contenido y los principios básicos no cambian.

Por ejemplo, se realiza un estudio sobre dos libros de texto diferentes. Al mismo tiempo, se estudia el éxito de los estudiantes en el estudio de física y matemáticas. En este caso, hay dos variables dependientes y es necesario descubrir cómo influyen en ellas dos libros de texto diferentes simultáneamente. Para hacer esto, puede utilizar el análisis de varianza multivariado (MANOVA). En lugar de unidimensional F criterio, se utiliza multidimensional F prueba (prueba l de Wilks), basada en la comparación de la matriz de covarianza del error y la matriz de covarianza intergrupal.

Si las variables dependientes están correlacionadas entre sí, entonces esta correlación debe tenerse en cuenta al calcular el criterio de significancia. Evidentemente, si se repite dos veces la misma medición, no se puede obtener nada nuevo. Si una medición correlacionada con ella se agrega a una medición existente, entonces algunas nueva información, pero la nueva variable contiene información redundante, que se refleja en la covarianza entre las variables.

Interpretación de resultados. Si la prueba multivariada general es significativa, podemos concluir que el efecto correspondiente (por ejemplo, el tipo de libro de texto) es significativo. Sin embargo, surgen las siguientes preguntas. ¿El tipo de libro de texto afecta las mejoras en las habilidades matemáticas únicamente, solo en las habilidades físicas o en ambas habilidades? De hecho, después de obtener una prueba multivariada significativa, se examina una prueba univariada para determinar el efecto o interacción principal individual. F criterio. En otras palabras, las variables dependientes que contribuyen a la significancia de la prueba multivariada se examinan por separado.

Diseños de medidas repetidas

Si las habilidades de matemáticas y física de los estudiantes se miden al principio y al final del semestre, entonces se trata de medidas repetidas. Estudiar el criterio de importancia en dichos planes es desarrollo lógico caso unidimensional. Tenga en cuenta que las técnicas de análisis multivariado de varianza también se utilizan comúnmente para examinar la importancia de factores univariados de medidas repetidas que tienen más de dos niveles. Las aplicaciones correspondientes se analizarán más adelante en esta parte.

Suma de valores de variables y análisis de varianza multivariado.

Incluso los usuarios experimentados del análisis de varianza univariado y multivariado a menudo encuentran difícil obtener resultados diferentes cuando aplican el análisis de varianza multivariado, por ejemplo, a tres variables, y cuando aplican el análisis de varianza univariado a la suma de estas tres variables, como si eran una sola variable.

Idea suma variables es que cada variable contiene alguna variable verdadera, que se está estudiando, así como un error de medición aleatorio. Por lo tanto, al promediar los valores de las variables, el error de medición estará más cerca de 0 para todas las mediciones y los valores promediados serán más confiables. De hecho, en este caso, aplicar ANOVA a la suma de variables es razonable y es método poderoso. Sin embargo, si las variables dependientes son de naturaleza multidimensional, sumar los valores de las variables no es apropiado.

Por ejemplo, supongamos que las variables dependientes constan de cuatro indicadores. éxito en la sociedad. Cada indicador caracteriza un aspecto completamente independiente de la actividad humana (por ejemplo, éxito profesional, éxito en los negocios, bienestar familiar, etc.). Agregar estas variables es como agregar manzanas y naranjas. La suma de estas variables no sería una medida unidimensional adecuada. Por lo tanto, dichos datos deben tratarse como indicadores multidimensionales en análisis multivariado de varianza.

Análisis de contraste y pruebas post hoc.

¿Por qué se comparan conjuntos separados de promedios?

Normalmente, las hipótesis sobre datos experimentales no se formulan simplemente en términos de efectos o interacciones principales. Un ejemplo sería esta hipótesis: un determinado libro de texto mejora las habilidades matemáticas sólo en los estudiantes varones, mientras que otro libro de texto es aproximadamente igualmente eficaz para ambos sexos, pero sigue siendo menos eficaz para los varones. Se puede predecir que la eficacia de los libros de texto interactúa con el género de los estudiantes. Sin embargo, esta previsión también se aplica naturaleza interacciones. Se espera una diferencia significativa entre géneros para los estudiantes que usan un libro y resultados prácticamente independientes por género para los estudiantes que usan el otro libro. Este tipo de hipótesis suele examinarse mediante análisis de contraste.

Análisis de contrastes

En resumen, el análisis de contraste permite evaluar la significancia estadística de ciertas combinaciones lineales de efectos complejos. El análisis de contraste es el elemento principal y obligatorio de cualquier plan ANOVA complejo. Módulo Análisis de variación tiene una gran variedad de capacidades de análisis de contraste que le permiten aislar y analizar cualquier tipo de comparación de medias.

Posteriormente comparaciones

A veces, como resultado del procesamiento de un experimento, se descubre un efecto inesperado. Aunque en la mayoría de los casos un investigador creativo podrá explicar cualquier resultado, esto no permite realizar más análisis ni estimaciones para la predicción. Este problema es uno de aquellos para los cuales criterios a posteriori, es decir, criterios que no utilizan a priori hipótesis. Para ilustrarlo, considere el siguiente experimento. Supongamos que hay 100 tarjetas que contienen números del 1 al 10. Al colocar todas estas tarjetas en un encabezado, seleccionamos al azar 5 tarjetas 20 veces y calculamos el valor promedio (el promedio de los números escritos en las tarjetas) para cada muestra. ¿Se puede esperar que haya dos muestras cuyas medias sean significativamente diferentes? ¡Esto es muy plausible! Al seleccionar dos muestras con una media máxima y una mínima, se puede obtener una diferencia de medias muy distinta de la diferencia de medias, por ejemplo, de las dos primeras muestras. Esta diferencia se puede explorar, por ejemplo, mediante análisis de contraste. Sin entrar en detalles, existen varios de los llamados posteriormente criterios que se basan exactamente en el primer escenario (tomar medias extremas de 20 muestras), es decir, estos criterios se basan en elegir las medias más diferentes para comparar todas las medias en el diseño. Estos criterios se utilizan para garantizar que no se obtenga un efecto artificial por pura casualidad, por ejemplo, para detectar una diferencia significativa entre medias cuando no la hay. Módulo Análisis de variación ofrece una amplia gama de tales criterios. Cuando se encuentran resultados inesperados en un experimento que involucra a varios grupos, entonces posteriormente procedimientos para examinar la significación estadística de los resultados obtenidos.

Suma de cuadrados tipo I, II, III y IV

Regresión multivariada y análisis de varianza.

Existe una estrecha relación entre el método de regresión multivariante y el análisis de varianza (análisis de varianza). En ambos métodos se estudia un modelo lineal. En resumen, casi todos los diseños experimentales pueden examinarse mediante regresión multivariada. Considere el siguiente diseño simple de intergrupo de 2 x 2.

D.V. A B AxB
3 1 1 1
4 1 1 1
4 1 -1 -1
5 1 -1 -1
6 -1 1 -1
6 -1 1 -1
3 -1 -1 1
2 -1 -1 1

Las columnas A y B contienen códigos que caracterizan los niveles de los factores A y B, la columna AxB contiene el producto de dos columnas A y B. Podemos analizar estos datos mediante regresión multivariada. Variable D.V. definida como una variable dependiente, las variables de A antes AxB como variables independientes. El estudio de significancia de los coeficientes de regresión coincidirá con los cálculos en el análisis de varianza de la significancia de los principales efectos de los factores. A Y B y efecto de interacción AxB.

Planes desequilibrados y equilibrados.

Al calcular la matriz de correlación para todas las variables, como los datos mostrados arriba, notará que los principales efectos de los factores A Y B y efecto de interacción AxB no correlacionado. Esta propiedad de los efectos también se llama ortogonalidad. Dicen que los efectos A Y B - ortogonal o independiente de cada uno. Si todos los efectos en un plan son ortogonales entre sí, como en el ejemplo anterior, entonces se dice que el plan es equilibrado.

Los planes equilibrados tienen “ buena propiedad" Los cálculos para analizar dichos planes son muy sencillos. Todos los cálculos se reducen a calcular la correlación entre los efectos y las variables dependientes. Dado que los efectos son ortogonales, las correlaciones parciales (como en el caso completo) multidimensional regresiones) no se calculan. Sin embargo, en la vida real los planes no siempre están equilibrados.

Consideremos datos reales con un número desigual de observaciones en celdas.

Factor A Factor B
B1 B2
A1 3 4, 5
A2 6, 6, 7 2

Si codificamos estos datos como se indicó anteriormente y calculamos una matriz de correlación para todas las variables, encontramos que los factores de diseño están correlacionados entre sí. Los factores en un plan ya no son ortogonales y dichos planes se llaman desequilibrado. Tenga en cuenta que en el ejemplo considerado, la correlación entre factores se debe enteramente a la diferencia en las frecuencias de 1 y -1 en las columnas de la matriz de datos. En otras palabras, los diseños experimentales con volúmenes celulares desiguales (más precisamente, volúmenes desproporcionados) estarán desequilibrados, lo que significa que los efectos e interacciones principales se confundirán. En este caso, se debe calcular la regresión multivariada completa para calcular la significación estadística de los efectos. Aquí hay varias estrategias.

Suma de cuadrados tipo I, II, III y IV

Tipo suma de cuadradosIYIII. Para examinar la importancia de cada factor en un modelo multivariado, se puede calcular la correlación parcial de cada factor, siempre que todos los demás factores ya estén tenidos en cuenta en el modelo. También puede ingresar factores en el modelo paso a paso, capturando todos los factores ya ingresados ​​en el modelo e ignorando todos los demás factores. En general, esta es la diferencia entre tipo III Y tipoI suma de cuadrados (esta terminología se introdujo en SAS, ver, por ejemplo, SAS, 1982; también se puede encontrar una discusión detallada en Searle, 1987, p. 461; Woodward, Bonett y Brecht, 1990, p. 216; o Milliken y Johnson, 1984, pág.138).

Tipo suma de cuadradosII. La siguiente estrategia de formación de modelos “intermedios” consiste en: controlar todos los efectos principales al examinar la importancia de un solo efecto principal; en controlar todos los efectos principales y todas las interacciones por pares al examinar la importancia de una interacción individual por pares; en controlar todos los efectos principales de todas las interacciones por pares y todas las interacciones de tres factores; al estudiar la interacción individual de tres factores, etc. Las sumas de cuadrados de los efectos calculados de esta manera se denominan tipoII suma de cuadrados. Entonces, tipoII La suma de cuadrados controla todos los efectos del mismo orden e inferiores, ignorando todos los efectos de orden superior.

Tipo suma de cuadradosIV. Finalmente, para algunos planes especiales a los que les faltan celdas (planos incompletos), es posible calcular el llamado tipo IV suma de cuadrados. Este método se analizará más adelante en relación con diseños incompletos (diseños a los que les faltan celdas).

Interpretación de la hipótesis de suma de cuadrados de los tipos I, II y III

Suma de cuadrados tipoIII más fácil de interpretar. Recuerda que las sumas de cuadrados tipoIII examinar los efectos después de controlar todos los demás efectos. Por ejemplo, después de encontrar una estadísticamente significativa tipoIII efecto por factor A en el módulo Análisis de variación, podemos decir que existe un único efecto significativo del factor A, después de introducir todos los demás efectos (factores) e interpretar este efecto en consecuencia. Probablemente en el 99% de todas las aplicaciones ANOVA, este es el tipo de prueba que interesa al investigador. Este tipo de suma de cuadrados suele calcularse en módulo Análisis de variación de forma predeterminada, independientemente de si la opción está seleccionada Enfoque de regresión o no (enfoques estándar adoptados en el módulo Análisis de variación se discute más adelante).

Efectos significativos obtenidos usando sumas de cuadrados. tipo o tipoII Las sumas de cuadrados no son tan fáciles de interpretar. Se interpretan mejor en el contexto de una regresión multivariada por pasos. Si al usar la suma de cuadrados tipoI el efecto principal del factor B fue significativo (después de incluir el factor A en el modelo, pero antes de agregar la interacción entre A y B), podemos concluir que existe un efecto principal significativo del factor B, siempre que no haya interacción. entre los factores A y B. (Si se utiliza el criterio tipoIII, el factor B también resultó ser significativo, entonces podemos concluir que existe un efecto principal significativo del factor B, después de introducir todos los demás factores y sus interacciones en el modelo).

En términos de hipótesis de medias marginales tipoI Y tipoII no suelen tener una interpretación sencilla. En estos casos, se dice que no se puede interpretar la importancia de los efectos mirando sólo los medios marginales. Más bien presentado pag Las medias están relacionadas con una hipótesis compleja que combina medias y tamaño de muestra. Por ejemplo, tipoII las hipótesis para el factor A en el ejemplo simple de un diseño 2 x 2 analizado anteriormente serían (ver Woodward, Bonett y Brecht, 1990, p. 219):

nij- número de observaciones en la celda

uij- valor promedio en la celda

norte. j- promedio marginal

Sin entrar en demasiados detalles (para más detalles, véase Milliken y Johnson, 1984, capítulo 10), está claro que no se trata de hipótesis simples y en la mayoría de los casos ninguna de ellas es de particular interés para el investigador. Sin embargo, hay casos en que las hipótesis tipoI puede ser interesante.

Enfoque computacional predeterminado en el módulo Análisis de variación

Predeterminado si la opción no está marcada Enfoque de regresión, módulo Análisis de variación usos modelo de promedio celular. La característica de este modelo es que las sumas de cuadrados para diferentes efectos se calculan para combinaciones lineales de medias de celdas. En un experimento factorial completo, esto da como resultado sumas de cuadrados que son iguales a las sumas de cuadrados analizadas anteriormente como tipo III. Sin embargo, en la opción Comparaciones planificadas(en la ventana Resultados de ANOVA), el usuario puede probar una hipótesis frente a cualquier combinación lineal de medias de celdas ponderadas o no ponderadas. De este modo, el usuario puede probar no sólo hipótesis tipoIII, pero hipótesis de cualquier tipo (incluyendo tipoIV). Este enfoque general es especialmente útil cuando se examinan diseños a los que les faltan celdas (llamados diseños incompletos).

Para diseños factoriales completos, este enfoque también es útil cuando se desea analizar medias marginales ponderadas. Por ejemplo, supongamos que en el diseño simple 2 x 2 considerado anteriormente, necesitamos comparar ponderados (por niveles de factores) B) medias marginales para el factor A. Esto es útil cuando la distribución de observaciones entre celdas no fue preparada por el experimentador, sino que se construyó aleatoriamente, y esta aleatoriedad se refleja en la distribución del número de observaciones entre los niveles del factor B en el agregar.

Por ejemplo, hay un factor: la edad de las viudas. La posible muestra de encuestados se divide en dos grupos: menores de 40 años y mayores de 40 (factor B). El segundo factor (Factor A) del plan era si las viudas recibían o no apoyo social de alguna agencia (algunas viudas fueron seleccionadas al azar, otras sirvieron como controles). En este caso, la distribución de viudas por edad en la muestra refleja la distribución real de viudas por edad en la población. Evaluación de la eficacia del grupo apoyo social viudas por todas las edades corresponderá a un promedio ponderado para dos grupos de edad (con ponderaciones correspondientes al número de observaciones en el grupo).

Comparaciones planificadas

Tenga en cuenta que la suma de los coeficientes de contraste ingresados ​​no es necesariamente igual a 0 (cero). En cambio, el programa realizará ajustes automáticamente para garantizar que las hipótesis correspondientes no se confundan con el promedio general.

Para ilustrar esto, volvamos al plan simple de 2 x 2 discutido anteriormente. Recuerde que el número de observaciones en las celdas de este diseño desequilibrado es -1, 2, 3 y 1. Supongamos que queremos comparar las medias marginales ponderadas para el factor A (ponderadas por la frecuencia de los niveles del factor B). Puede introducir coeficientes de contraste:

Tenga en cuenta que estos coeficientes no suman 0. El programa establecerá los coeficientes para que sumen 0 y sus valores relativos se conservarán, es decir:

1/3 2/3 -3/4 -1/4

Estos contrastes compararán las medias ponderadas del Factor A.

Hipótesis sobre el promedio principal. La hipótesis de que la media principal no ponderada es 0 se puede explorar utilizando los coeficientes:

La hipótesis de que la media principal ponderada es 0 se prueba utilizando:

En ningún caso el programa ajusta las relaciones de contraste.

Análisis de planos con celdas faltantes (planos incompletos)

Los diseños factoriales que contienen celdas vacías (que procesan combinaciones de celdas que no tienen observaciones) se denominan incompletos. En tales diseños, algunos factores normalmente no son ortogonales y algunas interacciones no se pueden calcular. No existe en absoluto mejor método análisis de dichos planes.

Enfoque de regresión

En algunos programas más antiguos que se basan en el análisis de diseños ANOVA mediante regresión multivariada, los factores en diseños incompletos se especifican de forma predeterminada como de costumbre (como si el diseño estuviera completo). Entonces un multidimensional análisis de regresión para estos factores codificados ficticios. Desafortunadamente, este método produce resultados que son muy difíciles, si no imposibles, de interpretar porque no está claro cómo contribuye cada efecto a la combinación lineal de medias. Considere el siguiente ejemplo sencillo.

Factor A Factor B
B1 B2
A1 3 4, 5
A2 6, 6, 7 Omitido

Si realizamos una regresión multivariada de la forma Variable dependiente = Constante + Factor A + Factor B, entonces la hipótesis sobre la importancia de los factores A y B en términos de combinaciones lineales de medias se ve así:

Factor A: Celda A1,B1 = Celda A2,B1

Factor B: Celda A1,B1 = Celda A1,B2

Este caso es sencillo. En diseños más complejos, es imposible determinar exactamente qué se examinará.

Medias celulares, enfoque ANOVA , Hipótesis tipo IV

El enfoque recomendado en la literatura y que parece preferible es estudiar datos significativos (en términos de preguntas de investigación) a priori hipótesis sobre los medios observados en las celdas del plan. Se puede encontrar una discusión detallada de este enfoque en Dodge (1985), Heiberger (1989), Milliken y Johnson (1984), Searle (1987) o Woodward, Bonett y Brecht (1990). Las sumas de cuadrados asociadas con hipótesis sobre la combinación lineal de medias en diseños incompletos que examinan estimaciones de parte de los efectos también se denominan sumas de cuadrados. IV.

Generación automática de hipótesis de tipo.IV. Cuando los diseños multivariados tienen patrones complejos de celdas faltantes, es deseable definir hipótesis ortogonales (independientes), cuyo estudio equivale al estudio de los efectos o interacciones principales. Se han desarrollado estrategias algorítmicas (computacionales) (basadas en la matriz de diseño pseudoinversa) para generar ponderaciones adecuadas para tales comparaciones. Lamentablemente, las hipótesis finales no están definidas de forma única. Por supuesto, dependen del orden en que se identificaron los efectos y rara vez permiten una interpretación simple. Por lo tanto, se recomienda estudiar detenidamente la naturaleza de las células faltantes y luego formular hipótesis. tipoIV, que corresponden de manera más significativa a los objetivos del estudio. Luego explora estas hipótesis usando la opción Comparaciones planificadas en la ventana resultados. La forma más sencilla de especificar comparaciones en este caso es exigir la introducción de un vector de contrastes para todos los factores. juntos en la ventana Comparaciones planificadas. Después de llamar al cuadro de diálogo Comparaciones planificadas Se mostrarán todos los grupos. plan actual y se marcan los que faltan.

Células faltantes y pruebas de efecto específico.

Hay varios tipos de diseños en los que la ubicación de las celdas faltantes no es aleatoria, sino que se planifica cuidadosamente, lo que permite un análisis simple de los efectos principales sin afectar otros efectos. Por ejemplo, cuando la cantidad requerida de celdas en un plan no está disponible, a menudo se usan planes cuadrados latinos estimar los efectos principales de varios factores con un gran número de niveles. Por ejemplo, un diseño factorial de 4 x 4 x 4 x 4 requiere 256 celdas. Al mismo tiempo puedes usar Plaza grecolatina estimar los efectos principales con sólo 16 celdas en el diseño (Capítulo Planificación de experimentos, Tomo IV, contiene una descripción detallada de dichos planes). Los diseños incompletos en los que los efectos principales (y algunas interacciones) pueden estimarse utilizando combinaciones lineales simples de medias se denominan planes incompletos equilibrados.

En diseños equilibrados, el método estándar (predeterminado) de generar contrastes (ponderaciones) para los efectos e interacciones principales producirá una tabla de análisis de varianzas en la que las sumas de cuadrados de los efectos respectivos no se confunden entre sí. Opción Efectos específicos ventana resultados generará contrastes faltantes escribiendo un cero en las celdas del plan faltantes. Inmediatamente después de solicitar la opción Efectos específicos para el usuario que examina alguna hipótesis, aparece una tabla de resultados con los pesos reales. Tenga en cuenta que en un diseño equilibrado, las sumas de cuadrados de los efectos correspondientes se calculan sólo si esos efectos son ortogonales (independientes) de todos los demás efectos e interacciones principales. De lo contrario, debe utilizar la opción Comparaciones planificadas explorar comparaciones significativas entre medias.

Celdas faltantes y efectos agrupados/términos de error

si opción Enfoque de regresión en el panel de inicio del módulo Análisis de variación no está seleccionado, el modelo de promedio de celdas se utilizará al calcular la suma de cuadrados para los efectos (la configuración predeterminada). Si el diseño no está equilibrado, entonces al combinar efectos no ortogonales (consulte la discusión anterior sobre la opción Células perdidas y efecto específico.) se puede obtener una suma de cuadrados que consta de componentes no ortogonales (o superpuestos). Los resultados obtenidos normalmente no son interpretables. Por lo tanto, se debe tener mucho cuidado al seleccionar e implementar diseños experimentales complejos e incompletos.

Hay muchos libros con discusiones detalladas sobre diferentes tipos de planes. (Dodge, 1985; Heiberger, 1989; Lindman, 1974; Milliken y Johnson, 1984; Searle, 1987; Woodward y Bonett, 1990), pero este tipo de información está más allá del alcance de este libro de texto. Sin embargo, se demostrará un análisis más adelante en esta sección. varios tipos planes.

Supuestos y efectos de violarlos

Desviación del supuesto de distribuciones normales.

Supongamos que la variable dependiente se mide en una escala numérica. Supongamos también que la variable dependiente se distribuye normalmente dentro de cada grupo. Análisis de variación contiene una amplia gama de gráficos y estadísticas que respaldan esta suposición.

Efectos de la disrupción. En absoluto F la prueba es muy robusta ante las desviaciones de la normalidad (para resultados detallados, véase Lindman, 1974). Si la curtosis es mayor que 0, entonces el valor del estadístico es F puede volverse muy pequeño. Se acepta la hipótesis nula, aunque puede no ser cierta. La situación se invierte cuando la curtosis es menor que 0. La asimetría de la distribución generalmente tiene poco efecto sobre F Estadísticas. Si el número de observaciones en una celda es lo suficientemente grande, entonces la desviación de la normalidad no es particularmente significativa debido a teorema del límite central, según el cual la distribución del valor medio es cercana a la normal, independientemente de la distribución inicial. Discusión detallada sobre la sostenibilidad. F Las estadísticas se pueden encontrar en Box y Anderson (1955) o Lindman (1974).

Uniformidad de varianza

Suposiciones. Se supone que las variaciones de diferentes grupos de diseño son las mismas. Esta suposición se llama suposición. homogeneidad de la varianza. Recuerde que al comienzo de esta sección, al describir el cálculo de la suma de errores cuadrados, realizamos la suma dentro de cada grupo. Si las varianzas en dos grupos son diferentes entre sí, entonces sumarlas no es muy natural y no proporciona una estimación de la varianza total dentro del grupo (ya que en este caso no hay ninguna varianza total). Módulo Análisis de variación -ANOVA/MANOVA contiene un gran conjunto criterios estadísticos detectar desviaciones de los supuestos de homogeneidad de varianza.

Efectos de la disrupción. Lindman (1974, p. 33) muestra que F el criterio es bastante estable con respecto a la violación de los supuestos de homogeneidad de la varianza ( heterogeneidad variación, véase también Box, 1954a, 1954b; Hsu, 1938).

Caso especial: correlación de medias y varianzas. Hay momentos en que F las estadísticas pueden engañar. Esto sucede cuando las medias de las celdas de diseño se correlacionan con la varianza. Módulo Análisis de variación le permite construir diagramas de dispersión de dispersión o Desviación Estándar en relación con los promedios para detectar dicha correlación. La razón por la que esta correlación es peligrosa es la siguiente. Imaginemos que hay 8 celdas en el plan, 7 de las cuales tienen casi el mismo promedio, y en una celda el promedio es mucho mayor que las demás. Entonces F la prueba puede detectar un efecto estadísticamente significativo. Pero supongamos que en una celda con un valor promedio grande la varianza es significativamente mayor que las demás, es decir el valor promedio y la varianza en las celdas son dependientes (cuanto mayor es el promedio, mayor es la varianza). En este caso, un promedio grande no es confiable porque puede deberse a una gran variación en los datos. Sin embargo F estadísticas basadas en unido La varianza dentro de las celdas capturará la media general, aunque las pruebas basadas en la varianza dentro de cada celda no considerarán que todas las diferencias en las medias sean significativas.

Este tipo de datos (media grande y varianza grande) ocurre a menudo cuando hay observaciones atípicas. Una o dos observaciones atípicas modifican considerablemente la media y aumentan considerablemente la varianza.

Homogeneidad de varianza y covarianza

Suposiciones. Los diseños multivariados con medidas dependientes multivariadas también aplican el supuesto de homogeneidad de la varianza descrito anteriormente. Sin embargo, dado que existen variables dependientes multivariadas, también se requiere que sus correlaciones cruzadas (covarianzas) sean uniformes en todas las celdas del diseño. Módulo Análisis de variación ofrece diferentes formas de probar estos supuestos.

Efectos de la disrupción. Análogo multidimensional F- criterio: prueba λ de Wilks. No se sabe mucho sobre la solidez de la prueba λ de Wilks con respecto a violaciones de los supuestos anteriores. Sin embargo, dado que la interpretación de los resultados del módulo Análisis de variación generalmente se basa en la importancia de los efectos univariados (después de establecer la importancia del criterio general), la discusión sobre la robustez se refiere principalmente al análisis univariado de la varianza. Por lo tanto, se debe examinar cuidadosamente la importancia de los efectos univariados.

Caso especial: análisis de covarianza. Pueden ocurrir violaciones particularmente graves de la homogeneidad de la varianza/covarianza cuando se incluyen covariables en el diseño. En particular, si la correlación entre las covariables y las medidas dependientes varía entre las celdas del diseño, puede producirse una interpretación errónea de los resultados. Recuerde que el análisis de covarianza esencialmente realiza un análisis de regresión dentro de cada celda para aislar esa parte de la varianza que se explica por la covariable. El supuesto de homogeneidad de varianza/covarianza sugiere que este análisis de regresión se realiza a la siguiente limitación: Todas las ecuaciones de regresión (pendientes) son iguales para todas las celdas. Si esto no es lo esperado, entonces puede aparecer grandes errores. Módulo Análisis de variación tiene varios criterios especiales para probar esta suposición. Es aconsejable utilizar estos criterios para garantizar que las ecuaciones de regresión para diferentes celdas sean aproximadamente iguales.

Esfericidad y simetría compleja: razones para utilizar un enfoque multivariado para medidas repetidas en el análisis de varianza

En diseños que contienen factores de medidas repetidas con más de dos niveles, el uso de ANOVA univariado requiere supuestos adicionales: el supuesto de simetría compuesta y el supuesto de esfericidad. Estos supuestos rara vez se cumplen (ver más abajo). Por lo tanto, en los últimos años, el análisis multivariado de varianza ha ganado popularidad en este tipo de diseños (ambos enfoques se combinan en el módulo Análisis de variación).

Supuesto de simetría compleja. El supuesto de simetría compuesta es que las varianzas (compartidas dentro de los grupos) y las covarianzas (compartidas dentro de los grupos) para diferentes medidas repetidas son homogéneas (iguales). Esta es una condición suficiente para que la prueba F univariada para medidas repetidas sea válida (es decir, los valores F informados son, en promedio, consistentes con la distribución F). Sin embargo, en este caso esta condición no es necesaria.

Suposición de esfericidad. El supuesto de esfericidad es una condición necesaria y suficiente para que la prueba F sea válida. Consiste en que dentro de los grupos todas las observaciones son independientes y están igualmente distribuidas. La naturaleza de estos supuestos y el impacto de violarlos no suelen estar bien descritos en los libros sobre ANOVA; estos se tratarán en los párrafos siguientes. También se mostrará que los resultados de un enfoque univariado pueden diferir de los resultados de un enfoque multivariado, y se explicará lo que esto significa.

La necesidad de independencia de hipótesis. La forma general de analizar datos en ANOVA es ajuste del modelo. Si, en relación con el modelo que se ajusta a los datos, hay algunos a priori hipótesis, luego la varianza se divide para probar estas hipótesis (criterios para efectos principales, interacciones). Desde un punto de vista computacional, este enfoque genera un conjunto de contrastes (un conjunto de comparaciones de medias del plan). Sin embargo, si los contrastes no son independientes entre sí, la partición de las variaciones deja de tener sentido. Por ejemplo, si dos contrastes A Y B son idénticos y se extrae la parte correspondiente de la varianza, luego se extrae la misma parte dos veces. Por ejemplo, es estúpido e inútil identificar dos hipótesis: "la media de la celda 1 es mayor que la media de la celda 2" y "la media de la celda 1 es mayor que la media de la celda 2". Entonces, las hipótesis deben ser independientes u ortogonales.

Hipótesis independientes en medidas repetidas. Algoritmo general implementado en el módulo. Análisis de variación, intentará generar contrastes independientes (ortogonales) para cada efecto. Para el factor de medidas repetidas, estos contrastes proporcionan muchas hipótesis sobre diferencias entre los niveles del factor considerado. Sin embargo, si estas diferencias están correlacionadas dentro de los grupos, entonces los contrastes resultantes ya no son independientes. Por ejemplo, en la enseñanza donde se mide a los estudiantes tres veces en un semestre, puede suceder que el cambio entre la primera y segunda medición se correlacione negativamente con el cambio entre la segunda y tercera medición de las materias. Aquellos que dominaron la mayor parte del material entre la 1ª y 2ª dimensión dominan una parte más pequeña durante el tiempo que pasó entre la 2ª y la 3ª dimensión. De hecho, en la mayoría de los casos en los que se utiliza ANOVA para medidas repetidas, se puede suponer que los cambios entre niveles están correlacionados entre los sujetos. Sin embargo, cuando esto sucede, el supuesto de simetría compleja y el supuesto de esfericidad no se cumplen y no se pueden calcular contrastes independientes.

El impacto de las violaciones y las formas de corregirlas. Cuando no se cumplen supuestos complejos de simetría o esfericidad, ANOVA puede producir resultados erróneos. Antes de que los procedimientos multivariados estuvieran suficientemente desarrollados, se propusieron varios supuestos para compensar las violaciones de estos supuestos. (Ver, por ejemplo, Greenhouse & Geisser, 1959 y Huynh & Feldt, 1970). Estos métodos todavía se utilizan ampliamente (por eso se presentan en el módulo Análisis de variación).

Un enfoque de análisis multivariado de varianza para medidas repetidas. En general, los problemas de simetría y esfericidad complejas se relacionan con el hecho de que los conjuntos de contrastes incluidos en el estudio de los efectos de factores de medidas repetidas (con más de 2 niveles) no son independientes entre sí. Sin embargo, no es necesario que sean independientes si se utilizan. multidimensional criterio de verificación simultánea significancia estadística Dos o más medidas repetidas contrastan factores. Esta es la razón por la que las técnicas de análisis multivariado de varianza se utilizan cada vez más para probar la importancia de factores univariados de medidas repetidas con más de 2 niveles. Este enfoque es ampliamente aceptado porque generalmente no requiere simetría o esfericidad complejas.

Casos en los que no se puede utilizar el enfoque del análisis multivariado de la varianza. Hay ejemplos (diseños) en los que no se puede aplicar el análisis multivariado de la varianza. Estos son casos típicos en los que hay una pequeña cantidad de sujetos en el diseño y muchos niveles en el factor de medidas repetidas. Entonces puede haber muy pocas observaciones para realizar un análisis multivariado. Por ejemplo, si hay 12 sujetos, pag = 4 factor de medidas repetidas, y cada factor tiene k = 3 niveles. Entonces la interacción de 4 factores "consumirá" (k-1)P = 2 4 = 16 grados de libertad. Sin embargo, solo hay 12 sujetos, por lo que en este ejemplo no se puede realizar una prueba multivariada. Módulo Análisis de variación detectará de forma independiente estas observaciones y calculará solo criterios unidimensionales.

Diferencias en resultados univariados y multivariados. Si un estudio involucra una gran cantidad de medidas repetidas, puede haber casos en los que el enfoque ANOVA de medidas repetidas univariadas produzca resultados que sean muy diferentes de los obtenidos con el enfoque multivariado. Esto significa que las diferencias entre los niveles de las medidas repetidas correspondientes están correlacionadas entre los sujetos. A veces este hecho tiene algún interés independiente.

Análisis multivariado de varianza y modelado de ecuaciones estructurales.

En los últimos años, el modelado de ecuaciones estructurales se ha vuelto popular como una alternativa al análisis multivariado de la varianza (ver, por ejemplo, Bagozzi y Yi, 1989; Bagozzi, Yi y Singh, 1991; Cole, Maxwell, Arvey y Salas, 1993). . Este enfoque permite probar hipótesis no sólo sobre medias en diferentes grupos, sino también sobre matrices de correlación de variables dependientes. Por ejemplo, se podrían relajar los supuestos de homogeneidad de varianzas y covarianzas e incluir explícitamente varianzas y covarianzas de error en el modelo para cada grupo. Módulo ESTADÍSTICAModelado de ecuaciones estructurales (SEPATH) (ver Volumen III) permite tal análisis.

Definiciones generales

El propósito del análisis de varianza (ANOVA - Análisis de variación) es probar la importancia de la diferencia entre las medias en diferentes grupos comparando las varianzas de estos grupos. Dividir la varianza total en múltiples fuentes (atribuibles a diferentes efectos de diseño) permite comparar la varianza debida a la variación entre grupos con la varianza debida a la variación dentro del grupo.

La hipótesis que se está probando es que no hay diferencia entre los grupos. Si la hipótesis nula es cierta, la estimación de la varianza asociada con la variabilidad dentro del grupo debería ser cercana a la estimación de la varianza entre grupos. Si es falso, es significativo desviarse.

En general, el análisis de varianza se puede dividir en varios tipos:

  • unidimensional (una variable dependiente) y multidimensional (varias variables dependientes);

  • univariado (una variable de agrupamiento) y multifactorial (varias variables de agrupamiento) con posible interacción entre factores;

  • con mediciones simples (la variable dependiente se mide una sola vez) y con mediciones repetidas (la variable dependiente se mide varias veces).

EN ESTADÍSTICA Se implementan todos los modelos conocidos de análisis de varianza.

EN ESTADÍSTICA El análisis de varianza se puede realizar utilizando el módulo ANOVA en el bloque. Base estadística (Análisis -> Análisis de Varianza(DA)). Para construir un tipo especial de modelo, use versión completa Análisis de varianza, presentado en módulos. Modelos lineales generales, Modelos lineales y no lineales generalizados., Modelos de regresión generales, Modelos generales de privado. mínimos cuadrados de la cuadra Técnicas de análisis avanzadas (STATISTICA Modelos lineales/no lineales avanzados).

al principio

Ejemplo paso a paso en ESTADÍSTICA

Ilustraremos el poder de ANOVA en ESTADÍSTICA, mirando un ejemplo de modelo paso a paso.

El archivo de datos fuente describe una población de personas con diferentes niveles de ingresos, educación, edad y género. Consideremos cómo el nivel educativo, la edad y el género influyen en el nivel de ingresos.

Por edad, todas las personas se dividieron en cuatro grupos:

  • hasta 30 años;

  • de 31 a 40 años;

  • de 41 a 50 años;

  • a partir de 51 años.

Según el nivel de educación, se dividió en 5 grupos:

  • secundaria incompleta;

  • promedio;

  • vocacional secundaria;

  • educación superior incompleta;

  • más alto.

Dado que se trata de datos modelo, los resultados obtenidos serán principalmente de naturaleza cualitativa e ilustrarán el método de realización del análisis.

Paso 1: Seleccionar un análisis

Seleccionemos análisis de varianza del menú: Análisis -> Métodos de análisis avanzados -> Modelos lineales generales.

Arroz. 1. Seleccionar ANOVA en el menú desplegable ESTADÍSTICA

A continuación se abrirá una ventana en la que se presentan varios tipos de análisis. Elegir Tipo de análisisAnálisis factorial de varianza.


Arroz. 2. Seleccionar el tipo de análisis

En esta ventana también puede elegir cómo construir un modelo: modo de diálogo o utilizar el asistente de análisis. Seleccionemos el modo de diálogo.

Paso 2: Configuración de variables

Desde el archivo de datos abierto, seleccione las variables para el análisis, haga clic en el botón variables, estás tomando:

Ingreso- variable dependiente,

El nivel de educación, Piso Y Edad– factores categóricos (predictores).

Darse cuenta de Códigos de factores en este ejemplo simple no es necesario especificarlo. Cuando presionas el botón DE ACUERDO, ESTADÍSTICA los configurará automáticamente.


Arroz. 3. Configuración de variables

Paso 3: cambiar las opciones

vamos a la pestaña Opciones en la ventana Factorial GLM SI.


Arroz. 4. Pestaña Opciones

En este cuadro de diálogo puede:

  • seleccionar factores aleatorios;

  • establecer el tipo de parametrización del modelo;

  • indicar el tipo de sumas de cuadrados (SS), existen 6 sumas de cuadrados (SS) diferentes;

  • permitir el control cruzado.

Dejemos todas las configuraciones predeterminadas (esto es suficiente en la mayoría de los casos) y presionemos el botón DE ACUERDO.

Paso 4. Analice los resultados: vea todos los efectos

Los resultados del análisis se pueden ver en la ventana. resultados usando pestañas y grupos de botones. Consideremos, por ejemplo, la pestaña Resultados.


Arroz. 5. Ventana de análisis de resultados: pestaña Resultados

Desde esta pestaña puede acceder a todos los resultados principales. Utilice las otras pestañas para obtener más resultados. Botón Menos le permite modificar el cuadro de diálogo de resultados eliminando pestañas que no se utilizan normalmente.

Cuando se presiona el botón Ver todos los efectos obtenemos la siguiente tabla.


Arroz. 6. Tabla de todos los efectos.

Esta tabla muestra los principales resultados del análisis: sumas de cuadrados, grados de libertad, valores de la prueba F, niveles de significancia.

Para facilitar el estudio, los efectos significativos (p<.05) выделены красным цветом. Два главных эффекта (El nivel de educación Y Edad) y algunas interacciones en este ejemplo son significativas (p<.05).

Paso 5. Analizar los resultados: ver los efectos especificados

La mejor manera de ver cómo varía el ingreso promedio entre categorías es utilizar herramientas gráficas. Cuando presionas el botón Todos los efectos/gráficos Aparecerá el siguiente cuadro de diálogo.


Arroz. 7. Tabla de ventana de todos los efectos.

La ventana enumera todos los efectos que se están considerando. Los efectos estadísticamente significativos están marcados con *.

Por ejemplo, seleccionemos el efecto. Edad, en grupo Mostrar indiquemos Mesa y haga clic DE ACUERDO. Aparece una tabla que muestra el valor medio de la variable dependiente para cada nivel de efecto. (Ingreso), valor de error estándar y límites de confianza.


Arroz. 8. Tabla con estadísticos descriptivos por niveles de la variable Edad

Es conveniente presentar esta tabla en forma gráfica. Para esto elegimos Cronograma en grupo Mostrar caja de diálogo Mesa todos los efectos y presione DE ACUERDO. Aparecerá el gráfico correspondiente.


Arroz. 9. Gráfico de ingreso promedio versus edad

El gráfico muestra claramente que existe una diferencia en los niveles de ingresos entre grupos de personas de diferentes edades. Cuanto mayor es la edad, mayores son los ingresos.

Realizaremos operaciones similares para la interacción de varios factores. En el cuadro de diálogo vamos a escoger Piso*Edad y haga clic DE ACUERDO.


Arroz. 10. Gráfico de ingresos medios según sexo y edad

Se obtuvo un resultado inesperado: para los encuestados menores de 50 años, el nivel de ingresos aumenta con la edad y no depende del sexo; Para las personas encuestadas mayores de 50 años, las mujeres tienen ingresos significativamente mayores que los hombres.

Vale la pena construir el gráfico resultante en términos de nivel educativo. Quizás este patrón se viole en algunas categorías o, por el contrario, sea universal. Para esto elegimos El nivel de educación * Piso* Edad y haga clic DE ACUERDO.


Arroz. 11. Gráfico de ingresos medios según sexo, edad, nivel de educación.

Vemos que la dependencia resultante no es típica de la educación secundaria y profesional secundaria. En otros casos es justo.

Paso 6. Análisis de resultados: evaluación de la calidad del modelo.

Arriba, se utilizaron principalmente medios gráficos de análisis de varianza. Veamos algunos otros resultados útiles que se pueden obtener.

En primer lugar, es interesante ver en qué medida la varianza se explica por los factores en cuestión y sus interacciones. Para ello, en la pestaña Resultados haga clic en el botón Modelos R generales. Aparecerá la siguiente tabla.

Arroz. 12. Tabla de modelo SS y residuos de SS.

El número en la columna Conjunto. R2 – coeficiente de correlación múltiple al cuadrado; muestra qué proporción de variabilidad se explica por el modelo construido. En nuestro caso, R2 = 0,195, lo que indica la baja calidad del modelo. De hecho, los niveles de ingresos están influenciados no sólo por los factores incluidos en el modelo.

Paso 7. Análisis de resultados - análisis de contraste

A menudo es necesario no sólo establecer la diferencia en el valor medio de la variable dependiente para diferentes categorías, sino también establecer la magnitud de la diferencia para categorías dadas. Para ello, es necesario explorar los contrastes.

Como se demostró anteriormente, el nivel de ingresos de hombres y mujeres difiere significativamente para las edades mayores de 51 años; en otros casos, la diferencia no es significativa. Derivemos la diferencia en los niveles de ingresos de hombres y mujeres mayores de 51 años y entre 40 y 50 años.

Para hacer esto, vaya a la pestaña Contrastes y establezca todos los valores de la siguiente manera.


Arroz. 13. Pestaña Contrastes

Cuando se presiona el botón Calcular Aparecerán varias tablas. Nos interesa una tabla con estimaciones de contraste.


Arroz. 14. Tabla de evaluación de contraste

Se pueden sacar las siguientes conclusiones:

  • para hombres y mujeres mayores de 51 años la diferencia de ingresos es de $48,7 mil, la diferencia es significativa;

  • para hombres y mujeres de 41 a 50 años, la diferencia de ingresos es de 1,73 mil dólares, diferencia que no es significativa.

Del mismo modo, puedes establecer contrastes más complejos o utilizar uno de los conjuntos predefinidos.

Paso 8: Resultados adicionales

Usando las pestañas restantes de la ventana de resultados, puede obtener los siguientes resultados:

  • valores promedio de la variable dependiente para el efecto seleccionado – pestaña Promedio;

  • comprobación de criterios a posteriori (post hoc) – pestaña Posteriormente;

  • comprobar los supuestos hechos para ANOVA – pestaña Suposiciones;

  • crear perfiles de respuesta/conveniencia – pestaña Perfiles;

  • Análisis de residuos – pestaña Sobras;

  • salida de matrices utilizadas en el análisis – pestaña matrices;

  • El uso de estadísticas en esta nota se ilustrará con un ejemplo transversal. Digamos que eres el director de producción de Perfect Parachute. Los paracaídas están fabricados con fibras sintéticas suministradas por cuatro proveedores diferentes. Una de las principales características de un paracaídas es su resistencia. Debe asegurarse de que todas las fibras suministradas tengan la misma resistencia. Para responder a esta pregunta, se debe diseñar un diseño experimental para medir la resistencia de los paracaídas tejidos con fibras sintéticas. diferentes proveedores. La información obtenida de este experimento determinará qué proveedor proporciona los paracaídas más duraderos.

    Muchas aplicaciones implican experimentos que consideran múltiples grupos o niveles de un solo factor. Algunos factores, como la temperatura de cocción de la cerámica, pueden tener múltiples niveles numéricos (es decir, 300°, 350°, 400° y 450°). Otros factores, como la ubicación de los artículos en un supermercado, pueden tener niveles categóricos (por ejemplo, primer proveedor, segundo proveedor, tercer proveedor, cuarto proveedor). Los experimentos de un solo factor en los que las unidades experimentales se asignan aleatoriamente a grupos o niveles de factores se denominan completamente aleatorios.

    UsoF-criterios para evaluar las diferencias entre varias expectativas matemáticas

    Si las mediciones numéricas del factor en los grupos son continuas y se cumplen algunas condiciones adicionales, se utiliza el análisis de varianza (ANOVA) para comparar las expectativas matemáticas de varios grupos. Un análisis oh F Virginia rianza). El análisis de varianza utilizando diseños completamente aleatorios se denomina procedimiento ANOVA unidireccional. En cierto modo, el término análisis de varianza es un nombre inapropiado porque compara diferencias entre los valores esperados de grupos en lugar de entre varianzas. Sin embargo, la comparación de expectativas matemáticas se realiza precisamente sobre la base de un análisis de variación de datos. En el procedimiento ANOVA, la variación total en los resultados de la medición se divide entre grupos y dentro de grupos (Fig. 1). La variación dentro del grupo se explica por el error experimental, y la variación entre grupos se explica por los efectos de las condiciones experimentales. Símbolo Con denota el número de grupos.

    Arroz. 1. Variación de partición en un experimento completamente aleatorio

    Descarga la nota en formato o, ejemplos en formato

    pretendamos que Con Los grupos se extraen de poblaciones independientes que tienen una distribución normal y varianza igual. La hipótesis nula es que las expectativas matemáticas de las poblaciones son las mismas: H 0: μ 1 = μ 2 = ... = μ s. La hipótesis alternativa establece que no todas las expectativas matemáticas son iguales: H 1: no todos los μ j son iguales j= 1, 2,…, s).

    En la Fig. La Figura 2 presenta la verdadera hipótesis nula sobre las expectativas matemáticas de los cinco grupos comparados, siempre que las poblaciones tengan una distribución normal y la misma varianza. Las cinco poblaciones asociadas con diferentes niveles del factor son idénticas. En consecuencia, se superponen unos a otros, teniendo la misma expectativa, variación y forma matemática.

    Arroz. 2. Cinco poblaciones generales tienen la misma expectativa matemática: μ 1 = μ 2 = μ 3 = μ 4 = μ 5

    Por otro lado, supongamos que, de hecho, la hipótesis nula es falsa, donde el cuarto nivel tiene el valor esperado más alto, el primer nivel tiene un valor esperado ligeramente más bajo y los niveles restantes tienen los mismos valores esperados e incluso más bajos ( Figura 3). Tenga en cuenta que, con excepción de los valores esperados, las cinco poblaciones son idénticas (es decir, tienen la misma variabilidad y forma).

    Arroz. 3. Se observa el efecto de las condiciones experimentales: μ 4 > μ 1 > μ 2 = μ 3 = μ 5

    Al probar la hipótesis sobre la igualdad de expectativas matemáticas de varias poblaciones generales, la variación total se divide en dos partes: variación intergrupal, debida a diferencias entre grupos, y variación intragrupal, debida a diferencias entre elementos pertenecientes a un mismo grupo. La variación total se expresa por la suma total de cuadrados (SST – suma de cuadrados total). Dado que la hipótesis nula es que las expectativas matemáticas de todos Con Los grupos son iguales entre sí, la variación total es igual a la suma de las diferencias al cuadrado entre las observaciones individuales y el promedio general (promedio de promedios), calculado para todas las muestras. Variación completa:

    Dónde - promedio general, X ij - i-e observación en j-grupo o nivel, nj- número de observaciones en jº grupo, norte - total observaciones en todos los grupos (es decir, norte = norte 1 + norte 2 + … + n c), Con- número de grupos o niveles estudiados.

    Variación entre grupos, generalmente llamada suma de cuadrados entre grupos (SSA – suma de cuadrados entre grupos), es igual a la suma de cuadrados de las diferencias entre las medias muestrales de cada grupo j y promedio general , multiplicado por el volumen del grupo correspondiente nj:

    Dónde Con- número de grupos o niveles estudiados, nj- número de observaciones en jº grupo, j- valor promedio jº grupo, - media general.

    Variación dentro del grupo, generalmente llamada suma de cuadrados dentro del grupo (SSW – suma de cuadrados dentro de grupos), es igual a la suma de cuadrados de las diferencias entre los elementos de cada grupo y la media muestral de este grupo j:

    Dónde Xyo - i elemento jº grupo, j- valor promedio jº grupo.

    ya que se comparan Con niveles de factores, la suma de cuadrados intergrupo tiene s – 1 grados de libertad. Cada uno de Con niveles tiene nj – 1 grados de libertad, por lo que la suma de cuadrados intragrupo tiene norte- Con grados de libertad y

    Además, la suma total de cuadrados tiene norte – 1 grados de libertad, ya que cada observación Xyo se compara con el promedio general calculado sobre todos norte observaciones. Si se divide cada una de estas sumas por el número correspondiente de grados de libertad, surgen tres tipos de dispersión: intergrupo(media cuadrática entre - MSA), intragrupo(media cuadrática dentro de - RSU) y lleno(media cuadrática total - MST):

    A pesar de que el objetivo principal del análisis de varianza es comparar expectativas matemáticas Con grupos con el fin de identificar el efecto de las condiciones experimentales, su nombre se debe a que la herramienta principal es el análisis de varianzas de varios tipos. Si la hipótesis nula es cierta y entre las expectativas matemáticas Con En los grupos no hay diferencias significativas, las tres varianzas (MSA, MSW y MST) son estimaciones de varianza. s 2 inherente a los datos analizados. Por lo tanto, para probar la hipótesis nula H 0: μ 1 = μ 2 = ... = μ s e hipótesis alternativa H 1: no todos los μ j son iguales j = 1, 2, …, Con), es necesario calcular estadísticas F-criterio, que es la relación de dos varianzas, MSA y RSU. Prueba F-estadísticas en análisis de varianza unidireccional

    Estadísticas F-sujeto a criterios F-distribución con s – 1 grados de libertad en el numerador M.S.A. Y norte – s grados de libertad en el denominador MSW. Para un nivel de significancia dado α, la hipótesis nula se rechaza si el valor calculado F FUd., inherente F-distribución con s – 1 norte – s grados de libertad en el denominador. Así, como se muestra en la Fig. 4, regla decisiva formulado de la siguiente manera: hipótesis nula H 0 rechazado si F>FUd.; en caso contrario no se rechaza.

    Arroz. 4. Área crítica del análisis de varianza al probar una hipótesis H 0

    Si la hipótesis nula H 0 es cierto, calculado F-la estadística es cercana a 1, ya que su numerador y denominador son estimaciones de la misma cantidad: la dispersión σ 2 inherente a los datos analizados. Si la hipótesis nula H 0 es falso (y hay una diferencia significativa entre las expectativas matemáticas de diferentes grupos), calculado F-La estadística será mucho mayor que uno porque su numerador, MSA, estima, además de la variabilidad natural de los datos, el efecto de las condiciones experimentales o la diferencia entre grupos, mientras que el denominador MSW estima sólo la variabilidad natural de los datos. . Por tanto, el procedimiento ANOVA es F-criterio en el que, para un nivel de significancia dado α, se rechaza la hipótesis nula si el valor calculado F-las estadísticas son mayores que el valor crítico superior FUd., inherente F-distribución con s – 1 grados de libertad en el numerador y norte – s grados de libertad en el denominador, como se muestra en la Fig. 4.

    Para ilustrar el análisis unidireccional de la varianza, volvamos al escenario descrito al principio de la nota. El objetivo del experimento es determinar si los paracaídas tejidos con fibras sintéticas obtenidas de diferentes proveedores tienen la misma resistencia. Cada grupo tiene cinco paracaídas. Los grupos se dividen por proveedor: Proveedor 1, Proveedor 2, Proveedor 3 y Proveedor 4. La resistencia de los paracaídas se mide mediante un dispositivo especial que prueba la rotura de la tela en ambos lados. La fuerza necesaria para romper un paracaídas se mide con una escala especial. Cuanto mayor sea la fuerza de rotura, más fuerte será el paracaídas. Excel te permite analizar F-Estadísticas en un clic. Pasa por el menú DatosAnálisis de los datos y seleccione la línea ANOVA unidireccional, complete la ventana que se abre (Fig. 5). Los resultados experimentales (resistencia a la rotura), algunas estadísticas descriptivas y los resultados del análisis de varianza unidireccional se presentan en la Fig. 6.

    Arroz. 5. ventana Paquete de análisis unidireccional de análisis de varianza Sobresalir

    Arroz. 6. Indicadores de resistencia de paracaídas tejidos con fibras sintéticas obtenidos de diferentes proveedores, estadísticas descriptivas y resultados del análisis de varianza unidireccional.

    El análisis de la Figura 6 muestra que existe alguna diferencia entre las medias muestrales. La resistencia media de las fibras obtenidas del primer proveedor es 19,52, del segundo - 24,26, del tercero - 22,84 y del cuarto - 21,16. ¿Es esta diferencia estadísticamente significativa? La distribución de la fuerza de ruptura se demuestra en el diagrama de dispersión (Fig. 7). Muestra claramente diferencias tanto entre grupos como dentro de ellos. Si cada grupo fuera de mayor tamaño, se podría utilizar un diagrama de tallo y hojas, un diagrama de caja o un diagrama de campana para analizarlos.

    Arroz. 7. Diagrama de dispersión de resistencias para paracaídas tejidos con fibras sintéticas obtenidas de cuatro proveedores.

    La hipótesis nula establece que no existen diferencias significativas entre las puntuaciones medias de fuerza: H 0: μ 1 = μ 2 = μ 3 = μ 4. Una hipótesis alternativa es que existe al menos un proveedor cuya resistencia promedio de la fibra difiere de los demás: H 1: no todos los μ j son iguales ( j = 1, 2, …, Con).

    Promedio general (ver Fig. 6) = PROMEDIO(D12:D15) = 21,945; para determinarlo, también puedes promediar los 20 números originales: = PROMEDIO(A3:D7). Se calculan los valores de varianza. Paquete de análisis y se reflejan en la placa Análisis de variación(ver Fig. 6): SSA = 63.286, SSW = 97.504, SST = 160.790 (ver columna SS mesas Análisis de variación Figura 6). Los promedios se calculan dividiendo estas sumas de cuadrados por el número apropiado de grados de libertad. Porque el Con= 4, un norte= 20, obtenemos los siguientes valores de grados de libertad; para SSA: s – 1= 3; para SSW: Carolina del Norte= 16; para SST: norte – 1= 19 (ver columna df). Así: MSA = SSA / ( s-1)= 21,095; RSU = SSW / ( Carolina del Norte) = 6,094; MST = TSM / ( norte – 1) = 8,463 (ver columna EM). F-estadísticas = MSA / MSW = 3.462 (ver columna F).

    Valor crítico superior FUd., caracteristico de F-distribución, determinada por la fórmula =F.OBR(0,95;3;16) = 3,239. Parámetros de la función =F.OBR(): α = 0,05, el numerador tiene tres grados de libertad y el denominador tiene 16. Por lo tanto, el calculado F-la estadística igual a 3.462 excede el valor crítico superior FUd.= 3,239, se rechaza la hipótesis nula (Fig. 8).

    Arroz. 8. Región crítica de análisis de varianza a un nivel de significancia de 0,05 si el numerador tiene tres grados de libertad y el denominador es -16

    R-valor, es decir la probabilidad de que si la hipótesis nula es cierta F-estadísticas no inferiores a 3,46, igual a 0,041 o 4,1% (ver columna valor p mesas Análisis de variación Figura 6). Dado que este valor no supera el nivel de significancia α = 5%, se rechaza la hipótesis nula. Además, R-El valor indica que la probabilidad de detectar tal o mayor diferencia entre las expectativas matemáticas de la población general, siempre que en realidad sean iguales, es igual al 4,1%.

    Entonces. Hay una diferencia entre las cuatro medias muestrales. La hipótesis nula fue que todas las expectativas matemáticas de las cuatro poblaciones son iguales. En estas condiciones, se calcula una medida de la variabilidad total (es decir, la variación total de la SST) de la fuerza de todos los paracaídas sumando las diferencias al cuadrado entre cada observación. X ij y promedio general . Luego, la variación total se separó en dos componentes (ver Fig. 1). El primer componente fue la variación entre grupos en SSA y el segundo fue la variación dentro del grupo en SSW.

    ¿Qué explica la variabilidad de los datos? En otras palabras, ¿por qué no todas las observaciones son iguales? Una razón es que diferentes empresas suministran fibras de diferente resistencia. Esto explica en parte por qué los grupos tienen diferentes expectativas matemáticas: cuanto más fuerte es el efecto de las condiciones experimentales, mayor es la diferencia entre las expectativas matemáticas de los grupos. Otra razón de la variabilidad de los datos es la variabilidad natural de cualquier proceso, en este caso la producción de paracaídas. Incluso si todas las fibras se compraran del mismo proveedor, su resistencia no sería la misma, en igualdad de condiciones. Debido a que este efecto ocurre dentro de cada grupo, se le llama variación dentro del grupo.

    Las diferencias entre las medias muestrales se denominan variación intergrupal SSA. Parte de la variación intragrupo, como ya se indicó, se explica por la pertenencia de los datos a diferentes grupos. Sin embargo, incluso si los grupos fueran exactamente iguales (es decir, la hipótesis nula fuera cierta), aún existiría variación entre grupos. La razón de esto es la variabilidad natural del proceso de fabricación de paracaídas. Debido a que las muestras son diferentes, sus medias muestrales difieren entre sí. Por lo tanto, si la hipótesis nula es cierta, tanto la variabilidad entre grupos como dentro de los grupos representan una estimación de la variabilidad de la población. Si la hipótesis nula es falsa, la hipótesis entre grupos será mayor. Es este hecho el que subyace F-criterios para comparar diferencias entre las expectativas matemáticas de varios grupos.

    Después de realizar un ANOVA unidireccional y encontrar una diferencia significativa entre empresas, aún se desconoce qué proveedor es significativamente diferente de los demás. Sólo sabemos que las expectativas matemáticas de la población general no son iguales. En otras palabras, al menos una de las expectativas matemáticas es significativamente diferente de las demás. Para determinar qué proveedor es diferente de los demás, puede utilizar procedimiento de tukey, utilizando comparaciones por pares entre proveedores. Este procedimiento fue desarrollado por John Tukey. Posteriormente, él y K. Kramer modificaron de forma independiente este procedimiento para situaciones en las que los tamaños de muestra difieren entre sí.

    Comparación múltiple: procedimiento de Tukey-Kramer

    En nuestro escenario, se utilizó un análisis de varianza unidireccional para comparar la fuerza de los paracaídas. Habiendo encontrado diferencias significativas entre las expectativas matemáticas de los cuatro grupos, es necesario determinar qué grupos difieren entre sí. Aunque hay varias formas de resolver este problema, sólo describiremos el procedimiento de comparación múltiple de Tukey-Kramer. Este método es un ejemplo de procedimientos de comparación post hoc porque la hipótesis que se prueba se formula después del análisis de los datos. El procedimiento de Tukey-Kramer permite comparar todos los pares de grupos simultáneamente. En la primera etapa se calculan las diferencias. Xj -Xj, Dónde j ≠j, entre expectativas matemáticas s(s – 1)/2 grupos. Alcance crítico El procedimiento de Tukey-Kramer se calcula mediante la fórmula:

    Dónde Q U- el valor crítico superior de la distribución de rango estudentizado, que tiene Con grados de libertad en el numerador y norte - Con grados de libertad en el denominador.

    Si los tamaños de muestra no son los mismos, el rango crítico se calcula para cada par de expectativas matemáticas por separado. En la última etapa, cada uno de s(s – 1)/2 Se comparan pares de expectativas matemáticas con el rango crítico correspondiente. Los elementos de un par se consideran significativamente diferentes si el módulo de diferencia | xj -Xj| entre ellos excede el rango crítico.

    Apliquemos el procedimiento de Tukey-Kramer al problema de la resistencia de los paracaídas. Dado que la empresa de paracaídas tiene cuatro proveedores, hay 4(4 – 1)/2 = 6 pares de proveedores para verificar (Figura 9).

    Arroz. 9. Comparaciones por pares de medias muestrales

    Dado que todos los grupos tienen el mismo volumen (es decir, todos nj = nj), basta con calcular solo un rango crítico. Para ello, según la tabla. ANOVA(Fig. 6) determinamos el valor RSU = 6,094. Luego encontramos el valor Q U en α = 0,05, Con= 4 (número de grados de libertad en el numerador) y norte- Con= 20 – 4 = 16 (el número de grados de libertad en el denominador). Lamentablemente no encontré la función correspondiente en Excel, así que utilicé la tabla (Fig. 10).

    Arroz. 10. Valor crítico del rango estudentizado Q U

    Obtenemos:

    Dado que sólo 4,74 > 4,47 (ver tabla inferior de la Fig. 9), existe una diferencia estadísticamente significativa entre el primer y el segundo proveedor. Todos los demás pares tienen medios muestrales que no nos permiten hablar de sus diferencias. En consecuencia, la resistencia media de los paracaídas tejidos con fibras compradas al primer proveedor es significativamente menor que la del segundo.

    Condiciones necesarias para el análisis de varianza unidireccional

    Al resolver el problema de la resistencia de los paracaídas, no verificamos si se cumplen las condiciones bajo las cuales es posible utilizar un factor único. F-criterio. ¿Cómo sabes si puedes usar un factor? F-criterio al analizar datos experimentales específicos? Factor único F-El criterio sólo se puede aplicar si se cumplen tres supuestos básicos: los datos experimentales deben ser aleatorios e independientes, tener una distribución normal y sus varianzas deben ser iguales.

    Primera suposición - aleatoriedad e independencia de los datos- siempre debe realizarse, ya que la exactitud de cualquier experimento depende de la aleatoriedad de la elección y/o del proceso de aleatorización. Para evitar sesgar los resultados, es necesario que los datos se extraigan de Con poblaciones generales de forma aleatoria e independiente unas de otras. De manera similar, los datos deben distribuirse aleatoriamente entre Con niveles del factor que nos interesa (grupos experimentales). La violación de estas condiciones puede distorsionar gravemente los resultados del análisis de varianza.

    Adivinar - normalidad- significa que los datos se extraen de poblaciones distribuidas normalmente. Como para t-criterios, análisis de varianza unidireccional basado en F-Los criterios son relativamente poco sensibles a la violación de esta condición. Si la distribución no se desvía demasiado significativamente de lo normal, el nivel de significancia F-El criterio cambia poco, especialmente si el tamaño de la muestra es lo suficientemente grande. Si se viola gravemente la condición de normalidad de distribución, se debe aplicar.

    Tercera suposición homogeneidad de varianza- significa que las varianzas de cada población son iguales entre sí (es decir, σ 1 2 = σ 2 2 = ... = σ j 2). Este supuesto permite decidir si separar o agrupar las variaciones dentro del grupo. Si los tamaños de los grupos son iguales, la condición de homogeneidad de la varianza tiene poco efecto en las conclusiones obtenidas utilizando F-criterios. Sin embargo, si los tamaños de muestra son desiguales, la violación de la condición de igualdad de varianzas puede distorsionar gravemente los resultados del análisis de varianza. Por lo tanto, se deben hacer esfuerzos para garantizar que los tamaños de muestra sean iguales. Uno de los métodos para verificar el supuesto de homogeneidad de la varianza es el criterio levene descrito abajo.

    Si, de las tres condiciones, sólo se viola la condición de homogeneidad de la varianza, se utiliza un procedimiento similar a t-criterio que utiliza varianza separada (para más detalles, ver). Sin embargo, si los supuestos de distribución normal y homogeneidad de la varianza se violan simultáneamente, es necesario normalizar los datos y reducir las diferencias entre varianzas o aplicar un procedimiento no paramétrico.

    Prueba de Levene para probar la homogeneidad de la varianza

    A pesar de F-el criterio es relativamente resistente a violaciones de la condición de igualdad de varianzas en grupos; una violación grave de este supuesto afecta significativamente el nivel de significancia y poder del criterio. Quizás uno de los más poderosos sea el criterio levene. Para comprobar la igualdad de varianzas Con poblaciones generales, probaremos las siguientes hipótesis:

    Н 0: σ 1 2 = σ 2 2 = … = σj 2

    H 1: No todo σ j 2 son lo mismo ( j = 1, 2, …, Con)

    La prueba de Levene modificada se basa en la afirmación de que si la variabilidad en los grupos es la misma, el análisis de varianza de los valores absolutos de las diferencias entre observaciones y las medianas de los grupos se puede utilizar para probar la hipótesis nula de igualdad de varianzas. Por lo tanto, primero debe calcular los valores absolutos de las diferencias entre observaciones y medianas en cada grupo, y luego realizar un análisis de varianza unidireccional sobre los valores absolutos resultantes de las diferencias. Para ilustrar el criterio de Levene, volvamos al escenario esbozado al inicio de la nota. Utilizando los datos presentados en la Fig. 6, realizaremos un análisis similar, pero en relación a los módulos de diferencias en los datos iniciales y medianas para cada muestra por separado (Fig. 11).



Nuevo en el sitio

>

Más popular