¿Cuál es el principio del análisis de varianza?
El valor de f es la relación de dos cuadrados medios [término de efecto/término de error], y es imposible tener un valor negativo. Cuanto mayor sea el valor F [en comparación con el valor F estándar para un nivel de significancia determinado], más obvio será el efecto [diferencia] entre los tratamientos, menor será el término de error y mayor será la precisión de la prueba.
Datos ampliados:
El análisis de varianza, también conocido como "análisis de varianza", fue inventado por R.A. Fisher y se utiliza para probar la importancia de las diferencias entre dos o más muestras. Los datos obtenidos de los estudios fluctúan debido a la influencia de varios factores. Las causas de las fluctuaciones se pueden dividir en dos categorías: una son factores aleatorios incontrolables y la otra son factores controlables que afectan los resultados.
El principio básico del análisis de varianza es que las diferencias entre los valores promedio de diferentes grupos de tratamiento tienen dos fuentes básicas:
(1) Condiciones experimentales, es decir, las diferencias causadas por diferentes tratamientos, se llama diferencia entre grupos. Se expresa como la suma de las desviaciones al cuadrado entre el valor medio de cada grupo de variables y el valor medio general, registrado como SSb y dfb.
(2) El error aleatorio, como la diferencia provocada por un error de medición o diferencias interindividuales, se denomina diferencia intragrupo, que se expresa por la suma de los valores medios de las variables en cada grupo y la suma de las varianzas de las variables dentro del grupo, denotadas como SSw, los grados de libertad dentro del grupo son dfw.
Suma total de desviaciones cuadráticas SSt = SSb+SSw.
Divida SSw dentro del grupo y SSb entre grupos por sus respectivos grados de libertad (dfw dentro del grupo =n-m, dfb entre grupos=m-1, donde n es el número total de muestras y m es el número de grupos) para obtenerlos Los cuadrados medios MSw y MSb. En un caso, el tratamiento no tiene efecto, es decir, cada grupo de muestras proviene de la misma población, MSb/MSw≈1. En otro caso, el tratamiento es efectivamente efectivo, y el error cuadrático medio entre grupos es el resultado del mismo error en diferentes tratamientos, es decir, las muestras provienen de diferentes poblaciones. Entonces, msb >& gtmsw (mucho más grande).
La relación MSb/MSw constituye una distribución f. Compare el valor F con su valor crítico para inferir si cada muestra pertenece a la misma población.
La varianza es una medida del grado de dispersión cuando la teoría de la probabilidad y la varianza estadística miden una variable aleatoria o un conjunto de datos. La varianza en la teoría de la probabilidad mide la desviación de una variable aleatoria de su expectativa matemática (es decir, su media). La varianza (varianza de la muestra) en estadística es el promedio de las diferencias al cuadrado entre cada valor de muestra y la media de todos los valores de muestra. En muchos problemas prácticos, es de gran importancia estudiar la varianza, es decir, la desviación.
La varianza es una medida de la diferencia entre los datos de origen y el valor esperado.
1, suponiendo que C es una constante, entonces D(C)=0.
2. Supongamos que x es una variable aleatoria y c es una constante, ¿entonces qué?
3. Supongamos que xey son dos variables aleatorias, entonces
¿Dónde está la covarianza? En particular, cuando xey son dos variables aleatorias no correlacionadas, entonces
Esta propiedad se puede extender al caso de la suma de un número finito de variables aleatorias no correlacionadas.
4. La condición necesaria y suficiente para D(X)=0 es que X tome la constante E(X) con una probabilidad de 1, es decir?
(La probabilidad de que D(X)=0 sea 1 si y sólo si X toma un valor constante E(X).)
Nota: No se puede concluir que X sea una constante. Cuando X es continuo, X puede tomar un valor diferente de la constante C en cualquier punto finito.
Materiales de referencia:
Enciclopedia Baidu - Análisis de varianza