Distribución $\chi^2$ (Chi-cuadrado)
$X \sim \chi^2(\nu)$
📐 Nota sobre el dominio: La función de densidad $f(x; \nu)$ está definida para $x \in (0, +\infty)$. Cuando $0 < \nu < 2$, el término $x^{\nu/2-1}$ tiene exponente negativo, por lo que $f(x) \to +\infty$ cuando $x \to 0^+$. En particular, para $\nu = 1$: $f(x) \propto x^{-1/2}$, que diverge en el origen. La notación $(0, +\infty)$ es estándar en textos de probabilidad y estadística (Casella & Berger, Hogg & Craig, Ross).
Origen de la distribución $\chi^2$: La distribución $\chi^2$ surge naturalmente como la suma de cuadrados de variables normales estándar independientes. Si tenemos $\nu$ variables aleatorias $Z_1, Z_2, \ldots, Z_\nu$ cada una con distribución normal estándar ($Z_i \sim \mathcal{N}(0,1)$) e independientes entre sí, entonces la suma de sus cuadrados sigue una distribución chi-cuadrado con $\nu$ grados de libertad. Esta propiedad es fundamental en estadística, ya que explica cómo la distribución $\chi^2$ aparece en el análisis de varianzas muestrales y en pruebas de bondad de ajuste.
Relación con la Distribución Gamma: La distribución $\chi^2$ es un caso especial de la Distribución Gamma. Específicamente, una variable aleatoria que sigue una distribución $\chi^2(\nu)$ es equivalente a una variable que sigue una distribución Gamma con parámetro de forma $k = \nu/2$ y parámetro de escala $\theta = 2$.
$\chi^2(\nu) \equiv \text{Gamma}(k=\nu/2, \theta=2)$
Esta conexión es importante porque vincula a la $\chi^2$ con una familia más amplia de distribuciones utilizadas para modelar tiempos de espera y otros fenómenos con valores positivos.
Interpretación de los momentos:
- La media es igual a los grados de libertad ($\nu$).
- La varianza es el doble de los grados de libertad ($2\nu$).
- La asimetría decrece a medida que $\nu$ aumenta, por lo que la distribución se vuelve más simétrica.
- A medida que $\nu \to \infty$, la distribución $\chi^2$ se aproxima a una distribución normal.
- • Prueba de bondad de ajuste: $\chi^2 = \sum_{i=1}^k \frac{(O_i - E_i)^2}{E_i}$
- • Prueba de independencia en tablas de contingencia
- • Intervalos de confianza para la varianza: $\frac{(n-1)s^2}{\sigma^2} \sim \chi^2(n-1)$
- • Análisis de varianza (ANOVA): descomposición de la suma de cuadrados
- • Pruebas de homogeneidad de proporciones
- • Base para la distribución $F$ de Fisher-Snedecor
En la distribución $\chi^2$, los grados de libertad ($\nu$) tienen interpretaciones específicas según el contexto:
1. Origen matemático: Representan el número de variables normales estándar independientes cuyos cuadrados se suman para formar la variable $\chi^2$.
2. En pruebas de bondad de ajuste: $\nu = (\text{categorías}) - (\text{parámetros estimados}) - 1$
3. En tablas de contingencia: $\nu = (\text{filas} - 1) \times (\text{columnas} - 1)$
4. Para la varianza muestral: En la expresión $\frac{(n-1)s^2}{\sigma^2} \sim \chi^2(n-1)$, los grados de libertad son $\nu = n-1$ porque se pierde un grado de libertad al estimar la media muestral para calcular $s^2$.
Efecto de $\nu$:
- Con $\nu$ pequeños: Distribución muy asimétrica a la derecha.
- Con $\nu$ medianos: La asimetría disminuye y la distribución se ensancha.
- Con $\nu$ grandes ($\nu > 30$): Se aproxima a una distribución Normal $\mathcal{N}(\nu, 2\nu)$.
| Grados de Libertad ($\nu$) | Forma de la Distribución | Media | Varianza | Aplicación Típica |
|---|---|---|---|---|
| $\nu = 1$ | Fuertemente asimétrica, asíntota vertical en 0 | 1 | 2 | Pruebas de una proporción |
| $\nu = 2$ | Distribución exponencial ($\lambda = 1/2$) | 2 | 4 | Pruebas de independencia $2 \times 2$ |
| $2 < \nu \le 10$ | Asimétrica con modo positivo | $\nu$ | $2\nu$ | Tablas de contingencia pequeñas |
| $\nu > 10$ | Ligeramente asimétrica | $\nu$ | $2\nu$ | Pruebas con muchas categorías |
| $\nu > 30$ | Aproximación normal válida | $\nu$ | $2\nu$ | Análisis de grandes muestras |
La distribución $\chi^2$ fue desarrollada por Karl Pearson en 1900 como herramienta para pruebas de bondad de ajuste. Esta distribución surge naturalmente como la suma de cuadrados de variables normales independientes y es fundamental en el análisis de datos categóricos, pruebas de independencia y análisis de varianza. Su forma asimétrica y su dominio únicamente en valores positivos la hacen especialmente útil para modelar variabilidad y dispersión en datos experimentales.
• Permite análisis de datos categóricos y tablas de contingencia
• Base teórica sólida para intervalos de confianza de varianza
• Amplia aplicación en análisis de bondad de ajuste
• Propiedades matemáticas bien establecidas
• Distribución exacta conocida para cualquier $\nu$
• Sensible a frecuencias esperadas muy pequeñas (generalmente $< 5$)
• Asume independencia de observaciones
• Para $\nu$ pequeños, es muy asimétrica
• Requiere muestras relativamente grandes para una buena aproximación
• No modela directamente datos continuos sin transformación