Distribución Normal

Análisis interactivo de la distribución normal, la distribución de probabilidad continua más importante en estadística. Explora sus propiedades, fórmulas y aplicaciones con controles dinámicos para una mejor comprensión.

Visualizador Interactivo

$X \sim \mathcal{N}(\mu, \sigma^2)$
Función de Densidad de Probabilidad (PDF)
$$f(x; \mu, \sigma^2) = \frac{1}{\sigma\sqrt{2\pi}} e^{-\frac{(x-\mu)^2}{2\sigma^2}}$$
Función de Distribución Acumulada (CDF)
$$F(x; \mu, \sigma^2) = \frac{1}{2}\left[1 + \operatorname{erf}\left(\frac{x-\mu}{\sigma\sqrt{2}}\right)\right]$$
Donde $\operatorname{erf}$ es la función error, una integral no elemental fundamental en estadística.
Transformación a Normal Estándar
$$Z = \frac{X - \mu}{\sigma} \sim \mathcal{N}(0, 1)$$
Momentos Principales
$$\text{Media: } E[X] = \mu$$ $$\text{Varianza: } \text{Var}(X) = \sigma^2$$ $$\text{Asimetría: } \gamma_1 = 0$$ $$\text{Curtosis: } \gamma_2 = 3$$
Función Generadora de Momentos
$$M_X(t) = e^{\mu t + \frac{1}{2}\sigma^2 t^2}$$
Parámetros: μ (media), σ² (varianza) Dominio: $x \in (-\infty, +\infty)$
0
1
Distribución Normal
Área P(a ≤ X ≤ b)
Probabilidad entre a y b:
68.27%
$P(a \leq X \leq b) = F(b) - F(a)$

Propiedades y Contexto de Aplicación

La distribución Normal, conocida como la "curva de campana" o distribución Gaussiana, es la piedra angular de la estadística moderna. Su omnipresencia se debe al Teorema Central del Límite, uno de los resultados más notables de las matemáticas. Este teorema postula que al sumar un gran número de variables aleatorias independientes, su suma (y su media) tenderá a distribuirse normalmente, sin importar cómo se distribuyan las variables originales. Por ello, fenómenos naturales y sociales que resultan de la combinación de muchos factores pequeños e independientes (como la altura de una persona o los errores de medición) siguen esta distribución de forma natural.

Regla Empírica 68-95-99.7

Para cualquier distribución normal, los datos se distribuyen de forma predecible:

μ ± 1σ
~68.27%
μ ± 2σ
~95.45%
μ ± 3σ
~99.73%

Aplicaciones en el Mundo Real

  • Inferencia Estadística: Es la base para pruebas de hipótesis (t-test, ANOVA) y para construir intervalos de confianza.
  • Control de Calidad: Se usa para monitorear procesos de fabricación, estableciendo límites de control (ej. gráficos de control de Shewhart).
  • Finanzas y Gestión de Riesgos: Modela el rendimiento de activos y es fundamental en modelos como el de Black-Scholes para la valoración de opciones.
  • Ciencias Naturales y Sociales: Modela fenómenos como errores de medición, la altura o el CI de una población, o la distribución de velocidades de partículas en un gas.
  • Procesamiento de Señales: El "ruido blanco" en señales de audio o imagen a menudo se modela como una distribución normal.
Ejemplo: Altura
La altura de los adultos en una población sigue una distribución normal. Si μ=170cm y σ=10cm, el 68% de las personas medirán entre 160cm y 180cm.
Ejemplo: Calificaciones
Las notas de un examen suelen ser normales. Si la media es 75 y σ=10, el 95% de los estudiantes obtuvieron entre 55 y 95 puntos.
FORTALEZAS CLAVE
Fundamento Teórico Sólido: Es la base para la inferencia estadística, permitiendo pruebas de hipótesis y la creación de intervalos de confianza robustos.
Propiedades Matemáticas Elegantes: Sus características la hacen predecible y fácil de manipular algebraicamente.
Aplicabilidad Universal (TCL): Modela con precisión una vasta gama de fenómenos del mundo real.
Interpretación Intuitiva: La media (μ) y la desviación estándar (σ) tienen significados directos y comprensibles.
LIMITACIONES A CONSIDERAR
Simetría Obligatoria: No puede modelar datos con asimetría inherente (sesgados a la izquierda o derecha).
Subestima Eventos Extremos: Sus "colas" decaen muy rápidamente, haciéndola inadecuada para modelar fenómenos con alto riesgo de valores atípicos.
Dominio Infinito: Asume que la variable puede tomar cualquier valor real, lo cual es irreal para variables con límites físicos.
Sensibilidad a Outliers: La media y la desviación estándar son sensibles a valores extremos que pueden distorsionar el modelo.