Las distribuciones de probabilidad describen como se reparten los valores de una variable aleatoria. Son el puente entre la incertidumbre y la prediccion matematica.
Una variable aleatoria es una funcion que asigna un numero real a cada resultado de un experimento aleatorio. La distribucion de probabilidad describe la probabilidad de cada valor posible.
Para variables continuas, la PDF f(x) describe la "densidad" de probabilidad en cada punto. La probabilidad de caer en un intervalo [a,b] es:
La integral total debe ser 1: integral de -inf a +inf de f(x) dx = 1
Parametros: mu (media), sigma (desviacion estandar)
Uso: Errores de medicion, alturas, CI, fenomenos naturales
Parametros: a (minimo), b (maximo)
Uso: Numeros aleatorios, tiempos de espera sin memoria
Parametros: lambda (tasa)
Uso: Tiempo entre eventos, vida util, decaimiento radiactivo
Parametros: lambda (tasa media)
Uso: Conteo de eventos raros: llamadas, accidentes, mutaciones
Parametros: n (ensayos), p (probabilidad de exito)
Uso: Numero de exitos en n ensayos: monedas, tests, encuestas
Parametros: alpha, beta (parametros de forma)
Uso: Modelar proporciones, probabilidades a priori en estadistica bayesiana
Selecciona la distribucion Normal con mu=0 y sigma=1. Genera muestras y observa como la media muestral converge a mu.
Activa el muestreo automatico y observa como el histograma converge a la curva teorica.
Cambia los parametros de cada distribucion y observa como afectan la forma de la PDF.
Compara Poisson/Binomial (discretas) con Normal/Exponencial (continuas).
Explora la versatilidad de la distribucion Beta en el intervalo [0,1].
La distribucion de Maxwell-Boltzmann describe las velocidades de moleculas en un gas. Es una distribucion Chi con 3 grados de libertad.
La distribucion binomial modela la herencia mendeliana. Las frecuencias alelicas siguen distribuciones Beta en modelos bayesianos.
Los retornos de acciones se modelan con distribuciones normales (o log-normales). El VaR (Value at Risk) usa percentiles de estas distribuciones.
Naive Bayes, Redes Bayesianas, y modelos generativos usan distribuciones de probabilidad como bloques fundamentales.
El ruido termico sigue una distribucion normal (Gaussiana). La teoria de la informacion de Shannon esta basada en probabilidades.
La suma (o promedio) de muchas variables aleatorias independientes tiende a una distribucion normal, sin importar la distribucion original:
Este es uno de los teoremas mas importantes de la matematica. Explica por que la normal aparece en tantos fenomenos naturales.
Los numeros "aleatorios" de la computadora son pseudoaleatorios, generados por algoritmos deterministas. Para aplicaciones criptograficas se necesitan fuentes de entropia real.
El numero de bins afecta la apariencia del histograma. Muy pocos bins ocultan detalles; demasiados crean ruido visual.
Muchos fenomenos reales tienen "colas pesadas" (eventos extremos mas frecuentes que lo predicho por la normal). Las distribuciones de la simulacion son idealizaciones.
"¿Por que la distribucion normal aparece en tantos fenomenos naturales? ¿Es una propiedad fundamental del universo o un artefacto de como medimos y modelamos?"