Teorema del límite central

Apariencia mover a la barra lateral ocultar Convergencia hacia la distribución normal de una suma de variables aleatorias independientes distribuidas binomialmente.

El teorema central del límite o teorema del límite central indica que, en condiciones muy generales, si S n {\displaystyle S_{n}} es la suma de n {\displaystyle n} variables aleatorias independientes, con media y varianza finitas, entonces la función de distribución de S n {\displaystyle S_{n}} «se aproxima bien» a una distribución normal (también llamada distribución gaussiana, curva de Gauss o campana de Gauss). Así pues, el teorema asegura que esto ocurre cuando la suma de estas variables aleatorias e independientes es lo suficientemente grande.

El nombre viene de un documento científico escrito por George Pólya en 1920, titulado Über den zentralen Grenzwertsatz der Wahrscheinlichkeitsrechnung und das Momentenproblem​ , por lo que la denominación más fiel a la original sería teorema central del límite.

Este teorema ha sufrido muchos cambios durante el desarrollo formal de la teoría de la probabilidad. Las versiones anteriores del teorema se remontan a 1811, pero en su forma general moderna, este resultado fundamental en la teoría de la probabilidad se enunció con precisión en una fecha tan tardía como 1920,​ sirviendo así de puente entre la teoría de la probabilidad clásica y la moderna.

Si X 1 , X 2 , … , X n , … {\textstyle X_{1},X_{2},\dots ,X_{n},\dots } son muestras aleatorias extraídas de una población con media global. μ {\textstyle \mu } y varianza finita. σ 2 {\textstyle \sigma ^{2}} , y si X ¯ n {\textstyle {\bar {X}}_{n}} es la media muestral de las primeras n {\textstyle n} muestras, entonces la forma límite de la distribución, Z = lim n → ∞ ( X ¯ n − μ σ X ¯ ) {\textstyle Z=\lim _{n\to \infty }{\left({\frac {{\bar {X}}_{n}-\mu }{\sigma _{\bar {X}}}}\right)}} , con σ X ¯ = σ / n {\displaystyle \sigma _{\bar {X}}=\sigma /{\sqrt {n}}} , es una distribución normal estándar.​.

Por ejemplo, supongamos que se obtiene una muestra que contiene muchas observaciones, cada observación se genera aleatoriamente de forma que no depende de los valores de las demás observaciones, y que se calcula la media aritmética de los valores observados. Si este procedimiento se realiza muchas veces, el teorema del límite central dice que la distribución de probabilidad de la media se aproximará mucho a una distribución normal.

El teorema del límite central tiene diversas variantes. En su forma común, las variables aleatorias deben ser independientes e idénticamente distribuidas (i.i.d.). En sus variantes, la convergencia de la media a la distribución normal también se produce para distribuciones no idénticas o para observaciones no independientes, si cumplen ciertas condiciones.

La versión más antigua de este teorema, según la cual la distribución normal puede utilizarse como aproximación a la distribución binomial, es el teorema de De Moivre-Laplace.

Introducción

Sabemos que si X {\displaystyle X} es una variable aleatoria tal que X ∼ N ( μ , σ 2 ) {\displaystyle X\sim N(\mu ,\sigma ^{2})} entonces su función de densidad está dada por

f ( x ) = 1 2 π σ 2 e − ( x − μ ) 2 2 σ 2 {\displaystyle f(x)={\frac {1}{\sqrt {2\pi \sigma ^{2}}}}e^{\frac {-(x-\mu )^{2}}{2\sigma ^{2}}}}

para x ∈ R {\displaystyle x\in \mathbb {R} } donde μ {\displaystyle \mu } denota la media y σ 2 {\displaystyle \sigma ^{2}} la varianza de la variable aleatoria X {\displaystyle X} . En particular cuando μ = 0 {\displaystyle \mu =0} y σ 2 = 1 {\displaystyle \sigma ^{2}=1} obtenemos

f ( x ) = 1 2 π e − x 2 2 {\displaystyle f(x)={\frac {1}{\sqrt {2\pi }}}e^{\frac {-x^{2}}{2}}}

es decir, la distribución normal estándar, denotada por X ∼ N ( 0 , 1 ) {\displaystyle X\sim N(0,1)} .

Se define la variable aleatoria S n {\displaystyle S_{n}} como la suma de n {\displaystyle n} variables aleatorias independientes e idénticamente distribuidas, cada una de ellas con una media μ {\displaystyle \mu } y varianza σ 2 < ∞ {\displaystyle \sigma ^{2}<\infty } , es decir

S n := X 1 + ⋯ + X n = ∑ i = 1 n X i {\displaystyle S_{n}:=X_{1}+\cdots +X_{n}=\sum \limits _{i=1}^{n}X_{i}}

donde E ⁡ = μ {\displaystyle \operatorname {E} =\mu } y Var ⁡ = σ 2 {\displaystyle \operatorname {Var} =\sigma ^{2}} . Con lo anterior, la media de S n {\displaystyle S_{n}} es n μ {\displaystyle n\mu } y la varianza es n σ 2 {\displaystyle n\sigma ^{2}} pues son variables aleatorias independientes. Con tal de hacer más fácil la comprensión del teorema y su posterior uso, se hace una estandarización de S n {\displaystyle S_{n}} como

Z n := S n − n μ σ n = ∑ i = 1 n X i − n μ σ n {\displaystyle Z_{n}:={\frac {S_{n}-n\mu }{\sigma {\sqrt {n}}}}={\frac {\sum _{i=1}^{n}X_{i}-n\mu }{\sigma {\sqrt {n}}}}}

para que la media de la nueva variable sea igual a 0 {\displaystyle 0} y la desviación estándar sea igual a 1 {\displaystyle 1} . Así, la variable Z n {\displaystyle Z_{n}} convergerán en distribución a la distribución normal estándar N ( 0 , 1 ) {\displaystyle N(0,1)} cuando n {\displaystyle n} tienda a infinito. Como consecuencia, si Φ ( z ) {\displaystyle \Phi (z)} es la función de distribución de N ( 0 , 1 ) {\displaystyle N(0,1)} para cada número real z {\displaystyle z} entonces

lim n → ∞ P ⁡ ( Z n ≤ z ) = Φ ( z ) = ∫ − ∞ z 1 2 π e − x 2 2 d x {\displaystyle \lim _{n\to \infty }\operatorname {P} \left(Z_{n}\leq z\right)=\Phi (z)=\int _{-\infty }^{z}{\frac {1}{\sqrt {2\pi }}}e^{-{\frac {x^{2}}{2}}}dx}

donde P {\displaystyle \operatorname {P} } indica probabilidad y lim {\displaystyle \lim } se refiere a límite matemático.

Secuencias independientes

Cualquiera que sea la forma de la distribución de la población, la distribución muestral tiende a una gaussiana, y su dispersión viene dada por el teorema del límite central.

Clásico CLT

Sea { X 1 , … , X n } {\textstyle \{X_{1},\ldots ,X_{n}}\} una secuencia de muestras aleatorias - es decir, una secuencia de i.i. d. variables aleatorias extraídas de una distribución de valor esperado dada por μ {\textstyle \mu } y varianza finita dada por σ 2 {\textstyle \sigma ^{2}} . Supongamos que estamos interesados en la media muestral X ¯ n ≡ X 1 + ⋯ + X n n {\displaystyle {\bar {X}}_{n}\equiv {\frac {X_{1}+\cdots +X_{n}}{n}}} de las primeras n {\textstyle n} muestras. Por la ley de los grandes números, los promedios muestrales convergen casi seguro (y por tanto también convergen en probabilidad) al valor esperado μ {\textstyle \mu } como n → ∞ {\textstyle n\to \infty } ..

El teorema clásico del límite central describe el tamaño y la forma de distribución de las fluctuaciones estocásticas alrededor del número determinista μ {\textstyle \mu } durante esta convergencia. Más concretamente, afirma que a medida que n {\textstyle n} se hace mayor, la distribución de la diferencia entre la media muestral X ¯ n {\textstyle {\bar {X}}_{n}} y su límite μ {\textstyle \mu } , cuando se multiplica por el factor n {\textstyle {\sqrt {n}}} ( es decir n ( X ¯ n − μ ) {\textstyle {\sqrt {n}}({\bar {X}}_{n}-\mu )} ) se aproxima a la distribución normal con media 0 y varianza σ 2 {\textstyle \sigma ^{2}} . Para n suficientemente grande, la distribución de X ¯ n {\textstyle {\bar {X}}_{n}} se aproxima arbitrariamente a la distribución normal con media μ {\textstyle \mu } y varianza σ 2 / n {\textstyle \sigma ^{2}/n} .

La utilidad del teorema es que la distribución de n ( X ¯ n − μ ) {\textstyle {\sqrt {n}}({\bar {X}}_{n}-\mu )} se aproxima a la normalidad independientemente de la forma de la distribución de cada X i {\textstyle X_{i}} . Formalmente, el teorema puede enunciarse de la siguiente manera: Teorema de Lindeberg–Lévy CLT:

Supongamos que { X 1 , … , X n , … } {\textstyle \{X_{1},\ldots ,X_{n},\ldots \}} es una secuencia de variables aleatorias i.i.d. con E = μ {\textstyle \mathbb {E} =\mu } and Var ⁡ = σ 2 < ∞ {\textstyle \operatorname {Var} =\sigma ^{2}<\infty } . Entonces se tiene n {\textstyle n} se aproxima a infinito, las variables aleatorias n ( X ¯ n − μ ) {\textstyle {\sqrt {n}}({\bar {X}}_{n}-\mu )} convergen en la distribución a una normal N ( 0 , σ 2 ) {\textstyle {\mathcal {N}}(0,\sigma ^{2})} :​ n ( X ¯ n − μ )   → d   N ( 0 , σ 2 ) . {\displaystyle {\sqrt {n}}\left({\bar {X}}_{n}-\mu \right)\ \xrightarrow {d} \ {\mathcal {N}}\left(0,\sigma ^{2}\right).}

En el caso σ > 0 {\textstyle \sigma >0} , converger en la distribución significa que la función de distribución acumulativa de n ( X ¯ n − μ ) {\textstyle {\sqrt {n}}({\bar {X}}_{n}-\mu )} convergen puntualmente a la cdf de la N ( 0 , σ 2 ) {\textstyle {\mathcal {N}}(0,\sigma ^{2})} distribución: para cada real number z {\textstyle z} , lim n → ∞ P = lim n → ∞ P = Φ ( z σ ) , {\displaystyle \lim _{n\to \infty }\mathbb {P} \left=\lim _{n\to \infty }\mathbb {P} \left=\Phi \left({\frac {z}{\sigma }}\right),} donde Φ ( z ) {\textstyle \Phi (z)} es la fdc normal estándar evaluada at z {\textstyle z} . La convergencia es uniforme en z {\textstyle z} en el sentido de que lim n → ∞ sup z ∈ R | P − Φ ( z σ ) | = 0   , {\displaystyle \lim _{n\to \infty }\;\sup _{z\in \mathbb {R} }\;\left|\mathbb {P} \left-\Phi \left({\frac {z}{\sigma }}\right)\right|=0~,} donde sup {\textstyle \sup } denota el límite superior mínimo (o supremum) del conjunto.

Teorema

De manera formal y compacta el teorema enuncia

Sean X 1 , X 2 , … , X n {\displaystyle X_{1},X_{2},\dots ,X_{n}} variables aleatorias independientes e idénticamente distribuidas con E ⁡ = μ {\displaystyle \operatorname {E} =\mu } y Var ⁡ ( X i ) = σ 2 < ∞ {\displaystyle \operatorname {Var} (X_{i})=\sigma ^{2}<\infty } , se define

Z n := ∑ i = 1 n X i − n μ σ n {\displaystyle Z_{n}:={\frac {\sum _{i=1}^{n}X_{i}-n\mu }{\sigma {\sqrt {n}}}}}

Entonces la función de distribución de Z n {\displaystyle Z_{n}} converge hacia la función de distribución normal estándar cuando n → ∞ {\displaystyle n\to \infty } , es decir,

lim n → ∞ P ⁡ ( Z n ≤ z ) = Φ ( z ) = ∫ − ∞ z 1 2 π e − x 2 2 d x {\displaystyle \lim _{n\to \infty }\operatorname {P} \left(Z_{n}\leq z\right)=\Phi (z)=\int _{-\infty }^{z}{\frac {1}{\sqrt {2\pi }}}e^{-{\frac {x^{2}}{2}}}dx}

Es muy común encontrarlo con la variable estandarizada Z n {\displaystyle Z_{n}} en función de la media muestral X ¯ {\displaystyle {\overline {X}}} , es decir

Z n = X ¯ − μ σ / n {\displaystyle Z_{n}={\frac {{\overline {X}}-\mu }{\sigma /{\sqrt {n}}}}}

puesto que son equivalentes (sólo se divide tanto numerador como denominador entre n {\displaystyle n} ).

Es importante remarcar que este teorema no dice nada acerca de la distribución de la variable aleatoria X i {\displaystyle {X_{i}}} , excepto la existencia de media y varianza.

Propiedades

Varianza nula o infinita

En el caso de n {\displaystyle n} variables aleatorias X i {\displaystyle X_{i}} independientes e idénticamente distribuidas, cada una de ellas con varianza nula o infinita, la distribución de las variables

S n = X 1 + ⋯ + X n n {\displaystyle S_{n}={\frac {X_{1}+\cdots +X_{n}}{n}}}

no convergen en distribución hacia una normal.

A continuación se presentan los dos casos por separado.

Varianza infinita

Considérese el caso de variables que siguen una distribución de Cauchy:

F X i ( x ) = 1 π arctan ⁡ x {\displaystyle F_{X_{i}}(x)={\frac {1}{\pi }}\arctan x}

En este caso puede demostrarse que la distribución asintótica de S n {\displaystyle S_{n}} viene dada por otra distribución de Cauchy:

F S n ( x ) = 1 π arctan ⁡ x n {\displaystyle F_{S_{n}}(x)={\frac {1}{\pi }}\arctan {\frac {x}{n}}}

Para otras distribuciones de varianza infinita no es fácil dar una expresión cerrada para su distribución de probabilidad aunque su función característica sí tiene una forma sencilla, dada por el teorema de Lévy-Khintchine:

φ S n ( t ) = exp ⁡ {\displaystyle \varphi _{S_{n}}(t)=\exp \left}

donde c ≥ 0 , − 1 ≥ γ ≥ 1 , 0 < α ≥ 2 {\displaystyle c\geq 0,-1\geq \gamma \geq 1,0<\alpha \geq 2} y:

u ( t , α ) = { tan ⁡ π α 2 α ≠ 1 2 π ln ⁡ | t | α = 1 {\displaystyle u(t,\alpha )={\begin{cases}\tan {\cfrac {\pi \alpha }{2}}&\alpha \neq 1\\{\cfrac {2}{\pi }}\ln |t|&\alpha =1\end{cases}}}

Las condiciones anteriores equivalen a que una distribución de probabilidad sea una distribución estable.

Varianza nula

Este caso corresponde trivialmente a una función degenerada tipo delta de Dirac cuya función de distribución viene dada por:

F X i ( x ) = ∫ − ∞ x δ ( s − x 0 )   d s = { 0 x < x 0 1 x ≥ x 0 {\displaystyle F_{X_{i}}(x)=\int _{-\infty }^{x}\delta (s-x_{0})\ ds={\begin{cases}0&x<x_{0}\\1&x\geq x_{0}\end{cases}}}

En este caso resulta que la variable S n {\displaystyle S_{n}} trivialmente tiene la misma distribución que cada una de las variables independientes.

Véase también

Referencias

  1. Filmus, Yuval (enero a febrero de 2010). Two Proofs of the Central Limit Theorem (en inglés). pp. 1-3. Consultado el 13 de diciembre de 2010. 
  2. Grinstead, Charles M.; Snell, J. Laurie (1997). «9. Central Limit Theorem». Introduction to Probability (PDF) (en inglés) (2 edición). AMS Bookstore. pp. 325-360. ISBN 0821807498. Consultado el 15 de abril de 2009. 
  3. «The central limit theorem around 1935». Statistical Science (en inglés) 1 (1). 1986. pp. 78-91. doi:10.2307/2245503
  4. Fischer, Hans. «Una historia del teorema del límite central». Springer New York Dordrecht Heidelberg London. Archivado desde pdf el original el 31 de octubre de 2017. Consultado el 29 de abril de 2021. 
  5. Montgomery, Douglas C.; Runger, George C. (2014). Estadística aplicada y probabilidad para ingenieros (6th edición). Wiley. p. 241. ISBN 9781118539712
  6. Rouaud, Mathieu (2013). Probability, Statistics and Estimation. p. 10. Archivado desde el original el 9 de octubre de 2022. 
  7. Billingsley (1995, p. 357)
  8. Bauer (2001, Theorem 30.13, p.199)
  9. Charles Stanton. «Central limit theorem». Probability and Statistics Demos (en inglés). Archivado desde el original el 2 de junio de 2010. Consultado el 13 de diciembre de 2010. 
  10. Wasserman, Larry (2004). «5. Convergence of Random Variables». All of Statistics (en inglés). Springer. p. 77. ISBN 0-387-40272-1
  11. P. Ibarrola, L. Pardo y V. Quesada: Teoría de la Probabilidad, p. 521-522

Bibliografía

Enlaces externos