Distribución t no central

Distribución t no central

Función de densidad de probabilidad
Parámetros ν > 0 grados de libertad
μ R {\displaystyle \mu \in \mathbb {R} } parámetro de no centralidad
Dominio x ( ; + ) {\displaystyle x\in (-\infty ;+\infty )\,\!}
Función de densidad (pdf) Ver texto
Función de distribución (cdf) Ver texto
Media μ ν 2 Γ ( ν 1 2 ) Γ ( ν 2 ) , {\displaystyle \mu \,{\sqrt {\dfrac {\nu }{2}}}\,{\dfrac {\Gamma {\Big (}{\frac {\nu -1}{2}}{\Big )}}{\Gamma {\Big (}{\frac {\nu }{2}}{\Big )}}},} si ν > 1. {\displaystyle \nu >1.}
Varianza ν ( 1 + μ 2 ) ν 2 μ 2 ν 2 ( Γ ( ν 1 2 ) Γ ( ν 2 ) ) 2 {\displaystyle {\dfrac {\nu (1+\mu ^{2})}{\nu -2}}-{\dfrac {\mu ^{2}\nu }{2}}\left({\dfrac {\Gamma {\Big (}{\frac {\nu -1}{2}}{\Big )}}{\Gamma {\Big (}{\frac {\nu }{2}}{\Big )}}}\right)^{2}} , si ν > 2. {\displaystyle \nu >2.}
[editar datos en Wikidata]

En Teoría de la probabilidad y Estadística, la distribución t no central generaliza la distribución t de Student mediante un parámetro de no centralidad. Así como en un contraste de hipótesis de igualdad de medias en una población normal, la distribución t de Student describe el estadístico de contraste cuando la hipótesis nula es cierta (igualdad de medias), la distribución t no central lo hace cuando la hipótesis nula es falsa; en consecuencia, es especialmente importante en el cálculo de la potencia estadística de un contraste. También se utiliza en la modelización robusta de datos.

Definición

Sea Z {\displaystyle Z} una variable aleatoria normal estándar N ( 0 , 1 ) {\displaystyle {\mathcal {N}}(0,1)} y V χ ν 2 {\displaystyle V\sim \chi _{\nu }^{2}} una variable aleatoria χ² con ν > 0 {\displaystyle \nu >0} grados de libertad que es independiente de Z {\displaystyle Z} . Se dice[1]​ que la variable aleatoria

T = Z + μ V / ν {\displaystyle T={\frac {Z+\mu }{\sqrt {V/\nu }}}}

tiene una distribución t no central con ν > 0 {\displaystyle \nu >0} grados de libertad y parámetro de no centralidad μ R {\displaystyle \mu \in \mathbb {R} }  ; se escribe T t ν ( μ ) {\displaystyle T\sim t_{\nu }(\mu )} . Cuando μ = 0 {\displaystyle \mu =0} se obtiene una distribución t {\displaystyle t} de Student ordinaria t ν {\displaystyle t_{\nu }} . Debe tenerse en cuenta que el parámetro de no centralidad puede ser negativo.

Comentario sobre los grados de libertad no enteros. El caso habitual de esta distribución es cuando el número de grados de libertad ν {\displaystyle \nu } es un número natural, pero tanto desde el punto de vista de las aplicaciones como de la teoría, es conveniente que esta distribución pueda tener cualquier número estrictamente positivo de grados de libertad, ν > 0 {\displaystyle \nu >0} . Esto es correcto gracias a que una distribución χ² cuadrado está bien definida para ν > 0 {\displaystyle \nu >0} .

Función de densidad

La función de densidad de la distribución t no central no tiene una expresión sencilla y veremos diversas formulaciones que aparecen en la literatura. Sea T t ν ( μ ) {\displaystyle T\sim t_{\nu }(\mu )} .


Expresión integral [2] f ( t ) = ν ν / 2 e μ 2 ν 2 ( ν + t 2 ) π 2 ν 1 2 Γ ( ν 2 ) ( ν + t 2 ) ν + 1 2 0 z ν e 1 2 ( z t μ ν + t 2 ) 2 d z , t R . ( 1 ) {\displaystyle f(t)={\frac {\nu ^{\nu /2}\,e^{-{\frac {\mu ^{2}\nu }{2(\nu +t^{2})}}}}{{\sqrt {\pi }}\,2^{\frac {\nu -1}{2}}\,\Gamma ({\frac {\nu }{2}})\,(\nu +t^{2})^{\frac {\nu +1}{2}}}}\int _{0}^{\infty }z^{\nu }e^{-{\frac {1}{2}}{\Big (}z-{\frac {t\mu }{\sqrt {\nu +t^{2}}}}{\Big )}^{2}}\,dz,\quad t\in \mathbb {R} .\qquad \qquad (1)} Es interesante observar que cuando ν {\displaystyle \nu } es un número natural, esta fórmula puede escribirse en términos de la función H h {\displaystyle Hh} [3] f ( t ) = ν ν / 2 ν ! e μ 2 ν 2 ( ν + t 2 ) π 2 ν 1 2 Γ ( ν 2 ) ( ν + t 2 ) ν + 1 2 H h ν ( t μ ν + t 2 ) , t R , {\displaystyle f(t)={\frac {\nu ^{\nu /2}\,\nu !\,e^{-{\frac {\mu ^{2}\nu }{2(\nu +t^{2})}}}}{{\sqrt {\pi }}\,2^{\frac {\nu -1}{2}}\,\Gamma ({\frac {\nu }{2}})\,(\nu +t^{2})^{\frac {\nu +1}{2}}}}\,Hh_{\nu }{\Big (}-{\frac {t\mu }{\sqrt {\nu +t^{2}}}}{\Big )},\quad t\in \mathbb {R} ,} donde H h n ( x ) = 1 n ! 0 z n e 1 2 ( z + x ) 2 d z = 1 n ! x ( u x ) n e 1 2 u 2 d u . {\displaystyle Hh_{n}(x)={\frac {1}{n!}}\int _{0}^{\infty }z^{n}e^{-{\frac {1}{2}}(z+x)^{2}}\,dz={\frac {1}{n!}}\int _{x}^{\infty }(u-x)^{n}e^{-{\frac {1}{2}}u^{2}}\,du.} Sobre la función H h {\displaystyle Hh} consultar, por ejemplo, Jeffreys and Jeffreys. [4]



Expresión en serie. [5] f ( t ) = ν ν / 2 e μ 2 / 2 π Γ ( ν 2 ) j = 0 μ j j ! 2 j / 2 Γ ( ν + j + 1 ) t j ( t 2 + ν ) ν + j + 1 2 , t R . ( 2 ) {\displaystyle f(t)={\frac {\nu ^{\nu /2}\,e^{-\mu ^{2}/2}}{{\sqrt {\pi }}\,\Gamma ({\frac {\nu }{2}})}}\sum _{j=0}^{\infty }{\frac {\mu ^{j}}{j!}}\,2^{j/2}\Gamma (\nu +j+1){\frac {t^{j}}{(t^{2}+\nu )^{\frac {\nu +j+1}{2}}}},\quad t\in \mathbb {R} .\qquad \qquad (2)}

Expresión mediante funciones especiales.

Utilizando la función cilíndrica parabólica U {\displaystyle U} [6]​(ver la versión digital [7]​),

tenemos que [8] f ( t ) = 2 ( ν 2 ) ν 2 Γ ( ν + 1 ) π Γ ( ν 2 ) e μ 2 4 ( ν + t 2 ) ( 2 ν + t 2 ) ( ν + t 2 ) ν + 1 2 U ( ν + 1 2 , t μ ν + t 2 ) , t R . ( 3 ) {\displaystyle f(t)={\frac {{\sqrt {2}}{\big (}{\frac {\nu }{2}}{\big )}^{\frac {\nu }{2}}\,\Gamma (\nu +1)}{{\sqrt {\pi }}\,\Gamma ({\frac {\nu }{2}})}}{\frac {e^{-{\frac {\mu ^{2}}{4(\nu +t^{2})}}(2\nu +t^{2})}}{(\nu +t^{2})^{\frac {\nu +1}{2}}}}\,U{\Big (}\nu +{\frac {1}{2}},-{\frac {t\mu }{\sqrt {\nu +t^{2}}}}{\Big )},\quad t\in \mathbb {R} .\qquad \qquad (3)} Mediante la función hipergeométrica confluente o función de Kummer 1 F 1 ( a ; b ; z ) {\displaystyle _{1}\!F_{1}(a;b;z)} , también denotada por M ( a , b , z ) {\displaystyle M(a,b,z)} [9]​, f ( t ) = Γ ( ν + 1 2 ) ν π Γ ( ν 2 ) ( 1 + t 2 ν ) ν + 1 2 Densidad de la  t  de Student ordinaria e μ 2 / 2 { A ν ( t , μ ) + B ν ( t , μ ) } , ( 4 ) {\displaystyle f(t)=\underbrace {{\frac {\Gamma ({\frac {\nu +1}{2}})}{{\sqrt {\nu \pi }}\,\Gamma ({\frac {\nu }{2}})}}{\Big (}1+{\frac {t^{2}}{\nu }}{\Big )}^{-{\tfrac {\nu +1}{2}}}} _{{\text{Densidad de la }}t{\text{ de Student ordinaria}}}e^{-\mu ^{2}/2}{\Big \{}A_{\nu }(t,\mu )+B_{\nu }(t,\mu ){\Big \}},\qquad \qquad (4)} donde A ν ( t , μ ) = 1 F 1 ( ν + 1 2 ; 1 2 ; μ 2 t 2 2 ( t 2 + ν ) ) , B ν ( t , μ ) = 2 μ t t 2 + ν Γ ( ν 2 + 1 ) Γ ( ν + 1 2 ) 1 F 1 ( ν 2 + 1 ; 3 2 ; μ 2 t 2 2 ( t 2 + ν ) ) , {\displaystyle {\begin{aligned}A_{\nu }(t,\mu )&={_{1}\!F}_{1}\left({\frac {\nu +1}{2}}\,;\,{\frac {1}{2}}\,;\,{\frac {\mu ^{2}t^{2}}{2(t^{2}+\nu )}}\right),\\B_{\nu }(t,\mu )&={\frac {{\sqrt {2}}\mu t}{\sqrt {t^{2}+\nu }}}{\frac {\Gamma ({\frac {\nu }{2}}+1)}{\Gamma ({\frac {\nu +1}{2}})}}{_{1}\!F}_{1}\left({\frac {\nu }{2}}+1\,;\,{\frac {3}{2}}\,;\,{\frac {\mu ^{2}t^{2}}{2(t^{2}+\nu )}}\right),\end{aligned}}}

Expresión en términos de la función de distribución El software estadístico R y otros programas estadísticos utilizan la siguiente expresión para calcular la función de densidad [1]:

f ( t ) = { ν t ( F ν + 2 , μ ( t 1 + 2 ν ) F ν , μ ( t ) ) , si   t 0 , Γ ( ν + 1 2 ) π ν Γ ( ν 2 ) e μ 2 / 2 , si   t = 0 , ( 5 ) {\displaystyle f(t)={\begin{cases}{\dfrac {\nu }{t}}\,{\Bigg (}F_{\nu +2,\mu }\left(t{\sqrt {1+{\frac {2}{\nu }}}}\right)-F_{\nu ,\mu }(t){\Bigg )},&{\mbox{si}}\ t\neq 0,\\\\{\dfrac {\Gamma ({\frac {\nu +1}{2}})}{{\sqrt {\pi \nu }}\,\Gamma ({\frac {\nu }{2}})}}\,e^{-\mu ^{2}/2},&{\mbox{si}}\ t=0,\end{cases}}\qquad \qquad (5)} donde F ν , μ {\displaystyle F_{\nu ,\mu }} es la función de distribución de la distribución t {\displaystyle t} no central con ν {\displaystyle \nu } grados de libertad y parámetro de no centralidad μ {\displaystyle \mu } (véase el siguiente apartado).

Demostraciones
Fórmula (1)

Escribimos T = X Y , {\displaystyle T={\frac {X}{Y}},} donde X N ( μ , 1 ) {\displaystyle X\sim {\mathcal {N}}(\mu ,1)} , Y = H / ν {\displaystyle Y=H/{\sqrt {\nu }}} , con H χ ν {\displaystyle H\sim \chi _{\nu }} (distribución χ con ν {\displaystyle \nu } grados de libertad), X {\displaystyle X} y Y {\displaystyle Y} independientes. Utilizando que si una variable aleatoria M {\displaystyle M} tiene función de densidad f M {\displaystyle f_{M}} , entonces la variable aleatoria N = C M {\displaystyle N=CM} , con C 0 {\displaystyle C\neq 0} , tiene función de densidad f N ( x ) = 1 | C | f ( x C ) {\displaystyle f_{N}(x)={\frac {1}{\vert C\vert }}f{\big (}{\frac {x}{C}}{\big )}} , tenemos que la función de densidad de Y {\displaystyle Y} es f Y ( y ) = ν ν 2 2 ν 2 1 Γ ( ν 2 ) y ν 1 e ν y 2 2 ,   y > 0. {\displaystyle f_{Y}(y)={\frac {\nu ^{\frac {\nu }{2}}}{2^{{\frac {\nu }{2}}-1}\,\Gamma {\big (}{\frac {\nu }{2}}{\big )}}}\,y^{\nu -1}e^{-{\frac {\nu y^{2}}{2}}},\ y>0.} Dada la independencia entre X {\displaystyle X} y Y {\displaystyle Y} , la función de densidad conjunta del vector ( X , Y ) {\displaystyle (X,Y)} es f ( X , Y ) ( x , y ) = ν ν 2 π 2 ν 1 2 Γ ( ν 2 ) y ν 1 e ( x μ ) 2 + ν y 2 2 , ( x , y ) R × ( 0 , ) . {\displaystyle f_{(X,Y)}(x,y)={\frac {\nu ^{\frac {\nu }{2}}}{{\sqrt {\pi }}\,2^{\frac {\nu -1}{2}}\,\Gamma {\big (}{\frac {\nu }{2}}{\big )}}}\,y^{\nu -1}e^{-{\frac {(x-\mu )^{2}+\nu y^{2}}{2}}},\quad (x,y)\in \mathbb {R} \times (0,\infty ).} Consideremos la transformación h ( X , Y ) = ( T , Y ) ,   con   T = X Y , {\displaystyle h(X,Y)=(T,Y),\ {\text{con}}\ T={\frac {X}{Y}},} específicamente h : R × ( 0 , ) R × ( 0 , ) ( x , y ) ( t , y ) {\displaystyle {\begin{aligned}h:\mathbb {R} \times &(0,\infty )\rightarrow \mathbb {R} \times (0,\infty )\\&(x,y)\longmapsto (t,y)\end{aligned}}} donde t = x / y {\displaystyle t=x/y} . Esta función es biyectiva de clase C 1 {\displaystyle C^{1}} . La función inversa es g = h 1 : R × ( 0 , ) R × ( 0 , ) ( t , y ) ( x , y ) {\displaystyle {\begin{aligned}g=h^{-1}:\mathbb {R} \times &(0,\infty )\rightarrow \mathbb {R} \times (0,\infty )\\&(t,y)\longmapsto (x,y)\end{aligned}}} con x = t y {\displaystyle x=ty} . El valor absoluto del determinante jacobiano de g {\displaystyle g} es J g = y {\displaystyle J_{g}=y} . Por tanto la densidad de ( T , Y ) {\displaystyle (T,Y)} (después de arreglar la expresión) es f ( T , Y ) ( t , y ) = ν ν 2 e μ 2 2 π 2 ν 1 2 Γ ( ν 2 ) y ν e ( t 2 + ν ) y 2 2 t y μ 2 , ( t , y ) R × ( 0 , ) . {\displaystyle f_{(T,Y)}(t,y)={\frac {\nu ^{\frac {\nu }{2}}e^{-{\frac {\mu ^{2}}{2}}}}{{\sqrt {\pi }}\,2^{\frac {\nu -1}{2}}\,\Gamma {\big (}{\frac {\nu }{2}}{\big )}}}\,y^{\nu }e^{-{\frac {(t^{2}+\nu )y^{2}-2ty\mu }{2}}},\quad (t,y)\in \mathbb {R} \times (0,\infty ).} Entonces, para t R {\displaystyle t\in \mathbb {R} } , f T ( t ) = 0 f ( T , Y ) ( t , y ) d y = ν ν 2 e μ 2 2 π 2 ν 1 2 Γ ( ν 2 ) 0 y ν e ( t 2 + ν ) y 2 2 t y μ 2 d y . ( ) {\displaystyle f_{T}(t)=\int _{0}^{\infty }f_{(T,Y)}(t,y)\,dy={\frac {\nu ^{\frac {\nu }{2}}e^{-{\frac {\mu ^{2}}{2}}}}{{\sqrt {\pi }}\,2^{\frac {\nu -1}{2}}\,\Gamma {\big (}{\frac {\nu }{2}}{\big )}}}\,\int _{0}^{\infty }y^{\nu }e^{-{\frac {(t^{2}+\nu )y^{2}-2ty\mu }{2}}}\,dy.\quad \quad (*)} Haciendo el cambio z = ν + t 2 {\displaystyle z={\sqrt {\nu +t^{2}}}} , llegamos a la expresión (1) f ( t ) = ν ν / 2 e μ 2 ν 2 ( ν + t 2 ) π 2 ν 1 2 Γ ( ν / 2 ) ( ν + t 2 ) ν + 1 2 0 z ν e 1 2 ( z t μ ν + t 2 ) 2 d z . {\displaystyle f(t)={\frac {\nu ^{\nu /2}\,e^{-{\frac {\mu ^{2}\nu }{2(\nu +t^{2})}}}}{{\sqrt {\pi }}\,2^{\frac {\nu -1}{2}}\,\Gamma (\nu /2)(\nu +t^{2})^{\frac {\nu +1}{2}}}}\int _{0}^{\infty }z^{\nu }e^{-{\frac {1}{2}}{\Big (}z-{\frac {t\mu }{\sqrt {\nu +t^{2}}}}{\Big )}^{2}}\,dz.}

Expresión en serie. Volvamos a la expresión (*), que equivale a f T ( t ) = ν ν 2 e μ 2 2 π 2 ν 1 2 Γ ( ν 2 ) 0 y ν e ( t 2 + ν ) y 2 2 e t y μ d y , {\displaystyle f_{T}(t)={\frac {\nu ^{\frac {\nu }{2}}e^{-{\frac {\mu ^{2}}{2}}}}{{\sqrt {\pi }}\,2^{\frac {\nu -1}{2}}\,\Gamma {\big (}{\frac {\nu }{2}}{\big )}}}\,\int _{0}^{\infty }y^{\nu }e^{-{\frac {(t^{2}+\nu )y^{2}}{2}}}\,e^{-ty\mu }\,dy,} y descompongamos e t y μ {\displaystyle e^{ty\mu }} en serie de potencias en la variable y {\displaystyle y} . A continuación se razona que puede intercambiarse la integral con el sumatorio y se llega a f T ( t ) = ν ν 2 e μ 2 2 t j μ j π 2 ν 1 2 Γ ( ν 2 ) j ! j = 0 0 y ν + j e ( t 2 + ν ) y 2 2 d y . {\displaystyle f_{T}(t)={\frac {\nu ^{\frac {\nu }{2}}e^{-{\frac {\mu ^{2}}{2}}}t^{j}\mu ^{j}}{{\sqrt {\pi }}\,2^{\frac {\nu -1}{2}}\,\Gamma {\big (}{\frac {\nu }{2}}{\big )}j!}}\sum _{j=0}^{\infty }\int _{0}^{\infty }y^{\nu +j}e^{-{\frac {(t^{2}+\nu )y^{2}}{2}}}\,dy.} Ahora se calcula cada integral mediante el cambio de variable ( t 2 + ν ) y 2 / 2 = z {\displaystyle (t^{2}+\nu )y^{2}/2=z} , con lo que obtenemos (2).

Expresiones en términos de funciones especiales. La fórmula (3) se deduce de la fórmula (1) utilizando la representación integral de la función cilíndrica parabólica U {\displaystyle U} [10]​: para a > 1 / 2 {\displaystyle a>-1/2} , U ( a , t ) = e t 2 / 4 Γ ( 1 2 + a ) 0 z a 1 2 e z 2 2 z t d z . {\displaystyle U(a,t)={\frac {e^{-t^{2}/4}}{\Gamma ({\frac {1}{2}}+a)}}\int _{0}^{\infty }z^{a-{\frac {1}{2}}}e^{-{\frac {z^{2}}{2}}-zt}\,dz.} La fórmula (4) se obtiene a partir de (3) mediante la relación entre las funciones cilíndricas parabólicas y las funciones hipergeométricas confluentes [11][12][13] U ( a , x ) = π 2 a 2 + 1 4 Γ ( 3 4 + a 2 ) e x 2 / 4 1 F 1 ( a 2 + 1 4 ; 1 2 ; x 2 2 ) π 2 a 2 1 4 Γ ( 1 4 + a 2 ) x e x 2 / 4 1 F 1 ( a 2 + 3 4 ; 3 2 ; x 2 2 ) . {\displaystyle U(a,x)={\frac {\sqrt {\pi }}{2^{{\frac {a}{2}}+{\frac {1}{4}}}\,\Gamma ({\frac {3}{4}}+{\frac {a}{2}})}}\,e^{-x^{2}/4}\,_{1}\!F_{1}{\Big (}{\frac {a}{2}}+{\frac {1}{4}};{\frac {1}{2}};{\frac {x^{2}}{2}}{\Big )}-{\frac {\sqrt {\pi }}{2^{{\frac {a}{2}}-{\frac {1}{4}}}\,\Gamma ({\frac {1}{4}}+{\frac {a}{2}})}}\,x\,e^{-x^{2}/4}\,_{1}\!F_{1}{\Big (}{\frac {a}{2}}+{\frac {3}{4}};{\frac {3}{2}};{\frac {x^{2}}{2}}{\Big )}.} Expresión en términos de la función de distribución (5): véase el siguiente apartado..

Función de distribución

La función de distribución de la distribución t no central con ν {\displaystyle \nu } grados de libertad y parámetro de no centralidad μ {\displaystyle \mu } se puede expresar como [14][15] F ν , μ ( x ) = { F ~ ν , μ ( x ) , si  x 0 , 1 F ~ ν , μ ( x ) , si  x < 0 , ( 6 ) {\displaystyle F_{\nu ,\mu }(x)={\begin{cases}{\widetilde {F}}_{\nu ,\mu }(x),&{\mbox{si }}x\geq 0,\\\\1-{\widetilde {F}}_{\nu ,-\mu }(-x),&{\mbox{si }}x<0,\end{cases}}\qquad \qquad (6)} donde F ~ ν , μ ( x ) = Φ ( μ ) + 1 2 j = 0 ( p j I y ( j + 1 2 , ν 2 ) + q j I y ( j + 1 , ν 2 ) ) , ( 7 ) {\displaystyle {\widetilde {F}}_{\nu ,\mu }(x)=\Phi (-\mu )+{\frac {1}{2}}\sum _{j=0}^{\infty }{\bigg (}p_{j}I_{y}{\Big (}j+{\frac {1}{2}},{\frac {\nu }{2}}{\Big )}+q_{j}I_{y}{\Big (}j+1,{\frac {\nu }{2}}{\Big )}{\bigg )},\qquad \qquad (7)}

I y ( a , b ) {\displaystyle I_{y}\,\!(a,b)} es la función beta incompleta regularizada,
y = x 2 x 2 + ν , p j = 1 j ! ( μ 2 2 ) j e μ 2 / 2 y q j = μ 2 Γ ( j + 3 2 ) ( μ 2 2 ) j e μ 2 / 2 , {\displaystyle y={\frac {x^{2}}{x^{2}+\nu }},\quad p_{j}={\frac {1}{j!}}\,{\bigg (}{\frac {\mu ^{2}}{2}}{\bigg )}^{j}\,e^{-\mu ^{2}/2}\quad {\text{y}}\quad q_{j}={\frac {\mu }{{\sqrt {2}}\,\Gamma (j+{\frac {3}{2}})}}\,{\bigg (}{\frac {\mu ^{2}}{2}}{\bigg )}^{j}\,e^{-\mu ^{2}/2},}

y Φ {\displaystyle \Phi } es la función de distribución de la distribución normal estándar. Nótese que F ~ ν , μ ( x ) {\displaystyle {\widetilde {F}}_{\nu ,\mu }(x)} sólo depende de x 2 {\displaystyle x^{2}} y por tanto en (6), para x < 0 {\displaystyle x<0} es indistinto poner F ~ ν , μ ( x ) {\displaystyle {\widetilde {F}}_{\nu ,-\mu }(-x)} o F ~ ν , μ ( x ) {\displaystyle {\widetilde {F}}_{\nu ,-\mu }(x)} .

Demostración
Esta fórmula se deduce a partir de la expresión en serie de la función de densidad (2). Empezaremos demostrando una fórmula intermedia que nos será de utilidad más adelante. Argumentando que la convergencia de la serie en (2) es uniforme en cualquier intervalo finito [16]​ , podemos integrar término a cabo; concretamente, para x > 0 {\displaystyle x>0} , se obtiene P ( 0 < T x ) = 0 x f ( t ) d t = 1 2 π j = 0 μ j j ! 2 j / 2 Γ ( j + 1 2 ) I x 2 / ( ν + x 2 ) ( j + 1 2 , ν 2 ) . {\displaystyle P(0<T\leq x)=\int _{0}^{x}f(t)\,dt={\frac {1}{2{\sqrt {\pi }}}}\sum _{j=0}^{\infty }{\frac {\mu ^{j}}{j!}}2^{j/2}\,\Gamma {\Big (}{\frac {j+1}{2}}{\Big )}I_{x^{2}/(\nu +x^{2})}{\Big (}{\frac {j+1}{2}},{\frac {\nu }{2}}{\Big )}.} Ahora se utiliza la fórmula de duplicación de la función gamma: Γ ( j + 1 2 ) = 2 j j ! π Γ ( j 2 + 1 ) , {\displaystyle \Gamma {\Big (}{\frac {j+1}{2}}{\Big )}={\frac {2^{-j}j!\,{\sqrt {\pi }}}{\Gamma {\Big (}{\frac {j}{2}}+1{\Big )}}},} y se obtiene P ( 0 < T x ) = 1 2 e μ 2 / 2 j = 0 μ j 2 j / 2 1 Γ ( j 2 + 1 ) I x 2 / ( ν + x 2 ) ( j + 1 2 , ν 2 ) . {\displaystyle P(0<T\leq x)={\frac {1}{2}}\,e^{-\mu ^{2}/2}\sum _{j=0}^{\infty }{\frac {\mu ^{j}}{2^{j/2}}}\,{\frac {1}{\Gamma {\Big (}{\frac {j}{2}}+1{\Big )}}}I_{x^{2}/(\nu +x^{2})}{\Big (}{\frac {j+1}{2}},{\frac {\nu }{2}}{\Big )}.}

Por otro lado, P ( T 0 ) = P ( Z + μ V / ν 0 ) = P ( Z + μ 0 ) = P ( Z μ ) = Φ ( μ ) . {\displaystyle P(T\leq 0)=P{\Big (}{\frac {Z+\mu }{\sqrt {V/\nu }}}\leq 0{\Big )}=P(Z+\mu \leq 0)=P(Z\leq -\mu )=\Phi (-\mu ).} Así, F ν , μ ( x ) = P ( T 0 ) + P ( 0 < T x ) = Φ ( μ ) + 1 2 e μ 2 / 2 j = 0 μ j 2 j / 2 1 Γ ( j 2 + 1 ) I x 2 / ( ν + x 2 ) ( j + 1 2 , ν 2 ) . ( 8 ) {\displaystyle F_{\nu ,\mu }(x)=P(T\leq 0)+P(0<T\leq x)=\Phi (-\mu )+{\frac {1}{2}}\,e^{-\mu ^{2}/2}\sum _{j=0}^{\infty }{\frac {\mu ^{j}}{2^{j/2}}}\,{\frac {1}{\Gamma {\Big (}{\frac {j}{2}}+1{\Big )}}}I_{x^{2}/(\nu +x^{2})}{\Big (}{\frac {j+1}{2}},{\frac {\nu }{2}}{\Big )}.\qquad \qquad (8)} Designemos la expresión de la derecha por F ~ ν , μ ( x ) {\displaystyle {\widetilde {F}}_{\nu ,\mu }(x)} .

Para x 0 {\displaystyle x\leq 0} , tenemos P ( T x ) = P ( Z + μ V / ν x ) = P ( Z V / ν x μ V / ν ) = P ( Z V / ν x + μ V / ν ) = 1 P ( Z μ V / ν x ) = 1 F ~ ν , μ ( x ) = 1 F ~ ν , μ ( x ) , {\displaystyle {\begin{aligned}P(T\leq x)&=P{\Big (}{\frac {Z+\mu }{\sqrt {V/\nu }}}\leq x{\Big )}=P{\Big (}{\frac {Z}{\sqrt {V/\nu }}}\leq x-{\frac {\mu }{\sqrt {V/\nu }}}{\Big )}=P{\Big (}{\frac {Z}{\sqrt {V/\nu }}}\geq -x+{\frac {\mu }{\sqrt {V/\nu }}}{\Big )}\\&=1-P{\Big (}{\frac {Z-\mu }{\sqrt {V/\nu }}}\leq -x{\Big )}=1-{\widetilde {F}}_{\nu ,-\mu }(-x)=1-{\widetilde {F}}_{\nu ,-\mu }(x),\end{aligned}}} donde hemos utilizado que Z / V / ν {\displaystyle Z/{\sqrt {V/\nu }}} es simétrica respecto al 0 y que la función F ~ ν , μ ( x ) {\displaystyle {\widetilde {F}}_{\nu ,\mu }(x)} que hemos calculado antes sólo depende de x 2 {\displaystyle x^{2}} .

Finalmente, para obtener la expresión (7), el sumatorio de (8) se separa en dos, uno para los índices j {\displaystyle j} pares y el otro para los impares.

Demostración de la fórmula de la densidad en términos de la función de distribución
La demostración consiste en calcular la diferencia F ν + 2 , μ ( t 1 + 2 ν ) F ν , μ ( t ) {\displaystyle F_{\nu +2,\mu }{\bigg (}t{\sqrt {1+{\frac {2}{\nu }}}}{\bigg )}-F_{\nu ,\mu }(t)} utilizando la fórmula (8). Fijemos t > 0 {\displaystyle t>0} ; el punto clave de la prueba es que en la expresión (8) de F ν + 2 , μ ( t 1 + 2 ν ) {\displaystyle F_{\nu +2,\mu }{\bigg (}t{\sqrt {1+{\frac {2}{\nu }}}}{\bigg )}} y de F ν , μ ( t ) {\displaystyle F_{\nu ,\mu }(t)} , para cada término j {\displaystyle j} del sumatorio, el subíndice de la función gamma incompleta es el mismo . Concretamente, si definimos la función y ( z , α ) = z 2 α + z 2 , {\displaystyle y(z,\alpha )={\frac {z^{2}}{\alpha +z^{2}}},} entonces, y ( t 1 + 2 ν , ν + 2 ) = y ( t , ν ) = t 2 ν + t 2 . {\displaystyle y{\Big (}t{\sqrt {1+{\tfrac {2}{\nu }}}},\nu +2{\Big )}=y(t,\nu )={\frac {t^{2}}{\nu +t^{2}}}.} A a partir de esa observación se aplica la fórmula [17] I y ( p , q + 1 ) I y ( p , q ) = y p ( 1 y ) q q B ( p , q ) , {\displaystyle I_{y}(p,q+1)-I_{y}(p,q)={\frac {y^{p}(1-y)^{q}}{q\,B(p,q)}},} donde B ( p , q ) {\displaystyle B(p,q)} es la función Beta, en cada una de las diferencias entre los sumandos del mismo índice j {\displaystyle j} (ambas series son convergentes y las podemos restar término a término), de donde I t 2 ν + t 2 ( j + 1 2 , ν + 2 2 ) I t 2 ν + t 2 ( j + 1 2 , ν 2 ) = ( t 2 ν + t 2 ) j + 1 2 ( 1 t 2 ν + t 2 ) ν 2 Γ ( ν + j + 1 2 ) ν 2 Γ ( j + 1 2 ) Γ ( ν 2 ) . {\displaystyle I_{\frac {t^{2}}{\nu +t^{2}}}{\Big (}{\frac {j+1}{2}},{\frac {\nu +2}{2}}{\Big )}-I_{\frac {t^{2}}{\nu +t^{2}}}{\Big (}{\frac {j+1}{2}},{\frac {\nu }{2}}{\Big )}={\frac {{\Big (}{\frac {t^{2}}{\nu +t^{2}}}{\Big )}^{\frac {j+1}{2}}{\Big (}1-{\frac {t^{2}}{\nu +t^{2}}}{\Big )}^{\frac {\nu }{2}}\,\Gamma ({\frac {\nu +j+1}{2}})}{{\frac {\nu }{2}}\,\Gamma ({\frac {j+1}{2}})\,\Gamma ({\frac {\nu }{2}})}}.}

Aplicando la fórmula de duplicación de la función beta y simplificando, juntando todos los términos del sumatorio, se obtiene t / ν {\displaystyle t/\nu } que multiplica la expresión de la derecha de (2), con lo que se demuestra (5 ) cuando t > 0 {\displaystyle t>0} .

Para t < 0 {\displaystyle t<0} , por los cálculos efectuados, tenemos que F ν + 2 , μ ( t 1 + 2 ν ) F ν , μ ( t ) = F ~ ν , μ ( t ) F ~ ν + 2 , μ ( t 1 + 2 ν ) = t ν ( f ν , μ ( t ) ) , {\displaystyle F_{\nu +2,\mu }{\bigg (}t{\sqrt {1+{\frac {2}{\nu }}}}{\bigg )}-F_{\nu ,\mu }(t)={\widetilde {F}}_{\nu ,-\mu }(-t)-{\widetilde {F}}_{\nu +2,-\mu }{\bigg (}-t{\sqrt {1+{\frac {2}{\nu }}}}{\bigg )}={\frac {-t}{\nu }}{\big (}-f_{\nu ,-\mu }(-t){\big )},} donde f ν , μ ( t ) {\displaystyle f_{\nu ,\mu }(t)} designa la función de densidad de la distribución t {\displaystyle t} con ν {\displaystyle \nu } grados de libertad y parámetro de no centralidad μ {\displaystyle \mu } . Pero como se comprueba a partir de (1) o (2), f ν , μ ( t ) = f ν , μ ( t ) . {\displaystyle f_{\nu ,-\mu }(-t)=f_{\nu ,\mu }(t).}

Momentos

El momento de orden k {\displaystyle k} de una distribución t {\displaystyle t} no central es [18]

E [ T k ] = { ( ν 2 ) k 2 Γ ( ν k 2 ) Γ ( ν 2 ) e μ 2 / 2 d k e μ 2 / 2 d μ k , si  k < ν , no existe , si  k ν , {\displaystyle {\mbox{E}}\left[T^{k}\right]={\begin{cases}{\Big (}{\dfrac {\nu }{2}}{\Big )}^{\frac {k}{2}}\,{\dfrac {\Gamma {\big (}{\frac {\nu -k}{2}}{\big )}}{\Gamma {\big (}{\frac {\nu }{2}}{\big )}}}\,e^{-\mu ^{2}/2}{\dfrac {d^{k}e^{\mu ^{2}/2}}{d\mu ^{k}}},&{\mbox{si }}k<\nu ,\\\\{\mbox{no existe}},&{\mbox{si }}k\geq \nu ,\end{cases}}}
donde d k e μ 2 / 2 / d μ k {\displaystyle d^{k}e^{\mu ^{2}/2}/d\mu ^{k}} designa la derivada de orden k -ésimo de la función e μ 2 / 2 {\displaystyle e^{\mu ^{2}/2}} .

En particular, la media y la varianza son: E [ T ] = { μ ν 2 Γ ( ν 1 2 ) Γ ( ν 2 ) , si  ν > 1 , no existe , si  ν 1 , Var ( T ) = { ν ( 1 + μ 2 ) ν 2 μ 2 ν 2 ( Γ ( ν 1 2 ) Γ ( ν 2 ) ) 2 , si  ν > 2 , no existe , si  ν 2. {\displaystyle {\begin{aligned}{\mbox{E}}[T]&={\begin{cases}\mu \,{\sqrt {\dfrac {\nu }{2}}}\,{\dfrac {\Gamma {\Big (}{\frac {\nu -1}{2}}{\Big )}}{\Gamma {\Big (}{\frac {\nu }{2}}{\Big )}}},&{\mbox{si }}\nu >1,\\\\{\mbox{no existe}},&{\mbox{si }}\nu \leq 1,\\\end{cases}}\\\\{\mbox{Var}}(T)&={\begin{cases}{\dfrac {\nu (1+\mu ^{2})}{\nu -2}}-{\dfrac {\mu ^{2}\nu }{2}}\left({\dfrac {\Gamma {\Big (}{\frac {\nu -1}{2}}{\Big )}}{\Gamma {\Big (}{\frac {\nu }{2}}{\Big )}}}\right)^{2},&{\mbox{si }}\nu >2,\\\\{\mbox{no existe}},&{\mbox{si }}\nu \leq 2.\\\end{cases}}\end{aligned}}}

Demostración
Debido a la independencia entre el numerador i el denominador en la definición de la distribución t {\displaystyle t} no central, a que una variable normal tiene momentos de todos los órdenes y que V 0 {\displaystyle V\geq 0} , el cálculo de los momentos se reduce a E [ T k ] = ν k / 2 E [ V k / 2 ] E [ ( Z + μ ) k ] , {\displaystyle E[T^{k}]=\nu ^{k/2}E{\big [}V^{-k/2}{\big ]}\,E{\big [}(Z+\mu )^{k}{\big ]},} pudiendo ser esta expresión finita o + {\displaystyle +\infty } .

Por un lado, para la distribución normal estándar Z N ( 0 , 1 ) {\displaystyle Z\sim {\mathcal {N}}(0,1)} tenemos la siguiente expresión: E [ ( Z + μ ) k ] = e μ 2 / 2 d k e μ 2 / 2 d μ k . {\displaystyle E{\big [}(Z+\mu )^{k}{\big ]}=e^{-\mu ^{2}/2}\,{\dfrac {d^{k}e^{\mu ^{2}/2}}{d\mu ^{k}}}.} Por otra parte, debido a que V 0 {\displaystyle V\geq 0} , podemos calcular la siguiente integral para cualquier número natural k {\displaystyle k} E [ V k / 2 ] = 1 2 ν / 2 Γ ( ν / 2 ) 0 x k / 2 x ( ν / 2 ) 1 e x / 2 d x = 1 2 ν / 2 Γ ( ν / 2 ) 0 x ( ν k ) / 2 1 e x / 2 d x . {\displaystyle E{\big [}V^{-k/2}{\big ]}={\frac {1}{2^{\nu /2}\Gamma (\nu /2)}}\int _{0}^{\infty }x^{-k/2}x^{(\nu /2)-1}e^{-x/2}\,dx={\frac {1}{2^{\nu /2}\Gamma (\nu /2)}}\int _{0}^{\infty }x^{(\nu -k)/2-1}e^{-x/2}\,dx.} Hacemos el cambio de variables y = x / 2 {\displaystyle y=x/2} , y la integral de la derecha da 2 ( ν n ) / 2 Γ ( ( ν k ) / 2 ) {\displaystyle 2^{(\nu -n)/2}\Gamma ((\nu -k)/2)} ( ν k ) / 2 > 0 {\displaystyle (\nu -k)/2>0} , y + {\displaystyle +\infty } en caso contrario.

Aplicación al cálculo de la potencia del contraste t de Student

Véase Johnson and Welch [19]​. Sea X 1 , , X n {\displaystyle X_{1},\dots ,X_{n}} una muestra de una población normal N ( μ , σ 2 ) {\displaystyle {\mathcal {N}}(\mu ,\sigma ^{2})} , es decir, las variables aleatorias X 1 , , X n {\displaystyle X_{1},\dots ,X_{n}} son independientes y todas tienen distribución N ( μ , σ 2 ) {\displaystyle {\mathcal {N}}(\mu ,\sigma ^{2})} . Fijado un número μ 0 R {\displaystyle \mu _{0}\in \mathbb {R} } . Queremos contrastar H 0 :   μ = μ 0 contra H 1 :   μ > μ 0 . {\displaystyle H_{0}:\ \mu =\mu _{0}\qquad {\text{contra}}\quad H_{1}:\ \mu >\mu _{0}.} En el contraste de Student, el estadístico de contraste es T = X ¯ μ 0 S / n , {\displaystyle T={\frac {{\overline {X}}-\mu _{0}}{S/{\sqrt {n}}}},} donde X ¯ {\displaystyle {\overline {X}}} és la media muestral y S 2 {\displaystyle S^{2}} es la varianza muestral (modificada): X ¯ = 1 n i = 1 n X i y S 2 = 1 n 1 i = 1 n ( X i X ¯ ) 2 . {\displaystyle {\overline {X}}={\frac {1}{n}}\sum _{i=1}^{n}X_{i}\quad {\text{y}}\quad S^{2}={\frac {1}{n-1}}\sum _{i=1}^{n}{\big (}X_{i}-{\overline {X}}{\big )}^{2}.} Bajo la hipótesis nula H 0 {\displaystyle H_{0}} , T t n 1 {\displaystyle T\sim t_{n-1}} (véase la distribución t {\displaystyle t} de Student). Fijado un nivel de significación α ( 0 , 1 ) {\displaystyle \alpha \in (0,1)} (habitualmente α = 0 05 {\displaystyle \alpha =0'05} o 0 01 {\displaystyle 0'01} ), para determinar la región crítica calculamos el valor c α {\displaystyle c_{\alpha }} tal que P ( W > c α ) = α , {\displaystyle P(W>c_{\alpha })=\alpha ,} donde W t n 1 {\displaystyle W\sim t_{n-1}} En este contexto, rechazamos H 0 {\displaystyle H_{0}} si T > c α {\displaystyle T>c_{\alpha }} . Dado un valor μ 1 > μ 0 {\displaystyle \mu _{1}>\mu _{0}} (por tanto, de la hipótesis alternativa), podemos calcular la potencia del test, es decir, la probabilidad de rechazar la hipótesis nula cuando es falsa, en este punto, de la siguiente manera: escribimos T = X ¯ μ 0 S / n = X ¯ μ 1 σ / n + μ 1 μ 0 σ / n S / σ . {\displaystyle T={\frac {{\overline {X}}-\mu _{0}}{S/{\sqrt {n}}}}={\frac {{\frac {{\overline {X}}-\mu _{1}}{\sigma /{\sqrt {n}}}}+{\frac {\mu _{1}-\mu _{0}}{\sigma /{\sqrt {n}}}}}{S/\sigma }}.} En la expresión de la derecha,

  1. Si suponemos μ = μ 1 {\displaystyle \mu =\mu _{1}} , entonces ( X ¯ μ 1 ) / ( σ / n ) N ( 0 , 1 ) {\displaystyle ({\overline {X}}-\mu _{1})/(\sigma /{\sqrt {n}})\sim {\mathcal {N}}(0,1)} .
  2. Tenemos que S 2 σ 2 = ( n 1 ) S 2 ( n 1 ) σ 2 = 1 σ 2 i = 1 n ( X i X ¯ ) n 1 , {\displaystyle {\frac {S^{2}}{\sigma ^{2}}}={\frac {(n-1)S^{2}}{(n-1)\sigma ^{2}}}={\frac {{\frac {1}{\sigma ^{2}}}\sum _{i=1}^{n}(X_{i}-{\overline {X}})}{n-1}},} y por tanto S 2 / σ 2 {\displaystyle S^{2}/\sigma ^{2}} es una variable aleatoria con una distribución χ n 1 2 {\displaystyle \chi _{n-1}^{2}} (véase la distribución χ²) dividida por sus grados de libertad.
  3. Las variables aleatorias de los puntos 1 y 2 son independientes (véase la distribución χ²) .

En consecuencia, si μ = μ 1 {\displaystyle \mu =\mu _{1}} , tenemos que T t n 1 ( μ 1 μ 0 σ / n ) {\displaystyle T\sim t_{n-1}{\bigg (}{\frac {\mu _{1}-\mu _{0}}{\sigma /{\sqrt {n}}}}{\bigg )}} . Por tanto, la potencia del test en el punto μ 1 {\displaystyle \mu _{1}} será P ( T > c α | μ = μ 1 ) = 1 F n 1 , μ 1 μ 0 σ / n ( c α ) . {\displaystyle P(T>c_{\alpha }\,\vert \mu =\mu _{1})=1-F_{n-1,{\frac {\mu _{1}-\mu _{0}}{\sigma /{\sqrt {n}}}}}(c_{\alpha }).}


Uso en intervalos de tolerancia

Los intervalos de tolerancia normales unilaterales tienen una solución exacta en términos de la media muestral y la varianza muestral basada en la distribución t no central [20]​. Esto permite calcular un intervalo estadístico dentro del cual, con cierto nivel de confianza, se encuentra una proporción especificada de la población.

Referencias

  1. Johnson, Norman L.; Kotz, Samuel; Balakrishnan, Narayanaswamy (1995). Continuous univariate distributions. 2 (2. ed edición). Wiley. p. 508. ISBN 978-0-471-58494-0.  |fechaacceso= requiere |url= (ayuda)
  2. Scharf, Louis. Statistical signal processing: detección, estimación, y time series 0 (transferred to digital print on demand 2002; reprinted with corrections July, 1991 edición). p. 177. 
  3. HOGBEN, D.; PINKHAM, R. S.; WILK, M. B. (1961). «The moments of the non-central t-distribution». Biometrika 48 (3-4): 465-468. ISSN 0006-3444. doi:10.1093/biomet/48.3-4.465. Consultado el 18 de enero de 2024. 
  4. Jeffreys, Harold; Jeffreys, Bertha (2001). «Section 23.081». Methods of mathematical physics. Cambridge mathematical library (3. ed.; 1. paperback ed., reprinted 2001 edición). Cambridge Univ. Press. ISBN 978-0-521-66402-8.  |fechaacceso= requiere |url= (ayuda)
  5. Craig, Cecil C. (1941-06). «Note on the Distribution of Non-Central $t$ with an Application». The Annals of Mathematical Statistics 12 (2): 224-228. ISSN 0003-4851. doi:10.1214/aoms/1177731752. Consultado el 18 de enero de 2024. 
  6. National Institute of Standards and Technology (2010). Olver, Frank W. J., ed. NIST handbook of mathematical functions. Cambridge University Press. ISBN 978-0-521-14063-8.  |fechaacceso= requiere |url= (ayuda)
  7. «12.5.1. NIST Handbook of Mathematical Functions. DLMF: §12.5 Integral Representations ‣ Properties ‣ Chapter 12 Parabolic Cylinder Functions». dlmf.nist.gov. Consultado el 18 de enero de 2024. 
  8. Gil, Amparo; Segura, Javier; Temme, Nico M. (2023-10). «New asymptotic representations of the noncentral t ‐distribution». Studies in Applied Mathematics (en inglés) 151 (3): 857-882. Fórmula 2.12. ISSN 0022-2526. doi:10.1111/sapm.12609. Consultado el 18 de enero de 2024. 
  9. «NIST Handbook of Mathematical Functions. DLMF: §13.1 Special Notation ‣ Notation ‣ Chapter 13 Confluent Hypergeometric Functions». dlmf.nist.gov. Consultado el 18 de enero de 2024. 
  10. «12.5.1. NIST Handbook of Mathematical Functions. DLMF: §12.5 Integral Representations ‣ Properties ‣ Chapter 12 Parabolic Cylinder Functions». dlmf.nist.gov. Consultado el 18 de enero de 2024. 
  11. «12.4.1. NIST handbook of mathematical functions. DLMF: §12.4 Power-Series Expansions ‣ Properties ‣ Chapter 12 Parabolic Cylinder Functions». dlmf.nist.gov. Consultado el 18 de enero de 2024. 
  12. «12.7.12, 12.7.13. NIST handbook of mathematical functions. DLMF: §12.7 Relations to Other Functions ‣ Properties ‣ Chapter 12 Parabolic Cylinder Functions». dlmf.nist.gov. Consultado el 18 de enero de 2024. 
  13. «12.2.6, 12.2.7. NIST handbook of mathematical functions. DLMF: §12.2 Differential Equations ‣ Properties ‣ Chapter 12 Parabolic Cylinder Functions». dlmf.nist.gov. Consultado el 18 de enero de 2024. 
  14. Lenth, Russell V. (1989). «Algorithm AS 243: Cumulative Distribution Function of the Non-Central t Distribution». Journal of the Royal Statistical Society. Series C (Applied Statistics) 38 (1): 185-189. ISSN 0035-9254. doi:10.2307/2347693. Consultado el 19 de enero de 2024. 
  15. Gil, Amparo; Segura, Javier; Temme, Nico M. (2023-10). «New asymptotic representations of the noncentral t ‐distribution». Studies in Applied Mathematics (en inglés) 151 (3): 857-882, fórmulas (1.1) y (1.2). ISSN 0022-2526. doi:10.1111/sapm.12609. Consultado el 19 de enero de 2024. 
  16. Craig, Cecil C. (1941). «Note on the Distribution of Non-Central t with an Application». The Annals of Mathematical Statistics 12 (2): 224-228. ISSN 0003-4851. Consultado el 19 de enero de 2024. 
  17. Temme, Nico M. (1996). Special functions: an introduction to the classical functions of mathematical physics. A Wiley interscience publication. Wiley. p. 289, fórmula 11.3. ISBN 978-0-471-11313-3.  |fechaacceso= requiere |url= (ayuda)
  18. Hogben, D; Pinkham, RS; Wilk, MB (1961). «The momentos de la no-central t-distribution». Biometrika 48 (3–4): 465-468. JSTOR 2332772. doi:10.1093/biomet/48.3-4.465. hdl:2027/coo.31924001119068. 
  19. Johnson, N. L.; Welch, B. L. (1940). «Applications of the Non-Central t-Distribution». Biometrika 31 (3/4): 362-389. ISSN 0006-3444. doi:10.2307/2332616. Consultado el 19 de enero de 2024. 
  20. Owen, D. B. (1968). «A Survey of Properties and Applications of the Noncentral t-Distribution». Technometrics 10 (3): 445-478. ISSN 0040-1706. doi:10.2307/1267101. Consultado el 19 de enero de 2024. 
Control de autoridades
  • Proyectos Wikimedia
  • Wd Datos: Q6960434
  • Wd Datos: Q6960434