Ilustrados comunidad mundial educativa
Inicio | Escribenos
User: Pass: Recordar ó (Registrate!)

| !Publicar Articulo¡

Principales leyes de distribución de variables aleatorias

Resumen: Definimos todos los conceptos relativos a variables aleatorias, describimos las principales leyes de probabilidad que encontramos en las aplicaciones del cálculo de probabilidades. Atendiendo a la clasificación de las v.a. en discretas y continuas describiremos las principales leyes de probabilidad de cada una de ellas, las cuales constituirán el soporte subyacente de la inferencia estadística y a las que será necesario hacer referencia en el estudio de dicho bloque. Iniciamos este capítulo con el estudio de las distribuciones para v.a. discretas.
3,050 visitas
Rating: 0
Tell a Friend
Autor: Universidad de Málaga

indice

6.2 Introducción 
6.4 Distribuciones discretas 
6.4.2 Distribución de Bernoulli 
6.4.2.1 Observación 
6.4.4 Distribución binomial 
6.4.4.1 Ejemplo 
6.4.6 Distribución geométrica ( o de fracasos) 
6.4.6.1 Observación 
6.4.6.2 Observación 
6.4.6.3 Ejemplo 
6.4.6.4 Observación 
6.4.8 Distribución binomial negativa 
6.4.8.1 Ejemplo 
6.4.8.2 Observación 
6.4.10 Distribución hipergeométrica 
6.4.10.1 Observación 
6.4.12 Distribución de Poisson (o de los sucesos raros) 
6.4.12.1 Ejemplo 
6.6 Reproductividad de familias de v.a. 
6.8 Distribuciones continuas 
6.8.2 Distribución uniforme o rectangular 
6.8.4 Distribución exponencial 
6.8.4.1 Ejemplo 
6.8.4.2 Ejemplo 
6.8.6 Distribución normal o gaussiana 
6.8.6.1 Observación 
6.8.6.2 Observación 
6.8.6.3 Proposición (Cambio de origen y escala) 
6.8.6.4 Ejemplo 
6.8.6.5 Proposición 
6.8.6.6 Aproximación a la normal de la ley binomial 
6.8.6.7 Ejemplo 
6.8.6.8 Ejemplo 
6.8.8 Distribución 
6.8.8.1 Observación 
6.8.8.2 Ejemplo 
6.8.8.3 Teorema (Cochran) 
6.8.10 Distribución de Student 
6.8.12 La distribución de Snedecor 
6.10 Problemas

 

6.2 Introducción

Como complemento al capítulo anterior en el que definimos todos los conceptos relativos a variables aleatorias, describimos en éste las principales leyes de probabilidad que encontramos en las aplicaciones del cálculo de probabilidades. Atendiendo a la clasificación de las v.a. en discretas y continuas describiremos las principales leyes de probabilidad de cada una de ellas, las cuales constituirán el soporte subyacente de la inferencia estadística y a las que será necesario hacer referencia en el estudio de dicho bloque. Iniciamos este capítulo con el estudio de las distribuciones para v.a. discretas.

6.4.2 Distribución de Bernoulli

Consiste en realizar un experimento aleatorio una sóla vez y observar si cierto suceso ocurre o no, siendo p la probabilidad de que esto sea así (éxito) y q=1-p el que no lo sea (fracaso). En realidad no se trata más que de una variable dicotómica, es decir que únicamente puede tomar dos modalidades, es por ello que el hecho de llamar éxito o fracaso a los posibles resultados de las pruebas obedece más una tradición literaria o histórica, en el estudio de las v.a., que a la situación real que pueda derivarse del resultado. Podríamos por tanto definir este experimento mediante una v.a. discreta Xque toma los valores X=0 si el suceso no ocurre, y X=1 en caso contrario, y que se denota $X {\leadsto}{ {{\bf Ber} \left( p \right)} }$

\begin{displaymath}{
\mbox{\fbox{$\displaystyle
X{\leadsto}{ {{\bf Ber} \left( ...
...ongrightarrow & p = {{\cal P}}[X=1]
\end{array}\right.
$ } }
}
\end{displaymath}

Un ejemplo típico de este tipo de variables aleatorias consiste en lanzar una moneda al aire y considerar la v.a.


 

\begin{displaymath}X \equiv \mbox{ número de caras obtenidas} =
\left\{
\begin{a...
...longrightarrow &\displaystyle p=\frac{1}{2}
\end{array}\right.
\end{displaymath}

 

Para una v.a. de Bernouilli, tenemos que su función de probabilidad es:


 

\begin{displaymath}f(x) = \left\{
\begin{array}{ll}
q & \mbox{ si } x=0
\\
p & ...
...=1
\\
0 & \mbox { en cualquier otro caso;}
\end{array}\right.
\end{displaymath}

 

y su función de distribución:


\begin{displaymath}F(x) = \left\{
\begin{array}{ll}
0 & \mbox{ si } x < 0
\\
q ...
... } 0 \leq x< 1
\\
1 & \mbox{ si } x \geq 1
\end{array}\right.
\end{displaymath}

 

Su función característica es:

 

\begin{displaymath}\phi_X(t) = \sum_{x_i=0,1} e^{itx_i} f(x_i) =
e^{it0} f(0) + e^{it1} f(1) = q + p\cdot e^{it}
\end{displaymath}

 

Los principales momentos de la X los podemos calcular directamente

 

\begin{eqnarray}\html{eqn2}{ {{\bf E} \left[ X \right]} } &=& \sum_{x_i=0,1} x_i...
...{ {{\bf E} \left[ X \right]} }^2 = p-p^2 = p\cdot (1-p)= p\cdot q
\end{eqnarray}


o bien usando la función característica y la proposición de la página [*]:


\begin{displaymath}{ {{\bf E} \left[ X \right]} } = \left.
\frac{\phi_X^,(t)}{i}...
...^{it}}{i {\!\!\!\setminus}}
\right\vert _{t=0}
=p\cdot e^0 = p
\end{displaymath}

\begin{displaymath}{ {{\bf E} \left[ X^2 \right]} } = \left.
\frac{\phi_X^{,,}(t...
...it}}{i^2 {\!\!\!\setminus}}
\right\vert _{t=0}
=p\cdot e^0 = p
\end{displaymath}

 

6.4.2.1 Observación

En este caso tan simple no se aprecia la ventaja de usar la función característica en el cálculo de momentos, pero en las próximas leyes de probabilidad que son más complicadas, esta ventaja se hará manifiesta.

6.4.4 Distribución binomial

Se dice que una v.a. X sigue una ley binomial de parámetros n y p, $X {\leadsto}{ {{\bf B} \left( n,p \right)} }$, si es la suma de n v.a. independientes de Bernouilli con el mismo parámetro, p:  \begin{displaymath}X {\leadsto}{ {{\bf B} \left( n,p \right)} } \Longleftrightar...
...}{ {{\bf Ber} \left( p \right)} }, \: \forall \, i =1,\dots, n
\end{displaymath}
Esta definición puede interpretarse en el siguiente sentido: Supongamos que realizamos n pruebas de Bernouilli, Xi, donde en todas ellas, la probabilidad de éxito es la misma (p), y queremos calcular el número de éxitos, X, obtenidos el el total de las n pruebas. Su ley de probabilidad es6.1 En la Figura 6.1 se representa la función de probabilidad de una variable binomial.


  
Figura: Función de probabilidad de una variable binomial cunado n es pequeño.
\includegraphics[angle=0, width=0.7\textwidth]{fig06-01.eps}


  
Figura: Función de probabilidad de una variable binomial cuando n es grande.
\includegraphics[angle=0, width=0.7\textwidth]{fig06-02.eps}

\begin{displaymath}{
\mbox{\fbox{$\displaystyle
f(k) = P[X=k] = { \left(\begin{...
...right)\,} p^k q^{n-k} \qquad \forall \, k=0,1,\dots, n
$ } }
}
\end{displaymath}

Por tanto, su función de distribución es


 

\begin{displaymath}F(x) = \left\{
\begin{array}{ll}
0 & \mbox{ si } x < 0
\\
\\...
...q x \leq n
\\
\\
1 & \mbox{ si } x \geq n
\end{array}\right.
\end{displaymath}

 

El modo más simple de calcular la función característica nos lo da el teorema de la página [*], que afirma que la función característica de la suma de variables independientes es el producto de las funciones características de estas:


 

\begin{displaymath}\phi_X(t) = \phi_{X_1 + \dots+X_n}(t) = \phi_{X_1}(t)\cdots\p...
...ight) \cdots \left(q+pe^{it}\right) =
\left(q+pe^{it}\right)^n
\end{displaymath}

 

Los principales momentos de X los calculamos más fácilmente a partir de $\phi_X$ (prop. página 5) que de su propia definición:


 

\begin{displaymath}{ {{\bf E} \left[ X \right]} } = \left.
\frac{\phi_X^,(t)}{i}...
...t _{t=0}
=np\,{\underbrace{\left(p +q\right)}_{=1}}^{n-1} = np
\end{displaymath}

 

 

\begin{eqnarray}\html{eqn9}\nonumber
{ {{\bf E} \left[ X^2 \right]} } &=& \left....
...race{\left(p +q\right)}_{=1}}^{n-1}=
n(n-1)\,p^2 + np
\nonumber
\end{eqnarray}



 

\begin{displaymath}{ {{\bf Var } \left[ X \right]} }={ {{\bf E} \left[ X^2 \righ...
...ht]} }^2 = n(n-1)\,p^2 + np - n^2p^2= -np^2+np
= np(1-p) = npq
\end{displaymath}

 

 

6.4.4.1 Ejemplo

Un médico aplica un test a 10 alumnos de un colegio para detectar una enfermedad cuya incidencia sobre una población de niños es del $10\%$. La sensibilidad del test es del $80\%$ y la especificidad del $75\%$. ¿Cual es la probabilidad de que exactamente a cuatro personas le de un resultado positivo? Si en la muestra hay cuatro personas a las que el test le da positivo, ¿cuál es la probabilidad de que entre estas, exactamente dos estén sanas? Calcular la probabilidad de que el test suministre un resultado incorrecto para dos personas. Calcular la probabilidad de que el resultado sea correcto para más de 7 personas.

 

Solución:

Los datos de que disponemos son:

 

\begin{eqnarray}\html{eqn9}{{\cal P}}[E] &=& 0,1 \qquad
\underbrace{\mbox{preva...
...E}}] &=& 0,75 \qquad \mbox{especificidad
(verdaderos negativos)}
\end{eqnarray}


donde E, T+, y T- tienen el sentido que es obvio. Si queremos saber a cuantas personas el test le dará un resultado positivo, tendremos que calcular ${{\cal P}}[T^+]$, para lo que podemos usar el teorema de la probabilidad total (estar enfermo y no estarlo forman una colección exhaustiva y excluyente de sucesos):

 

\begin{eqnarray}\html{eqn10}{{\cal P}}[T^+] &=& {{\cal P}}[{T^+}_{\mid E}]\cdot ...
...onumber \\
&=& 0,8\times 0,1 + 0,25\times 0,9 = 0,305
\nonumber
\end{eqnarray}


Sea X1 la v.a. que contabiliza el número de resultados positivos. Es claro que llamando $p_1={{\cal P}}[T^+]$, se tiene que X sigue una distribución binomial


 

\begin{displaymath}X_1 {\leadsto}{ {{\bf B} \left( n_1=10,p_1=0,305 \right)} } \...
...egin{array}{c} n_1\\ k \end{array}\right)\,}\,p_1^kq_1^{n_1-k}
\end{displaymath}

 

Por ello la probabilidad de que a cuatro personas le de el resultado del test positivo es:


 

\begin{displaymath}{{\cal P}}[X_1=4] = { \left(\begin{array}{c} 10\\ 4 \end{array}\right)\,} 0,305^4\cdot 0,695^6 = 0,2048
\end{displaymath}

 

Si queremos calcular a cuantas personas les dará el test un resultado positivo aunque en realidad estén sanas, hemos de calcular previamente ${{\cal P}}[\overline{E}_{\mid T^+}]$, o sea, el índice predictivo de falsos positivos:


 

\begin{displaymath}{{\cal P}}[\overline{E}_{\mid T^+}]= \frac{{{\cal P}}[\overli...
...[\overline{E}]}^{1-{{\cal P}}[E]}
}{
{{\cal P}}[T^+]} = 0,7377
\end{displaymath}

 

Es importante observar este resultado. Antes de hacer los cálculos no era previsible que si a una persona el test le da positivo, en realidad tiene una probabilidad aproximadamente del $74\%$ de estar sana. Sea X2 la variable aleatoria que contabiliza al número de personas al que el test le da positivo, pero que están sanas en realidad. Entonces


 

\begin{displaymath}X_2 {\leadsto}{ {{\bf B} \left( n_2=4,p_2=0,7377 \right)} } \...
...egin{array}{c} n_2\\ k \end{array}\right)\,}\,p_2^kq_2^{n_2-k}
\end{displaymath}

 

y


 

\begin{displaymath}{{\cal P}}[X_2=2] = { \left(\begin{array}{c} 4\\ 2 \end{array}\right)\,} 0,7377^2\cdot 0,2623^2 = 0,22465
\end{displaymath}

 

Por último vamos a calcular la probabilidad p3 de que el test de un resultado erróneo, que es:

 

\begin{eqnarray}\html{eqn10}p_3 &=& {{\cal P}}[
\underbrace{(T^+{\cap}\overline{...
...onumber \\
&=& 0,25\times 0,9 + 0,2\times 0,1 = 0,245
\nonumber
\end{eqnarray}


La variable aleatoria que contabiliza el número de resultados erróneos del test es


 

\begin{displaymath}X_3 {\leadsto}{ {{\bf B} \left( n_3=10,p_3=0,245 \right)} } \...
...egin{array}{c} n_3\\ k \end{array}\right)\,}\,p_3^kq_3^{n_3-k}
\end{displaymath}

 

Como la probabilidad de que el test sea correcto para más de siete personas, es la de que sea incorrecto para menos de 3, se tiene

 

\begin{eqnarray}\html{eqn10}{{\cal P}}[X_3<3] &=& \underbrace{{{\cal P}}[X_3\leq...
... 0,755^{8}
\nonumber \\
& &
\nonumber \\
&=& 0,5407
\nonumber
\end{eqnarray}

 

6.4.6 Distribución geométrica ( o de fracasos)

Consideramos una sucesión de v.a. independientes de Bernouilli,

\begin{displaymath}X_1,X_2,\dots, X_i,\dots \qquad \mbox{donde } X_i {\leadsto}{ {{\bf Ber} \left( p \right)} },\:
i=1,2,\dots,\infty
\end{displaymath}
 

Una v.a. X sigue posee una distribución geométrica, $X {\leadsto}{ {{\bf Geo} \left( p \right)} }$, si esta es la suma del número de fracasos obtenidos hasta la aparición del primer éxito en la sucesión $\left\{X_i\right\}_{i=1}^{\infty}$. Por ejemplo

 

\begin{displaymath}\left\vert
\begin{array}{ccccccccc}
X_1&X_2&X_3&X_4& X_5& \cd...
... & X=3 & f(3) = qqqp
\\
& & & & & & \dots&
\end{array}\right.
\end{displaymath}

 

De este modo tenemos que la ley de probabilidad de X es

\begin{displaymath}{
\mbox{\fbox{$\displaystyle
f(k) = {{\cal P}}[X=k] = pq^k,\qquad k=0,1,2,\dots,\infty
$ } }
}
\end{displaymath}

 

6.4.6.1 Observación

Es sencillo comprobar que realmente f es una ley de probabilidad, es decir, $\sum_{k=0}^{\infty} f(k) =1$. Para ello basta observar que la sucesión $\left\{pq^k\right\}_{k=0}^{\infty}$ es una progresión geométrica de razón q, a la que podemos aplicar su fórmula de sumación:

 

\begin{displaymath}\sum_{k=0}^{\infty} f(k) =\sum_{k=0}^{\infty} pq^k = p\,
\sum_{k=0}^{\infty} q^k= p \, \frac{1}{1-q}=\frac{p}{p} =1
\end{displaymath}

 

6.4.6.2 Observación

En la distribución geométrica el conjunto de posibles valores que puede tomar la variable ($I\!\!I$) es infinito numerable, mientras que en la de Bernouilli y en la binomial, estos eran en número finito.

La función característica se calcula teniendo en cuenta que de nuevo aparece la sumación de los términos de una progresión geométrica, pero esta vez de razón eit q:

 

\begin{displaymath}\phi_X(t) = { {{\bf E} \left[ e^{itX} \right]} } = \sum_{k=0}...
...um_{k=0}^{\infty} \left(e^{it}q\right)^k = \frac{p}{1-e^{it}q}
\end{displaymath}
 

La media y varianza de esta variable aleatoria son:

 

\begin{displaymath}{ {{\bf E} \left[ X \right]} }=\frac{\phi_X^,(0)}{i}
= \frac...
...\frac{p{\!\!\!\setminus}q}{p^{2{\!\!\!\setminus}}}=\frac{q}{p}
\end{displaymath}

 

\begin{displaymath}{ {{\bf Var } \left[ X \right]} }=\frac{q}{p^2}
\end{displaymath}
 

6.4.6.3 Ejemplo

Un matrimonio quiere tener una hija, y por ello deciden tener hijos hasta el nacimiento de una hija. Calcular el número esperado de hijos (entre varones y hembras) que tendrá el matrimonio. Calcular la probabilidad de que la pareja acabe teniendo tres hijos o más.

 

Solución: Este es un ejemplo de variable geométrica. Vamos a suponer que la probabilidad de tener un hijo varón es la misma que la de tener una hija hembra. Sea X la v.a.

 

\begin{displaymath}X=\mbox{ número de hijos varones antes de nacer la niña}
\end{displaymath}

 

Es claro que

 

\begin{displaymath}X{\leadsto}{ {{\bf Geo} \left( p=\frac{1}{2} \right)} }\;\Lon...
...trightarrow\;
{{\cal P}}[X=k] = q^{k-1}\cdot p = \frac{1}{2^k}
\end{displaymath}

 

Sabemos que el número esperado de hijos varones es ${ {{\bf E} \left[ X \right]} }=\displaystyle \frac{q}{p} = 1$, por tanto el número esperado en total entre hijos varones y la niña es 2.

La probabilidad de que la pareja acabe teniendo tres o más hijos, es la de que tenga 2 o más hijos varones (la niña está del tercer lugar en adelante), es decir,

 

\begin{eqnarray}\html{eqn16}{{\cal P}}[X\geq 2] &=& 1-\overbrace{{{\cal P}}[X<2]...
...\cal P}}[X=0]-{{\cal P}}[X=1] =1-p -q\,p = \frac{1}{4}
\nonumber
\end{eqnarray}

 

Hemos preferido calcular la probabilidad pedida mediante el suceso complementario, ya que sería más complicado hacerlo mediante la suma infinita

 

\begin{displaymath}{{\cal P}}[X\geq 2] = \sum_{i=2}^{\infty} q^i p .
\end{displaymath}

 

6.4.6.4 Observación

La distribución exponencial también puede ser definida como el número de pruebas realizadas hasta la obtención del primer éxito (como hubiese sido más adecuado en el ejemplo anterior). En este caso es un ejercicio sencillo comprobar que X sólo puede tomar valores naturales mayores o iguales a 1, y que:

 

\begin{eqnarray}\html{eqn16}f(k) &=& p \cdot q^{k-1},\qquad k=1,2,\cdots,\infty
...
...\\
{ {{\bf Var } \left[ X \right]} }&=& =\frac{q}{p}
\nonumber
\end{eqnarray}

.4.8 Distribución binomial negativa

Sobre una sucesión de v.a. de Bernouilli independientes,

 

\begin{displaymath}X_1,X_2,\dots, X_i,\dots \qquad \mbox{donde } X_i {\leadsto}{ {{\bf Ber} \left( p \right)} },\:
i=1,2,\dots,\infty
\end{displaymath}

 

se define la v.a. X como el número de fracasos obtenidos hasta la aparición de r éxitos en la sucesión $\left\{X_i\right\}_{i=1}^{\infty}$. En este caso se dice que X sigue una ley de distribución binomial negativa de parámetros r y p y se denota del modo: $X{\leadsto}{ {{\bf Bn} \left( r,p \right)} }$. Su ley de probabilidad se deduce siguiendo el esquema:

=1mm
\begin{picture}(140.00,45.00)
\put(-8.00,14.00){\framebox (30.00,26.00)[cc]{$\be...
...0,35.00){\vector(1,0){9.00}}
\put(32.00,15.00){\vector(1,0){9.00}}
\end{picture}

Es decir,

\begin{displaymath}{
\mbox{\fbox{$\displaystyle
f(k) = {{\cal P}}[X=k] = \under...
...egin{array}{c} k+r-1\\ k \end{array}\right)\,} p^r q^k
$ } }
}
\end{displaymath}

De nuevo, el conjunto de posibles valores de esta v.a. discreta es $I\!\!I=\{0,1,2,\dots\} = I\!\!N$.

Su función característica es

 

\begin{displaymath}\phi_X(t)= \left(\frac{q}{1-p\,e^{it}}\right)^r
\end{displaymath}

 

y sus momentos más importantes los obtenemos derivando esta última:

 

\begin{eqnarray}\html{eqn18}{ {{\bf E} \left[ X \right]} }&=&\frac{r\,q}{p}
\\
{ {{\bf Var } \left[ X \right]} }&=& \frac{r\,q}{p^2}
\end{eqnarray}

 

6.4.8.1 Ejemplo

Para tratar a un paciente de una afección de pulmón han de ser operados en operaciones independientes sus 5 lóbulos pulmonares. La técnica a utilizar es tal que si todo va bien, lo que ocurre con probabilidad de 7/11, el lóbulo queda definitivamente sano, pero si no es así se deberá esperar el tiempo suficiente para intentarlo posteriormente de nuevo. Se practicará la cirugía hasta que 4 de sus 5lóbulos funcionen correctamente. ¿Cuál es el valor esperado de intervenciones que se espera que deba padecer el paciente? ¿Cuál es la probabilidad de que se necesiten 10 intervenciones?

 

Solución: Este es un ejemplo claro de experimento aleatorio regido por una ley binomial negativa, ya que se realizan intervenciones hasta que se obtengan 4 lóbulos sanos, y éste es el criterio que se utiliza para detener el proceso. Identificando los parámetros se tiene:

 

\begin{displaymath}X=\mbox{ número de operaciones hasta obtener $r=4$\space con resultado
positivo}
\end{displaymath}
 
\begin{displaymath}X{\leadsto}{ {{\bf Bn} \left( r=4,p=\frac{7}{11} \right)} }\;...
...\left(\begin{array}{c} k+r-1\\ k \end{array}\right)\,} q^k p^r
\end{displaymath}

 

Lo que nos interesa es medir el número de intervenciones, Y, más que el número de éxitos hasta el r-ésimo fracaso. La relación entre ambas v.a. es muy simple:

Y=X+r

 

Luego
\begin{displaymath}{ {{\bf E} \left[ Y \right]} }={ {{\bf E} \left[ X+r \right]}...
...} }+r = \frac{r\,p}{q} + r = \frac{4\cdot7/11}{
4/11} + 4 = 11
\end{displaymath}

 

Luego el número esperado de intervenciones que deberá sufrir el paciente es de 11. La probabilidad de que el número de intervenciones sea Y=10, es la de que X=10-4=6. Por tanto:
\begin{displaymath}{{\cal P}}[Y=10] = {{\cal P}}[X=6] = { \left(\begin{array}{c}...
...ft(\frac{4}{11}\right)^6 \left(\frac{7}{11}\right)^4 = 0,03185
\end{displaymath}
 

6.4.8.2 Observación

La distribución binomial negativa también se puede definir como el número de pruebas hasta la aparición de r éxitos. Como el número de pruebas contabiliza tanto los éxitos como los fracasos se tendría según ésta definición que

 

\begin{eqnarray}\html{eqn20}f(k)&=& { \left(\begin{array}{c} k-1\\ r-1 \end{arra...
...c{r}{q}
\\
{ {{\bf Var } \left[ X \right]} }&=& \frac{r\,p}{q^2}
\end{eqnarray}

6.4.10 Distribución hipergeométrica

Por claridad, consideremos el siguiente ejemplo: Tenemos una baraja de cartas españolas (N=40 naipes), de las cuales nos vamos a interesar en el palo de oros (D=10 naipes de un mismo tipo). Supongamos que de esa baraja extraemos n=8 cartas de una vez (sin reemplazamiento) y se nos plantea el problema de calcular la probabilidad de que hayan k=2 oros (exactamente) en esa extracción. La respuesta a este problema es

 

\begin{eqnarray}\html{eqn24}{{\cal P}_{rob}}[2 \mbox{ oros en un grupo de $8$\sp...
...{{ \left(\begin{array}{c} N\\ n \end{array}\right)\,}}
\nonumber
\end{eqnarray}

 

En lugar de usar como dato D es posible que tengamos la proporción existente, p, entre el número total de oros y el número de cartas de la baraja

 

\begin{displaymath}p=\frac{D}{N}=\frac{10}{40}=\frac{1}{4} \Longrightarrow
\left...
...dot p
\\
\\
N-D = N\cdot q \qquad (q=1-p)
\end{array}\right.
\end{displaymath}

 

de modo que podemos decir que

 

\begin{displaymath}{{\cal P}_{rob}}[k \mbox{ oros en un grupo de $n$\space carta...
...ght)\,}}{{ \left(\begin{array}{c} N\\ n \end{array}\right)\,}}
\end{displaymath}

 

Este ejemplo sirve para representar el tipo de fenómenos que siguen una ley de distribución hipergeométrica. Diremos en general que una v.a. X sigue una distribución hipergeométrica de parámetros, N, n y p, lo que representamos del modo $X{\leadsto}{ {{\bf HGeo} \left( N,n,p \right)} }$, si su función de probabilidad es

\begin{displaymath}{
\mbox{\fbox{$\displaystyle
{{\cal P}}[X=k] =
\frac{{ \left...
...box{ \ \ si \ }\max\{0,n-Nq\} \leq k \leq \min\{n,NP\}
$ } }
}
\end{displaymath}

6.4.10.1 Observación

Cuando el tamaño de la población (N) es muy grande, la ley hipergeométrica tiende a aproximarse a la binomial:

 

\begin{displaymath}{ {{\bf HGeo} \left( N,n,p \right)} } \stackrel{N\rightarrow \infty}{\longrightarrow}
{ {{\bf B} \left( n,p \right)} }
\end{displaymath}
 

El valor esperado de la hipergeométrica es el mismo que el de la binomial,

 

\begin{displaymath}{ {{\bf E} \left[ X \right]} } = np
\end{displaymath}

 

sin embargo su varianza

 

\begin{displaymath}{ {{\bf Var } \left[ X \right]} }= npq\cdot \frac{N-n}{N-1}
\end{displaymath}

 

no es exactamente la de la binomial, pues está corregida por un factor, $\frac{N-n}{N-1}$, que tiende a 1 cuando $N\rightarrow\infty$. A este factor se le denomina factor de corrección para población finita.

6.4.12 Distribución de Poisson (o de los sucesos raros)

Una v.a. X posee una ley de distribución de probabilidades del tipo Poisson cuando \begin{displaymath}{
\mbox{\fbox{$\displaystyle
f(k) = {{\cal P}}[X=k]= \frac{e^{-\lambda} \lambda^k}{k!}, \qquad
k=0,1,2,\dots
$ } }
}
\end{displaymath}

Este tipo de leyes se aplican a sucesos con probabilidad muy baja de ocurrir, obteniéndose como la distribución límite de una sucesión de variable binomiales, ${ {{\bf B} \left ( n,p \right )} }$, donde $n\cdot p = \lambda$, y $n\rightarrow \infty$ (por tanto $p\rightarrow 0^+$).

 

\begin{displaymath}\{X_n\}_{n=1}^{\infty}, \mbox{ donde } X_n {\leadsto}{ {{\bf ...
...rightarrow X {\leadsto}
{ {{\bf Poi} \left( \lambda \right)} }
\end{displaymath}

 

La demostración de esto consiste en

 

\begin{eqnarray}\html{eqn37}\lim_{n\rightarrow\infty} {{\cal P}}[X_n=k] &=&
\li...
...&
\nonumber \\
&=&
\frac{e^{-\lambda} \lambda^k}{k!}
\nonumber
\end{eqnarray}

 

En general utilizaremos la distribución de Poisson como aproximación de experimentos binomiales donde el número de pruebas es muy alto, pero la probabilidad de éxito muy baja. A veces se suele utilizar como criterio de aproximación:

 

\begin{displaymath}n>30,\, p \leq 0,1 \;\Rightarrow { {{\bf B} \left( n,p \right)} }\,\cong { {{\bf Poi} \left( n\cdot p \right)} }
\end{displaymath}

 

La ley de Poisson la podemos encontrar tabulada en la tabla número 2, para ciertos valores usuales de $\lambda$.

La función característica de $X{\leadsto}{ {{\bf Poi} \left( \lambda \right)} }$ es

 

\begin{displaymath}\phi_X(t) = \sum_{k=0}^{\infty} \frac{e^{-\lambda} \lambda^k}...
...lambda} e^{\lambda e ^{it}} = e^{\lambda\left(e^{it}-1\right)}
\end{displaymath}

 

de lo que se deduce que valor esperado y varianza coinciden

\begin{displaymath}{
\mbox{\fbox{$\displaystyle
{ {{\bf E} \left[ X \right]} }= { {{\bf Var } \left[ X \right]} } = \lambda
$ } }
}
\end{displaymath}

6.4.12.1 Ejemplo

Cierta enfermedad tiene una probabilidad muy baja de ocurrir, p=1/100.000. Calcular la probabilidad de que en una ciudad con 500.000 habitantes haya más de 3 personas con dicha enfermedad. Calcular el número esperado de habitantes que la padecen.

 

Solución: Si consideramos la v.a. X que contabiliza el número de personas que padecen la enfermedad, es claro que sigue un modelo binomial, pero que puede ser muy bien aproximado por un modelo de Poisson, de modo que

 

\begin{displaymath}X{\leadsto}{ {{\bf B} \left( n=500.000, p=\frac{1}{100.000} \...
...{\approx}{\leadsto}\:}{ {{\bf Poi} \left( \lambda=5 \right)} }
\end{displaymath}

 

Así el número esperado de personas que padecen la enfermedad es ${ {{\bf E} \left[ X \right]} }=5$. Como ${ {{\bf Var } \left[ X \right]} }=5$, existe una gran dispersión, y no sería extraño encontrar que en realidad hay muchas más personas o menos que están enfermas. La probabilidad de que haya más de tres personas enfermas es:

 

\begin{eqnarray}\html{eqn40}{{\cal P}}[X>3] &=& 1- {{\cal P}}[X\leq 3]
\nonumber...
...!} -
\frac{e^{-5\cdot 3}}{3!}
\nonumber \\
&=& 0,735
\nonumber
\end{eqnarray}

6.6 Reproductividad de familias de v.a.

Las variables aleatorias relacionadas entre si por uno o más parámetros mediante f, o lo que es equivalente según el teorema de Fourier (página [*]), mediante su función característica, las hemos agrupado en familias de v.a. que hemos denotado de modo genérico ${ {{\bf Fam} \left( p \right)} }$. Para cualquier tipo de familia de v.a. ${ {{\bf Fam} \left( p \right)} }$, diremos que esta reproductiva respecto al parámetro p, si al considerar $X_1,\dots,X_n$ independientes, donde $X_i{\leadsto}{ {{\bf Fam} \left( p_i \right)} },\:i=1,\dots,n$ se tiene que la suma de todas ellas es una v.a. de la misma familia, pero con parámetro $p_1+\cdots +p_n$

 

\begin{eqnarray}\html{eqn40}&{ {{\bf Fam} \left( p \right)} } \mbox{ reproductiv...
...dots X_n{\leadsto}{ {{\bf Fam} \left( p_1+\cdots+p_n \right)} }
&
\end{eqnarray}

 

Por ejemplo ${ {{\bf Ber} \left( p \right)} }$ no es reproductiva con respecto a p, ya que la suma de dos v.a. de esa familia no sigue una distribución de Bernouilli. Sin embargo la familia ${ {{\bf B} \left( {\bf n},p \right)} }$ lo es con respecto al parámetro ${\bf n}$, ya que

 

\begin{eqnarray}\html{eqn41}\left\{
\begin{array}{l}
X{\leadsto}{ {{\bf B} \left...
...}_{Y}{\leadsto}
{ {{\bf B} \left( n_1+n_2,p \right)} }
\nonumber
\end{eqnarray}

 

Un modo sencillo de ver si una familia de distribuciones es reproductiva con respecto a algún parámetro es analizar su función característica utilizando el teorema de la página [*]. Por ejemplo el mismo resultado se puede obtener para la distribución binomial teniendo en cuenta que

 

\begin{eqnarray}\html{eqn49}\left\{
\begin{array}{l}
X{\leadsto}{ {{\bf B} \left...
...X+Y {\leadsto}{ {{\bf Ber} \left( n_1+n_2,p \right)} }
\nonumber
\end{eqnarray}

 

Utilizando el mismo argumento, tenemos que otra distribuciones reproductiva es ${ {{\bf Poi} \left( \lambda \right)} }$.

 

6.8 Distribuciones continuas

En esta sección estudiaremos las distribuciones más importantes de v.a. continuas unidimensionales. El soporte de una v.a. continua se define como aquella región de $I\!\!R$ donde su densidad es no nula, $f(x)\neq 0$. Para las distribuciones que enunciaremos, podrá ser bien todo $I\!\!R$, $I\!\!R^+=(0,+\infty)$ o bien un segmento de la forma $[a,b]\subset I\!\!R$.

6.8.2 Distribución uniforme o rectangular

Se dice que una v.a. X posee una distribución uniforme en el intervalo [a,b],

 

\begin{displaymath}X{\leadsto}{ {{\bf U} \left( a,b \right)} }
\end{displaymath}

 

si su función de densidad es la siguiente:

\begin{displaymath}{
\mbox{\fbox{$\displaystyle
f(x) =
\frac{1}{b-a} \quad \mbox{ si } a\leq x\leq b
$ } }
}
\end{displaymath}

Con esta ley de probabilidad, la probabilidad de que al hacer un experimento aleatorio, el valor de X este comprendido en cierto subintervalo de [a,b] depende únicamente de la longitud del mismo, no de su posición. Cometiendo un pequeño abuso en el lenguaje, podemos decir que en una distribución uniforme la probabilidad de todos los puntos del soporte es la misma 6.2.

Teniendo en cuenta que si $x\in [a,b]$,

 

\begin{displaymath}\int_{a}^{x} \frac{1}{b-a} dt = \frac{1}{b-a} \, \left.
\beg...
...ray}{c} \, \\ t \\ \, \end{array} \right]_a^x
=\frac{x-a}{b-a}
\end{displaymath}
 

la función de distribución de $X{\leadsto}{ {{\bf U} \left( a,b \right)} }$ es:

 

\begin{displaymath}F(x) = \left\{
\begin{array}{ll}
0 & \mbox{ si } x<a
\\
\\
...
...q x \leq b
\\
\\
1 & \mbox { si } b\leq x
\end{array}\right.
\end{displaymath}

 

  
Figura: Función de densidad y de distribución de ${ {{\bf U} \left ( a,b \right )} }$
\includegraphics[angle=-90, width=0.8\textwidth]{fig06-03.epsi}

La función característica es

 

\begin{displaymath}\phi_X(t) = \int_a^b e^{itx} \frac{1}{b-a} \,dx =
\frac{1}{b-...
...c{1}{it} e^{itx} \right]_a^b =
\frac{e^{itb}-e^{ita}}{it(b-a)}
\end{displaymath}

 

Como esta distribución es muy simple, vamos a calcular sus momentos más usuales directamente a partir de la definición, en lugar de usar la función característica:

 

\begin{displaymath}{ {{\bf E} \left[ X \right]} }= \int_a^b x \frac{1}{b-a}\,dx ...
... \left[x^2\right]_a^b = \frac{b^2-a^2}{2(b-a)} = \frac{b+a}{2}
\end{displaymath}

 

\begin{displaymath}{ {{\bf E} \left[ X^2 \right]} }= \int_a^b x^2 \frac{1}{b-a}\...
...ft[x^3\right]_a^b = \frac{b^3-a^3}{3(b-a)} = \frac{(b+a)^2}{3}
\end{displaymath}

 

\begin{displaymath}{ {{\bf Var } \left[ X \right]} }= { {{\bf E} \left[ X^2 \right]} }-{ {{\bf E} \left[ X \right]} }^2 = \frac{(b-a)^2}{12}
\end{displaymath}

 

6.8.4 Distribución exponencial

La distribución exponencial es el equivalente continuo de la distribución geométrica discreta. Esta ley de distribución describe procesos en los que:

 

     

  • Nos interesa saber el tiempo hasta que ocurre determinado evento, sabiendo que,

     

  • el tiempo que pueda ocurrir desde cualquier instante dado t, hasta que ello ocurra en un instante tf, no depende del tiempo transcurrido anteriormente en el que no ha pasado nada.

Ejemplos de este tipo de distribuciones son:

 

     

  • El tiempo que tarda una partícula radiactiva en desintegrarse. El conocimiento de la ley que sigue este evento se utiliza en Ciencia para, por ejemplo, la datación de fósiles o cualquier materia orgánica mediante la técnica del carbono 14, C14;

     

  • El tiempo que puede transcurrir en un servicio de urgencias, para la llegada de un paciente;
  • En un proceso de Poisson donde se repite sucesivamente un experimento a intervalos de tiempo iguales, el tiempo que transcurre entre la ocurrencia de dos sucesos consecutivos sigue un modelo probabilístico exponencial. Por ejemplo, el tiempo que transcurre entre que sufrimos dos veces una herida importante.

     

Concretando, si una v.a. continua X distribuida a lo largo de $I\!\!R^+$, es tal que su función de densidad es

\begin{displaymath}{
\mbox{\fbox{$\displaystyle
f(x) =
\lambda e^{-\lambda x} \mbox{si } 0<x
$ } }
}
\end{displaymath}

se dice que sigue una distribución exponencial de parámetro $\lambda$, $X{\leadsto}{ {{\bf Exp} \left( \lambda \right)} }$.


  
Figura: Función de densidad, f, de una ${ {{\bf Exp} \left ( \lambda \right )} }$.
\includegraphics[angle=-90, width=0.8\textwidth]{fig06-04.epsi}

Un cálculo inmediato nos dice que si x>0,

 

\begin{displaymath}\int_0^x \lambda e^{-\lambda t} \, dt = \left. -e^{-\lambda t}
\right]_0^x = 1 - e^{-\lambda x}
\end{displaymath}
 

luego la función de distribución es:

 

\begin{displaymath}F(x) = \left\{
\begin{array}{ll}
1 - e^{-\lambda x} & \mbox{si } 0<x
\\
\\
0 & \mbox{ en otro caso.}
\end{array}\right.
\end{displaymath}

 

  
Figura: Función de distribución, F, de ${ {{\bf Exp} \left ( \lambda \right )} }$, calculada como el área que deja por debajo de sí la función de densidad.
\includegraphics[angle=-90, width=0.8\textwidth]{fig06-05.epsi}

Para calcular el valor esperado y la varianza de la distribución exponencial, obtenemos en primer lugar la función característica

 

\begin{displaymath}\phi_X(t) = \int_0^{+\infty} e^{itx} \lambda e^{-\lambda x}\,...
...-\lambda)x}
\right]_0^{+\infty} = - \frac{\lambda}{it-\lambda}
\end{displaymath}

 

para después, derivando por primera vez

 

\begin{eqnarray}\html{eqn61}\nonumber
\phi_X^,(t) &=& \frac{\lambda i}{(it-\lamb...
...ight]} } &=& \frac{\phi_X^,(0)}{i} = \frac{1}{\lambda}
\nonumber
\end{eqnarray}

 

y derivando por segunda vez,

 

\begin{eqnarray}\html{eqn61}\nonumber
\phi_X^{,,}(t) &=& \frac{-2 \lambda i^2}{(...
...} = \frac{-2 \lambda}{-\lambda^3}
=\frac{2}{\lambda^2}
\nonumber
\end{eqnarray}

 

Entonces la varianza vale

 

\begin{displaymath}{ {{\bf Var } \left[ X \right]} }={ {{\bf E} \left[ X^2 \righ...
...a^2}
- \left(\frac{1}{\lambda}\right)^2 =\frac{1}{\lambda^2}
\end{displaymath}

 

6.8.4.1 Ejemplo

En un experimento de laboratorio se utilizan 10 gramos de $\,_{84}^{210}\!Po$. Sabiendo que la duración media de un átomo de esta materia es de 140 días, ¿cuantos idas transcurrirán hasta que haya desaparecido el $90\%$ de este material?

 

Solución: El tiempo T de desintegración de un átomo de $\,_{84}^{210}\!Po$es una v.a. de distribución exponencial:

 

\begin{eqnarray}\html{eqn61}T{\leadsto}{ {{\bf Exp} \left( \lambda=\frac{1}{140}...
...
&\Longleftrightarrow&\qquad F(t)=1 - e^{-\lambda \,t}
\nonumber
\end{eqnarray}

 

Como el número de átomos de $\,_{84}^{210}\!Po$ existentes en una muestra de 10 gramos es enorme, el histograma de frecuencias relativas formado por los tiempos de desintegración de cada uno de estos átomos debe ser extremadamente aproximado a la curva de densidad, f. Del mismo modo, el polígono de frecuencias relativas acumuladas debe ser muy aproximado a la curva de su función de distribución F. Entonces el tiempo que transcurre hasta que el $90\%$ del material radiactivo se desintegra es el percentil 90, t90, de la distribución exponencial, es decir

 

\begin{displaymath}F(t_{90}) = 0,9 \;\;\Leftrightarrow\;\;e^{-\lambda\,t_{90}}= ...
...t_{90}=- \frac{1}{\lambda}\, \ln 0,1 \approx 322
\mbox{ días}
\end{displaymath}

 

  
Figura: Como el número de átomos (observaciones) es extremadamente alto en 10 gramos de materia, el histograma puede ser aproximado de modo excelente por la función de densidad exponencial, y el polígono de frecuencias acumuladas por la función de distribución.
\includegraphics[angle=-90, width=0.8\textwidth]{fig06-06.epsi}

 

6.8.4.2 Ejemplo

Se ha comprobado que el tiempo de vida de cierto tipo de marcapasos sigue una distribución exponencial con media de 16 años. ¿Cuál es la probabilidad de que a una persona a la que se le ha implantado este marcapasos se le deba reimplantar otro antes de 20 años? Si el marcapasos lleva funcionando correctamente 5 años en un paciente, ¿cuál es la probabilidad de que haya que cambiarlo antes de $25\%$ años?

 

Solución: Sea T la variable aleatoria que mide la duración de un marcapasos en una persona. Tenemos que

 

\begin{eqnarray}\html{eqn61}T{\leadsto}{ {{\bf Exp} \left( \lambda=\frac{1}{16} ...
...
&\Longleftrightarrow&\qquad F(t)=1 - e^{-\lambda \,t}
\nonumber
\end{eqnarray}


Entonces

 

\begin{displaymath}{{\cal P}}[T\leq 20] = \int_0^{20}\, f(t)\,dt = F(20) = 1-e^{-\frac{20}{16}}=
0,7135
\end{displaymath}

 

En segundo lugar

 

\begin{eqnarray}\html{eqn61}{{\cal P}}[T\leq 25_{\mid T\geq 5}] &=& \displaystyl...
...tminus}-1{\!\!\!\setminus}
+e^{-\frac{5}{16}} = 0,7316
\nonumber
\end{eqnarray}

 

Luego como era de esperar, por ser propio a un mecanismo exponencial,

 

\begin{displaymath}{{\cal P}}[T\leq 25_{\mid T\geq 5}] = {{\cal P}}[T\leq 20]
\end{displaymath}

 

o sea, en la duración que se espera que tenga el objeto, no influye en nada el tiempo que en la actualidad lleva funcionando. Es por ello que se dice que ``la distribución exponencial no tiene memoria".

6.8.6 Distribución normal o gaussiana

La distribución gaussiana, recibe también el nombre de distribución normal, ya que una gran mayoría de las v.a continuas6.3 de la naturaleza siguen esta distribución. Se dice que una v.a. X sigue una distribución normal de parámetros $\mu $ y $\sigma ^2$, lo que representamos del modo $X{\leadsto}{ {{\bf N} \left( \mu,\sigma^2 \right)} }$6.4 si su función de densidad es:

\begin{displaymath}{
\mbox{\fbox{$\displaystyle
f(x) = {\scriptstyle \frac{1}{\...
...-\mu}{\sigma}\right)^2},\qquad
\forall \, x\in I\!\!R
$ } }
}
\end{displaymath}

 

6.8.6.1 Observación

Estos dos parámetros $\mu $ y $\sigma ^2$ coinciden además con la media (esperanza) y la varianza respectivamente de la distribución como se demostrará más adelante6.5:

 

\begin{eqnarray}\html{eqn64}{ {{\bf E} \left[ X \right]} }&=&\mu
\\
{ {{\bf Var } \left[ X \right]} }&=&\sigma^2
\end{eqnarray}


La forma de la función de densidad es la llamada campana de Gauss.


  
Figura: Campana de Gauss o función de densidad de una v.a. de distribución normal. El área contenida entre la gráfica y el eje de abcisas vale 1.
\includegraphics[angle=-90, width=0.8\textwidth]{fig06-07.epsi}

Para el lector es un ejercicio interesante comprobar que ésta alcanza un único máximo (moda) en $\mu $, que es simétrica con respecto al mismo, y por tanto ${{\cal P}}[X\leq \mu]={{\cal P}}[X\geq \mu]=1/2$, con lo cual en $\mu $ coinciden la media, la mediana y la moda, y por último,calcular sus puntos de inflexión.

El soporte de la distribución es todo $I\!\!R$, de modo que la mayor parte de la masa de probabilidad (área comprendida entre la curva y el eje de abcisas) se encuentra concentrado alrededor de la media, y las ramas de la curva se extienden asintóticamente a los ejes, de modo que cualquier valor ``muy alejado" de la media es posible (aunque poco probable).

La forma de la campana de Gauss depende de los parámetros $\mu $ y $\sigma $:

  • $\mu $ indica la posición de la campana (parámetro de centralización);
      
    Figura: Distribuciones gaussianas con diferentes medias e igual dispersión.
    \includegraphics[angle=0, width=0.9\textwidth]{fig06-08.eps}

     

  • $\sigma ^2$ (o equivalentemente, $\sigma $) será el parámetro de dispersión. Cuanto menor sea, mayor cantidad de masa de probabilidad habrá concentrada alrededor de la media (grafo de f muy apuntado cerca de $\mu $) y cuanto mayor sea ``más aplastado" será.


      
    Figura: Distribuciones gaussianas con igual media pero varianza diferente.
    \includegraphics[angle=0, width=0.9\textwidth]{fig06-09.eps}

     

La función característica de la distribución normal, se comprueba más adelante que es


 

\begin{displaymath}\phi_X(t)= e^{it\mu-\frac{1}{2}t^2\sigma^2}
\end{displaymath}

 

Como consecuencia, la distribución normal es reproductiva con respecto a los parámetros $\mu $, y $\sigma ^2$, ya que

\begin{eqnarray}\html{eqn66}\left\{
\begin{array}{l}
X{\leadsto}{ {{\bf N} \left...
...N} \left( \mu_1+\mu_2,\sigma_1^2+\sigma_2^2 \right)} }
\nonumber
\end{eqnarray}


 

6.8.6.2 Observación

Como se ha mencionado anteriormente, la ley de probabilidad gaussiana la encontramos en la mayoría de los fenómenos que observamos en la naturaleza, por ello gran parte de lo que resta del curso lo vamos a dedicar a su estudio y a el de las distribuciones asociadas a ella. Sin embargo, a pesar de su utilidad, hay que apuntar un hecho negativo para esta ley de probabilidad:

 

 

La función $\displaystyle e^{-x^2} $ no posee primitiva6.6 conocida6.7.

 

Las consecuencias desde el punto de vista práctico son importantes, ya que eso impide el que podamos escribir de modo sencillo la función de distribución de la normal, y nos tenemos que limitar a decir que:


 

\begin{displaymath}F(x) = P[X\leq x] = \int_{-\infty}^{x} f(t)\,dt =
{\scriptsty...
...x}
e^{-\frac{1}{2}\,\left(\frac{t-\mu}{\sigma}\right)^2}\, dt
\end{displaymath}

 

sin poder hacer uso de ninguna expresión que la simplifique. Afortunadamente esto no impide que para un valor de xfijo, F(x) pueda ser calculado. De hecho puede ser calculado con tanta precisión (decimales) como se quiera, pero para esto se necesita usar técnicas de cálculo numérico y ordenadores. Para la utilización en problemas prácticos de la función de distribución F, existen ciertas tablas donde se ofrecen (con varios decimales de precisión) los valores F(x) para una serie limitada de valores xi dados. Normalmente F se encuentra tabulada para una distribución Z, normal de media 0 y varianza 1 que se denomina distribución normal tipificada:

\begin{displaymath}{
\mbox{\fbox{$\displaystyle
Z{\leadsto}{ {{\bf N} \left( 0,...
...{2\pi}}}
e^{-\frac{z^2}{2}}\:\: \forall\, z\in I\!\!R
$ } }
}
\end{displaymath}
En el caso de que tengamos una distribución diferente $X{\leadsto}{ {{\bf N} \left( \mu,\sigma^2 \right)} }$, se obtiene Z haciendo el siguiente cambio:

\begin{displaymath}{
\mbox{\fbox{$\displaystyle
X{\leadsto}{ {{\bf N} \left( \m...
...mu}{\sigma} {\leadsto}{ {{\bf N} \left( 0,1 \right)} }
$ } }
}
\end{displaymath}

De manera general se tiene6.8:

 

6.8.6.3 Proposición (Cambio de origen y escala)

Sean $a,b\in I\!\!R$. Entonces


 

\begin{displaymath}X{\leadsto}{ {{\bf N} \left( \mu,\sigma^2 \right)} } \Longrig...
...ot X
{\leadsto}{ {{\bf N} \left( a+b\mu,(b\sigma)^2 \right)} }
\end{displaymath}

 

Este resultado puede ser utilizado del siguiente modo: Si $X{\leadsto}{ {{\bf N} \left( \mu,\sigma^2 \right)} }$, y nos interesa calcular $F_X(x)={{\cal P}}[X\leq x]$,

 

 

1.
Hacemos el cambio $Z=\displaystyle\frac{X-\mu}{\sigma} {\leadsto}{ {{\bf N} \left( 0,1 \right)} }$y calculamos $z=\displaystyle\frac{x-\mu}{\sigma}$;

 

2.
Usamos la tabla 3, relativa a la distribución ${ {{\bf N} \left ( 0,1 \right )} }$ para obtener (de modo aproximado) $F_Z(z)={{\cal P}}[Z\leq z]$;

 

3.
Como


 

\begin{displaymath}{{\cal P}}[Z\leq z] = {{\cal P}}[\frac{X-\mu{\!\!\!\setminus}...
...inus}}{\sigma{\!\!\!\setminus}}]=
{{\cal P}}[X\leq x] = F_X(x)
\end{displaymath}

 

tenemos que el valor obtenido en la tabla, FZ(z) es la probabilidad buscada.

 

6.8.6.4 Ejemplo

Supongamos que cierto fenómeno pueda ser representado mediante una v.a. $X{\leadsto}{ {{\bf N} \left( 45,81 \right)} }$, y queremos calcular la probabilidad de que Xtome un valor entre 39 y 48, es decir,


 

\begin{displaymath}{{\cal P}}[39\leq X\leq 48] = ??
\end{displaymath}

 

Comenzamos haciendo el cambio de variable


 

\begin{displaymath}Z=\frac{X-\mu}{\sigma}=\frac{X-45}{\sqrt{81}} = \frac{X-45}{9}
\end{displaymath}

 

de modo que

 

\begin{eqnarray}\html{eqn78}{{\cal P}}[39\leq X\leq 48] &=&
{{\cal P}}[\frac{39...
... una tabla}
\nonumber \\
& \approx & 0,6293 -1 + 0,7486 =0,378
\end{eqnarray}


Vamos ahora a demostrar algunas de las propiedades de la ley gaussiana que hemos mencionado anteriormente.

6.8.6.5 Proposición

Sea $X{\leadsto}{ {{\bf N} \left( \mu,\sigma \right)} }$. Entonces

\begin{eqnarray}\html{eqn79}{ {{\bf E} \left[ X \right]} } &=& \mu
\\
& & \non...
...
& & \nonumber
\\
\phi_X(t)&=& e^{it\mu-\frac{1}{2}t^2\sigma^2}
\end{eqnarray}


 

Demostración

Por ser la normal una ley de probabilidad se tiene que

 

\begin{displaymath}\int_{-\infty}^{+\infty}
{\scriptstyle \frac{1}{\sigma \sqrt{...
... e^{-\frac{1}{2}\,\left(\frac{x-\mu}{\sigma}\right)^2} \,dx =1
\end{displaymath}

 

es decir, esa integral es constante. Con lo cual, derivando la expresión anterior con respecto a $\mu $ se obtiene el valor 0:

 

\begin{eqnarray}\html{eqn82}0 &=&
\int_{-\infty}^{+\infty}
{\scriptstyle \frac{1...
...c{1}{2}\,\left(\frac{x-\mu}{\sigma}\right)^2} \,dx
}_{=1}
\right]
\end{eqnarray}


luego ${ {{\bf E} \left[ X \right]} }-\mu=0$.

Para demostrar la igualdad entre la ${ {{\bf Var } \left[ X \right]} }$ y $\sigma ^2$, basta con aplicar la misma técnica, pero esta vez derivando con respecto a $\sigma ^2$:


 

\begin{displaymath}0=-\frac{1}{2}
\left[
\frac{1}{\sigma^2}
\underbrace{
\int_{-...
...\mu)^2 \right]} } = { {{\bf Var } \left[ X \right]} }}
\right]
\end{displaymath}

 

Luego

 

\begin{displaymath}\frac{1}{\sigma^2} - \frac{1}{\sigma^4}{ {{\bf Var } \left[ X...
... =0 \Longrightarrow
{ {{\bf Var } \left[ X \right]} }=\sigma^2
\end{displaymath}

 

Para demostrar el resultado relativo a la función característica, consideramos en primer lugar la v.a. tipificada de X,


 

\begin{displaymath}Z=\frac{X-\mu}{\sigma}{\leadsto}{ {{\bf N} \left( 0,1 \right)} }
\end{displaymath}

 

y calculamos


 

\begin{displaymath}\phi_Z(t) = \int_{-\infty}^{+\infty} e^{itz} \frac{1}{\sqrt{2...
...\frac{1}{2}(z-it)^2} \,dz
}_{\sqrt{2\pi}} = e^{-\frac{t^2}{2}}
\end{displaymath}

 

Como $X=\mu+ \sigma U$, por la proposición 5 deducimos que


 

\begin{displaymath}\phi_X(t) =
e^{it\mu}\phi_Z(\sigma t) =e^{it\mu-\frac{1}{2}t^2\sigma^2}
\end{displaymath}

 

 

6.8.6.6 Aproximación a la normal de la ley binomial

Se puede demostrar (teorema central del límite) que una v.a. discreta con distribución binomial, $X {\leadsto}{ {{\bf B} \left( n,p \right)} }$se puede aproximar mediante una distribución normal si n es suficientemente grande y p no está ni muy próximo a 0 ni a 1. Como el valor esperado y la varianza de X son respectivamente $n\,p$ y $n\,p\,q$, la aproximación consiste en decir que $X{\: \stackrel{\approx}{\leadsto}\:}{ {{\bf N} \left( n\,p,n\,p\,q \right)} }$. El convenio que se suele utilizar para poder realizar esta aproximación es:


 

\begin{displaymath}X{\leadsto}{ {{\bf B} \left( n,p \right)} }\;\;\mbox{ donde }...
...\approx}{\leadsto}\:}{ {{\bf N} \left( n\,p,n\,p\,q \right)} }
\end{displaymath}

 

aunque en realidad esta no da resultados muy precisos a menos que realmente nsea un valor muy grande o $p\approx q\approx 1/2$. Como ilustración obsérvense las figuras 6.10 y 6.11.


  
Figura: Comparación entre la función de densidad de una v.a. continua con distribución ${ {{\bf N} \left ( n\,p,n\,p\,q \right )} }$y el diagrama de barras de una v.a. discreta de distribución ${ {{\bf B} \left ( n,p \right )} }$ para casos en que la aproximación normal de la binomial es válida. Es peor esta aproximación cuando p está próximo a los bordes del intervalo [0,1].
\includegraphics[angle=0, width=0.8\textwidth]{fig06-10.eps}


  
Figura: La misma comparación que en la figura anterior, pero realizada con parámetros con los que damos la aproximación normal de la binomial es mejor.
\includegraphics[angle=0, width=0.8\textwidth]{fig06-11.eps}

 

6.8.6.7 Ejemplo

Durante cierta epidemia de gripe, enferma el $30\%$ de la población. En un aula con 200 estudiantes de Medicina, ¿cuál es la probabilidad de que al menos 40 padezcan la enfermedad? Calcular la probabilidad de que haya 60 estudiantes con gripe.

 

Solución: La v.a. que contabiliza el número de alumnos que padece la gripe es


 

\begin{displaymath}X{\leadsto}{ {{\bf B} \left( n=200,p=0,3 \right)} }
\end{displaymath}

 

cuya media es $\mu=n\cdot p = 60$ y su varianza es $\sigma^2=n\,p\, q= 42$. Realizar los cálculos con la ley binomial es muy engorroso, ya que intervienen números combinatorios de gran tamaño, y potencias muy elevadas. Por ello utilizamos la aproximación normal de X, teniendo en cuenta que se verifican las condiciones necesarias para que el error sea aceptable:


 

\begin{displaymath}X{\leadsto}{ {{\bf B} \left( n,p \right)} }\;\;\mbox{ donde }...
...X_N{\leadsto}{ {{\bf N} \left( \mu=60,\sigma^2 = 42 \right)} }
\end{displaymath}

 

Así aproximando la v.a. discreta binomial X, mediante la v.a. continua normal XN tenemos:

\begin{eqnarray}\html{eqn83}{{\cal P}}[X\leq 40] &\approx& {{\cal P}}[X_N\leq 40...
...
\nonumber \\
\mbox{buscando en la tabla 3}&=& 0,999
\nonumber
\end{eqnarray}


También es necesario calcular ${{\cal P}}[X=60]$. Esta probabilidad se calcula exactamente como:


 

\begin{displaymath}{{\cal P}}[X=60] = { \left(\begin{array}{c} 200\\ 60 \end{array}\right)\,}p^{60}\, q^{140}
\end{displaymath}

 

Dada la dificultad numérica para calcular esa cantidad, y como la distribución binomial no está habitualmente tabulada hasta valores tan altos, vamos a utilizar su aproximación normal, XN. Pero hay que prestar atención al hecho de que XN es una v.a. continua, y por tanto la probabilidad de cualquier punto es cero. En particular,


 

\begin{displaymath}{{\cal P}}[X_N=60]=0 \;\;\Longrightarrow \;\;{{\cal P}}[X=60]\approx 0
\end{displaymath}

 

lo que ha de ser interpretado como un error de aproximación. Hay métodos más aproximados para calcular la probabilidad buscada. Por ejemplo, podemos aproximar ${{\cal P}}[X=60]$ por el valor de la función de densidad de XN en ese punto (es en el único sentido en que se puede entender la función de densidad de la normal como una aproximación de una probabilidad). Así:


 

\begin{displaymath}{{\cal P}}[X=60]\approx f_{X_N}(60) =
{\scriptstyle \frac{1}...
...t)^2}
={\scriptstyle \frac{1}{\sigma \sqrt{2\pi}}} e^0 = 0,063
\end{displaymath}

 

Por último, otra posibilidad es considerar un intervalo de longitud 1centrado en el valor 60 del que deseamos hallar su probabilidad y hacer:


 

\begin{displaymath}{{\cal P}}[X=60] \approx {{\cal P}}[59'5 \leq X_N \leq 60,5] ...
...\underbrace{-0,08\leq Z\leq 0,08}_{\mbox{simetría}}]
= 0,0638
\end{displaymath}

 

 

6.8.6.8 Ejemplo

Según un estudio, la altura de los varones de cierta ciudad es una v.a. X, que podemos considerar que se distribuye según una ley gaussiana de valor esperado $\mu=175\,cm$ y desviación típica $\sigma=10\,cm$. Dar un intervalo para el que tengamos asegurado que el $50\%$ de los habitantes de la ciudad estén comprendidos en él.

 

Solución: Tenemos que $X{\leadsto}{ {{\bf N} \left( \mu=175,\sigma^2=10^2 \right)} }$. Si buscamos un intervalo donde estar seguros de que el $50\%$ de los habitantes tengan sus alturas comprendidas en él hay varias estrategias posibles:

 

1.
Podemos tomar el percentil 50, ya que este valor deja por debajo suya a la mitad, 0,5, de la masa de probabilidad. Este valor, x0,5, se definiría como:

 

\begin{eqnarray}\html{eqn83}\int_{-\infty}^{x_{0,5}} f(t)\,dt = 0,5
\;\;&\Longle...
...cando } &\Longleftrightarrow&\;\;
{{\cal P}}[Z\leq z_{0,5}] =0,5
\end{eqnarray}


donde

 

\begin{eqnarray}\html{eqn84}Z&=&\frac{X-\mu}{\sigma} = \frac{X-175}{10}{\leadsto...
...\
z_{0,5}&= & \frac{x_{0,5}-\mu}{\sigma}= \frac{x_{0,5}-175}{10}
\end{eqnarray}


El valor z0,5 lo podemos buscar en la tabla 3 (distribución ${ {{\bf N} \left ( 0,1 \right )} }$) y se obtiene


 

\begin{displaymath}z_{0,5}=0\;\;\Longrightarrow x_{0,5}=175 + 10\cdot z_{0,05} = 175
\end{displaymath}

 

Por tanto podemos decir que la mitad de la población tiene una altura inferior a $x_{0,5}=175\,cm$. Este resultado era de esperar, ya que en la distribución es simétrica y habrá una mitad de individuos con un peso inferior a la media y otro con un peso superior (figura 6.12). Esto puede escribirse como:

 

El $50\%$ de la población tiene un peso comprendido en el intervalo $(-\infty,175]$.


  
Figura: Intervalo donde tenemos asegurado que el 50% de la población tiene un peso comprendido en él. Como se observa, no es un tamaño óptimo, en el sentido de que el intervalo es demasiado grande (longitud infinita a la izquierda).
\includegraphics[angle=-90, width=0.8\textwidth]{fig06-12.epsi}

 

2.
Análogamente podemos considerar el percentil 50, y tomar como intervalo aquellos pesos que lo superan. Por las mismas razones que en el problema anterior, podremos decir:

 

El $50\%$ de la población tiene un peso comprendido en el intervalo $[175,+\infty)$.

 

3.
Los anteriores intervalos, aún dando un resultado correcto, no son satisfactorios en el sentido de que son muy grandes, y no tienen en cuenta la simetría de la distribución normal para tomar un intervalo cuyo centro sea $\mu $. Vamos a utilizar entonces otra técnica que nos permita calcular el intervalo centrado en la media, y que además será el más pequeño posible que contenga al $50\%$de la población.

Para ello observamos que la mayor parte de probabilidad está concentrada siempre alrededor de la media en las leyes gaussianas. Entonces podemos tomar un intervalo que contenga un $25\%$ de probabilidad del lado izquierdo más próximo a la media, y un $25\%$ del derecho (figura 6.13).


  
Figura: Intervalo donde tenemos asegurado que el 50% de la población tiene un peso comprendido en él. En este caso el intervalo es más pequeño que el anterior y está centrado en $\mu $.
\includegraphics[angle=-90, width=0.8\textwidth]{fig06-13.epsi}

Esto se puede describir como el intervalo


 

\begin{displaymath}[x_{0,25}\,,\,x_{0,75}]
\end{displaymath}

 

donde x0,25 es el valor que deja por debajo de sí al $25\%$de la masa de probabilidad y x0,75 el que lo deja por encima (o lo que es lo mismo, el que deja por debajo al $75\%$ de las observaciones). Del mismo modo que antes estos valores pueden ser buscados en una tabla de la distribución normal, tipificando en primera instancia para destipificar después:

 

\begin{eqnarray}\html{eqn85}\int_{-\infty}^{x_{0,75}} f(t)\,dt = 0,75
\;\;&\Long...
...ndo } &\Longleftrightarrow&\;\;
{{\cal P}}[Z\leq z_{0,75}] =0,75
\end{eqnarray}


donde

\begin{eqnarray}\html{eqn86}Z&=&\frac{X-\mu}{\sigma} = \frac{X-175}{10}{\leadsto...
...z_{0,75}&= & \frac{x_{0,75}-\mu}{\sigma}= \frac{x_{0,75}-175}{10}
\end{eqnarray}


En una tabla encontramos el valor z0,75, y se destipifica:

\begin{displaymath}z_{0,75}=0,675\;\;\Longrightarrow x_{0,75}=175 + 10\cdot z_{0,75} = 181'75
\end{displaymath}

 

Análogamente se calcularía

 

\begin{eqnarray}\html{eqn87}\int_{-\infty}^{x_{0,25}} f(t)\,dt = 0,25
\;\;&\Long...
...ndo } &\Longleftrightarrow&\;\;
{{\cal P}}[Z\leq z_{0,25}] =0,25
\end{eqnarray}

 

donde

 

\begin{eqnarray}\html{eqn88}Z&=&\frac{X-\mu}{\sigma} = \frac{X-175}{10}{\leadsto...
...z_{0,25}&= & \frac{x_{0,25}-\mu}{\sigma}= \frac{x_{0,25}-175}{10}
\end{eqnarray}

 

Por la simetría de la distribución normal con respecto al origen, tenemos que z0,25= - z0,75.Luego

 

\begin{displaymath}z_{0,25}=-0,675\;\;\Longrightarrow x_{0,75}=175 + 10\cdot z_{0,25} = 168,25
\end{displaymath}

 

En conclusión:

 

El $50\%$ de la población tiene un peso comprendido en el intervalo [168,25,181,75].

De entre los tres intervalos que se han calculado el que tiene más interés es el último, ya que es simétrico con respecto a la media, y es el más pequeño de todos los posibles (más preciso). Este ejemplo es en realidad una introducción a unas técnicas de inferencia estadística que trataremos posteriormente, conocidas con el nombre de ``estimación confidencial'' o ``cálculo de intervalos de confianza''.

6.8.8 Distribución $\chi ^2$

Si consideramos una v.a. $Z{\leadsto}{ {{\bf N} \left( 0,1 \right)} }$, la v.a. X=Z2 se distribuye según una ley de probabilidad distribución ${ \mbox{\boldmath$\chi$ } }^2$con un grado de libertad, lo que se representa como

 

\begin{displaymath}X{\leadsto}{ \mbox{\boldmath$\chi$ } }_1^2
\end{displaymath}

 

Si tenemos n v.a. independientes $Z_i{\leadsto}{ {{\bf N} \left( 0,1 \right)} }$, la suma de sus cuadrados respectivos es una distribución que denominaremos ley de distribución $\chi ^2$ con n grados de libertad, ${ \mbox{\boldmath$\chi$ } }_n^2$.

\begin{displaymath}{
\mbox{\fbox{$\displaystyle
\{Z_i\}_{i=1}^n{\leadsto}{ {{\b...
...}^n \, Z_i^2 {\leadsto}{ \mbox{\boldmath$\chi$ } }_n^2
$ } }
}
\end{displaymath}

La media y varianza de esta variable son respectivamente:

 

\begin{eqnarray}\html{eqn91}{ {{\bf E} \left[ X \right]} }&=&n
\\
{ {{\bf Var } \left[ X \right]} }&=&2n
\end{eqnarray}

 

y su función de densidad es:

\begin{displaymath}f_{\chi_n^2}(x)=\left\{
\begin{array}{l}
0 \qquad \mbox{si } ...
...rac{x}{2}} \qquad \mbox{si } x\in(0,\infty)
\end{array}\right.
\end{displaymath}
 

Los percentiles de esta distribución que aparecen con más frecuencia en la práctica los podemos encontrar en la tabla 5.

 

  
Figura: Función de densidad de $\chi _n^2$ para valores pequeños de n.
\includegraphics[angle=0, width=0.8\textwidth]{fig06-14.eps}
 
  
Figura: Función de densidad de $\chi _n^2$ para valores grandes de n.
\includegraphics[angle=0, width=0.8\textwidth]{fig06-15.eps}
 

En consecuencia, si tenemos $X_1,\dots,X_n$, v.a. independientes, donde cada $X_i{\leadsto}{ {{\bf N} \left( \mu_i,\sigma_i^2 \right)} }$, se tiene

 

\begin{displaymath}\sum_{i=1}^n \, \left(\frac{X_i -\mu_i}{\sigma_i}\right)^2
\: {\leadsto}{ \mbox{\boldmath$\chi$ } }_n^2
\end{displaymath}

 

6.8.8.1 Observación

La ley de distribución ${ \mbox{\boldmath$\chi$ } }^2$ muestra su importancia cuando queremos determinar la variabilidad (sin signo) de cantidades que se distribuyen en torno a un valor central siguiendo un mecanismo normal. Como ilustración tenemos el siguiente ejemplo:

 

6.8.8.2 Ejemplo

Un instrumento para medir el nivel de glucemia en sangre, ofrece resultados bastantes aproximados con la realidad, aunque existe cierta cantidad de error $\epsilon$ que se distribuye de modo normal con media 0 y desviación típica $\sigma=2$.

 

\begin{displaymath}X_{\mbox{real}} = X_{\mbox{exp}} + \epsilon,\qquad
\epsilon{\leadsto}{ {{\bf N} \left( \mu=0,\sigma^2=2^2 \right)} }
\end{displaymath}

 

Se realizan mediciones de los niveles de glucemia dados por el instrumento en un grupo de n=100 pacientes. Nos interesa medir la cantidad de error que se acumula en las mediciones de todos los pacientes. Podemos plantear varias estrategias para medir los errores acumulados. Entre ellas destacamos las siguientes:

1.
Definimos el error acumulado en las mediciones de todos los pacientes como

 

\begin{displaymath}E_1 = \sum_{i=1}^n \epsilon_i
\end{displaymath}

 

¿Cuál es el valor esperado para E1?
2.
Definimos el error acumulado como la suma de los cuadrados de todos los errores (cantidades positivas):

 

\begin{displaymath}E_2 = \sum_{i=1}^n \epsilon_i^2
\end{displaymath}

 

¿Cuál es el valor esperado para E2?
A la vista de los resultados, cuál de las dos cantidades, E1 y E2, le parece más conveniente utilizar en una estimación del error cometido por un instrumento.

 

Solución:

Suponiendo que todas las mediciones son independientes, se tiene que

\begin{displaymath}E_1 = \sum_{i=1}^n \epsilon_i =
\underbrace{
\underbrace{\ep...
...
\;\Longrightarrow
\; { {{\bf E} \left[ E_1 \right]} }=\mu = 0
\end{displaymath}

 

De este modo, el valor esperado para E1 es 0, es decir, que los errores ei van a tender a compensarse entre unos pacientes y otros. Obsérvese que si $\mu $ no fuese conocido a priori, podríamos utilizar E1, para obtener una aproximación de $\mu $
\begin{displaymath}\mu \approx\frac{E_1}{n}
\end{displaymath}

 

Sin embargo, el resultado E1 no nos indica en qué medida hay mayor o menor dispersión en los errores con respecto al 0. En cuanto a E2 podemos afirmar lo siguiente:

 

\begin{displaymath}E_2 = \sum_{i=1}^n \epsilon_i^2 =
\sigma^2\, \sum_{i=1}^n \l...
...arrow
\; { {{\bf E} \left[ E_2 \right]} }=n\cdot\sigma^2 = 400
\end{displaymath}

 

En este caso los errores no se compensan entre sí, y si $\sigma ^2$ no fuese conocido, podría ser ``estimado" de modo aproximado mediante

\begin{displaymath}\sigma^2 \approx \frac{E_2}{n}
\end{displaymath}

 

Sin embargo, no obtenemos ninguna información con respecto a $\mu $.

En conclusión, E1 podría ser utilizado para calcular de modo aproximado $\mu $, y E2 para calcular de modo aproximado $\sigma ^2$. Las dos cantidades tienen interés, y ninguna lo tiene más que la otra, pues ambas formas de medir el error nos aportan información.

El siguiente resultado será de importancia más adelante. Nos afirma que la media de distribuciones normales independientes es normal pero con menor varianza y relaciona los grados de libertad de una v.a. con distribución ${ \mbox{\boldmath$\chi$ } }$, con los de un estadístico como la varianza (página [*]):

6.8.8.3 Teorema (Cochran)

Sean $X_1, \dots,X_n\:{\leadsto}{ {{\bf N} \left( \mu,\sigma^2 \right)} }$ v.a. independientes. Entonces
\begin{displaymath}\overline{X}=\frac{1}{n}\, \sum_{i=1}^n\, X_i \:{\leadsto}
{ {{\bf N} \left( \mu,\frac{\sigma^2}{n} \right)} }
\end{displaymath}

 

\begin{displaymath}\sum_{i=1}^n\, \frac{(X_i-\overline{X})^2}{\sigma^2} \:{\leadsto}
{ \mbox{\boldmath$\chi$ } }_{n-1}^2
\end{displaymath}

 

\begin{displaymath}\overline{X}\mbox{ y }
\sum_{i=1}^n\, \frac{(X_i-\overline{X})^2}{\sigma^2}
\mbox{ son v.a. independientes.}
\end{displaymath}

6.8.10 Distribución ${ {{\bf t} } }$ de Student

La distribución ${ {{\bf t} } }$-Student se construye como un cociente entre una normal y la raíz de una $\chi ^2$ independientes. De modo preciso, llamamos distribución t-Student con n grados de libertad, ${ {{\bf t} } }_{n}$ a la de una v.a. T,

 \begin{displaymath}{
\mbox{\fbox{$\displaystyle
T=\frac{Z}{\sqrt{ \frac{1}{n}\chi_n^2}} {\leadsto}{ {{\bf t} } }_n
$ } }
}
\end{displaymath}

donde $Z{\leadsto}{ {{\bf N} \left( 0,1 \right)} }$, $\chi_n^2{\leadsto}{ \mbox{\boldmath$\chi$ } }_n^2$. Este tipo de distribuciones aparece cuando tenemos n+1 v.a. independientes

 

\begin{displaymath}X{\leadsto}{ {{\bf N} \left( \mu,\sigma^2 \right)} }
\end{displaymath}

 

\begin{displaymath}X_i{\leadsto}{ {{\bf N} \left( \mu_i,\sigma_i^2 \right)} }\qquad i=1,\dots,n
\end{displaymath}

 

y nos interesa la distribución de

 

\begin{displaymath}T=\frac{ \displaystyle \frac{X-\mu}{\sigma}}{
\sqrt{\displays...
...c{X_i-\mu_i}{\sigma_i}
\right)^2
}}
{\leadsto}{ {{\bf t} } }_n
\end{displaymath}

 

La función de densidad de $t_n{\leadsto}{ {{\bf t} } }_n$ es

 

\begin{displaymath}f_T(x)=\frac{\Gamma\left(\frac{n+1}{2}\right)}{\Gamma\left(
\...
...ac{x^2}{n}\right)^{-\frac{n+1}{2}}
\qquad \forall\,t\in I\!\!R
\end{displaymath}

 

  
Figura: Función de densidad de una ${ {{\bf t} } }$ de Student
\includegraphics[angle=-90, width=0.8\textwidth]{fig06-16.epsi}

La distribución ${ {{\bf t} } }$ de Student tiene propiedades parecidas a ${ {{\bf N} \left ( 0,1 \right )} }$:

 

  • Es de media cero, y simétrica con respecto a la misma;
  • Es algo más dispersa que la normal, pero la varianza decrece hasta 1 cuando el número de grados de libertad aumenta;


      
    Figura: Comparación entre las funciones de densidad de ${ {{\bf t} } }_1$ y ${ {{\bf N} \left ( 0,1 \right )} }$.
    \includegraphics[angle=-90, width=0.8\textwidth]{fig06-17.epsi}

     

  • Para un número alto de grados de libertad se puede aproximar la distribución de Student por la normal, es decir,
    \begin{displaymath}{ {{\bf t} } }_n \stackrel{n\rightarrow \infty}{\longrightarrow} { {{\bf N} \left( 0,1 \right)} }
\end{displaymath}

     

      
    Figura: Cuando aumentan los grados de libertad, la distribución de Student se aproxima a la distribución normal tipificada.
    \includegraphics[angle=-90, width=0.8\textwidth]{fig06-18.epsi}

     

  • Para calcular

     

    \begin{displaymath}{{\cal P}}[T\leq t] = F_T(t) = \int_{-\infty}^t f_T(x)\,dx
= ...
...qrt{n\pi}}
\left(1+\frac{x^2}{n}\right)^{-\frac{n+1}{2}}\, dx}
\end{displaymath}

     

    en lugar de considerar una primitiva de esa función y determinar la integral definida, buscaremos el resultado aproximado en una tabla de la distribución ${ {{\bf t} } }_{n}$. Véase la tabla 4, al final del libro.

6.8.12 La distribución ${ {{\bf F} } }$ de Snedecor

Otra de la distribuciones importantes asociadas a la normal es la que se define como cociente de distribuciones ${ \mbox{\boldmath$\chi$ } }^2$ independientes. Sean $X{\leadsto}{ \mbox{\boldmath$\chi$ } }_n^2$ e $Y{\leadsto}{ \mbox{\boldmath$\chi$ } }_m^2$ v.a. independientes. Decimos entonces que la variable

\begin{displaymath}{
\mbox{\fbox{$\displaystyle
F = \frac{ \frac{1}{n} X}{\frac...
...}{n}\,
\frac{\:X\:}{Y} {\leadsto}
{ {{\bf F} } }_{n,m}
$ } }
}
\end{displaymath}

sigue una distribución de probabilidad de Snedecor, con (n,m) grados de libertad. Obsérvese que ${ {{\bf F} } }_{n,m}\neq{ {{\bf F} } }_{m,n}$.

La forma más habitual en que nos encontraremos esta distribución será en el caso en que tengamos n+m v.a. independientes

 

\begin{displaymath}X_i{\leadsto}{ {{\bf N} \left( \mu_i,\sigma_i^2 \right)} }\qquad i=1,\dots,n
\end{displaymath}
 
\begin{displaymath}Y_j{\leadsto}{ {{\bf N} \left( m_j,s_j^2 \right)} }\qquad i=1,\dots,m
\end{displaymath}

 

y así

 

\begin{displaymath}F=\frac{\displaystyle \frac{1}{n}
\sum_{i=1}^n \,\left(\frac{...
...\frac{Y_j-m_j}{s_j}\right)^2}
\:{\leadsto}{ {{\bf F} } }_{n,m}
\end{displaymath}

 

De esta ley de probabilidad lo que más nos interesa es su función de distribución:

 

\begin{displaymath}F_F(x) = {{\cal P}}[F\leq x]
\end{displaymath}

 

y para ello, como en todas las distribuciones asociadas a la normal, disponemos de una tabla (la número 6) donde encontrar aproximaciones a esas cantidades

 

  
Figura: Función de densidad de ${ {{\bf F} } }_{n_1,n_2}$.
\includegraphics[angle=-90, width=0.8\textwidth]{fig06-19.epsi}
 

Es claro que la distribución de Snedecor no es simétrica, pues sólo tienen densidad de probabilidad distinta de cero, los punto de $I\!\!R^+$. Otra propiedad interesante de la distribución de Snedecor es:

 

\begin{displaymath}F{\leadsto}{ {{\bf F} } }_{n,m} \;\Longleftrightarrow\;
\frac{1}{F} {\leadsto}{ {{\bf F} } }_{m,n}
\end{displaymath}

6.10 Problemas

Ejercicio 6..1. Para estudiar la regulación hormonal de una línea metabólica se inyectan ratas albinas con un fármaco que inhibe la síntesis de proteínas del organismo. En general, 4 de cada 20 ratas mueren a causa del fármaco antes de que el experimento haya concluido. Si se trata a 10 animales con el fármaco, ¿cuál es la probabilidad de que al menos 8 lleguen vivas al final del experimento?

 

Ejercicio 6..2. En una cierta población se ha observado un número medio anual de muertes por cáncer de pulmón de 12. Si el número de muertes causadas por la enfermedad sigue una distribución de Poisson, ¿cuál es la probabilidad de que durante el año en curso:

1.
Haya exactamente 10 muertes por cáncer de pulmón?
2.
15 o más personas mueran a causa de la enfermedad?
3.
10 o menos personas mueran a causa de la enfermedad?

Ejercicio 6..3. Dañando los cromosomas del óvulo o del espermatozoide, pueden causarse mutaciones que conducen a abortos, defectos de nacimiento, u otras deficiencias genéticas. La probabilidad de que tal mutación se produzca por radiación es del 10%. De las siguientes 150 mutaciones causadas por cromosomas dañados, ¿cuántas se esperaría que se debiesen a radiaciones? ¿Cuál es la probabilidad de que solamente 10 se debiesen a radiaciones?

 

Ejercicio 6..4. Entre los diabéticos, el nivel de glucosa en sangre X, en ayunas, puede suponerse de distribución aproximadamente normal, con media 106 mg/100 ml y desviación típica 8 mg/100 ml, es decir

\begin{displaymath}X{\leadsto}{ {{\bf N} \left( \mu=106,\sigma^2=64 \right)} }
\end{displaymath}

 

1.
Hallar ${{\cal P}}[X\leq 120]$
2.
¿Qué porcentaje de diabéticos tienen niveles comprendidos entre 90 y 120 ?
3.
Hallar ${{\cal P}}[106 \leq X \leq 110]$.
4.
Hallar ${{\cal P}}[ X \leq 121]$.
5.
Hallar el punto x caracterizado por la propiedad de que el 25% de todos los diabéticos tiene un nivel de glucosa en ayunas inferior o igual a x.

Ejercicio 6..5. Una prueba de laboratorio para detectar heroína en sangre tiene un 92% de precisión. Si se analizan 72 muestras en un mes, ¿cuál es la probabilidad de que:

1.
60 o menos estén correctamente evaluadas?
2.
menos de 60 estén correctamente evaluadas?
3.
exactamente 60 estén correctamente evaluadas?

 

Ejercicio 6..6. El 10% de las personas tiene algún tipo de alergia. Se seleccionan aleatoriamente 100 individuos y se les entrevista. Hallar la probabilidad de que, al menos, 12 tengan algún tipo de alergia. Hallar la probabilidad de que, como máximo, 8 sean alérgicos a algo.

 

Ejercicio 6..7. La probabilidad de muerte resultante del uso de píldoras anticonceptivas es de 3/100.000. De 1.000.000 de mujeres que utilizan este medio de control de natalidad:

1.
¿Cuántas muertes debidas a esta causa se esperan?
2.
¿Cuál es la probabilidad de que haya, como máximo, 25 de estas muertes?
3.
¿Cuál es la probabilidad de que el número de muertes debidas a esta causa esté entre 25 y 35, inclusive?

 

Ejercicio 6..8. La probabilidad de presentar una característica genética es de 1/20.

1.
Tomando una muestra de 8 individuos, calcular la probabilidad de que 3 individuos presenten la característica.
2.
Tomando una muestra de 80 personas, ¿cuál será la probabilidad de que aparezcan más de 5 individuos con la característica?

 

Ejercicio 6..9. Se supone que en una cierta población humana el índice cefálico i, (cociente entre el diámetro transversal y el longitudinal expresado en tanto por ciento), se distribuye según una Normal. El 58% de los habitantes son dolicocéfalos (i $\leq$75), el 38% son mesocéfalos (75 < i $\leq$ 80) y el 4% son braquicéfalos (i > 80). Hállese la media y la desviación típica del índice cefálico en esa población.

 

Ejercicio 6..10. Se supone que la glucemia basal en individuos sanos, Xs sigue una distribución

\begin{displaymath}X_s{\leadsto}{ {{\bf N} \left( \mu=80,\sigma=10 \right)} },
\end{displaymath}

 

mientras que en los diabéticos Xd, sigue una distribución
\begin{displaymath}X_d{\leadsto}{ {{\bf N} \left( \mu=160,\sigma=31,4 \right)} }.
\end{displaymath}

 

Si se conviene en clasificar como sanos al 2% de los diabéticos:
1.
¿Por debajo de qué valor se considera sano a un individuo? ¿Cuántos sanos serán clasificados como diabéticos?
2.
Se sabe que en la población en general el 10% de los individuos son diabéticos ¿cuál es la probabilidad de que un individuo elegido al azar y diagnosticado como diabético, realmente lo sea?

Ejercicio 6..11. Supóngase que se van a utilizar 20 ratas en un estudio de agentes coagulantes de la sangre. Como primera experiencia, se dio un anticoagulante a 10 de ellos, pero por inadvertencia se pusieron todas sin marcas en el mismo recinto. Se necesitaron 12 ratas para la segunda fase del estudio y se les tomó al azar sin reemplazamiento. ¿Cuál es la probabilidad de que de las 12 elegidas 6 tengan la droga y 6 no la tengan?

 

Éste texto es la versión electrónica del manual de la Universidad de Málaga:
Bioéstadística: Métodos y Aplicaciones
U.D. Bioestadística. Facultad de Medicina. Universidad de Málaga.
ISBN: 847496-653-1

Articulos relacionados:
Distribución Normal
Resumen:
Distribución Normal. Función de densidad. La distribución binomial. Esta distribución es frecuentemente utilizada en las aplicaciones estadísticas. Su propio nombre indic...
Graficas X-R
Resumen:
Un gráfico de control es una carta o diagrama especialmente preparado donde se van anotando los valores sucesivos de la característica de calidad que se está controlando....
Estadística
Resumen:
Idea de la estadística. Aplicaciones de la estadística. Divisiones de la estadística. Población y muestra. Estadísticas: Conjunto de informes numéricos derivados de los c...
Resumen del libro de estadísticas de Berenson y Levine
Resumen:
Resumen del libro de estadísticas de Berenson y Levine. Aplicaciones estadísticas en administración de la calidad y productividad. Estadística descriptiva e inferencial. ...
Muestreo y tamaño de muestra (Estadística)
Resumen:
Partiendo de la importancia que tiene para cualquier profesional e investigador conocer varios conceptos importantes de la estadística para poder desarrollar exitosamente...
Copyright © 2011 ilustrados.com, Monografias, tesis, bibliografias, educacion. Tofos los temas y publicaciones son propiedad de sus respectivos autores ©