lunes, 23 de febrero de 2015

Media y varianza de una distribución binomial

Sea una variable aleatoria $X \sim B(n,p)$, entonces $E[X]=np$ y $V[X]=npq$, donde $p$ denota la probabilidad de éxito, y $q=1-p$, la probabilidad de fracaso, en cualquiera de las $n$ pruebas de Bernouilli independientes. Vamos a justificar estas propiedades.

Como las $n$ pruebas de Bernouilli $B(1,p)$ son independientes, podemos contemplar la variable aleatoria $X \sim B(n,p)$ como $X_1+\ldots+X_n$, donde $X_i \sim B(1,n)$, $i=1,\ldots, n$. Entonces, por las propiedades de la esperanza matemática, $E[X]=E[X_1]+\ldots+E[X_n]$; y como $E[X_i]=1\cdot p + 0 \cdot q = p$; así, $E[X]=p+\overset{n}{\ldots}+p=np$

Veamos ahora la varianza. Por el hecho de ser las $n$ pruebas de Bernouilli, $\lbrace X_i \rbrace$, independientes, y como $X=X_1+\ldots+X_n$, podemos escribir la varianza de $X$ como la suma de las varianzas de dichas variables aleatorias de Bernouilli, esto es $V[X]=V[X_i]+\ldots+V[X_n]$. Dichas varianzas tienen todas el mismo valor; calculémoslo: como $V[X_i]=E[X_{i}^{2}]-\left(E[X]\right)^2$; donde $\left(E[X_i]\right)^2=p^2$ y $E[X_{i}^{2}]=1^{2}\cdot p +0^2 \cdot q=p$, obtenemos $V[X_i]=p-p^2=p(1-p)=pq$ para $i=1,\ldots,n$. Así, $V[X]=pq+\overset{n}{\ldots}+pq=npq$. $\square$

[nota del autor]

No hay comentarios:

Publicar un comentario

Gracias por tus comentarios