Distribución Bernoulli. Una distribución para simular experimentos con dos posibles resultados.

Los experimento Bernoulli sólo muestran dos posibles resultados, muchas veces se asocian con éxito y fracaso, 0 y 1, bueno o malo, entre otros. Debido a los valores que toma se le llama variable binaria.

Formalmente tenemos que, una variable aleatoria $\mathcal{X}$ se dice que es una **variable Bernoulli** si sólo toma dos valores $\{\text{Éxito, Fracaso}\}$, o cualquier equivalencia a este conjunto como el conjunto $\{0,1\}$.

Ejemplo:

1) Uno de los ejemplos más clásicos para explicar una variable aleatoria de esta forma es el lanzamiento de una moneda, donde el éxito es que salga cara y el fracaso a sello o viceversa.

2) El resultado de la votación en una elección presidencial donde hay sólo dos opciones, cada ciudadano puede votar por el candidato A o por candidato B.

3) Si un pasajero que compró un viaje en avión llega a embarcar o no a dicho viaje.

4) Si hay o no cambio en la proporción de especies de peces en el tiempo en un lago.

5) En la fabricación de bombillos, tomar una muestra de esta, tomar como éxito que el bombillo dure más de 200 horas y fracaso si es menor estricto.

La probabilidad de éxito de esta variable $P(\mathcal{X}=1)=p$ y de fracaso $P(\mathcal{X}=0)=1-p$, donde 1 corresponde al éxito y 0 al fracaso.

$$\mathcal{X}=\left \{\begin{matrix} 1 & \text{Con probabilidad} & p\\ 0 & \text{Con probabilidad} & 1-p\end{matrix} \right.$$

- La **función de probabilidad**

$$f(x)=\mathbb{P}(\mathcal{X}=x)=p^x(1-p)^{1-x}$$

Esto se lee como la probabilidad de que la variable aleatoria $\mathcal{X}$ tomo el valor $x$, donde $\mathcal{X}$ es una variable aleatoria Bernoulli con probabilidad de éxito $p$.

Veamos que esta función que acabamos de definir cumple con las propiedades de una función de probabilidad:

a) $f(x)\ge 0$

Los valores que toma la variable $\mathcal{X}$ son 0 y 1, entonces:

$\begin{array}{rl}

\vspace{3mm} f(0)&=p^0(1-p)^{1-0}=(1-p)^{1}=(1-p)\ge 0\\

f(1)&=p^1(1-p)^{1-1}=p^{1}=p\ge 0

\end{array}$

b) $\displaystyle \sum_{x} f(x)=1$

$\begin{array}{rl}

\vspace{3mm} \displaystyle \sum_{x=0}^1 p^x(1-p)^{1-x} & = p^0(1-p)^{1-0}+p^1(1-p)^{1-1}\\

\vspace{3mm} & = (1-p)^1 + p^1\\

\vspace{3mm} & = 1-p + p\\

\displaystyle \sum_{x=0}^1 p^x(1-p)^{1-x} & =1

\end{array}$

Por lo tanto se cumple con las propiedades de función de probabilidad.

Una forma de escribir que una variable se distribuye como una Bernoulli de parámetro $p$ es $\mathcal{X}\sim \mathcal{B}er (p)$.

- La **función de distribución**

$$F_\mathcal{X}(x)=\mathbb{P}(\mathcal{X}\le x)=\left \{\begin{matrix} 0 & \text{Si}\quad x<0 \\ 1-p & \text{Si}\quad 0\le x<1 \\ 1 & \text{Si}\quad x\ge 1\end{matrix}\right.$$

La función de distribución lo que hace es calcular la probalidad acumulada de los valores que toma la variable, para hacer este cálculo se ordena de menor a mayor los valores que toma esta variable aleatoria, recordemos que en este caso solo tiene el 0 y el 1, entonces, se divide en intervalos la recta real con estos valores, obteniendo una separación. El primer intervalo consta de todos los valores que son menores estrictos que cero $(-\infty,0)$, como la variable no toma ninguno de estos valores esta probabilidad es cero. El siguiente intervalo va de cero incluido hasta el 1 sin incluir $[0,1)$, dentro de este intervalo solo cae el valor cero, el fracaso de la variable aleatoria que tiene como probabilidad $1-p$, así que la probabilidad acumulada de cualquier valor de ese intervalo es $1-p$. Para el último intervalo tenemos todos los valores mayores o iguales a uno $[1,\infty)$, podemos notar que para cualquier valor dentro de este último intervalo siempre que realizamos el cálculo de probabilidad acumulada vamos a sumar las probabilidades de los dos valores que toma la variable, $1-p$ para 0 y $p$ para 1, así que cuando sumamos estas probabilidades tenemos $(1-p) + p= 1$, este corresponde a la probabilidad acumulada de este intervalo.

- La **esperanza**

Tenemos una variable aleatoria discreta, toma dos valores 0 y 1, entonces la esperanza viene dada por:

$$\mathbb{E}[\mathcal{X}] = \displaystyle \sum_{x=0}^1 x \mathbb{P}(\mathcal{X}=x)$$

$$

\begin{array}{rl}

\vspace{3mm} & = 0 \mathbb{P}(\mathcal{X}=0)+ 1 \mathbb{P}(\mathcal{X}=1)\\

\vspace{3mm} & = 0\times(1-p) +1\times p\\

\mathbb{E}[\mathcal{X}] & = p

\end{array}

$$

Ontuvimos que el valor esperado es la probabilidad de éxito del experimento.

- La **varianza**

Recordemos que la varianza de una variable aleatoria viene dada por $\mathbb{V}[\mathcal{X}] = \mathbb{E}[\mathcal{X^2}]-\mathbb{E} [\mathcal{X}]^2$. Del lado derecho podemos notar que sólo nos falta la esperanza de $\mathcal{X}^2$, veamos cuanto nos da:

$$

\begin{array}{rl}

\mathcal{X}^2 & = \left \{\begin{matrix} 1^2 & \text{Con probabilidad} & p\\ 0^2 & \text{Con probabilidad} & 1-p\end{matrix} \right. =\left \{\begin{matrix} 1 & \text{Con probabilidad} & p\\ 0 & \text{Con probabilidad} & 1-p\end{matrix} \right.

\end{array}

$$

Así

$$\mathbb{E}[\mathcal{X}^2]= 0 \mathbb{P}(\mathcal{X}=0)+ 1 \mathbb{P}(\mathcal{X}=1) = 0\times(1-p) +1\times p = p$$

Ahora sustituyendo esto en la respectiva fórmula de la varianza, nos queda

$$

\begin{array}{rl}

\vspace{3mm} \mathbb{V}[\mathcal{X}] & = p-p^2\\

\mathbb{V}[\mathcal{X}] & = p(1-p)

\end{array}

$$

Temas