5.5 Variables aleatorias
A partir de un experimento aleatorio se pueden definir muchas preguntas de probabilidad, por ejemplo, en el caso de la ruina del jugador podríamos preguntarnos: las ganancias después del tercer juego, probabilidad de ganar, duración del experimeto (cuántos juegos se jugaron antes de alcanzar las reglas de término). Sin embargo, muchas veces nos centramos en estudiar un solo aspecto del experimento.
La variable aleatoria \(X\) es un mapeo entre el espacio de resultados y los números reales.
Distribución de probabilidad
La distribución de probabilidad de una variable aleatoria \(X\) es simplemente una lista de todos los posibles valores y sus probabilidades correspondientes (en el caso discreto). Podemos pensar en el término distribución como una masa distribuida sobre un área o volumen \(\Omega\), y \(P(A)\) representa la proporción de esa masa en el subconjunto \(A\).
Definimos \(X\) como la variable aleatoria del número de juegos antes de que termine el experimento de la ruina del jugador, grafica la distribución de probabilidad de \(X\) (calcula \(P(X=1), P(X=2),...,P(X=50)\)).
La función de distribución acumulada contiene la misma información que la función de distribución y se define como \[P(X \le x)\] con la ventaja de que la definición aplica tanto al caso discreto como en el caso continuo.
Esperanza
La esperanza (valor esperado o media) de una variable aleatoria \(X\), es la media de la distribución \(X\), esto es, \[E(X)=\sum_{x\in \Omega_x} x P(X=x)\] el promedio de todos los posibles valores de \(X\) ponderados por sus probabilidades.
Por ejemplo, si \(X\) toma únicamente dos posibles valores, \(a,b\) con probabilidad \(P(a)\) y \(P(b)\) entonces \[E(X)=aP(a)+bP(b).\]
Ejemplo: Supongamos que \(X\) es el valor que se produce cuando tiro un dado justo. Entonces, \[E(X)=1\cdot P(X=1) +2\cdot P(X=2) +3\cdot P(X=3) +4\cdot P(X=4) +5\cdot P(X=5) +6\cdot P(X=6) = 3.5\] Lo que nos dice que si tiramos el dado muchas veces deberíamos esperar que el promedio de las tiradas sea cercano a 3.5.
Esperanza como un promedio cuando n es grande. Si vemos las probabilidades de los valores de \(X\) como una aproximación de frecuencias relativas cuando n es grande, entonces \(E(X)\) es aproximadamente el valor promedio del valor de \(X\) cuando n es grande.
x <- rnorm(10000, mean = 10)
mean(x)
#> [1] 9.99
La esperanza cumple las siguientes reglas:
Constantes. La esperanza de una variable aleatoria constante es su valor constante, \[E(c) = c\]
Indicadoras. Si \(I_A\) es la función indicadora del evento \(A\), \[E(I_A) = P(A)\]
Funciones. Típicamente, \(E[g(X)]\ne g[E(X)]\), pero \[E[g(X)] = \sum_{x \in \Omega_X} g(x) P(X=x)\]
Factores constantes. Para una constante c, \[E(cX)=cE(X)\]
Adición. Para cualquier par de variables aleatorias \(X\), \(Y\), \[E(X+Y) = E(X)+E(Y)\]
Multiplicación. Típicamente \(E(XY) \ne E(X)E(Y)\), pero si \(X\) y \(Y\) son independientes, entonces \[E(XY)=E(X)E(Y)\]
Varianza y desviación estándar
Si intentamos predecir el valor de una variable aleatoria usando su media \(E(X)=\mu\), vamos a fallar por una cantidad aleatoria \(X-\mu\). Suele ser importante tener una idea de que tan grande será esta desviación. Debido a que \[E(X-\mu) = E(X)-\mu=0\] es necesario considerar la diferencia absoluta o la diferencia al cuadrado de \(X-\mu\) con el fin de tener una idea del tamaño de la desviación sin importar el signo de esta.
Varianza y desviación estándar. La varianza de \(X\), denotada \(var(X)=\sigma^2\) es la media de la desviación cuadrada de \(X\) respecto a su valor esperado \(\mu=E(X)\): \[\sigma^2(X)=var(X)=E(X-\mu)^2\] La desviación estándar de \(X\), es la raíz cuadrada de la varianza de X: \[\sigma(X)=sd(X)=\sqrt{var(X)}\]
Intuitivamente, \(sd(X)\) es una medida de la dispersión de la distribución de \(X\) alrededor de su media. Debido a que la varianza es el valor central de la distribución de \((X-\mu)^2\), su raíz cuadrada da una idea del tamaño típico de la desviación absoluta \(|X-\mu|\). Notemos que \(E(X)\), \(var(X)\) y \(sd(X)\) están determinados por \(X\), de tal manera que si dos variables aleatorias tienen la misma distribución, también tienen la misma media, varianza y desviación estándar.