¿Cómo utiliza una función de masa de probabilidad para calcular la media y la varianza de una distribución discreta?

Respuesta

PMF para variable aleatoria discreta #X:" "# #p_X(x)" "# or #" "p(x)#.
Media: #" "mu=E[X]=sum_x x*p(x)#.
Diferencia: #" "sigma^2 = "Var"[X]=sum_x [x^2*p(x)] - [sum_x x*p(x)]^2#.

Explicación:

La función de masa de probabilidad (o pmf, para abreviar) es un mapeo, que toma todos los valores discretos posibles que una variable aleatoria podría tomar, y los asigna a sus probabilidades. Ejemplo rápido: si #X# es el resultado de un solo lanzamiento de dados, entonces #X# podría asumir los valores #{1,2,3,4,5,6},# cada uno con igual probabilidad #1/6#. El pmf para #X# sería:

#p_X(x)={(1/6",", x in {1,2,3,4,5,6}),(0",","otherwise"):}#

Si solo estamos trabajando con una variable aleatoria, el subíndice #X# a menudo se deja fuera, así que escribimos el pmf como #p(x)#.

En breve: #p(x)# es igual a #P(X=x)#.

El significar #mu# (o valor esperado #E[X]#) de una variable aleatoria #X# es la suma de los posibles valores ponderados para #X#; ponderado, es decir, por sus respectivas probabilidades. Si #S# es el conjunto de todos los valores posibles para #X#, entonces la fórmula para la media es:

#mu =sum_(x in S) x*p(x)#.

En nuestro ejemplo de arriba, esto resulta ser

#mu = sum_(x=1)^6 x*p(x)#
#color(white)mu = 1(1/6)+2(1/6)+3(1/6)+...+6(1/6)#
#color(white)mu = 1/6(1+2+3+4+5+6)#
#color(white)mu = 1/6(21)#

#color(white)mu = 3.5#

El diferencia #sigma^2# (o #"Var"[X]#) de una variable aleatoria #X# es una medida de la propagación de los posibles valores. Por definición, es el valor esperado de la distancia al cuadrado entre #X# y #mu#:

#sigma^2 = E[(X-mu)^2]#

Con algo de álgebra simple y teoría de la probabilidad, esto se convierte en

#sigma^2 = E[X^2] - mu^2#

Ya tenemos una fórmula para #mu" "(E[X]),# así que ahora solo necesitamos una fórmula para #E[X^2].# Este es el valor esperado de al cuadrado variable aleatoria, entonces nuestra fórmula para esto es la suma de al cuadrado posibles valores para #X#, de nuevo, ponderado por las probabilidades de la #x#-valores:

#E[X^2]=sum_(x in S) x^2*p(x)#

Usando esto, nuestra fórmula para la varianza de #X# se convierte en

#sigma^2 =sum_(x in S) [x^2*p(x)] - mu^2#
#color(white)(sigma^2) =sum_(x in S) [x^2*p(x)] - [sum_(x in S) x*p(x)]^2#

Para nuestro ejemplo, #mu# fue calculado para ser #3.5,# así que usamos eso para nuestro último término para obtener

#sigma^2 =sum_(x=1)^6 [x^2*p(x)] - mu^2#
#color(white)(sigma^2) =[1^2(1/6)+2^2(1/6)+...+6^2(1/6)] - (3.5)^2#
#color(white)(sigma^2) =1/6(1+4+9+16+25+36)" "-" "(3.5)^2#
#color(white)(sigma^2) =1/6(91)" "-" "12.25#
#color(white)(sigma^2) ~~ 15.167-12.25#
#color(white)(sigma^2) = 2.917#


Deja un comentario