ESTADISTICA I __ _________ ____CAPITULO 4
Esperanza y Momentos
Universidad de Chile
E c o n o m í a & N e g o c i o s
ESPERANZA, MOMENTOS Y FUNCIÓN GENERADORA DE
MOMENTOS
1. ESPERANZA MATEMATICA
Recordemos que la esperanza muestral o la esperanza de la variable
X
, se puede interpretar como
el número más probable de encontrar dentro de un espacio muestral o el valor más probable
que puede tomar la variable
X
. Si generalizamos un poco más, podemos decir que si una
población tiene una media poblacional igual a
µ
, entonces, el valor esperado que tendría una
observación extraída de esta poblacional sería igual el mismo
µ
. Sin embargo, este concepto
no necesariamente se cumplirá en todos los casos.
Definición 1. Si
X
es una variable aleatoria discreta y es el valor de su distribución de
probabilidad en
)(xf
x
, el valor esperado de
X
es:
=
x
Sx
xxfXE )()(
(1.1)
De manera correspondiente, si
X
es un variable aleatoria continua que tiene una función de
distribución de probabilidad (f.d.p.), , entonces, el valor esperado de
)(xf
X
es:
=
x
Sx
dxxfxXE )()(
(1.2)
Ejemplo 1. Ciertas medidas cifradas del diámetro de separación de las roscas de un adaptador
tiene la densidad de probabilidad.
]1,0[
)1(
4
)(
2
+
= x
x
xf
π
Solución.
Si utilizamos la definición tenemos.
4413,0
4ln
)1(
4
)1(
4
)(
1
0
2
1
0
2
==
+
=
+
=
ππ
π
dx
x
x
dx
x
xXE
Definición 2. Si
X
es una variable aleatoria discreta y es el valor de su distribución de
probabilidad en
)(xf
x
, el valor esperado de es:
)(xg
Página 1
ESTADISTICA I __ _________ ____CAPITULO 4
Esperanza y Momentos
=
x
Sx
xfxgXgE )()())((
(1.3)
De manera correspondiente, si
X
es un variable aleatoria continua que tiene una función de
distribución de probabilidad (f.d.p.), , entonces, el valor esperado de es:
)(xf )(xg
=
x
Sx
dxxfxgXgE )()())((
(1.4)
Ejemplo 2. Si
X
tiene la densidad de probabilidad
),0[)( =
xexf
x
Encuentre el valor esperado de
43
)(
X
eXg =
Solución.
)
)
4444)(
404
0
4
0
4
0
4343
=====
eeedxedxeeeE
xxxxX
Para facilitar el cálculo de la esperanza, veremos el siguiente teorema.
Teorema 1. Si
α
y
β
son constantes cualesquiera, entonces.
β
α
β
α
±
=
±
)()( xEXE
(1.5)
Demostración.
Suponiendo el caso de una variable aleatoria continua que posee una f.d.p., .
Entonces, aplicamos la integral al la expresión que se encuentra dentro de la esperanza y más
algunas propiedades de integrales se obtiene la ecuación 1.6.
X
)(xf
±=±=±
xxx
SxSxSx
dxxfdxxxfdxxfxXE )()()()()(
βαβαβα
(1.6)
Sin embargo, las constantes salen de la integral porque no aportan distorsión al cálculo, por
ende.
±=±
xx
SxSx
dxxfdxxxfXE )()()(
βαβα
(1.7)
El lector podrá darse cuenta que la primera integral del lado derecho de la ecuación es
exactamente la definición de la esperanza de y que la segunda integral es la función de
distribución acumulada de
X
x
en , por lo tanto, esta debe ser igual a 1.
x
S
β
α
β
α
±
=
±
)()( XEXE (1.8)
Queda propuesto al lector hacer la demostración pero para el caso de una variable aleatoria
discreta.
Página 2
ESTADISTICA I __ _________ ____CAPITULO 4
Esperanza y Momentos
Corolario 1. Una derivación inmediata que se puede hacer del teorema anterior es que si
α
y
β
son constantes cualesquiera, entonces.
)()()())()((
β
α
β
α
uXEvuXvE
+
=
+
(1.9)
Donde y
)(v )(
u
son funciones cualesquiera
Corolario 2. Sea un conjunto de variables aleatorias y
{}
T
i
i
X
1=
{
}
T
i
i
1=
α
un conjunto de
constantes arbitrarias, entonces se debe cumplir que:
==
=
T
i
ii
T
i
ii
xExE
11
)(
αα
(1.10)
Y en el caso de que las variables fueran igualmente distribuidas, debería cumplirse que:
==
=
T
i
i
T
i
ii
xExE
11
)(
αα
(1.11)
Donde sea la esperanza de la distribución que siguen estas variables aleatorias en su
conjunto.
)(xE
Corolario 3. Sea un conjunto de variables aleatorias,
{}
T
i
i
X
1=
{
}
T
i
i
1=
α
un conjunto de
constantes arbitrarias y
{
un conjunto de funciones cualesquiera, entonces se debe
cumplir que:
}
T
i
i
g
1
)(
=
(
==
=
n
i
ii
n
i
ii
XgEXgE
11
)()(
αα
)
(1.12)
Ejemplo 3. Si la densidad de probabilidad de está dada por X
)1,0()1(2)(
=
xxxf
Demuestre que
)2)(1(
2
)(
++
=
ρρ
ρ
XE
Solución.
1
0
21
1
0
1
1
0
2
1
1
1
2)(2)1(2)(
+
+
===
+++
ρρρρρρ
ρρ
xxdxxxdxxxXE
)2)(1(
2
2
1
1
1
2)(
++
=
+
+
=
ρρρρ
ρ
XE
Página 3
ESTADISTICA I __ _________ ____CAPITULO 4
Esperanza y Momentos
2. MOMENTOS
2.1. Momentos centrales.
Definición 3. El r-ésimo momento central (entorno al origen -cero-) de una variable aleatoria
, denotado por es el valor esperado de X
r
0
µ
r
X
; simbólicamente
==
x
Sx
rrr
xfxXE )()(
0
µ
(1.13)
Para donde es discreta, y
,...2,1,0=r
X
==
x
Sx
rrr
xfxXE )()(
0
µ
(1.14)
Donde es continua. X
Definición 4. El primer momento central, , de una variable aleatoria se denomina media
de la población a la que pertenece esta variable aleatoria, y simplemente se le denomina como
1
0
µ
µ
.
2.2. Momentos no centrales.
Definición 5. Supóngase que es una variable aleatoria con un momento primer momento
central (media) igual a , entonces
X
µ
=)( XE
}0{
INr
, la esperanza se
denomina momento no central de orden
])[(
r
XE
µ
r
de ó momento respecto a la media de orden X
r
de . En particular, de acuerdo con esta terminología, la varianza de es el momento
central de orden dos de
X X
X
.
El r-ésimo momento no central de una variable aleatoria , denotado por es el valor
esperado de (simbólicamente).
X
r
µ
====
x
Sx
rrrrr
xfxXEXEXEXE )()(])[(]))([(])[(
1
0
µµµµ
(1.15)
Para donde es discreta, y
,...2,1,0=r
X
===
x
Sx
rrrr
dxxfxXEXE )()(])[(])[(
1
0
µµµµ
(1.16)
Donde es continua. X
Página 4
ESTADISTICA I __ _________ ____CAPITULO 4
Esperanza y Momentos
Importante 1. El segundo momento alrededor de la media es de especial importancia en
estadística porque indica la amplitud o dispersión de la distribución de una variable aleatoria
1
;
así, se le da un símbolo especial y un nombre especial.
Definición 6. A (segundo momento no central) se le llama varianza de la distribución de
, o simplemente la varianza de , y se denota por ó . A la raíz cuadrada
positiva de varianza, se llama desviación estándar, y de determina como.
2
µ
X X )var(,
2
X
σ
)(XV
])[(]))([()var(
22
µ
== XEXEXEX
(1.17)
Interpretación gráfica de la varianza.
Supongamos que un conjunto de datos de una variable aleatoria tiene diferentes
comportamientos de campana, es decir:
2
0
σ
2
1
σ
2
2
σ
µ
=
)( XE
x
)(xf
Gráfico 1. Representación de una función de distribución en forma de campana para
diferentes valores de varianza.
En el gráfico 1, se aprecia que la representación gráfica de la función de distribución más aguda
tiene como varianza el valor de , para la siguiente función menos aguda tiene el valor de
varianza igual y así sucesivamente, sin embargo, el valor de estas varianzas sigue la siguiente
asignación . Esto quiere decir, que valores de varianza más pequeños
proporcionaran funciones de distribución más agudas, y varianzas más grandes indicarán
funciones de distribución más distribuidas. Se debe tener presente que el hecho de que la
función sea más aguda o menos aguda, no es un indicador de que la función de distribución
tendrá también forma de campana, en el gráfico 1 sólo se utilizo como ejemplo la función con
forma de campana.
2
0
σ
2
1
σ
2
2
2
1
2
0
σσσ
<<
Definición 7. El tercer momento en torno a la media de una variable aleatoria se conoce
como asimetría o como su denominación en ingles “skewness”, es decir:
1
En mucha de la bibliografía de investigación describen al segundo momento no central como el nivel
de riego o volatilidad de una variable aleatoria.
Página 5
ESTADISTICA I __ _________ ____CAPITULO 4
Esperanza y Momentos
])[(
33
µµ
=== XEsSkewness
k
(1.18)
Este coeficiente indica el grado de asimetría que existe entre los diferentes estados y la
distribución de probabilidades de estos, tal como se puede apreciar en el gráfico 2. En este
gráfico se puede ver claramente que cuando la función es simétrica con respecto a la media
(ambos lados se distribuyen de la misma forma), ahora si se carga hacia la izquierda la asimetría
será negativa, en caso contrario será positiva, sin embargo, el que la función de distribución
tenga una asimetría igual a cero no quiere decir que la función en cuestión tenga forma de
campana, sólo indica que los valores de los posibles estados tanto a la derecha como a la
izquierda se distribuyen en probabilidad de la misma forma.
0
=
k
s
0
µ
x
)(xf
0>
k
s0<
k
s
2
µ
1
µ
Gráfico 2. Representación de una función de distribución en forma de campana para
diferentes valores de la asimetría.
Definición 8. El cuarto momento en torno a la media de una variable aleatoria se denomina
curtosis o normalidad, es decir:
])[(
44
µµκ
=== XEKurtosis (1.19)
En el grafico 3 se puede apreciar que mientras más cerca de 3 se encuentre el valor de la
curtosis, más cercano a una campana será el comportamiento de la función de distribución de
probabilidad. Por esta razón el único indicador de comportamiento de campana (normal) para
la función de distribución será la curtosis.
Página 6
ESTADISTICA I __ _________ ____CAPITULO 4
Esperanza y Momentos
0
µ
x
)(xf
3
κ
3
=
κ
Gráfico 3. Representación de una función de distribución en forma de campana para
diferentes valores de la curtosis.
Ejemplo 4. Suponga que una variable aleatoria tiene una función de distribución igual a:
<<
+
=
casootro
x
x
xf
0
10
)1(
4
)(
2
π
Calcule el valor de la varianza de
X
.
Solución
Recordemos que:
)()2()(]2[])[()var(
222222
µµµµµσ
EXEXEXXEXEX ++=+===
Entonces, al aplicar las propiedades de esperanza se tiene que:
222222
)(2)()(2)()var(
µµµµµµ
=+=+= XEXEXEXEX
Anteriormente se calculó el valor de la esperanza (media), tal que
4413,0
=
µ
Por lo tanto, ahora es necesario calcular el valor de )(
2
XE
()
dx
x
dx
x
x
dx
x
x
dxxxXE
+
=
+
+
=
+
=+=
1
0
2
4
1
0
2
2
4
1
0
2
2
4
1
0
1
222
1
1
1
1
11
1
)1(4)(
πππ
π
Entonces, la esperanza del segundo momento central de la variable X corresponde a las
siguientes dos integrales.
dx
x
dxXE
+
+=
1
0
2
4
1
0
4
2
1
1
)(
ππ
La primera integral es bastante sencilla, sin embargo, la segunda requiere un poco más de
nuestras habilidades. Entonces, para resolver esta integral utilizaremos el método de sustitución
directa, que en este caso corresponde a , con lo cual se obtiene
el siguiente resultado.
θθθ
ddxx )(csc)tan(
2
==
4
)(csc
)(tan1
1
1
1
2
1
2
1
2
2
1
0
2
1
π
θθθ
θ
θ
θ
θ
θ
==
+
=
+
=
dddx
x
I
Reemplazando en la integral principal, tenemos que:
2732,01
4
4
1
4
)(
2
==
=
π
π
π
XE
0785,0)4413,0(2732,0)()var(
222
===
µ
XEX
Página 7
ESTADISTICA I __ _________ ____CAPITULO 4
Esperanza y Momentos
2.3. Función Generatriz de Momentos (f.g.m.).
Definición 9. La función generatriz de momento se define como:
)()(
tX
eEt =
ψ
(1.20)
Donde
X
corresponde a una variable aleatoria.
La f.g.m. de
X
existirá para todos los valores de
t
, si la variable aleatoria es acotada. Por otro
lado, si
X
no está acotada, entonces la f.g.m. puede existir para algunos valores de
t
y no
existir para otros.
Notar que:
La primera derivada de la función generatriz con respecto a
t
igual a cero, es igual a la
esperanza de la variable aleatoria
X
(primer momento central), tal como se puede apreciar en
la ecuación 1.21.
()
()
XEXeE
dx
de
E
dt
edE
t
dt
td
t
tX
t
tX
t
tX
==
====
=
=== 000
)1(
)(
)0(
)0(
ψ
ψ
(1.21)
Entonces, el segundo momento central corresponderá a la segunda derivada.
(
)
2)2(
)0( XEt ==
ψ
(1.22)
Entonces, se puede concluir que la varianza corresponde a:
2)1()2(2
)]0([)0()var( ==== ttX
ψψσ
(1.23)
Recursivamente se tiene que:
(
)
(
)
nn
XEtXEt ==== )0()0(
)(3)3(
ψψ
(1.24)
Ejemplo 5. Supóngase que
X
es una variable aleatoria cuya función de probabilidad es la
siguiente:
+
= IRxexf
x
)(
Determine la f.g.m. de esta variable aleatoria
X
, y a partir de ella calcula la varianza.
Solución.
===
0
)1(
0
)()( dxedxeeeEt
txxtxtX
ψ
Esta integral tendrá convergencia, si y sólo si
t
es menor que 1.
3
)2(
2
)1(
)1(
2
)(
)1(
1
)(
1
1
)(
t
t
t
t
t
t
=
=
=
ψψψ
Página 8
ESTADISTICA I __ _________ ____CAPITULO 4
Esperanza y Momentos
1)]0([)0()()()var(
2)1()2(22
===== ttXEXEX
ψψ
2.4. Momentos Productos.
Para continuar presentaremos los momentos productos de dos variables aleatorias
Definición 10. El r-ésimo y el s-ésimo momentos producto alrededor del origen de las
variables aleatorias
X
e
Y
, denotadas por , es el valor esperado de
sr,
0
µ
sr
Y
X
;
simbólicamente,
==
xy
SS
srsrsr
yxfyxYXE ),()(
,
0
µ
(1.25)
Para y Cuando
,...2,1,0=r ,....2,1,0=s
X
e Y son discretas, y
∫∫
==
xy
SS
srsrsr
dydxyxfyxYXE ),()(
,
0
µ
(1.26)
Cuando
X
e
Y
son continuas.
Definición 11. El r-ésimo y el s-ésimo momentos producto alrededor de la media de las
variables aleatorias
X
e
Y
, denotadas por , es el valor esperado de ;
simbólicamente,
sr,
µ
s
y
r
x
YX )()(
µµ
==
xy
SS
s
y
r
x
s
y
r
x
sr
yxfyxYXE ),()()(])()[(
,
µµµµµ
(1.27)
Para y Cuando
,...2,1,0=r ,....2,1,0=s
X
e Y son discretas, y
dydxyxfyxYXE
Sx Sy
s
y
r
x
s
y
r
x
sr
∫∫
== ),()()()()[(
,
µµµµµ
(1.28)
Cuando
X
e Y son continuas.
Definición 12. En estadística, es de especial importancia porque es indicativa de la
relación o dependencia lineal, si es que la hay, entre las variables aleatorias
1,1
µ
X
e
Y
; así, se le da
un símbolo especial y un nombre especial. A se le llama covarianza de
1,1
µ
X
e Y , y se denota
con
yx,
σ
, , tal que:
),cov( YX ),( YXC
yxXY
YX
µµµσ
==
1,1
0
),cov(
(1.29)
Página 9
ESTADISTICA I __ _________ ____CAPITULO 4
Esperanza y Momentos
Demostración
.
En este caso bastará con utilizar la definición de covarianza y posteriormente utilizar las
propiedades de la esperanza.
][)])([(
yxyxyxXY
XYXYEYXE
µµµµµµσ
+==
(1.30)
yxyxyxyxXY
XYEXEYEXYE
µµµµµµµµµσ
==+=
1,1
0
)()()()(
(1.31)
3.5. Momentos de Combinaciones de Variables Aleatorias.
Teorema 2. Si son variables aleatorias cualesquiera y , donde
son constantes, entonces:
{}
T
i
i
X
1=
=
=
T
i
ii
XaY
1
n
aaa ,...,,
21
=
=
T
i
ii
XEaYE
1
)()(
(1.32)
Además,
∑∑
=<=
+=
T
i
T
ji
jiji
T
i
ii
XXaaXaY
11
2
),cov(2)var()var(
(1.33)
Demostración
Utilizando la definición de varianza, se tiene que
2
1
2
11
2
)]([)())(()var(
=
==
===
T
i
iii
T
i
ii
T
i
ii
XEXaEXEaXaEYEYEY
(1.34)
Para efectos de continuar con la demostración, será necesario utilizar la siguiente definición
)]([
=
=
T
ki
iii
n
k
XEXa
φ
(1.35)
Sin embargo, el valor esperado del cuadrado de la ecuación 1.35 para , para cualquier
valor de k y , es:
nk =
n
()
)var()]([)]([)(
2
2
2
2
kkkkk
k
ki
iii
k
k
XaXEXaEXEXaEE ==
=
=
φ
(1.36)
Entonces, si reemplazamos la ecuación 1.35 en la ecuación 1.34 se tiene que
()
)
])[(][2])[()var(
2
22
1
1
21
1
2
2
1
1
2
1
TTTT
EEEEEY
φφφφφφφ
++=+==
(1.37)
Página 10
ESTADISTICA I __ _________ ____CAPITULO 4
Esperanza y Momentos
Ahora, si reemplazamos la ecuación 1.36 en la ecuación 1.37 y luego aplicamos el mismo
procedimiento al término de esta ecuación se tiene que:
T
2
φ
])[(][2)var()var(
2
322
1
11
2
1
TTT
EEXaY
φφφφ
+++=
(1.38)
Entonces, ahora se logra
])[(][2)var(][2)var()var(
2
33
2
22
2
22
1
11
2
1
TTT
EEXaEXaY
φφφφφ
++++=
(1.39)
Si esta operación se repite
T
veces, se tiene que:
][2][2][2)var()var(
1
13
2
22
1
1
1
2 T
T
T
T
TT
T
i
ii
EEEXaY
φφφφφφ
=
++++=
L
(1.40)
Y esto se puede representar como:
=
+
=
+=
1
1
1
1
2
][2)var()var(
T
i
T
i
i
i
T
i
ii
EXaY
φφ
(1.41)
∑∑
=>=
+=
1
11
2
),cov(2)var()var(
T
i
T
ij
jiji
T
i
ii
XXaaXaY
(1.42)
Queda propuesto al lector demostrar que
>
+
=
T
ij
jiji
T
i
i
i
XXaaE ),cov(][
1
φφ
Corolario 4. Si las variables aleatorias
{
}
T
i
X
1
1
=
son independientes e ,
entonces:
=
=
T
i
ii
XaY
1
=
=
T
i
ii
XaY
1
2
)var()var(
(1.43)
Página 11
ESTADISTICA I __ _________ ____CAPITULO 4
Esperanza y Momentos
3. ESPERANZA CONDICIONAL
Las esperanzas condicionales de variables aleatorias se definen de la misma manera en términos
de sus distribuciones condicionales
Definición 13. Si
X
es una variable aleatoria discreta y es el valor de la distribución
de probabilidad condicional de
)/( yxf
X
dado yY
=
en
x
, la esperanza condicional de una función de
la variable aleatoria de la forma dado que se cumple que
)( Xh
yY
=
es:
)/()()/)(( yxfxhyYXhE
x
Sx
==
(1.44)
De manera correspondiente, si
X
es una variable aleatoria continua, y es el valor de la
densidad de probabilidad condicional de
)/( yxf
X
dado yY
=
en
x
, la esperanza condicional de
dado es:
)( Xh
yY =
dxyxfxhyYXhE
x
Sx
== )/()()/)((
(1.45)
Ejemplo 3. Si la densidad de probabilidad conjunta de
X
e Y está dada por:
<<<<+
=
casootro
yxparayx
yxf
0
10,10)2(
),(
3
2
Encuentre la media condicional y la varianza condicional de
X
dado
2
1
=Y .
Solución.
En este caso se debe resolver el siguiente problema.
2
/
2
1
2
//
2
1
]/)[()/(
yXyXyX
YXEYXE
σµµ
====
Recordemos que la función de distribución condicional se obtiene dividiendo la conjunta por la
marginal de las variables correspondientes, entonces se tiene que:
y
yx
y
yx
yh
yxf
yxf
41
42
)41(
)2(
)(
),(
)/(
3
1
3
2
+
+
=
+
+
==
Entonces, para el valor que necesitamos se tiene que:
)1(
41
42
)/(
3
2
2
1
2
1
2
1
+=
+
+
= x
x
xf
Con esta función se puede calcular la esperanza o primer momento central de la variable
condicional de la forma
9
5
1
0
3
2
2
1
)1()/( =+==
dxxxYXE
Entonces, para el segundo momento central se tendrá que:
18
7
1
0
2
3
2
2
1
2
)1()/( =+==
dxxxYXE
Por lo tanto, la varianza corresponderá a:
)
162
13
2
9
5
18
7
2
/
2
1
22
/
)/( ====
yXyX
YXE
µσ
Página 12
ESTADISTICA I __ _________ ____CAPITULO 4
Esperanza y Momentos
7. PROBLEMAS PROPUESTOS
PROPUESTO 1. Demuestre que:
[]
)()(
1
knkkn
n
k
n
XEba
k
n
baXE
=
=±
PROPUESTO 2. Obtenga el valor esperado de la variable aleatoria
Y
cuya densidad de
probabilidad está dada por:
)4,2()1()(
8
1
+= yyyf
PROPUESTO 3. Obtenga el valor esperado de la variable aleatoria
X
cuya densidad de
probabilidad está dada por:
<
<<
=
casootro
xx
xx
xf
0
212
10
)(
Parte i. Si
X
asume los valores 0, 1, 2 y 3 con probabilidades
125
64
125
48
125
12
125
1
,,, , encuentre
)(),(
2
XEXE
Parte ii. Use los resultados del inciso (a) para determinar el valor de ))23((
2
+XE
PROBLEMA 4. Supóngase que
X
es cualquier variable aleatoria tal que existe.
)(
2
XE
Parte i. Demuestre que )()(
22
XEXE
Parte ii. Demuéstrese que si, y sólo si, existe una constante tal que
. Sugerencia:
)()(
22
XEXE = c
1)Pr( == cX
PROBLEMA 5. Supóngase que
X
puede tener las siguientes f.g.m. )3()(
4
1
1
tt
eet
+=
ψ
y
. Determine la media y la varianza para cada caso.
tt
et
3
2
2
)(
+
=
ψ
PROBLEMA 7. Si la densidad de probabilidad de
X
está dada por:
<<
<+
=
casootro
xx
xx
xf
0
101
011
)(
Si y , demostrar que: XU =
2
XV =
Parte i.
0),cov( =VU
Parte ii. son independientes
VU ,
PROBLEMA 7. Si la densidad de probabilidad conjunta de
X
e
Y
está dada por:
<<<<+
=
casootro
yxxy
xf
0
20,10)(
)(
3
1
Encuentre la varianza de
543
+
= YXW
Página 13
ESTADISTICA I __ _________ ____CAPITULO 4
Esperanza y Momentos
PROBLEMA 8. Para variables aleatorias , los valores de la función generatriz
de momentos conjunta están dados por:
k
k
XXX ,...,,
21
)
)...exp(
2211 kk
XtXtXtE
+
+
+
Demuestre para el caso continuo que la derivada parcial de la función generatriz de momentos
conjunta con respecto a en a
i
t
i
t 0...
21
=
=
=
=
k
ttt es )(
i
XE
PROBLEMA 9. Si , y son independiente y tiene las medias 4, 9 y 3, y las
varianzas 3, 7 y 5, encuentre la media y la varianza de y
1
X
2
X
3
X
321
432 XXXY +=
321
2 XXXZ +=
PROBLEMA 10. Si la densidad de probabilidad conjunta de
X
e Y está dada por:
<<<<+
=
casootro
yxparayx
yxf
0
20,10)(
),(
3
1
Encuentre la varianza de
543
+
= YXW
.
PROBLEMA 11. A partir del teorema 2, demuestre que
>
+
=
T
ij
jiji
T
i
i
i
XXaaE ),cov(][
1
φφ
PROBLEMA 12. Demuestre el corolario 4.
Página 14
Apuynte Esperanza, Momentos y FGM.pdf
browser_emoji Estamos procesando este archivo...
browser_emoji Lamentablemente la previsualización de este archivo no está disponible. De todas maneras puedes descargarlo y ver si te es útil.
Descargar
. . . . .