Sesión N° 12
Estadísitica II
Profesora Valentina Andrade de la Horra
Apoyo docente Nicolás Godoy
Ayudantes Moira Martinez, Charo Astorga y Alberto Reyes
Universidad Alberto Hurtado
Error en variable dependiente
Error en variable dependiente
Error en variable independiente
Hasta ahora solo hemos considerado casos en que las variables X e Y siempre están disponibles
Hasta ahora solo hemos considerado casos en que las variables X e Y siempre están disponibles
Sin embargo, en la mayoría de los casos no tenemos una variable exacta que nos interesa
Hasta ahora solo hemos considerado casos en que las variables X e Y siempre están disponibles
Sin embargo, en la mayoría de los casos no tenemos una variable exacta que nos interesa
Las razones son diversas
Ingreso verdadero vs ingreso declarado
Horas trabajadas a la semana vs promedio de horas trabajadas
Percepciones de conflicto
Hablaremos de errores de medición en aquellos casos en que se utiliza una medida imprecisa como variable (proxy)
Hablaremos de errores de medición en aquellos casos en que se utiliza una medida imprecisa como variable (proxy)
¿Qué consecuencias tiene esto sobre las estimaciones de MCO?
y∗=β0+β1x+μ
y=y∗+e e=y−y∗
¿Qué pasa si estimamos la regresión con y en lugar de y∗
¿Qué pasa si estimamos la regresión con y en lugar de y∗
Las propiedades de MCO dependerán de la relación entre (e)
y las variables explicativas
y∗=y−e=β0+β1X+u
y=β0+β1+v
ˆβ1=Cov(x,y)Var(x)=Cov(x,y∗+e)var(x)
Con una gran cantidad de datos se puede mostrar que
ˆβ1=β1+Cov(x,e)var(x)
En resumen, el error de medición en la variable dependiente puede causar sesgo en MCO, cuando el error esté relacionando con una o más variables explicativas
Si el error es independiente de las variables explicativas, entonces MCO es apropiado.
En resumen, el error de medición en la variable dependiente puede causar sesgo en MCO, cuando el error esté relacionando con una o más variables explicativas
Si el error es independiente de las variables explicativas, entonces MCO es apropiado.
Por ejemplo, digitar mal
Sin embargo, el error de medición se traduce en una mayor varianza del error, lo que resulta en varianzas mayores de los estimadores de β
Si e y u no están correlacionados
Var(y|X)=Var(u+e|X)=Var(u|x)+Var(e|x)
Sin embargo, el error de medición se traduce en una mayor varianza del error, lo que resulta en varianzas mayores de los estimadores de β
Si e y u no están correlacionados
Var(y|X)=Var(u+e|X)=Var(u|x)+Var(e|x)
Por lo tanto, los estimadores de MCO tendrán varianzas mayores
y=β0+β1x∗+μ
x=x∗+e e=x−x∗
E(e)=0
Cov(e,u)=0
Cov(e,x∗)=0
y=β0+β1(x−e)+u
y=β0+β1x+v
ˆβ1=Cov(x,y)Var(x)=Cov(x∗+e,y)Var(x∗+e)
ˆβ1=β1Var(x∗)Var(x∗)+Var(e)
El error de medición de una variable explicaiva nos lleva a subestimar el efecto de una variable
A esto se le llama sesgo de atenuación
La magnitud del sesgo depende de Var(x∗) y Var(e)
En la práctica, es poco probable que podamos contar con una medicipon precisa de todas las variables del modelo
Bajo Errores clásicos de variable
Un error en y∗ no produce sesgo pero si menos eficiencia
Un error en x∗ produce sesgo de atenuación.
En la práctica, es poco probable que podamos contar con una medicipon precisa de todas las variables del modelo
Bajo Errores clásicos de variable
Un error en y∗ no produce sesgo pero si menos eficiencia
Un error en x∗ produce sesgo de atenuación.
El sesgo de los coeficientes puede ir en cualquier dirección y es difícil de determinar
Sesión N° 12
Estadísitica II
Profesora Valentina Andrade de la Horra
Apoyo docente Nicolás Godoy
Ayudantes Moira Martinez, Charo Astorga y Alberto Reyes
Universidad Alberto Hurtado
Error en variable dependiente
Keyboard shortcuts
↑, ←, Pg Up, k | Go to previous slide |
↓, →, Pg Dn, Space, j | Go to next slide |
Home | Go to first slide |
End | Go to last slide |
Number + Return | Go to specific slide |
b / m / f | Toggle blackout / mirrored / fullscreen mode |
c | Clone slideshow |
p | Toggle presenter mode |
t | Restart the presentation timer |
?, h | Toggle this help |
o | Tile View: Overview of Slides |
s | Toggle scribble toolbox |
Esc | Back to slideshow |
Sesión N° 12
Estadísitica II
Profesora Valentina Andrade de la Horra
Apoyo docente Nicolás Godoy
Ayudantes Moira Martinez, Charo Astorga y Alberto Reyes
Universidad Alberto Hurtado
Error en variable dependiente
Error en variable dependiente
Error en variable independiente
Hasta ahora solo hemos considerado casos en que las variables X e Y siempre están disponibles
Hasta ahora solo hemos considerado casos en que las variables X e Y siempre están disponibles
Sin embargo, en la mayoría de los casos no tenemos una variable exacta que nos interesa
Hasta ahora solo hemos considerado casos en que las variables X e Y siempre están disponibles
Sin embargo, en la mayoría de los casos no tenemos una variable exacta que nos interesa
Las razones son diversas
Ingreso verdadero vs ingreso declarado
Horas trabajadas a la semana vs promedio de horas trabajadas
Percepciones de conflicto
Hablaremos de errores de medición en aquellos casos en que se utiliza una medida imprecisa como variable (proxy)
Hablaremos de errores de medición en aquellos casos en que se utiliza una medida imprecisa como variable (proxy)
¿Qué consecuencias tiene esto sobre las estimaciones de MCO?
y∗=β0+β1x+μ
y=y∗+e e=y−y∗
¿Qué pasa si estimamos la regresión con y en lugar de y∗
¿Qué pasa si estimamos la regresión con y en lugar de y∗
Las propiedades de MCO dependerán de la relación entre (e)
y las variables explicativas
y∗=y−e=β0+β1X+u
y=β0+β1+v
ˆβ1=Cov(x,y)Var(x)=Cov(x,y∗+e)var(x)
Con una gran cantidad de datos se puede mostrar que
ˆβ1=β1+Cov(x,e)var(x)
En resumen, el error de medición en la variable dependiente puede causar sesgo en MCO, cuando el error esté relacionando con una o más variables explicativas
Si el error es independiente de las variables explicativas, entonces MCO es apropiado.
En resumen, el error de medición en la variable dependiente puede causar sesgo en MCO, cuando el error esté relacionando con una o más variables explicativas
Si el error es independiente de las variables explicativas, entonces MCO es apropiado.
Por ejemplo, digitar mal
Sin embargo, el error de medición se traduce en una mayor varianza del error, lo que resulta en varianzas mayores de los estimadores de β
Si e y u no están correlacionados
Var(y|X)=Var(u+e|X)=Var(u|x)+Var(e|x)
Sin embargo, el error de medición se traduce en una mayor varianza del error, lo que resulta en varianzas mayores de los estimadores de β
Si e y u no están correlacionados
Var(y|X)=Var(u+e|X)=Var(u|x)+Var(e|x)
Por lo tanto, los estimadores de MCO tendrán varianzas mayores
y=β0+β1x∗+μ
x=x∗+e e=x−x∗
E(e)=0
Cov(e,u)=0
Cov(e,x∗)=0
y=β0+β1(x−e)+u
y=β0+β1x+v
ˆβ1=Cov(x,y)Var(x)=Cov(x∗+e,y)Var(x∗+e)
ˆβ1=β1Var(x∗)Var(x∗)+Var(e)
El error de medición de una variable explicaiva nos lleva a subestimar el efecto de una variable
A esto se le llama sesgo de atenuación
La magnitud del sesgo depende de Var(x∗) y Var(e)
En la práctica, es poco probable que podamos contar con una medicipon precisa de todas las variables del modelo
Bajo Errores clásicos de variable
Un error en y∗ no produce sesgo pero si menos eficiencia
Un error en x∗ produce sesgo de atenuación.
En la práctica, es poco probable que podamos contar con una medicipon precisa de todas las variables del modelo
Bajo Errores clásicos de variable
Un error en y∗ no produce sesgo pero si menos eficiencia
Un error en x∗ produce sesgo de atenuación.
El sesgo de los coeficientes puede ir en cualquier dirección y es difícil de determinar
Sesión N° 12
Estadísitica II
Profesora Valentina Andrade de la Horra
Apoyo docente Nicolás Godoy
Ayudantes Moira Martinez, Charo Astorga y Alberto Reyes
Universidad Alberto Hurtado