class: center middle main-title section-title-8 top-logo .small[ # Errores de medición ] .class-info[ <br> **Sesión N° 12**<br> **EstadÃsitica II** <br> .pull-right.small[ **Profesora** Valentina Andrade de la Horra <br> **Apoyo docente** Nicolás Godoy <br> **Ayudantes** Moira Martinez, Charo Astorga y Alberto Reyes .tiny[Universidad Alberto Hurtado<br> ] ] ] --- class: title title-inv-8 # Contenidos Sesión .box-6.medium.sp-after-half[Error en variable dependiente] -- .box-7.medium.sp-after-half[Error en variable independiente] --- class: title title-inv-8 # Errores de medición .box-inv-8[Hasta ahora solo hemos considerado casos en que las variables X e Y siempre están disponibles] -- .box-inv-8[Sin embargo, en la mayorÃa de los casos no tenemos una variable exacta que nos interesa] -- .box-inv-8[Las razones son diversas] --- class: title title-inv-8 # Errores de medida <center> <img src="data:image/png;base64,#https://raw.githubusercontent.com/statistics-R/slides/main/img/12/01.png" alt="drawing" style="width:1000px;"/> </center> --- # Ejemplos - Ingreso verdadero vs ingreso declarado - Horas trabajadas a la semana vs promedio de horas trabajadas - Percepciones de conflicto --- class: title title-inv-8 # Errores de medición .box-inv-8[Hablaremos de errores de medición en aquellos casos en que se utiliza una *medida imprecisa* como variable (*proxy*)] -- .box-inv-8[**¿Qué consecuencias tiene esto sobre las estimaciones de MCO**?] --- class: center middle main-title section-title-8 top-logo # Variable dependiente --- class: title title-inv-8 # Variable dependiente - Considere el siguiente modelo `$$y^* = \beta_0 + \beta_1 x + \mu$$` - La variable que nos interesa es `\(y^*\)` pero solo tenemos una medida imprecisa de y `$$y = y ^* + e$$` `$$e = y - y^*$$` - `\(e\)` es el error de medición --- class: title title-inv-8 # Variable dependiente .box-8[¿Qué pasa si estimamos la regresión con `\(y\)` en lugar de `\(y^*\)` ] -- .box-8[Las propiedades de MCO **dependerán** de la relación entre `\(e\)` y las variables explicativas] --- class: title title-inv-8 # Variable dependiente $$ y ^* = y - e = \beta_0 + \beta_1 X + u$$ `$$y = \beta_0 + \beta_1 + v$$` - `\(v = u + e\)` --- class: title title-inv-8 # Insesgamiento `$$\hat \beta_1 = \frac{Cov(x,y)}{Var(x)} = \frac{Cov(x, y^* + e)}{var(x)}$$` Con una gran cantidad de datos se puede mostrar que `$$\hat \beta_1 = \beta_1 + \frac{Cov(x, e)}{var(x)}$$` --- class: title title-inv-8 # Insesgamiento - En resumen, el error de medición en la variable dependiente puede causar **sesgo** en MCO, cuando el error esté relacionando con una o más variables explicativas -- - **Si el error es independiente de las variables explicativas**, entonces MCO es apropiado. -- - Por ejemplo, digitar mal --- class: title title-inv-8 # Menos Eficiencia - Sin embargo, el error de medición se traduce en una **mayor varianza del error**, lo que resulta en **varianzas mayores de los estimadores de `\(\beta\)`** -- - Si `\(e\)` y `\(u\)` no están correlacionados $$Var(y|X) = Var(u + e|X) = Var(u|x) + Var(e|x) $$ -- .box-8[Por lo tanto, los estimadores de MCO tendrán varianzas mayores] --- class: center middle main-title section-title-8 top-logo # Variable dependiente --- class: title title-inv-8 # Variable independiente - Considere el siguiente modelo `$$y = \beta_0 + \beta_1 x^* + \mu$$` - La variable que nos interesa es `\(y^*\)` pero solo tenemos una medida imprecisa de y `$$x = x ^* + e$$` `$$e = x - x^*$$` - `\(e\)` es el error de medición --- class: title title-inv-8 # Errores clásicos de variable - `\(E(e) = 0\)` - `\(Cov(e,u) = 0\)` - `\(Cov(e,x^*) = 0\)` --- class: title title-inv-8 # Variable independiente `$$y = \beta_0 + \beta_1 (x- e) + u$$` `$$y = \beta_0 + \beta_1 x + v$$` - `\(v = u - \beta_1 e\)` --- class: title title-inv-8 # Sesgo `$$\hat \beta_1 = \frac{Cov(x,y)}{Var(x)} = \frac{Cov(x^* + e, y)}{Var(x^* + e)}$$` `$$\hat \beta_1 = \frac{\beta_1 Var(x^*)}{Var(x^*) + Var(e)}$$` - El término que acompaña a `\(\beta_1\)` es menor a 1, por ello se dice que **atenua** el efecto de `\(\beta_1\)` --- class: title title-inv-8 # Sesgo de atenuación - El error de medición de una variable explicaiva nos lleva a **subestimar** el efecto de una variable - A esto se le llama **sesgo de atenuación** - La magnitud del sesgo depende de `\(Var(x^*)\)` y `\(Var(e)\)` --- class: center middle main-title section-title-8 top-logo # En resumen --- class: title title-inv-8 # Resumen - En la práctica, es *poco probable que podamos contar con una medicipon precisa de todas las variables del modelo* -- - Bajo Errores clásicos de variable - Un error en `\(y^*\)` no produce sesgo pero si menos eficiencia - Un error en `\(x^*\)` produce sesgo de atenuación. -- - **El sesgo de los coeficientes puede ir en cualquier dirección y es difÃcil de determinar** --- layout: false class: center middle main-title section-title-8 top-logo .small[ # Errores de medición ] .class-info[ <br> **Sesión N° 12**<br> **EstadÃsitica II** <br> .pull-right.small[ **Profesora** Valentina Andrade de la Horra <br> **Apoyo docente** Nicolás Godoy <br> **Ayudantes** Moira Martinez, Charo Astorga y Alberto Reyes .tiny[Universidad Alberto Hurtado<br> ] ] ]