Portada » Matemáticas » El Teorema de Gauss-Markov en Modelos Lineales y Funciones Estimables
Admitiremos que la hipótesis estructural básica del modelo es Y = β0 + β1X + ε
X es una variable cuyos valores son conocidos al observar los valores de Y. ε es una variable aleatoria que engloba un conjunto de factores, cada uno de los cuales influye en la respuesta solo en pequeña magnitud pero que de forma conjunta debe tenerse en cuenta en la especificación y tratamiento del modelo. β0 y β1 son constantes fijas (no aleatorias) pero desconocidas, cuyos valores deberán ser estimados.
Para cada valor xi fijo se verifica yi = β0 + β1xi + εi ; i = 1, . . . , N
donde las variables εi se consideran realizaciones de la variable de error.
Las perturbaciones tienen media cero E[εi] = 0 ; i = 1, . . . , N. Las perturbaciones tienen varianza constante (hipótesis de homocedasticidad). Var[εi] = σ2 ; i = 1, . . . , N. Las perturbaciones son incorreladas entre sí. Cov[εi, εj] = E[εiεj] = 0 ; i, j = 1, . . . , N (i ≠ j). Los valores de la variable X no son todos iguales, o sea, al menos hay dos observaciones distintas o, lo que es lo mismo, la variable X es no degenerada.
La esperanza de la respuesta depende linealmente de X: E[yi] = β0 + β1xi ; i = 1, . . . , N. La varianza de las variables yi es constante: Var[yi] = σ2 ; i = 1, . . . , N. Las observaciones yi son incorreladas entre sí: Cov[yi, yj] = 0 ; i, j = 1, . . . , N (i ≠ j).
β0 representa el valor medio de la variable Y cuando la variable X vale cero. Asimismo β1 es el incremento o disminución que experimenta la media de Y cuando X aumenta en una unidad.
Una relación lineal debe considerarse en general como una aproximación simple a una relación más compleja. La hipótesis de homocedasticidad no se cumplirá si la variabilidad depende, por ejemplo, de las observaciones de la variable independiente.
La incorrelación entre las perturbaciones es esperable en situaciones estáticas pero no lo será tanto en situaciones dinámicas.
Lo que nos preguntamos ahora es determinar hasta qué punto ese nuevo error adicional puede condicionar el error global de estimación. Para ello recurrimos a la descomposición de la variabilidad residual
El término de falta de ajuste representa las diferencias entre las medias observadas y las previstas por la recta de regresión, mientras el error puro mide las diferencias entre los valores observados y sus medias condicionadas, indicando el error experimental que no depende de la recta de regresión.
Para evaluar la hipótesis de linealidad, se comparan las medias muestrales observadas con las medias estimadas bajo la hipótesis de linealidad. La discrepancia entre estas estimaciones se mide mediante el término de falta de ajuste, y se busca determinar si esta discrepancia es significativa en comparación con el error puro.
Bajo la hipótesis nula, el estadístico en cuestión se distribuye como una F de Snedecor con d-2 y N-d grados de libertad. Este contraste es complementario al de regresión y puede darse el caso de que el contraste de regresión rechace la hipótesis nula, indicando una relación lineal entre X e Y, mientras que el contraste de falta de ajuste también la rechace. Esto significa que, aunque exista una relación lineal entre las variables, podría haber otro modelo lineal, posiblemente un modelo polinómico, que exprese mejor dicha relación.
El teorema de Gauss-Markov es la base teórica que justifica el uso del método de mínimos cuadrados en modelos lineales, demostrando que los estimadores de mínimos cuadrados ordinarios son óptimos porque tienen la mínima varianza entre los estimadores lineales. En este contexto, se introduce el concepto de función estimable, esencial en la teoría de modelos lineales.
Se define una función paramétrica como una función lineal de los parámetros desconocidos β0, β1, . . . , βk con coeficientes constantes c0, c1, . . . , ck. ψ = sumatoria de ciβi = ctβ
Una función paramétrica ψ se dice estimable si posee un estimador lineal e insesgado, existe un vector a de constantes tal que E[aty] = ψ idénticamente en β.
La función paramétrica ψ = ctβ es estimable si y solo sí c es una combinación lineal de las filas de X, o sea, si y solo si existe un vector a tal que ct = atX.
Centrándonos en el modelo de regresión, notemos que cada parámetro βi es una función estimable. En efecto, es una función paramétrica ya que βi = eitβ donde ei = (0, . . . , 1, . . . , 0)t y con ello:
Cualquier función paramétrica definida es estimable porque la matriz de diseño tiene rango completo, lo que significa que sus filas generan el espacio (k+1) dimensional y cualquier vector c puede expresarse como una combinación lineal de las filas de X. Además, solo puede haber como máximo k+1 funciones estimables independientes, ya que los vectores de constantes que las generan son independientes.
Sea y = Xβ + ε, con E[ε] = 0n , Cov[ε] = σ2In. Sea ψ = ct una función paramétrica estimable y consideremos β̂ = (X‘X)-1X‘y el estimador de mínimos cuadrados. Entonces ψb = ctβ̂ es el estimador lineal e insesgado de mínima varianza en la clase de estimadores lineales e insesgados de ctβ.