Propiedades del ajuste mínimo cuadrático ordinario (MCO)

Las propiedades del método de mínimos cuadrados ordinarios se deducen de las expresiones que definen al error  (e = Y – \widehat Y) y al vector de estimadores mínimo cuadráticos ordinarios: b = (X´X)^{-1} X´Y

X^{\prime}e =\begin{pmatrix} 1 & 1 & ··· & 1 \\ x_{11} & x_{12} & ··· & x_{1T} \\ ··· & ··· & ··· & ··· \\ x_{k1} & x_{k2} & ··· & x_{kT} \end{pmatrix} \begin{pmatrix} e_1  \\ e_2 \\ ···  \\ e_{T}  \end{pmatrix} =  \begin{pmatrix} \sum_{t=1}^{T} e_{t } \\ \sum_{t=1}^{T} e_{t }x_{1t} \\ ···  \\ \sum_{t=1}^{T} e_{t }x_{kt} \end{pmatrix} =  \begin{pmatrix} 0  \\ 0 \\ ···  \\ 0 \end{pmatrix}

Dados los pares de valores (x,y) la recta de regresión MCO es la que minimiza la suma de cuadrados de errores

Los errores de la estimación son la diferencia entre los valores observados y los estimados de la variable explicada ( e_t = y_t – \widehat y_t ). Para cada punto del diagrama de dispersión hay un error, algunos son positivos y otros negativos de tal forma que se compensan.

    1. La suma de los errores de estimación es cero:

\sum_{t=1} ^T e_t = 0 \rightarrow \overline e = \frac{ \sum_{t=1} ^T e_t}{T} = 0

2. Entre los errores y las variables explicativas no existe correlación muestral.

\sum_{t=1} ^T (x_{it} – \overline {x}_i) e_t = \sum_{t=1}^T x_{it} e_t – \overline {x}_i \sum_{t=1} ^T e_t = 0 \thinspace \forall i = 1, 2, ··· , k

Cov( x_{it}, e_t) = 0 \rightarrow r_{x_{i}, e} = 0

Como consecuencia de estas propiedades, se tiene que:

    • Las sumas y las medias muestrales de los valores observados y estimados del regresando coinciden.

\sum_{t=1} ^T e_t = \sum_{t=1} ^T (y_t – \widehat y_t) = 0 \rightarrow  \sum_{t=1} ^T y_t = \sum_{t=1} ^T  \widehat y_t  \rightarrow

\frac {\sum_{t=1} ^T y_t}{T} = \frac{\sum_{t=1} ^T  \widehat y_t}{T} \rightarrow \large \overline y =\overline{  \widehat y} 

    • Entre los errores y los valores estimados de la variable explicada no existe correlación muestral.

\sum_{t=1} ^T (\widehat y_{t} – \overline {\widehat {y}}) e_t = \sum_{t=1}^T \widehat y_{t} e_t – \overline {\widehat y} \sum_{t=1} ^T e_t = 0

Cov( \widehat y_{t}, e_t) = 0 \rightarrow r_{\widehat y, e} = 0

    • La función de regresión estimada pasa por el punto de coordenadas medias:

\overline y = b_0 + b_1 \overline {x_1} + b_2 \overline x_2 + ··· + b_k \overline x_k

Si el modelo no se estima por mínimos cuadrados ordinarios y/o no incluye ordenada en el origen, algunas de estas propiedades no se cumplen.

Caso práctico: modelo Ventas

Reproducir vídeo