{"id":16851,"date":"2021-04-01T09:39:25","date_gmt":"2021-04-01T08:39:25","guid":{"rendered":"https:\/\/fee.carlarey.es\/?page_id=16851"},"modified":"2021-05-01T17:32:31","modified_gmt":"2021-05-01T16:32:31","slug":"multicolinealidad-2","status":"publish","type":"page","link":"https:\/\/fee.carlarey.es\/index.php\/e-learning\/multicolinealidad-2\/","title":{"rendered":"Multicolinealidad2"},"content":{"rendered":"\t\t<div data-elementor-type=\"wp-page\" data-elementor-id=\"16851\" class=\"elementor elementor-16851\">\n\t\t\t\t\t\t\t\t\t<section class=\"elementor-section elementor-top-section elementor-element elementor-element-ffde815 elementor-section-boxed elementor-section-height-default elementor-section-height-default\" data-id=\"ffde815\" data-element_type=\"section\">\n\t\t\t\t\t\t<div class=\"elementor-container elementor-column-gap-default\">\n\t\t\t\t\t<div class=\"elementor-column elementor-col-100 elementor-top-column elementor-element elementor-element-4aec566\" data-id=\"4aec566\" data-element_type=\"column\">\n\t\t\t<div class=\"elementor-widget-wrap elementor-element-populated\">\n\t\t\t\t\t\t\t\t<div class=\"elementor-element elementor-element-a069422 elementor-widget elementor-widget-heading\" data-id=\"a069422\" data-element_type=\"widget\" data-widget_type=\"heading.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t<h2 class=\"elementor-heading-title elementor-size-default\">Caso pr\u00e1ctico<\/h2>\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t<div class=\"elementor-element elementor-element-a5114c9 elementor-widget elementor-widget-text-editor\" data-id=\"a5114c9\" data-element_type=\"widget\" data-widget_type=\"text-editor.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t\t\t<p>Un director de marketing quiere cuantificar el efecto de los gastos en publicidad y la renta de los consumidores sobre las ventas de su empresa.\u00a0 Con este objetivo, recoge datos para las variables<em> &#8216;Ventas&#8217; <\/em>\u2014V\u2014, <em>&#8216;Renta de los consumidores&#8217; <\/em>\u2014R\u2014 y <em>&#8216;Gastos en publicidad&#8217;<\/em> \u2014GP\u2014\u00a0 de sus 10 delegaciones y plantea un modelo de regresi\u00f3n lineal:<\/p><p style=\"text-align: center;\"><span class=\"katex-eq\" data-katex-display=\"false\"> V_{t} = \\beta_{0} + \\beta_{1} R_{t} + \\beta_2 GP_{t} + \\varepsilon_{t} <\/span><\/p><p>que estima por m\u00ednimos cuadrados ordinarios.<\/p><p><img loading=\"lazy\" class=\"aligncenter wp-image-17301 size-full\" src=\"https:\/\/fee.carlarey.es\/wp-content\/uploads\/2021\/04\/ModeloVentasMulti.jpg\" alt=\"\" width=\"559\" height=\"250\" srcset=\"https:\/\/fee.carlarey.es\/wp-content\/uploads\/2021\/04\/ModeloVentasMulti.jpg 559w, https:\/\/fee.carlarey.es\/wp-content\/uploads\/2021\/04\/ModeloVentasMulti-300x134.jpg 300w\" sizes=\"(max-width: 559px) 100vw, 559px\" \/><\/p><p>Los resultados obtenidos lo desconciertan:<\/p><ul><li style=\"list-style-type: none;\"><ul><li style=\"list-style-type: none;\"><ul><li>Ninguna de las variables explicativas resultan individualmente relevantes:<br \/><span class=\"katex-eq\" data-katex-display=\"false\"> Prob(t_1) = 0,2571<\/span><br \/><span class=\"katex-eq\" data-katex-display=\"false\"> Prob(t_2) = 0,6538<\/span><\/li><li>La estimaci\u00f3n del par\u00e1metro <span class=\"katex-eq\" data-katex-display=\"false\">\\beta_2<\/span> indica la existencia de una relaci\u00f3n inversa entre las ventas y los gastos en publicidad cuando, <em>a priori<\/em>, esperaba una relaci\u00f3n directa.<\/li><li>La regresi\u00f3n explica aproximadamente el 96% de las variaciones muestrales de la variable &#8216;<em>Ventas<\/em>&#8216;.<\/li><li>A pesar de que las variables &#8216;<em>Renta<\/em>&#8216; y &#8216;<em>Gastos en Publicidad&#8217;<\/em> no se muestran individualmente relevantes, s\u00ed lo son conjuntamente, pr\u00e1cticamente a cualquier nivel de significaci\u00f3n: <span class=\"katex-eq\" data-katex-display=\"false\"> Prob(F) = 8,93E-06<\/span>.<\/li><\/ul><\/li><\/ul><\/li><\/ul><p>Decide, entonces, estimar dos regresiones simples. En la primera, emplea \u00fanicamente como variable explicativa la renta de los consumidores y, en la segunda, los gastos en publicidad:<\/p><p><img loading=\"lazy\" class=\"aligncenter wp-image-17327\" src=\"https:\/\/fee.carlarey.es\/wp-content\/uploads\/2021\/04\/ModeloVentasMulti2.jpg\" alt=\"\" width=\"559\" height=\"470\" srcset=\"https:\/\/fee.carlarey.es\/wp-content\/uploads\/2021\/04\/ModeloVentasMulti2.jpg 890w, https:\/\/fee.carlarey.es\/wp-content\/uploads\/2021\/04\/ModeloVentasMulti2-300x252.jpg 300w, https:\/\/fee.carlarey.es\/wp-content\/uploads\/2021\/04\/ModeloVentasMulti2-768x646.jpg 768w\" sizes=\"(max-width: 559px) 100vw, 559px\" \/><\/p><p>En ambos casos, las variables explicativas son individualmente relevantes \u2014pr\u00e1cticamente a cualquier nivel de significaci\u00f3n\u2014 y el signo de <span class=\"katex-eq\" data-katex-display=\"false\">b_1<\/span> en la segunda regresi\u00f3n es positivo, tal como cab\u00eda esperar.\u00a0<\/p><p>Este ejemplo muestra las consecuencias que puede tener incluir en un modelo dos variables explicativas altamente colineales \u2014<span class=\"katex-eq\" data-katex-display=\"false\">r_{R,GP} = 0,998<\/span>\u2014. En este caso, los estimadores MCO, tienen varianzas muy elevadas, lo que complica la inferencia. El modelo inicialmente planteado tiene un elevado grado de multicolinealidad.<\/p>\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/div>\n\t\t\t\t\t\t\t<\/div>\n\t\t<\/section>\n\t\t\t\t<section class=\"elementor-section elementor-top-section elementor-element elementor-element-95e8272 elementor-section-boxed elementor-section-height-default elementor-section-height-default\" data-id=\"95e8272\" data-element_type=\"section\">\n\t\t\t\t\t\t<div class=\"elementor-container elementor-column-gap-default\">\n\t\t\t\t\t<div class=\"elementor-column elementor-col-100 elementor-top-column elementor-element elementor-element-d0deb1c\" data-id=\"d0deb1c\" data-element_type=\"column\">\n\t\t\t<div class=\"elementor-widget-wrap elementor-element-populated\">\n\t\t\t\t\t\t\t\t<div class=\"elementor-element elementor-element-363990e elementor-widget elementor-widget-heading\" data-id=\"363990e\" data-element_type=\"widget\" data-widget_type=\"heading.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t<h2 class=\"elementor-heading-title elementor-size-default\">Multicolinealidad <\/h2>\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t<div class=\"elementor-element elementor-element-2255ef4 elementor-widget elementor-widget-heading\" data-id=\"2255ef4\" data-element_type=\"widget\" data-widget_type=\"heading.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t<h2 class=\"elementor-heading-title elementor-size-default\">Concepto<\/h2>\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t<div class=\"elementor-element elementor-element-acd0669 elementor-widget elementor-widget-text-editor\" data-id=\"acd0669\" data-element_type=\"widget\" data-widget_type=\"text-editor.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t\t\t<ul><li style=\"list-style-type: none;\"><ul><li style=\"list-style-type: none;\"><ul><li><em>Multicolinealidad perfecta:<\/em> si entre los regresores existen relaciones lineales exactas.<\/li><li><em>Ortogonalidad: <\/em>supone la ausencia de relaci\u00f3n lineal entre los regresores incluidos en la ecuaci\u00f3n del modelo.<\/li><li><em>Multicolinealidad imperfecta:<\/em> consiste en la existencia de una relaci\u00f3n lineal aproximada entre los regresores.<\/li><\/ul><\/li><\/ul><\/li><\/ul><p>La <em><strong>multicolinealidad perfecta<\/strong><\/em> es una situaci\u00f3n muy poco frecuente en las aplicaciones emp\u00edricas en tanto en cuanto, desde un punto de vista l\u00f3gico, carece de sentido incorporar a un modelo dos variables que suministran la misma informaci\u00f3n para explicar el comportamiento del regresando.<br \/>En este caso, el rango de la matriz de observaciones de los regresores no es pleno y, por tanto, no es posible obtener el vector de estimadores MCO. Los <em>EMCO(b)<\/em> son indeterminados y sus varianzas infinitas.<\/p><p>La<strong> <em>ortogonalidad<\/em> <\/strong>tambi\u00e9n es una situaci\u00f3n m\u00e1s te\u00f3rica que real porque raramente se da en la pr\u00e1ctica.\u00a0 En general, los regresores de la ecuaci\u00f3n son variables econ\u00f3micas, que son m\u00e1s o menos multicolineales, de manera que \u2014aunque entre ellos no existan relaciones lineales exactas\u2014 s\u00ed pueden existir relaciones lineales m\u00e1s o menos intensas.<\/p><p>La<strong><em> multicolinealidad imperfecta<\/em><\/strong> es muy com\u00fan en la pr\u00e1ctica econom\u00e9trica y no supone el incumplimiento de ninguna de las hip\u00f3tesis del MRLNC. Por tanto, los <em>EMCO(b)<\/em>\u00a0est\u00e1n determinados y son los mejores estimadores que pueden obtenerse porque conservan todas sus buenas propiedades estad\u00edsticas. Sin embargo, pueden no ser buenos estimadores debido a las consecuencias que pueden derivarse de la existencia de relaciones lineales intensas entre algunos de los regresores del modelo.<\/p>\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t<div class=\"elementor-element elementor-element-23f0393 elementor-widget elementor-widget-heading\" data-id=\"23f0393\" data-element_type=\"widget\" data-widget_type=\"heading.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t<h2 class=\"elementor-heading-title elementor-size-default\">Multicolinealidad imperfecta<\/h2>\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t<div class=\"elementor-element elementor-element-a763c71 elementor-widget elementor-widget-text-editor\" data-id=\"a763c71\" data-element_type=\"widget\" data-widget_type=\"text-editor.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t\t\t<p>Los regresores est\u00e1n, pr\u00e1cticamente siempre, m\u00e1s o menos correlacionados, de manera que en la inmensa mayor\u00eda de las aplicaciones emp\u00edricas existe multicolinealidad imperfecta. La distinci\u00f3n importante no es entre presencia y ausencia de multicolinealidad, sino si esta ocasiona un problema.<\/p>\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t<div class=\"elementor-element elementor-element-5e81d8f elementor-widget elementor-widget-toggle\" data-id=\"5e81d8f\" data-element_type=\"widget\" data-widget_type=\"toggle.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t<div class=\"elementor-toggle\">\n\t\t\t\t\t\t\t<div class=\"elementor-toggle-item\">\n\t\t\t\t\t<div id=\"elementor-tab-title-9901\" class=\"elementor-tab-title\" data-tab=\"1\" role=\"button\" aria-controls=\"elementor-tab-content-9901\" aria-expanded=\"false\">\n\t\t\t\t\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon elementor-toggle-icon-left\" aria-hidden=\"true\">\n\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon-closed\"><i class=\"fas fa-caret-right\"><\/i><\/span>\n\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon-opened\"><i class=\"elementor-toggle-icon-opened fas fa-caret-up\"><\/i><\/span>\n\t\t\t\t\t\t\t\t\t\t\t\t\t<\/span>\n\t\t\t\t\t\t\t\t\t\t\t\t<a class=\"elementor-toggle-title\" tabindex=\"0\">Causas<\/a>\n\t\t\t\t\t<\/div>\n\n\t\t\t\t\t<div id=\"elementor-tab-content-9901\" class=\"elementor-tab-content elementor-clearfix\" data-tab=\"1\" role=\"region\" aria-labelledby=\"elementor-tab-title-9901\"><p>La aparici\u00f3n del problema, habitualmente, est\u00e1 relacionado con la inclusi\u00f3n en el modelo de regresores que:<\/p><ol><li style=\"list-style-type: none;\"><ol><li><strong>Mantienen relaciones de causalidad.<\/strong><p>Esto es lo que sucede si, por ejemplo, tratamos de explicar el gasto en calefacci\u00f3n de los hogares espa\u00f1oles en funci\u00f3n del n\u00famero de miembros y del tama\u00f1o de sus viviendas sin considerar que el tama\u00f1o de las viviendas, a su vez, es funci\u00f3n del n\u00famero de miembros de las familias. O si se incluye en el modelo una misma variable actual y retardada porque las variables econ\u00f3micas suelen estar muy correlacionadas con sus valores pasados.<\/p><\/li><li><strong>Est\u00e1n relacionados por casualidad<\/strong>.<p>Entre ellos no existe una relaci\u00f3n te\u00f3rica de causa y efecto sino que ambos est\u00e1n relacionados con una tercera variable y es por eso por lo que est\u00e1n relacionados entre s\u00ed. Esta situaci\u00f3n es muy frecuente en los modelos temporales, porque muchas variables econ\u00f3micas siguen l\u00edneas de tendencia comunes.<br \/>Por ejemplo, si tomamos datos de periodicidad inferior a un a\u00f1o de la superficie forestal quemada y del empleo en la hosteler\u00eda, habitualmente, encontraremos una elevada correlaci\u00f3n positiva entre estas dos variables porque sus valores m\u00e1ximos y m\u00ednimos se encuentran en los mismos trimestres del a\u00f1o. Su relaci\u00f3n es casual y se debe a la existencia de una tendencia com\u00fan.<br \/>Otro ejemplo muy ilustrativo es la clara relaci\u00f3n, que seg\u00fan se aprecia en el gr\u00e1fico, existe entre el n\u00famero de nacimientos y los nidos de cig\u00fce\u00f1a:<br \/><img loading=\"lazy\" class=\"aligncenter wp-image-17615 size-medium\" src=\"https:\/\/fee.carlarey.es\/wp-content\/uploads\/2021\/04\/Nacimientos_nidos-300x292.jpg\" alt=\"\" width=\"300\" height=\"292\" srcset=\"https:\/\/fee.carlarey.es\/wp-content\/uploads\/2021\/04\/Nacimientos_nidos-300x292.jpg 300w, https:\/\/fee.carlarey.es\/wp-content\/uploads\/2021\/04\/Nacimientos_nidos.jpg 460w\" sizes=\"(max-width: 300px) 100vw, 300px\" \/>ocasionada \u2014tal como se indica en la p\u00e1gina <em>web<\/em> de la<a href=\"http:\/\/humanidades.cchs.csic.es\/cchs\/web_UAE\/inicio.htm\"><span style=\"color: #6ec1e4;\"><em> Unidad de An\u00e1lisis Estad\u00edstico del CSIC<\/em> <\/span><\/a>\u2014 a su dependencia, entre otros factores, de la extensi\u00f3n de la localidad.<\/p><\/li><li><strong>Se mantienen aproximadamente constantes a lo largo de la muestra<\/strong> en un modelo con ordenada en el origen.<p>Cuando los valores de alg\u00fan regresor se sit\u00faan pr\u00f3ximos al valor de su media en la muestra, sus observaciones son aproximadamente proporcionales a las del regresor ficticio.<br \/>Esta situaci\u00f3n puede darse, por ejemplo, si se estima un modelo \u2014con ordenada en el origen\u2014 explicativo del consumo de los hogares en funci\u00f3n de sus ingresos y del tama\u00f1o de las familias con una muestra atemporal para las diferentes regiones de un pa\u00eds desarrollado. En este caso, es probable que la variable<em> &#8216;tama\u00f1o de las familias&#8217;<\/em> presente una escasa variabilidad a lo largo de la muestra.<\/p><\/li><\/ol><\/li><\/ol><\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t\t\t<div class=\"elementor-toggle-item\">\n\t\t\t\t\t<div id=\"elementor-tab-title-9902\" class=\"elementor-tab-title\" data-tab=\"2\" role=\"button\" aria-controls=\"elementor-tab-content-9902\" aria-expanded=\"false\">\n\t\t\t\t\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon elementor-toggle-icon-left\" aria-hidden=\"true\">\n\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon-closed\"><i class=\"fas fa-caret-right\"><\/i><\/span>\n\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon-opened\"><i class=\"elementor-toggle-icon-opened fas fa-caret-up\"><\/i><\/span>\n\t\t\t\t\t\t\t\t\t\t\t\t\t<\/span>\n\t\t\t\t\t\t\t\t\t\t\t\t<a class=\"elementor-toggle-title\" tabindex=\"0\">Consecuencias<\/a>\n\t\t\t\t\t<\/div>\n\n\t\t\t\t\t<div id=\"elementor-tab-content-9902\" class=\"elementor-tab-content elementor-clearfix\" data-tab=\"2\" role=\"region\" aria-labelledby=\"elementor-tab-title-9902\"><p>Las consecuencias que se derivan de la existencia de relaciones lineales intensas entre algunos de los regresores del modelo son:<\/p><ul><li style=\"list-style-type: none;\"><ul><li style=\"text-align: left;\"><strong>Varianzas grandes de los estimadores<\/strong><p>El hecho de que la varianza de estos estimadores sea m\u00ednima entre los de su clase \u2014estimadores lineales e insesgados\u2014 no implica que, necesariamente, sea peque\u00f1a y una varianza grande significa un estimador menos preciso.<\/p><\/li><\/ul><\/li><\/ul><p style=\"padding-left: 160px;\"><span class=\"katex-eq\" data-katex-display=\"false\"> \\Large \\sigma^{2}_{b_i} =\\sigma^{2} x^{ii} =\\frac{ \\sigma^{2}}{\\sum_{t=1}^T (x_{it} &#8211; \\overline{x_i})^2\u00a0 \\times (1-R^2_i)} <\/span><\/p><p style=\"padding-left: 40px;\">depende de:<\/p><p style=\"padding-left: 80px;\">\u25ac\u00a0 la varianza de la perturbaci\u00f3n que es desconocida y, por hip\u00f3tesis del MRLNC, constante (<em>hip\u00f3tesis de<\/em> <em>homocedasticidad<\/em>).\u00a0<br \/>\u25ac la variaci\u00f3n a lo largo de la muestra de la variable a la que acompa\u00f1a <span class=\"katex-eq\" data-katex-display=\"false\"> \\sum_{t=1}^T (x_{it} &#8211; \\overline{x_i})^2 <\/span>. Cuanto mayor es la variaci\u00f3n total de <span class=\"katex-eq\" data-katex-display=\"false\">x_i <\/span> en la muestra, menor es la varianza del estimador al que acompa\u00f1a. Matem\u00e1ticamente, a medida que la variaci\u00f3n muestral de <span class=\"katex-eq\" data-katex-display=\"false\"> x_i<\/span> se aproxima a cero, la varianza del estimador se aproxima a infinito.<br \/><span style=\"font-size: 1rem;\">\u25ac del valor del coeficiente de determinaci\u00f3n de la regresi\u00f3n que explica el comportamiento de la variable <span class=\"katex-eq\" data-katex-display=\"false\">x_i<\/span> en funci\u00f3n de los restantes regresores del modelo, que denotaremos por <span class=\"katex-eq\" data-katex-display=\"false\"> R^2_i<\/span>. Cuanto mayor sea el grado de multicolinealidad, mayor es el valor de <span class=\"katex-eq\" data-katex-display=\"false\"> R^2_i<\/span> y, por tanto, mayor es la varianza del estimador.<\/span><\/p><p style=\"padding-left: 40px;\">Si las varianzas estimadas de los estimadores \u2014<span class=\"katex-eq\" data-katex-display=\"false\"> S^{2}_{b_{i}} <\/span>\u2014 son elevadas:<\/p><p style=\"padding-left: 80px;\">\u25ac los intervalos de confianza definidos para los par\u00e1metros ser\u00e1n amplios:<br \/>\u00a0 \u00a0 \u00a0 \u00a0 \u00a0 <span class=\"katex-eq\" data-katex-display=\"false\"> IC_{(1- \\alpha)} (\\beta_{i}) = (b_{i} &#8211; t^{\\alpha\/2}_{T-k-1} S_{b_{i}}; b_{i} + t^{\\alpha\/2}_{T-k-1} S_{b_{i}}) <\/span><br \/>\u25ac\u00a0 los estad\u00edsticos <span class=\"katex-eq\" data-katex-display=\"false\">t_{i}<\/span> que se utilizan para contrastar la hip\u00f3tesis de nulidad individual de los par\u00e1metros \u2014<span class=\"katex-eq\" data-katex-display=\"false\"> \\lvert t_{i} \\lvert = \\lvert \\frac {b_{i}}{S_{b_{i}}} \\lvert <\/span>\u2014\u00a0 ser\u00e1n peque\u00f1os.<\/p><p style=\"padding-left: 40px;\">Estas circunstancias favorecen la decisi\u00f3n de no rechazo de la hip\u00f3tesis de nulidad individual de los coeficientes del modelo a\u00fan cuando las variables a las que acompa\u00f1an sean relevantes.\u00a0<\/p><p style=\"padding-left: 40px;\">Es bastante habitual que, aunque las variables explicativas no se muestren individualmente relevantes, la hip\u00f3tesis de nulidad conjunta de los coeficientes angulares se rechace\u00a0 a niveles de significaci\u00f3n muy reducidos.<\/p><ul><li style=\"list-style-type: none;\"><ul><li><strong>Inestabilidad de los estimadores y de sus desviaciones t\u00edpicas estimadas ante peque\u00f1as variaciones muestrales<\/strong>.<p>Puede suceder que peque\u00f1as variaciones muestrales generen variaciones importantes en los valores de los estimadores MCO y de sus desviaciones t\u00edpicas estimadas.<\/p><\/li><li><strong>Posibilidad de que los estimadores tengan signos contrarios a los que te\u00f3ricamente les correspondan<\/strong>.<\/li><li><strong>Dificultad para interpretar los coeficientes <span class=\"katex-eq\" data-katex-display=\"false\">\\beta<\/span> y, por tanto, sus estimaciones<\/strong>.<p>Los coeficientes estimados \u2014<span class=\"katex-eq\" data-katex-display=\"false\">b_{i}<\/span>\u2014 se interpretan como el cambio que, por t\u00e9rmino medio, se estima que se produce en la variable explicada al variar el regresor <span class=\"katex-eq\" data-katex-display=\"false\">x_{i} <\/span> en una unidad, permaneciendo constantes el resto de las variables explicativas. Sin embargo, cuando existe multicolinealidad imperfecta no es posible aislar el efecto de cada una de ellas sobre el regresando porque no se puede suponer que el resto de las explicativas permanecen constantes \u2014ya que entre ellas existen relaciones lineales\u2014 .<\/p><\/li><li><strong>Puede no tener efectos negativos sobre la predicci\u00f3n<br \/><\/strong>Para que un modelo proporcione buenas predicciones es necesario que se mantenga estable para alguna observaci\u00f3n extramuestral. En caso de multicolinealidad imperfecta, no solo est\u00e1 relacionado el regresando con los regresores, sino que entre los propios regresores existen relaciones lineales aproximadas.<br \/>Si adem\u00e1s del modelo, tambi\u00e9n se mantienen estables dichas relaciones, es posible que, a pesar de la multicolinealidad, el modelo tenga una buena capacidad predictiva.<\/li><\/ul><\/li><\/ul><\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t\t\t<div class=\"elementor-toggle-item\">\n\t\t\t\t\t<div id=\"elementor-tab-title-9903\" class=\"elementor-tab-title\" data-tab=\"3\" role=\"button\" aria-controls=\"elementor-tab-content-9903\" aria-expanded=\"false\">\n\t\t\t\t\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon elementor-toggle-icon-left\" aria-hidden=\"true\">\n\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon-closed\"><i class=\"fas fa-caret-right\"><\/i><\/span>\n\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon-opened\"><i class=\"elementor-toggle-icon-opened fas fa-caret-up\"><\/i><\/span>\n\t\t\t\t\t\t\t\t\t\t\t\t\t<\/span>\n\t\t\t\t\t\t\t\t\t\t\t\t<a class=\"elementor-toggle-title\" tabindex=\"0\">M\u00e9todos para detectarla<\/a>\n\t\t\t\t\t<\/div>\n\n\t\t\t\t\t<div id=\"elementor-tab-content-9903\" class=\"elementor-tab-content elementor-clearfix\" data-tab=\"3\" role=\"region\" aria-labelledby=\"elementor-tab-title-9903\"><p>Los programas estad\u00edsticos y econom\u00e9tricos de uso habitual no indican expl\u00edcitamente la existencia de multicolinealidad imperfecta. Aunque el grado de dependencia lineal entre los regresores del modelo sea muy elevado, la matriz <span class=\"katex-eq\" data-katex-display=\"false\">X^{\\prime}X<\/span> es invertible y, por tanto, se puede estimar por m\u00ednimos cuadrados ordinarios.<\/p><p>La multicolinealidad es una caracter\u00edstica de las muestras y para analizar si el grado de multicolinealidad existente es lo suficientemente elevado como para ocasionar un problema hay un conjunto de reglas pr\u00e1cticas, m\u00e1s o menos \u00fatiles seg\u00fan los casos:<\/p><ol><li style=\"list-style-type: none;\"><ol><li><strong>An\u00e1lisis de los resultados de la estimaci\u00f3n<\/strong>.<p><span style=\"font-family: var( --e-global-typography-text-font-family ), Sans-serif; font-weight: var( --e-global-typography-text-font-weight ); font-size: 1rem;\">Un primer signo de alerta sobre la presencia de multicolinealidad entre los regresores de un modelo, son los resultados de la estimaci\u00f3n: modelos fuertemente explicativos\u00a0 \u2014coeficiente de determinaci\u00f3n alto\u2014 , con par\u00e1metros no significativos individualmente \u2014varianzas estimadas de los estimadores elevadas\u2014 y s\u00ed en su conjunto y, posiblemente, con coeficientes estimados que presenten signos inadecuados.<\/span><\/p><p>\u00a0 \u00a0 \u00a0 \u00a0 \u00a0 \u25ac Un valor alto de <span class=\"katex-eq\" data-katex-display=\"false\">R^{2}<\/span> puede relacionarse con un valor peque\u00f1o de <em>SCE<\/em> y, por tanto, con un valor bajo de la varianza estimada de la perturbaci\u00f3n (<span class=\"katex-eq\" data-katex-display=\"false\">S^{2}<\/span>).<br \/>\u00a0 \u00a0 \u00a0 \u00a0 \u00a0 \u25ac Si las varianzas estimadas de los estimadores son elevadas puede deberse a la existencia de una relaci\u00f3n lineal intensa entre las variables explicativas del modelo.<\/p><p>\u00a0 \u00a0 \u00a0 \u00a0 \u00a0 \u00a0 \u00a0 \u00a0 \u00a0 \u00a0 <span class=\"katex-eq\" data-katex-display=\"false\"> \\Large S^{2}_{b_i} = S^{2} x^{ii} =\\frac{ S^{2}}{\\sum_{t=1}^T (x_{it} &#8211; \\overline{x_i})^2\u00a0 \\times (1-R^2_i)} <\/span><\/p><p><span style=\"font-size: 1rem;\">Esta circunstancia no siempre se da en la pr\u00e1ctica ya que no todas las variables consideradas tienen por qu\u00e9 estar altamente correlacionadas. En las aplicaciones emp\u00edricas es bastante habitual que el valor del coeficiente de determinaci\u00f3n \u2014<span class=\"katex-eq\" data-katex-display=\"false\">R^{2}<\/span>\u2014sea bastante elevado y alg\u00fan\/os regresor\/es no se muestre\/n individualmente relevante\/s. En este caso, una forma de analizar la capacidad explicativa de la variable no significativa es estimando <\/span><span style=\"font-size: 1rem;\">un modelo de regresi\u00f3n lineal\u00a0<\/span>simple en el que \u00e9sta sea la \u00fanica explicativa.<\/p><\/li><li><p><strong><span style=\"font-size: 1rem;\">An\u00e1lisis de los coeficientes de correlaci\u00f3n lineal simple entre las variables explicativas.<br \/><\/span><\/strong><span style=\"font-size: 1rem;\">Valores elevados para los coeficientes de correlaci\u00f3n simple (<span class=\"katex-eq\" data-katex-display=\"false\">r_{ij}<\/span>) \u2014cociente entre la covarianza de las variables y el producto de sus desviaciones t\u00edpicas\u2014, pr\u00f3ximos a 1 \u00f3 a \u20131, indican una fuerte relaci\u00f3n lineal entre variables, y constituyen un indicio de posibles problemas, aunque no siempre con consecuencias negativas sobre los resultados de la estimaci\u00f3n.\u00a0<\/span><\/p><p>\u00a0 \u00a0 \u00a0 \u00a0 \u00a0 \u25ac Aunque <span class=\"katex-eq\" data-katex-display=\"false\">\\lvert r_{ij} \\lvert \\eqsim 1 <\/span>, las varianzas estimadas de los estimadores pueden no ser demasiado elevadas si <span class=\"katex-eq\" data-katex-display=\"false\"> S^{2}<\/span> es peque\u00f1o y\/o la variaci\u00f3n muestral de <span class=\"katex-eq\" data-katex-display=\"false\"> x_{i} <\/span> es elevada.<br \/>\u00a0 \u00a0 \u00a0 \u00a0 \u00a0 \u25ac Aunque <span class=\"katex-eq\" data-katex-display=\"false\">\\lvert r_{ij} \\lvert \\eqsim 0 <\/span>, las varianzas estimadas de los estimadores pueden ser elevadas si <span class=\"katex-eq\" data-katex-display=\"false\"> S^{2}<\/span> es elevado y\/o la variaci\u00f3n de <span class=\"katex-eq\" data-katex-display=\"false\"> x_{i} <\/span> en la muestra no es suficiente.<\/p><p>Valores elevados de los coeficientes de correlaci\u00f3n lineal simple no implican, necesariamente, altas desviaciones t\u00edpicas estimadas de los estimadores y valores bajos de estos coeficientes podr\u00edan relacionarse con elevadas desviaciones t\u00edpicas estimadas.<\/p><\/li><li><strong>C\u00e1lculo de los coeficientes de determinaci\u00f3n de la regresi\u00f3n de cada variable explicativa con los dem\u00e1s regresores de la ecuaci\u00f3n<\/strong>.<p>En el caso de que el modelo tenga m\u00e1s de dos variables explicativas, deben considerase las correlaciones m\u00faltiples de cada una con respecto a las dem\u00e1s. Aunque entre pares de variables explicativas apenas exista correlaci\u00f3n \u2014lo que implicar\u00eda valores peque\u00f1os de <span class=\"katex-eq\" data-katex-display=\"false\">r_{ij} <\/span>\u2014 alguna de ellas podr\u00eda estar muy correlacionada con el conjunto de todas las dem\u00e1s. En este caso, el valor del coeficiente de determinaci\u00f3n de la regresi\u00f3n de la variable <em>i-\u00e9sima<\/em> con los restantes regresores de la ecuaci\u00f3n \u2014<span class=\"katex-eq\" data-katex-display=\"false\">R^{2}_{i} <\/span>\u2014 tomar\u00eda un elevado valor.<\/p><p>Cuanto mayor sea el valor de <span class=\"katex-eq\" data-katex-display=\"false\">R^{2}_{i} <\/span>, mayor es la varianza del estimador.\u00a0<\/p><\/li><li><strong>C\u00e1lculo del determinante de la matriz de correlaci\u00f3n de las variables explicativas<\/strong>.<p>Los elementos de esta matriz \u2014representada por <span class=\"katex-eq\" data-katex-display=\"false\">R_{X} <\/span>\u2014 son los coeficientes de correlaci\u00f3n lineal simple entre las variables explicativas del modelo:<\/p><p>\u00a0 \u00a0 \u00a0 \u00a0 \u00a0 \u00a0 \u00a0 \u00a0 \u00a0 \u00a0 <span class=\"katex-eq\" data-katex-display=\"false\"> R_{X} = \\begin{pmatrix} r_{11} &amp;\u00a0 r_{12} &amp; \u00b7\u00b7\u00b7 &amp; r_{1k} \\\\ r_{21} &amp;\u00a0 r_{22} &amp; \u00b7\u00b7\u00b7 &amp; r_{2k} \\\\ \u00b7\u00b7\u00b7 &amp; \u00b7\u00b7\u00b7 &amp; \u00b7\u00b7\u00b7 &amp; \u00b7\u00b7\u00b7\\\\ r_{k1} &amp;\u00a0 r_{k2} &amp; \u00b7\u00b7\u00b7 &amp; r_{kk} \\end{pmatrix} = \\begin{pmatrix} 1 &amp;\u00a0 r_{12} &amp; \u00b7\u00b7\u00b7 &amp; r_{1k} \\\\ r_{21} &amp;\u00a0 1 &amp; \u00b7\u00b7\u00b7 &amp; r_{2k} \\\\ \u00b7\u00b7\u00b7 &amp; \u00b7\u00b7\u00b7 &amp; \u00b7\u00b7\u00b7 &amp; \u00b7\u00b7\u00b7\\\\ r_{k1} &amp;\u00a0 r_{k2} &amp; \u00b7\u00b7\u00b7 &amp; 1 \\end{pmatrix}\u00a0 <\/span><\/p><p>Es una matriz cuadrada de orden k, sim\u00e9trica y sus elementos diagonales iguales a la unidad.<\/p><p>El determinante de esta matriz est\u00e1 tanto m\u00e1s pr\u00f3ximo a cero, cuanto mayor es el grado de multicolinealidad.\u00a0<\/p><\/li><li><strong>El an\u00e1lisis del factor de inflaci\u00f3n de la varianza (<em>FIV<\/em>)<\/strong>.<p>Este factor puede interpretarse como la raz\u00f3n entre la varianza estimada de <span class=\"katex-eq\" data-katex-display=\"false\">b_{i} <\/span> y la que le corresponder\u00eda en el supuesto de que <span class=\"katex-eq\" data-katex-display=\"false\">x_{i}<\/span> no estuviese correlacionada con las restantes explicativas del modelo.\u00a0<\/p><p>\u00a0 \u00a0 \u00a0 \u00a0 \u00a0 \u00a0 \u00a0 \u00a0 \u00a0 \u00a0 <span class=\"katex-eq\" data-katex-display=\"false\"> FIV_{i} =\\Large\u00a0 \\frac {1}{1- R^2_i} <\/span>\u00a0<\/p><p>Cuanto m\u00e1s elevado es este cociente, mayor es el grado de multicolinealidad. El principal inconveniente de esta medida es que no hay un criterio estricto para establecer a partir de qu\u00e9 valor indica un problema serio. Algunos autores sugieren que si su valor es superior a 10 \u2014lo que sucede si <span class=\"katex-eq\" data-katex-display=\"false\">R^2_i &gt; 0,9 <\/span>\u2014 la correspondiente variable es altamente colineal.<\/p><p>Un <em>FIV<\/em> alto no es condici\u00f3n necesaria ni suficiente para que las varianzas estimadas de los estimadores tomen un valor elevado.<\/p><\/li><\/ol><\/li><\/ol><\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t\t\t<div class=\"elementor-toggle-item\">\n\t\t\t\t\t<div id=\"elementor-tab-title-9904\" class=\"elementor-tab-title\" data-tab=\"4\" role=\"button\" aria-controls=\"elementor-tab-content-9904\" aria-expanded=\"false\">\n\t\t\t\t\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon elementor-toggle-icon-left\" aria-hidden=\"true\">\n\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon-closed\"><i class=\"fas fa-caret-right\"><\/i><\/span>\n\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon-opened\"><i class=\"elementor-toggle-icon-opened fas fa-caret-up\"><\/i><\/span>\n\t\t\t\t\t\t\t\t\t\t\t\t\t<\/span>\n\t\t\t\t\t\t\t\t\t\t\t\t<a class=\"elementor-toggle-title\" tabindex=\"0\">Formas de actuar<\/a>\n\t\t\t\t\t<\/div>\n\n\t\t\t\t\t<div id=\"elementor-tab-content-9904\" class=\"elementor-tab-content elementor-clearfix\" data-tab=\"4\" role=\"region\" aria-labelledby=\"elementor-tab-title-9904\"><p>Cuando la multicolinealidad es elevada y tiene importantes consecuencias negativas sobre los resultados de la estimaci\u00f3n no existe una \u00fanica forma de actuar, sino que existen distintas posibles soluciones, dependiendo de la causa que la provoca. Incluso, en algunos casos, puede ser preferible no intentar corregirla y simplemente tenerla en cuenta al interpretar los resultados.<\/p><p>La soluci\u00f3n al problema de la multicolinealidad puede resultar poco o nada satisfactoria cuando lo que se pretende es describir y cuantificar la relaci\u00f3n existente entre el regresando y los regresores. Entre las alternativas sugeridas con mayor frecuencia est\u00e1n:<\/p><ol><li style=\"list-style-type: none;\"><ol><li><strong>Omitir del modelo la variable causante de la multicolinealidad<\/strong><p>Se pueden eliminar regresores cuando su informaci\u00f3n sea redundante y se vea, claramente, que su efecto est\u00e1 recogido dentro de otra u otras variables. Se puede optar por esta alternativa cuando el coeficiente estimado de la variable, que supuestamente causa colinealidad, tiene un signo contrario al esperado y su supresi\u00f3n no modifica significativamente el ajuste global.<\/p><p>El inconveniente que plantea esta soluci\u00f3n es que la omisi\u00f3n de una variable relevante puede causar el incumplimiento de las hip\u00f3tesis relativas al comportamiento de la perturbaci\u00f3n aleatoria, provoca un incremento de la varianza de la perturbaci\u00f3n, puede suponer el sesgo y la inconsistencia de los estimadores MCO y hace que aumente la suma de cuadrados de errores.<\/p><\/li><li><b>Incorporar al modelo\u00a0una ecuaci\u00f3n adicional que recoja la relaci\u00f3n causal que existe entre las explicativas<\/b><p>Cuando la multicolinealidad se debe a la existencia de relaciones causales entre las variables explicativas del modelo, esta relaci\u00f3n de tipo te\u00f3rico debe incorporarse al modelo como una ecuaci\u00f3n. El nuevo modelo ser\u00e1 multiecuacional en lugar de uniecuacional.<\/p><\/li><li><strong>Transformar las variables<\/strong><p>\u00a0\u25ac Tomar primeras diferencias para todas las variable del modelo.<\/p><p>\u00a0 \u00a0 \u00a0 \u00a0 \u00a0 \u00a0 \u00a0 \u00a0 \u00a0 \u00a0 <span class=\"katex-eq\" data-katex-display=\"false\"> y_{t} &#8211; y_{t-1} = \\beta_{1} (x_{1t} &#8211; x_{1t-1}) + \\beta_{2} (x_{2t} &#8211; x_{2t-1}) + \u00b7\u00b7\u00b7 + \\beta_{k} (x_{kt} &#8211; x_{kt-1}) + (\\varepsilon_{t} &#8211; \\varepsilon_{t-1}) <\/span><\/p><p>Cuando la multicolinealidad se debe a la existencia de tendencias comunes en las variables explicativas, esta transformaci\u00f3n puede reducir el grado de colinealidad.<\/p><p>Para interpretar correctamente los resultados, debe tenerse en cuenta que con el modelo transformado \u2014sin ordenada en el origen\u2014 se trata de explicar la variaci\u00f3n del regresando y que, a su vez, las variables explicativas son las variaciones de las <span class=\"katex-eq\" data-katex-display=\"false\">x_{i}<\/span> originales. Adem\u00e1s, si el modelo es cl\u00e1sico, tomar primeras diferencias puede provocar el incumplimiento de la hip\u00f3tesis de incorrelaci\u00f3n de las perturbaciones.<\/p><p>Si la muestra es atemporal, este procedimiento probablemente no es adecuado porque la diferencia entre dos observaciones consecutivas no tiene un significado l\u00f3gico.<\/p><p>\u25ac Utilizar cocientes o ratios dividiendo todas las variables del modelo por un factor de escala com\u00fan como, por ejemplo, la poblaci\u00f3n o un \u00edndice de precios.<\/p><p>En este caso, si el modelo original es cl\u00e1sico, la perturbaci\u00f3n del modelo transformado \u2014que puede perder la ordenada en el origen\u2014 no es homoced\u00e1stica.<\/p><\/li><li>\u00a0<strong><strong><strong>Aumentar el tama\u00f1o de la muestra<\/strong><\/strong><\/strong><p>Una soluci\u00f3n alternativa puede ser la de buscar informaci\u00f3n adicional que debilite los efectos de la multicolinealidad:<\/p><p>\u25ac\u00a0 Utilizando datos mixtos de series temporales y de corte transversal<br \/>\u25ac Incorporando nuevos datos que no est\u00e9n tan afectados por la multicolinealidad.\u00a0<\/p><p>\u00a0 \u00a0 \u2666 Si la multicolinealidad se debe a que un regresor se mantiene pr\u00e1cticamente constante, al aumentar el tama\u00f1o de la muestra es probable que aumente su variabilidad y, por tanto, disminuya el grado de correlaci\u00f3n.\u00a0 <br \/>\u00a0 \u00a0\u2666 Si el problema es consecuencia de que la relaci\u00f3n entre las explicativas es casual, un incremento del n\u00famero de observaciones puede resolver el problema dada la fuerte inestabilidad de este tipo de multicolinealidad.<\/p><p>\u00a0 \u00a0 \u00a0 Esta \u00faltima opci\u00f3n es m\u00e1s te\u00f3rica que real porque, en general, se trabaja con todos los datos disponibles.<\/p><\/li><li><strong>\u00a0Convivir con la multicolinealidad<\/strong>.<br \/>No intentar corregirla y simplemente tenerla en cuenta para el an\u00e1lisis de los resultados. Esta alternativa est\u00e1 especialmente indicada si:<br \/>\u25ac la variable causante del problema es muy importante desde el punto de vista te\u00f3rico y su inclusi\u00f3n no provoca problemas muy serios: aunque los estimadores son imprecisos, tienen signos correctos.<br \/>\u25ac el objetivo del modelo es la predicci\u00f3n porque la multicolinealidad no empeora necesariamente la capacidad predictiva del modelo.<\/li><\/ol><\/li><\/ol><\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t<div class=\"elementor-element elementor-element-a6441f5 elementor-widget elementor-widget-heading\" data-id=\"a6441f5\" data-element_type=\"widget\" data-widget_type=\"heading.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t<h3 class=\"elementor-heading-title elementor-size-default\">Caso pr\u00e1ctico: modelo ventas<\/h3>\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t<div class=\"elementor-element elementor-element-4b74602 elementor-widget elementor-widget-toggle\" data-id=\"4b74602\" data-element_type=\"widget\" data-widget_type=\"toggle.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t<div class=\"elementor-toggle\">\n\t\t\t\t\t\t\t<div class=\"elementor-toggle-item\">\n\t\t\t\t\t<div id=\"elementor-tab-title-7911\" class=\"elementor-tab-title\" data-tab=\"1\" role=\"button\" aria-controls=\"elementor-tab-content-7911\" aria-expanded=\"false\">\n\t\t\t\t\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon elementor-toggle-icon-left\" aria-hidden=\"true\">\n\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon-closed\"><i class=\"fas fa-caret-right\"><\/i><\/span>\n\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon-opened\"><i class=\"elementor-toggle-icon-opened fas fa-caret-up\"><\/i><\/span>\n\t\t\t\t\t\t\t\t\t\t\t\t\t<\/span>\n\t\t\t\t\t\t\t\t\t\t\t\t<a class=\"elementor-toggle-title\" tabindex=\"0\">Causas<\/a>\n\t\t\t\t\t<\/div>\n\n\t\t\t\t\t<div id=\"elementor-tab-content-7911\" class=\"elementor-tab-content elementor-clearfix\" data-tab=\"1\" role=\"region\" aria-labelledby=\"elementor-tab-title-7911\"><p style=\"padding-left: 40px;\">La relaci\u00f3n entre las variables <em>&#8216;Renta de los consumidores&#8217;<\/em> y<em> &#8216;Gastos en Publicidad&#8217; <\/em>es casual y se debe a que su tendencia es com\u00fan.<img loading=\"lazy\" class=\"aligncenter wp-image-18821 size-medium\" src=\"https:\/\/fee.carlarey.es\/wp-content\/uploads\/2021\/04\/GraficoGP_V-300x235.jpg\" alt=\"\" width=\"300\" height=\"235\" srcset=\"https:\/\/fee.carlarey.es\/wp-content\/uploads\/2021\/04\/GraficoGP_V-300x235.jpg 300w, https:\/\/fee.carlarey.es\/wp-content\/uploads\/2021\/04\/GraficoGP_V.jpg 500w\" sizes=\"(max-width: 300px) 100vw, 300px\" \/><\/p><\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t\t\t<div class=\"elementor-toggle-item\">\n\t\t\t\t\t<div id=\"elementor-tab-title-7912\" class=\"elementor-tab-title\" data-tab=\"2\" role=\"button\" aria-controls=\"elementor-tab-content-7912\" aria-expanded=\"false\">\n\t\t\t\t\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon elementor-toggle-icon-left\" aria-hidden=\"true\">\n\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon-closed\"><i class=\"fas fa-caret-right\"><\/i><\/span>\n\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon-opened\"><i class=\"elementor-toggle-icon-opened fas fa-caret-up\"><\/i><\/span>\n\t\t\t\t\t\t\t\t\t\t\t\t\t<\/span>\n\t\t\t\t\t\t\t\t\t\t\t\t<a class=\"elementor-toggle-title\" tabindex=\"0\">Detecci\u00f3n<\/a>\n\t\t\t\t\t<\/div>\n\n\t\t\t\t\t<div id=\"elementor-tab-content-7912\" class=\"elementor-tab-content elementor-clearfix\" data-tab=\"2\" role=\"region\" aria-labelledby=\"elementor-tab-title-7912\"><ol><li style=\"list-style-type: none;\"><ol><li>En los resultados de la estimaci\u00f3n hay claros indicios de la existencia de un elevado grado de multicolinealidad:<br \/>\u25ac Las variables explicativas no se muestran individualmente relevantes porque las desviaciones t\u00edpicas estimadas de los estimadores tienen valores elevados. <br \/>\u25ac El coeficiente de determinaci\u00f3n toma un valor elevado. <br \/>\u25ac Las variables explicativas son conjuntamente relevantes, pr\u00e1cticamente a cualquier nivel de significaci\u00f3n.\u00a0<br \/>\u25ac El signo del estimador que acompa\u00f1a a la variable <em>&#8216;Gastos en Publicidad&#8217;<\/em> es contrario a los supuestos te\u00f3ricos.<\/li><li>El valor del coeficiente de correlaci\u00f3n lineal simple est\u00e1 pr\u00f3ximo a uno.<p>\u00a0 \u00a0 \u00a0 \u00a0 \u00a0 <span class=\"katex-eq\" data-katex-display=\"false\">r_{GP,R} =\\frac {Cov(GP, R)}{S_{GP} \\times S_{R}} = 0,998 <\/span><\/p><p>Entre las variables<em> &#8216;Gastos en Publicidad&#8217;<\/em> y <em>&#8216;Renta&#8217;<\/em> existe una relaci\u00f3n lineal de tipo directo muy intensa.<\/p><\/li><li>El determinante de la matriz de correlaci\u00f3n est\u00e1 pr\u00f3ximo a cero<p>\u00a0 \u00a0 \u00a0 \u00a0 <br \/>\u00a0<span class=\"katex-eq\" data-katex-display=\"false\"> R_{X} = \\begin{pmatrix} 1 &amp; 0,998\u00a0 \\\\ 0,998 &amp;\u00a0 1\u00a0 \\end{pmatrix}\u00a0 \\rightarrow \\lvert R_{X} \\lvert = 0,04<\/span><\/p><\/li><li>El factor de inflaci\u00f3n de la varianza es alto.<br \/><img loading=\"lazy\" class=\"aligncenter wp-image-18867\" src=\"https:\/\/fee.carlarey.es\/wp-content\/uploads\/2021\/04\/ModeloGP_R.jpg\" alt=\"\" width=\"400\" height=\"157\" srcset=\"https:\/\/fee.carlarey.es\/wp-content\/uploads\/2021\/04\/ModeloGP_R.jpg 927w, https:\/\/fee.carlarey.es\/wp-content\/uploads\/2021\/04\/ModeloGP_R-300x118.jpg 300w, https:\/\/fee.carlarey.es\/wp-content\/uploads\/2021\/04\/ModeloGP_R-768x302.jpg 768w\" sizes=\"(max-width: 400px) 100vw, 400px\" \/>\u00a0 \u00a0 <br \/>\u00a0 \u00a0 \u00a0 \u00a0 \u00a0 <span class=\"katex-eq\" data-katex-display=\"false\"> FIV_{i} =\u00a0 \\frac {1}{1- 0,997252} = 363,9 &gt; 10 <\/span>\u00a0<\/li><\/ol><\/li><\/ol><\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t\t\t<div class=\"elementor-toggle-item\">\n\t\t\t\t\t<div id=\"elementor-tab-title-7913\" class=\"elementor-tab-title\" data-tab=\"3\" role=\"button\" aria-controls=\"elementor-tab-content-7913\" aria-expanded=\"false\">\n\t\t\t\t\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon elementor-toggle-icon-left\" aria-hidden=\"true\">\n\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon-closed\"><i class=\"fas fa-caret-right\"><\/i><\/span>\n\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon-opened\"><i class=\"elementor-toggle-icon-opened fas fa-caret-up\"><\/i><\/span>\n\t\t\t\t\t\t\t\t\t\t\t\t\t<\/span>\n\t\t\t\t\t\t\t\t\t\t\t\t<a class=\"elementor-toggle-title\" tabindex=\"0\">Forma de actuar<\/a>\n\t\t\t\t\t<\/div>\n\n\t\t\t\t\t<div id=\"elementor-tab-content-7913\" class=\"elementor-tab-content elementor-clearfix\" data-tab=\"3\" role=\"region\" aria-labelledby=\"elementor-tab-title-7913\"><p style=\"padding-left: 40px;\">El analista ha de buscar alguna soluci\u00f3n puesto que su objetivo es cuantificar el efecto de las variables <em>&#8216;Renta de los consumidores&#8217;<\/em> y <em>&#8216;Gastos en Publicidad&#8217;<\/em> sobre las ventas de su empresa.<\/p><p style=\"padding-left: 40px;\">Al tratarse de datos de corte transversal no es adecuado transformar las variables del modelo tomando primeras diferencias porque la diferencia entre observaciones consecutivas no tiene ning\u00fan sentido.<\/p><p style=\"padding-left: 40px;\">En este caso, una posible soluci\u00f3n puede ser ampliar la informaci\u00f3n muestral con datos mixtos de series temporales y de corte transversal.<\/p><\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/div>\n\t\t\t\t\t\t\t<\/div>\n\t\t<\/section>\n\t\t\t\t\t\t\t<\/div>\n\t\t","protected":false},"excerpt":{"rendered":"<p>Caso pr\u00e1ctico Un director de marketing quiere cuantificar el efecto de los gastos en publicidad y la renta de los consumidores sobre las ventas de su empresa.\u00a0 Con este objetivo, recoge datos para las variables &#8216;Ventas&#8217; \u2014V\u2014, &#8216;Renta de los consumidores&#8217; \u2014R\u2014 y &#8216;Gastos en publicidad&#8217; \u2014GP\u2014\u00a0 de sus 10 delegaciones y plantea un modelo &hellip; <\/p>\n<p class=\"link-more\"><a href=\"https:\/\/fee.carlarey.es\/index.php\/e-learning\/multicolinealidad-2\/\" class=\"more-link\">Continuar leyendo<span class=\"screen-reader-text\"> \u00abMulticolinealidad2\u00bb<\/span><\/a><\/p>\n","protected":false},"author":1,"featured_media":0,"parent":2780,"menu_order":7,"comment_status":"closed","ping_status":"closed","template":"elementor_header_footer","meta":[],"_links":{"self":[{"href":"https:\/\/fee.carlarey.es\/index.php\/wp-json\/wp\/v2\/pages\/16851"}],"collection":[{"href":"https:\/\/fee.carlarey.es\/index.php\/wp-json\/wp\/v2\/pages"}],"about":[{"href":"https:\/\/fee.carlarey.es\/index.php\/wp-json\/wp\/v2\/types\/page"}],"author":[{"embeddable":true,"href":"https:\/\/fee.carlarey.es\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/fee.carlarey.es\/index.php\/wp-json\/wp\/v2\/comments?post=16851"}],"version-history":[{"count":913,"href":"https:\/\/fee.carlarey.es\/index.php\/wp-json\/wp\/v2\/pages\/16851\/revisions"}],"predecessor-version":[{"id":20409,"href":"https:\/\/fee.carlarey.es\/index.php\/wp-json\/wp\/v2\/pages\/16851\/revisions\/20409"}],"up":[{"embeddable":true,"href":"https:\/\/fee.carlarey.es\/index.php\/wp-json\/wp\/v2\/pages\/2780"}],"wp:attachment":[{"href":"https:\/\/fee.carlarey.es\/index.php\/wp-json\/wp\/v2\/media?parent=16851"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}