Please use this identifier to cite or link to this item:
http://hdl.handle.net/20.500.14076/336
Title: | Análisis y selección de variables en regresión lineal |
Authors: | Bazán Cabanillas, Carlos Alberto |
Advisors: | García Sócola, Jaime |
Keywords: | Estadística;Matemática aplicada |
Issue Date: | 1980 |
Publisher: | Universidad Nacional de Ingeniería |
Abstract: | La técnica de la Regresión es, sin lugar a uno de los puntos de mayor Aplicación en Estadística, sobre todo la regresión de tipo lineal, ya que, en problemas lineales es más viable llegar a resultados tangibles con menor esfuerzo. Sin embargo, el problema de la regresión lineal continua siendo un problema abierto, siendo la selección óptimo de las variables de regresión y la multicolinealidad de los datos, dos aspectos importantes en actual discusión. Una razón fundamental para que este problema no haya sido resuelto, es que no ha sido bien definido. Parece que no hay un único problema, sino que cada uso particular que se da a la regresión define un problema, y para cada cosa se hace necesaria una respuesta. Por otra parte, razones de orden económico, técnico y estadístico exigen la determinación del "mejor subconjunto de regresión”. El estudio de estos aspectos se ha visto impulsada últimamente por el apoyo que brinda la ciencia de la computación. El propósito del presente trabajo os proporcionar los conceptos fundamentales de la regresión lineal y los criterios para la selección de las variables en dicho modelo. Se estudiará el problema de la multicolinealidad de las variables de predicción y se expondrá la técnica de regresión por aristas, con al objeto de superar las inconveniencias de la multicolinealidad. El problema de la selección de variables consta de tres pasos: 1) El uso de algoritmos que proporcione información para el análisis, por ejemplo se podría usar regresión por pasos, 2) El uso de criterios para analizar y seleccionar los variables, por ejemplo, determinar cuando se debe detener la regresión por pasos, y 3) La estimación de los coeficientes de la ecuación de regresión, por ejemplo por eliminación Gaussiana. En la solución de un problema concreto, la obtención de "datos buenos" presupone lo homogeneidad de las varianzas, la ausencia de datos erráticos, la preferencia por la ortogonalidad de las columnas de la matriz de diseño de experimentos, etc. Un problema serio y es la ausencia de ortogonalidad (multicolinealidad) lo cual origina problemas de estimación de parámetros, de selección de variables y de interpretación de resultados empíricos. Por lo tanto, se hace necesaria la determinación de métodos robustos a la multicolinealidad, en este sentido la regresión por aristas trata de superar este problema. Los dos únicos tipos de ajuste de curvas que se discuten serán; el de mínimos cuadrados., que se usa en los Capítulos Nos. 1, 2, 3 y 4; y el de aristas que se uso en el Capítulo No.5. En el Capítulo No.1 se presenta la notación y los conceptos fundamentales; en el Cáp.2 se presentan los algoritmos computacionales; el Cáp.3 nos proporciona los criterios para la selección de variables; en el Cáp. 4 se presenta el problema de multicolinealidad; y, en el Cáp.5 se ofrece la alternativa de regresión por aristas, con el objeto do superar los inconvenientes de la multicolinealidad. |
URI: | http://hdl.handle.net/20.500.14076/336 |
Rights: | info:eu-repo/semantics/restrictedAccess |
Appears in Collections: | Maestría |
Files in This Item:
File | Description | Size | Format | |
---|---|---|---|---|
bazan_cc.pdf | 20,13 MB | Adobe PDF | View/Open |
This item is licensed under a Creative Commons License
Indexado por: