[MÚSICA] Este curso consta de seis módulos diferentes, y veamos de qué se tratan. Para empezar, vamos a hablar sobre la regresión simple, y ¿por qué se llama regresión simple? Es porque vamos a tener una sola entrada, por ejemplo el tamaño de tu casa, y cuando pensamos en la definición de la relación entre esta entrada y la salida, el precio de venta, solo veremos el ajuste de estos datos con una simple recta. Y es por eso que se llama regresión simple. Algo que necesitaremos hacer para descubrir cuál es la recta que mejor se ajusta es definir algo llamado parámetro de bondad del ajuste que nos permite decir que algunas rectas se ajustan mejor que otras y de acuerdo a esta métrica podemos buscar en todas las rectas posibles aquella que se ajuste mejor a los datos. En el contexto de esta métrica de bondad del ajuste discutiremos algunas técnicas de optimización importantes que son mucho mas generales que la regresión en sí. Este es un ejemplo de esos conceptos generales que veremos de nuevo, muchas veces en la especialización. Y el método que exploraremos aquí, se llama descenso del gradiente. Así, en el contexto de nuestro problema de regresión, y que tengamos una simple recta, una pregunta es ¿cuál es la pendiente y cuál es el término independiente de esta recta que minimizan la bondad del ajuste? Esta curva azul muestra cuán bueno es el ajuste, donde la parte más baja significa un mejor ajuste, y trataremos de minimizar sobre todas las combinaciones posibles de pendientes y términos independientes, para encontrar la que mejor se ajusta. Este descenso del gradiente es un algoritmo iterativo que lleva varios pasos. Y eventualmente converge a esta solución óptima que minimiza esta métrica. La medición de qué tan bien se ajusta esta recta. Luego, una vez que encontramos este mínimo, o sea, la mejor pendiente y ordenada al origen, de lo que vamos a hablar es en pensar cómo interpretar estos parámetros estimados, y luego en cómo usarlos para realizar predicciones. Pasamos ahora de la regresión simple a la regresión múltiple. Y, lo que nos permite la regresión múltiple es ajustar relaciones mas complejas entre nuestra simple entrada y una salida, es decir, más complejas que tan solo una recta. Así como considerar mas entradas a nuestro modelo. Así, para nuestro ejemplo de viviendas, tal vez, además de medir el tamaño de la casa, tenemos algo como cantidad de dormitorios, cantidad de baños, el tamaño del lote, año de construcción, y podríamos tener un montón de diferentes atributos de la casa que queremos incorporar para formar nuestras predicciones. Y eso es lo que nos permite realizar la regresión múltiple. Habiendo aprendido cómo ajustar estos modelos a los datos, vamos a cambiar a cómo evaluar si el modelo es bueno por ejemplo para realizar predicciones. Por ejemplo, este ajuste mostrado, entre el tamaño de una casa y el precio parece ser bastante bueno, pero si vamos a un modelo más complicado, vemos que hace cosas raras, pero si miras cuidadosamente esta función ajustada, en realidad, está describiendo muy bien a nuestros datos observados. Pero lo que no está haciendo, es que, no es capaz de generalizar para predicciones de nuevas casas que no hemos observado, porque al menos, yo no lo usaría para formar predicciones del valor de mi casa. Realmente no creo que ésta sea la relación entre el tamaño de una casa y el precio. Así que la pregunta es, ¿qué está mal aquí? Y esto es algo que llamamos sobreajuste de datos, y vamos a hablar de esto detalladamente en este módulo del curso. En particular, vamos a definir tres medidas diferentes del error. Una se llama error de entranamiento, otra se llama error de prueba, y la última se llama error de generalización o error verdadero, y que es en realidad el error que queremos obtener, pero veremos que eso es en realidad algo inalcanzable, y en su lugar tendremos que usar proxies. Y veremos a estas medidas del error como función de la complejidad del modelo para describir esta noción del sobreajuste. Luego, discutiremos estas ideas en el contexto de algo llamado compensación sesgo-varianza. Y lo que esto describe es el hecho de que los modelos simples tienden a tener buen comportamiento pero a menudo son muy simples para describir en realidad la relación que nos interesa. Por otro lado, los modelos muy complejos son demasiado flexibles, por lo que tienen el potencial para ajustarse a relaciones muy complejas que podrían describir muy bien lo que está ocurriendo con los datos, pero desafortunadamente estos modelos tan complejos pueden tener un comportamiento muy extraño. Y esto nos lleva a que se llame compensación sesgo-varianza. Y el aprendizaje automático es todo sobre explorar esta disyuntiva. [MÚSICA]