Tomemos un par de minutos para excavar y ver qué sucede en cada módulo de este curso Ésta era la visión general. Tendremos 9 módulos y algunos modelos aparecerán en varios módulos. Algunos modelos aparecerán en un sólo módulo. Algunos conceptos van a cubrir varios módulos. Pero en general, vamos a ver una presentación pre-cohesiva donde comenzamos con todo lo relacionado a clasificadores lineales y regresión logística, y todo sobre árboles de decisión. Y luego vamos a cubrir boosting y algunos tópicos avanzados. En particular, comenzaremos con clasificadores lineales. Ya discutimos eso en el primer curso. Por ejemplo en el caso de análisis de sentimiento tenemos dos palabras que nos importan, el número de veces que la palabra 'horrible' aparece en el comentario, y el número de veces que la palabra 'increíble' aparece en el comentario. Y el clasificador lineal podría decir que cada 'increíble' vale uno, cada 'horrible' vale menos 1,5. Y cuando tienes un comentario particular, si éste tiene, por ejemplo, como el de abajo, tres 'increíble' y ningún 'horrible', será clasificado como positivo, porque este valor es mayor que cero y eso es verdadero para todo lo que esté debajo de esta línea. Y todo lo que está por encima tiene un valor menor que cero, y las vamos a clasificar como negativos. Hemos discutido este concepto de clasificadores lineales en el primer curso. Vamos a profundizar y entender esto realmente en el primer módulo. Pero luego vamos a ampliarlo con algo llamado regresión logística, la cual nos va a permitir no sólo predecir +1 o -1 sino asignar una probabilidad a cada punto de dato. Por ejemplo, es muy probable que los puntos verdes sean positivos Los puntos magenta son muy probables que sean negativos Pero el área en blanco es una zona más incierta. Es una probabilidad 50/50. Vamos a ser capaces de predecir estas probabilidades y eso va a cambiar realmente cómo los clasificadores serán usados. Ahora, la forma de definir un clasificador lineal en regresión logística En el segundo módulo vamos a resolver cómo aprender los parámetros, los coeficientes del clasificador a partir de los datos. Nos encontramos con el concepto de probabilidad el cual mide lo bien que una linea clasifica los datos, y para diferentes valores de los coeficientes tendremos diferentes lineas o diferentes clasificadores, y usaremos el descenso del gradiente para encontrar el mejor clasificador posible. Similar a la forma que lo hicimos para regresión lineal en el curso anterior. El sobreajuste puede ser algo realmente significante en clasificación. Aquí estoy dibujando el error de clasificación en el eje Y, a medida que hacemos modelos más y más complejos. Y como debes saber, el error de entrenamiento tiende a cero a medida que el modelo aumenta la complejidad. Pero el error verdadero disminuye y eventualmente sube a medida que sobreajustamos. En clasificación, experimentaremos esto es con fronteras de decisión que comenzará como una simple recta que separa positivos y negativos, y luego se convertirán en una parábola que ajusta los datos muy bien. Pero a medida que incrementamos la complejidad, terminamos con estas fronteras de decisión tan irregulares, y por último, ésta que vemos aquí está ajustando a los datos demasiado bien, de una forma increíble. Veremos estas sorprendentes visualizaciones y abordaremos este problema introduciendo regularización de una forma muy similar a la que vimos con regresión lineal en el curso anterior, y ese será el tema central del tercer módulo. En el cuarto módulo, vamos a explorar un nuevo tipo de clasificador, llamado árbol de decisión. Los árboles de decisión son extremadamente útiles en la práctica. Son simples, fáciles de entender. Pueden ajustar los datos muy bien, proporcionando características no lineales. Aqui tenemos un ejemplo donde estoy tratando de predecir si un préstamo será un préstamo bueno, seguro o será arriesgado. Podrías entrar al banco, y el empleado te preguntaría cuál es tu historial de crédito, si fue bueno, si has pagado los préstamos anteriores, si es así, entonces probablemente el préstamo sea seguro, o un buen préstamo. Si su crédito solo ha sido bueno, razonable, entonces depende. Si es un préstamo a corto plazo, me preocupa, pero si es a largo plazo, eventualmente se tendrá que pagar. Ahora, si tu historial de crédito es malo, no te preocupes, no todo es malo. Tal vez te pregunte sobre tus ingresos. Si tus ingresos son altos y estas solicitando un préstamo a largo plazo, entonces tal vez esté bien dártelo. Pero si tu historial de crédito es malo, y tus ingresos son bajos, entonces ni siquiera me lo preguntes. Allí es donde los árboles de decisión pueden capturar este tan elaborado, o muy explicables recortes sobre los datos. En el módulo 5, veremos que el sobreajuste no es solo un problema muy malo en Regresión Logística, sino también algo muy malo en los árboles de decisión. Aquí, a medida que hacemos los arbóles más y más profundos, las fronteras de decisión pueden volverse muy complejas, y en realidad sobreajustan. Así que tendremos que hacer algo al respecto. Lo que haremos será usar un concepto fundamental llamado Navaja de Ockham, en el que se trata de encontrar la explicación más simple para los datos. Y este concepto se remonta mucho antes de Ockham, alrededor del siglo 13. Se remonta a Pitágoras y Aristóteles, quienes decían que la explicación más simple es con frecuencia la mejor. Así que tendremos estos profundos y complejos árboles, y encontraremos aquellos más simples que nos den un mejor rendimiento y sean menos propensos al sobreajuste. [MÚSICA]