Empezamos con la intuición de un clasificador lineal usando el ejemplo de análisis de sentimiento. Vamos a sumergirnos al siguiente nivel para entender más acerca de lo que realmente captura un modelo clasificador lineal. En particular, tomaremos un conjunto de datos de entrenamiento, las cuales serán estas x. Obtendremos sus características, tal como lo hicimos en el curso de regresión. Y lo pasaremos por un modelo de aprendizaje automático de clasificación, el cual predecirá la salida ŷ. Y ese modelo depende de algún parámetro ŵ, el cual entrenaremos a partir de los datos. Ahora volvamos al ejemplo que teníamos con dos características con coeficientes distintos de cero, "increíble" y "horrible". Supongamos que tenemos una tercera característica con coeficiente distinto de cero. Digamos, la palabra "genial". Ahora, en este caso, cada dato está asociado a un punto en este espacio tridimensional. Por ejemplo, este punto de aquí podría tener 5 increíbles, 3 horribles, y 2 geniales asociados a él. Y lo que hará un modelo de clasificador lineal es intentar construir un hiperplano que separe los ejemplos positivos de los negativos. Y el hiperplano está asociado con la función resultado. La función resultado será una combinación ponderada de los coeficientes w0 multiplicados por las características que tenemos. Entonces, w0 + w1 por el número de increíbles, que en nuestro caso era 5, + w2 por el número de horribles, que en nuestro caso es 3, y finalmente w3 por el número de geniales, que era 2. Así que para este punto de aquí, El resultado de xi estará dado por x0 + 5 w1 + 3 w2 + 2 w3 y Esto, dependiendo de los coeficientes, el resultado puede ser positivo o negativo. Este es un ejemplo de entrenamiento positivo, queremos elegir los w que hacen positivo al resultado. Ahora que hemos establecido el problema de clasificación, y la tarea que buscamos, hagamos una revisión de la notación. En este curso usaremos la misma notación que usamos en el curso de regresión, que fue el segundo de la especialización. Aquí tenemos una salida 'y', que es lo que tratamos de predecir. En el caso de regresión era un valor real, pero en nuestro caso es una categoría. Y tenemos un conjunto de entradas, 'x', que tienen 'd' dimensiones. x[1], x[2], hasta x[d]. Así que en realidad 'x' es un vector 'd'-dimensional y, 'y' es una salida que intentamos predecir. la cual en nuestro caso es +1 o -1 en clasificación binaria, que es donde empezamos hoy. Usamos xj para denotar la j-ésima entrada, que es un valor escalar. Vamos a usar hj para denotar la j-ésima característica. Y luego, vamos a usar xi, para denotar el i-ésimo dato. Y xi de j denota la j-ésima entrada del i-ésimo dato. Es un poco dificil, pero es exactamente lo mismo que hicimos en el curso de regresión. Ahora con esta notación, podemos volver y definir nuestro simple hiperplano, el que vimos con "horribles" e "increíbles". Y vale decir que, en este caso nuestra predicción ŷ, es el signo del resultado que tenemos para esta entrada en particular. Y esta función signo sólo dice que si el resultado es mayor que 0, predecir +1. Si el resultado es menor que 0, predecir -1. Y en cero, tenemos la elección de predecir +1 o -1. Puedes hacer una elección arbitraria. De la forma que lo pienso es si es 0, predecir +1. Ahora, el resultado de una entrada xi es w0 + w1 veces x1 de i + w2 veces x2 de i, y así hasta wd veces la d-ésima entrada en el vector xi. Y aquí la primer característica de entrada es 1, que es la característica constante como vimos en regresión, y x[1] podría ser número de "increíbles" x[2] podría ser número de "horribles", y digamos, la última x[d] podría ser el número de veces que aparece la palabra "ramen". Que para mí, podría estar asociado con una opinión negativa, pero podría ser indiferente. Depende de los coeficientes que se tengan. Así que nuestro objetivo es optimizar, ajustar el resultado. Voy a usar w transpuesta xi como abreviatura para no tener que escribir siempre w0 + w1 * x1 + w2 * x2, y así. Así que usaremos esta notación de transpuesta que es la misma que vimos en el curso de regresión. [MÚSICA]