[MÚSICA] La notación que hemos usado hasta ahora es sin características asociadas, pero al igual que el curso de regresión, nos centraremos en la introducción de las características desde el comienzo. Vamos a tener estas funciones h1 hasta hD. Que definen algunas características que podemos extraer de los datos. Y vamos a codificar la función constante que es h0. En particular, vamos a tener que el resultado es w0 * h0 + w1 * h1 + w2 * h2, y así hasta wD * hD una característica podría ser una constante h0, podría ser #increíbles para h1, #horribles para h2. Podría ser algo como logaritmo del número de "increíble" por el número de "malo" . O de forma más realista, podría ser el TFIDF del número de "horrible" que nos ayuda a enfatizar las palabras mas distintivas, o importantes que vimos en TFIDF en el primer curso, y explorado un poco. Y vamos a volver a eso en el próximo curso. Ahora tenemos este valor de predicción que está basado en la suma sobre las características de los coeficientes wj veces la característica hj. Y vamos a usar la abreviación w transpuesta h(xi) para denotar este valor. Me vas a ver mucho hacer eso. W transpuesta h(xi) denota el resultado para un dato en particular y si ese valor es mayor que 0 vamos a decir que es positivo, y si el valor es menor que 0, vamos a decir que es negativo. Muy bien, ahora introducimos nuestro modelo un un poco más de detalle. Y siempre voy a tomar la entrada de datos x, pasarla por la función generadora de características, que podría ser contar el número de "increíbles" o crear un modelo TF-IDF. Voy a pasar eso al modelo de aprendizaje automático, que va a multiplicar las características con los pesos aprendidos y obtener así el valor del resultado que vamos a arrojar a través de la misma función un elemento ŷ que significa +1 comentarios positivos, o -1 comentarios negativos. [MÚSICA]