[MÚSICA] Ahora que revisamos los conceptos básicos de probabilidad, vamos a averiguar cómo pueden ser útiles en el problema de clasificación. Si tomamos nuestras dos oraciones, una que era definitivamente un +1, o sea positiva, "el sushi y todo lo demás estuvo increíble!" Y la otra que no estábamos seguros, "el sushi estuvo bueno, el servicio fue bueno". Para la primera, podríamos decir que la probabilidad que sea una opinión positiva para esta oración, es muy alta. Así que la probabilidad que y=+1 dada la oración, es 0.99. Para la otra, la probabilidad que y=+1 dada la oración "el sushi estuvo bueno, el servicio fue bueno". es sólo 0.55. Y en general, muchos clasificadores producen este grado de creencia, o esta probabilidad. Así que la probabilidad de la etiqueta de salida 'y' dada una entrada 'x', va a ser extremadamente útil en la práctica. Así que veamos un pequeño ejemplo de lo que significa. Digamos que se nos da como entrada un conjunto de N datos. Tienen como entradas número de increíbles, número de horribles y la etiqueta 'y'. Y los usamos para entrenar un clasificador que produce estas probabilidades, las predicciones, a las que llamaremos p̂, o estimación de las predicciones, que van a depender de los parámetros ŵ, o los coeficientes ŵ para nuestro modelo. Entonces, P^ será útil para predecir ŷ la predicción de la clase, que en nuestro caso es el sentimiento de los clientes. Veamos cómo funciona. Lo que haremos, será aprender este P^ estimado a partir de los datos, y usarlo para predecir la clase más probable. Así que en particular, si te doy alguna oración de entrada, y calculo la probabilidad que 'y' sea +1, es una opinión positiva dada la oración y si eso es mayor que 0.5 digo que ŷ es +1, es una opinión positiva, y si es menor que 0.5 decimos que es una oración negativa por lo tanto ŷ es -1. Pero no sólo obtendremos eso, P^ nos va a dar más tipos de interpretaciones. Entonces, no sólo nos va a decir +1 o -1, sino también nos dirá cuán seguros estamos de que sea una opinión positiva. [MÚSICA]