[背景音乐] 翻译: RyukaSuu |审阅: 19waa Coursera Global Translator Community 分类器的确是用来做决策的 这些决策包括 一个句子是积极的还是消极的 是否一系列的实验测试 把X光加到治疗当中 会导致一个像流感或者伤寒这样的疾病 这就是一个我们需要做出的决策 那么我们来讨论一下分类器是怎样通过特定的线性分类器来 做决策的 要理解决策边界 假设你只有两个权值不为0的单词 一个单词是“awesome” 权值为+1 另一个单词是“awful” 权值为 -1.5 在这种情况下,评分就由1乘以这个句子中“awesome"的数量 减去1.5乘以“awful”的数量 你可以画出坐标轴,这是“awesome”坐标轴 这个是“awful”坐标轴 例如 这个句子 寿司是非常棒的 食物非常棒 但是服务很糟糕 句子中有两个“awesome”和一个“awful” 因此我们在图上画出 (2,1) 点 同样的,如果有个句子含有3个“awful”和1个“awesome” 如果都是“awesome” 3个“awesome”就画在 (3,0) 点 其他的句子也是这样 现在 让我们了解一下我们是怎样对句子进行评分的 以及怎么推断结论 例如,(3,0) 点代表的是有3个“awesome”,而没有“awful”出现 3个“awesome”给你一个积极的预测 因为这个评分是大于0的 落在坐标右下侧的所有点都是符合这个规律的 而落在坐标左上侧的点因为评分小于0 例如这个有3个“awful” 1个“awesome”的点的评分小于0 因此我们标记这些点是负类 事实上 把正类和负类分开的 是当我们不知道这个是正类还是负类的点的集合组成的一条连线 这条线就是 “1.0 * #awesome - 1.5 * #awful = 0” 所表示的线 这条线就是我们无法做出正类和负类判别决策的线 我们把这条线叫做决策边界 在其中一侧的所有点都判定为正类 在另一侧的所有点都判定为负类 这个例子中的决策边界 “1.0 * #awesome - 1.5 * #awful = 0” 是一条直线 这也是我们叫它线性分类器的原因 这是一个线性决策边界 决策边界将正类 和负类的预测分开 在这个只有两种特征的例子中 我把决策边界看作只是一条直线 如果我们增加特征的数目 情况就会不同了 在二维平面中 线性方程是一条直线 在三维平面中 例如 我们有三个权值不为0的单词 除了这三个单词为其他的权值为0 我们会得到一个平面 画一个3D的图形有一点麻烦 正类的预测平面的上面 而负类的预测 在平面的下方,这个平面是与空间呈一定倾角的 如果权值不为0的单词数目不只是3个 可能有成百上千个单词的权值不为0 在这种情况下 我们叫这个决策边界为超平面 在非常高的纬度正负类的分离器 叫做超平面 当然 这种情况下 你就不能使用线性分类器了 你可以使用更加复杂的分类器 在那些分类器之中 决策边界不是简单的直线 而是超平面 他们有更复杂的形状 或者弯弯曲曲的形状 我们在分类的课程中 会学到更多相关知识 [背景音乐] 翻译: dalongraymond | 审阅: 19waa Coursera Global Translate Community