“想象一下,我们正在开发一个基於支持向量机的图像识别系统,我们的目标是训练一个模型,能够准确地区分猫和狗的照片,在这个过程中,支持向量机算法会尝试找到一个最优分类超平面,将猫和狗的照片分开。”

        “在训练模型时,支持向量机会考虑每个数据点也就是每张照片,到分类超平面的距离。”

        “为了找到最优分类超平面,算法会最大化这些距离中的最小值,也就是所谓的间隔,这个间隔越大,模型的泛化能力通常就越好。”

        “但是,我们还有一些额外的约束条件,b如我们希望模型在识别猫时不要太过於敏感,以免将一些看起来像猫的动物,老虎也会被误认为是猫,这些约束条件可以看作是原始问题中的一部分。”

        “现在,我们引入拉格朗日乘子来将这些约束条件转化为对偶问题。”

        “在对偶问题中,我们不再直接优化原始问题的目标函数,而是优化一个与拉格朗日乘子相关的函数,这样做的好处是,我们可以利用核技巧将输入数据映S到高维空间,从而更容易地找到最优分类超平面……”

        讲了快半个小时後,柳思思终於懂了。

        她惊讶地发现,周宇讲的很多内容涉及到了数学中的线X代数、泛函分析、拉格朗日乘数法等。

        “学长,你数学应该很好吧?”

        “你刚才讲的内容,我一个人看了两三天的书都没法弄明白这些cH0U象的东西,你讲起来倒是好理解多了。”

        “我们老师说了,数学好的人学人工智能有优势,看来是真的了。”

        内容未完,下一页继续阅读