李宏毅机器学习课程笔记 发表于 2018-01-23 | 更新于 2017-12-09 | 分类于 教程笔记 | 阅读次数 字数统计 114 字 | 阅读时长 1 分钟 回归梯度下降法梯度下降法主要理论依据是拉格朗日 错误来源误差来源于变量(varias)和偏差(bias),变量大分布就大,偏差大离中心点就远,模型越复杂,偏差可能越小,变量越大,分布离散。 好的模型是要权衡变量与偏差的关系。 分类应用:金融,医疗诊断,人脸识别 回归会惩罚大的值的点 坚持原创技术分享,您的支持将鼓励我继续创作! 赏 微信打赏 支付宝打赏