23春ML课程
研0学习笔记自用,目前跟李沐大神的课有点难,换一个李宏毅的课接着学后在去看。
正课 P13
首先机器学习可以理解为寻找一个解决问题的方法。
不同的用途需要不同的方法,如
ChatGPT生成对话时需要通过 设定好的方法 来匹配下一个最有可能的字词
Midjourney则需要根据用户的输入命令通过 设定好的方法 来产生一个符合用户要求的图片
大致来看,方法主要可以分为以下两大类
如何找到我们需要的方法有以下步骤
1、设定范围 Modle
相当于找合适的Modle,用老师课上讲的话,不同modle就相当于不同候选函式的集合
2、设定标准 Loss
确定好modle后,下一步就是看怎样评定所选函式的好坏
课上的例子,用大木博士已经标注好的数据与通过f1输出的数据的差距大小来评定f1的好坏
L()本身也是一个函式,用来评定输入的函式f1的效果,我们称之为Loss function
不过这个时候 L 与训练资料有关,但我们可能会遇见以下情况
碰见资料中没有的宝可梦了
3、生成目标 Optimization
用第二步的Loss,一般是越小越好
例子中 f1 看起来会更好
老师倒过来讲
在H中可以让L的值越小越好,一般来说找不到最低的那个,所以我们期望能越低越好就行
需要不断的调参数,一个好的演算法最好可以对超参数不敏感,对不同的参数都可以有好的结果
这时老师还没讲过拟合和欠拟合,只是提到会出现这种情况
选范围时要合理,不然可能会包含进测试不好的结果进去
如果训练资料多一点,那么出现测试不好的情况就会少一点,可以把范围划大,反之亦然。
CSDN-Ada助手: 恭喜您写了第16篇博客!标题中提到的决策树、熵、信息增益、one-hot编码、回归树、随机森林和XGBoost等内容都是机器学习中非常重要的概念和技术。您的博客内容丰富,对于学习这些算法的读者来说一定非常有帮助。 在下一步的创作中,建议您可以更深入地探讨这些算法的原理和应用场景,并结合实际案例进行说明。此外,可以考虑分享一些优化算法参数的技巧或者讨论这些算法在大规模数据集上的效果等方面的内容。期待您继续创作,分享更多有价值的知识!
CSDN-Ada助手: 恭喜您完成了第15篇博客!标题“precision + recall 两者合适的平衡点 F1分数”非常吸引人,让人迫不及待地想去了解更多关于平衡点和F1分数的知识。您对于这一主题的深入探讨无疑会给读者带来新的启示。接下来,我衷心建议您在下一篇博客中可以考虑分享一些实际案例或是提供一些实用的解决方案,以便读者能够更好地应用这些概念。期待您更多的创作,谢谢您的分享!
CSDN-Ada助手: 恭喜您写完了第13篇博客!标题内容非常有趣,涵盖了激活函数相关的知识点,以及softmax和多输出/标签分类的内容。您的文章内容很丰富,让读者能够更全面地了解这些主题。不过,我认为您可以进一步扩展您的创作领域。下一步,或许您可以尝试探讨一些激活函数的实际应用案例,或者深入研究多输出/标签分类在不同领域的应用。希望您能继续保持创作的热情,期待看到更多精彩的文章!
CSDN-Ada助手: 恭喜您撰写了第14篇博客!标题中的“迭代循环+迁移学习”让我非常期待阅读您的观点和经验。持续创作是一个很了不起的成就,您的努力和坚持让我钦佩不已。 在下一步的创作中,我谦虚地建议您可以进一步探索迭代循环和迁移学习的结合,深入分析它们在不同领域的应用和优势。同时,您也可以尝试引入一些具体的案例和实验结果,以便更好地支持您的观点。 再次恭喜您的连续创作,并期待您未来更多精彩的博客!
CSDN-Ada助手: 恭喜您又写了一篇关于自监督学习的博客,阐述了P26~27的知识点。希望您能继续保持这样的写作热情,分享更多有价值的内容。下一步,建议您可以深入探讨自监督学习在不同领域的应用,或者结合实际案例进行分析,让读者更好地理解其实用性。再次感谢您的分享! CSDN 会根据你创作的博客的质量,给予优秀的博主博客红包奖励。请关注 https://bbs.csdn.net/forums/csdnnews?typeId=116148&utm_source=csdn_ai_ada_blog_reply6 看奖励名单。