当前位置: 首页 > news >正文

数据挖掘之超参调优技巧

本文分享一些数据挖掘和机器学习的超参调优小技巧。

一个经验或者说是我们调优目标:训练损失应该稳步下降,一开始是陡峭的,然后更慢,直到曲线的斜率达到或接近零。

大多数机器学习问题需要大量的超参数调整。不幸的是,我们无法为每个模型提供具体的调整规则。降低学习率可以帮助一个模型有效收敛,但会使另一个模型收敛得太慢。您必须尝试为数据集找到最佳超参数集。也就是说,有一些经验法则:

训练损失应该稳步下降,一开始是陡峭的,然后更慢,直到曲线的斜率达到或接近零。

如果训练损失不收敛,则训练更多 epochs。

如果训练损失减少太慢,请提高学习率。请注意,将学习率设置得太高也可能会阻止训练损失收敛。

如果训练损失变化很大(即训练损失跳跃),请降低学习率。

在增加 epoch 数或批量大小的同时降低学习率通常是一个很好的组合。

将批大小设置为非常小也会导致不稳定。首先,尝试大批量值。然后,减小批量大小,直到您看到性能下降。

对于包含大量示例的真实数据集,整个数据集可能无法放入内存中。在这种情况下,您需要减小批处理大小以使批处理适合内存。

请记住:超参数的理想组合取决于数据,因此您必须始终进行试验和验证。

以上为主要:

以下为个别tip:

训练并不完全是确定性的,但通常loss收敛后的值偏大,说明这个模型或特征更不好,换个模型或者进行特征筛选。

相关文章:

  • 网站建设短信/代运营一般收费
  • 潍坊专业网站制作公司营销/百度域名注册查询
  • 宁波 手机网站建设/软文广告例子
  • 网站建设学什么语言/整站seo排名费用价格
  • 南京做网站南京乐识专注/正规优化公司哪家好
  • 新闻视频网站开发/武汉网站制作
  • hids wazuh 系列3-内网扫描规则
  • (003) 简述UDP与TCP的区别
  • Open3D 区域生长分割(python详细过程版)
  • Jetson硬件平台状态查看工具jtop安装,服务器平台上可以通过nvtop工具来查看资源使用情况
  • 华为数字化转型之道 平台篇 第十一章 统一的数据底座
  • Gradle vs Maven 基本对比(一)
  • PowerSNMP for .NET 6.1.0.0 Crack
  • 回顾在江西博微科技工作9个月回顾(吐槽)
  • java的数据类型:引用数据类型(String、数组、枚举)
  • [标准库]STM32F103R8T6 串口的收发
  • mysql是如何插入一条数据的
  • C语言基础 — ( 函数——模块化设计)