Open links in new tab
  1. 一文读懂Adam优化算法 - 知乎

    May 9, 2024 · ADAM算法通过自适应学习率自动为每一段路调整“齿轮比”,确保你在复杂多变的山地地形中以最合适的速度前进。 偏置校正:在刚开始你的探险时,由于对山地不熟悉,你可能会低估一些 …

  2. PyTorch模型训练优化器Adam和AdamW - 知乎

    Adam 是一种结合了 Momentum动量思想 (利用累加历史梯度信息更新梯度,减少震荡,加速通往谷底) 和 RMSProp自适应学习率思想 (记录各个参数方向上的 梯度 的振荡幅度,振荡幅度越大,更新的 …

  3. 深入剖析 Adam 优化器:原理、优势与应用 - 知乎

    在深度学习领域,优化器的选择对模型的训练效率和性能起着决定性作用。 Adam优化器作为一种自适应优化算法,凭借其根据历史梯度信息动态调整学习率的特性,备受研究者和工程师的青睐。 它巧妙 …

  4. Adam和AdamW - 知乎

    AdamW目前是大语言模型训练的默认优化器,而大部分资料对Adam跟AdamW区别的介绍都不是很明确,在此梳理一下Adam与AdamW的计算流程,明确一下二者的区别。

  5. PyTorch中的torch.optim.Adam优化器 - 知乎

    基本原理 Adam本质上是一个优化器,用于优化模型的参数。 这样的优化步骤可以由以下公式描述: θ t = θ t 1 η m ^ t v ^ t + ϵ ,其中 η 为初始学习率, ϵ 为数值稳定常数,说白了是用于防止除零异常。 关 …

  6. Adam 优化器背后的数学原理 - 知乎

    为什么 Adam 是深度学习中最受欢迎的优化器? 让我们通过深入了解其数学原理,并重新创建算法来理解它。 Adam,这个名字在许多获奖的 Kaggle 竞赛中广为人知。 参与者尝试使用几种优化器(如 …

  7. Adam优化器:拒绝“一刀切”, 实现真正的个性化学习 - 知乎

    Jul 8, 2025 · 在之前分享的机器学习/深度学习算法中,我们都是基于梯度下降或随机梯度下降(SGD)进行优化求解的,大家对此应该并不陌生了。 今天我们给大家介绍一位“新朋友”——Adam (Adaptive …

  8. 如何理解Adam算法 (Adaptive Moment Estimation)? - 知乎

    我们组刚中的一篇 ICML2022 Oral 的论文就是从动力学角度理论分析了Adam,特别是Adam相对于SGD的优劣之处。 一句话结论: Adam逃离鞍点很快,但是不能像SGD一样擅长寻找泛化好的flat …

  9. Adam 优化算法详解 - 知乎

    请注意,Adam这个名字并不是首字母缩写词,实际上,作者(OpenAI的Diederik P. Kingma和多伦多大学的Jimmy Lei Ba)在论文中指出,该论文首次在ICLR 2015上作为会议论文发表,标题为Adam: A …

  10. 【Adam】优化算法浅析 - 知乎

    论文"ADAM: A METHOD FOR STOCHASTIC OPTIMIZATION"提出了 Adam 优化算法 (adaptive moment estimation),用于解决机器学习中的大数据量,高特征纬度的优化问题。他集合了两个流行 …