About 50 results
Open links in new tab
  1. 梯度(gradient)到底是个什么东西?物理意义和数学意义分别是 …

    我会使用尽量少的数学符号描述 梯度, 着重于意义而非计算。一个直观的例子,在机器学习领域有个术语叫「梯度下降」,你可以想象在群山之中,某个山的半山腰有只小兔子打算使用梯度 …

  2. 梯度(gradient)到底是个什么东西?物理意义和数学意义分别是 …

    为了降低随机梯度的方差,从而使得迭代算法更加稳定,也为了充分利用高度优化的矩阵运算操作,在实际应用中我们会同时处理若干训练数据,该方法被称为小批量梯度下降法 (Mini- Batch …

  3. 如何理解 natural gradient descent? - 知乎

    看到一篇文章写得非常浅显易懂: What is the natural gradient, and how does it work? 总结一下: 拿神经网络中的反向传播算法举例,我们计算各个权值w关于损失函数的导数,得到一个梯度 …

  4. 如何入门分布上的优化/Wasserstein gradient flow? - 知乎

    Mar 20, 2025 · Wasserstein gradient flow是概率空间的gradient flow,目前在machine learning,optimization, applied math等很多领域里面都算是非常热门的话题 最早的wasserstein …

  5. 梯度消失问题为什么不通过 gradient scaling 来解决? - 知乎

    May 4, 2018 · The truth is, once your gradient results've already too slight to be distinguished from other noise-disturbances, you scale up all the observable vibrations, you still cannot …

  6. 如何理解策略梯度(Policy Gradient)算法? - 知乎

    Actor-Critic算法结合了策略梯度(Policy Gradient)方法和值函数估计的优点,旨在通过两个不同的神经网络来学习:一个用于学习策略(Actor),另一个用于评估状态的价值(Critic)。

  7. 优化中常出现的oracle应该怎么理解? - 知乎

    我还专门问了我的导师,我的导师的原话是: Oracle means the function value feedback provider, thus ZO oracle means the black-box prediction system itself. 翻译过来就是,oracle意味着不同 …

  8. 机器学习 | 近端梯度下降法 (proximal gradient descent)

    近端梯度下降法是众多梯度下降 (gradient descent) 方法中的一种,其英文名称为proximal gradident descent,其中,术语中的proximal一词比较耐人寻味,将proximal翻译成“近端”主要 …

  9. 有没有人会zemax渐变折射率面型的设置方法,具体参数都是什么 …

    在爱特蒙特光学的官网可以下载渐变折射率透镜的ZEMAX文件,去年下半年我也在研究GRIN透镜在ZEMAX的建模,目前还没搞懂。 Gradient Index Rod Lenses – GRIN Rod Lenses | 爱特蒙 …

  10. PyTorch中在反向传播前为什么要手动将梯度清零? - 知乎

    optimizer.zero_grad ():清空过往梯度 model.forward ():前向推理,计算损失函数; loss.backward ():反向传播,计算当前梯度; optimizer.step ():多次循环步骤 2-3,梯度累加 …