About 50 results
Open links in new tab
  1. 梯度(gradient)到底是个什么东西?物理意义和数学意义分别是 …

    我会使用尽量少的数学符号描述 梯度, 着重于意义而非计算。一个直观的例子,在机器学习领域有个术语叫「梯度下降」,你可以想象在群山之中,某个山的半山腰有只小兔子打算使用梯度 …

  2. 梯度(gradient)到底是个什么东西?物理意义和 ... - 知乎

    为了降低随机梯度的方差,从而使得迭代算法更加稳定,也为了充分利用高度优化的矩阵运算操作,在实际应用中我们会同时处理若干训练数据,该方法被称为小批量梯度下降法 (Mini- Batch …

  3. 如何理解策略梯度(Policy Gradient)算法? - 知乎

    论文包含对策略梯度基本理论的梳理和介绍,以及 On-policy PG算法(REINFORCE、A3C、TRPO、PPO、V-MPO) 的详细介绍和比较。

  4. 知乎盐选 | 5.1.2 深入了解 radial-gradient ()径向渐变

    5.1.2 深入了解 radial-gradient ()径向渐变 径向渐变指的是从一个中心点向四周扩散的渐变效果,光的扩散、波的扩散等都有径向渐变的特性。 在 CSS 中,使用 radial-gradient() 函数表示径向 …

  5. 机器学习2 -- 优化器(SGD、SGDM、Adagrad、RMSProp、Adam)

    Apr 6, 2024 · 1 主要优化器 1.1 SGD SGD全称Stochastic Gradient Descent,随机梯度下降,1847年提出。每次选择一个mini-batch,而不是全部样本,使用梯度下降来更新模型参数。 …

  6. 梯度累积两次,跟batch size 增大2倍,在多数情况下,效果一样吗?

    实验发现2:最近的研究者实验发现,在总的batch_size*gradient accumulation下相同的情况下,除了loss会大,梯度累积越大,最终导致L2 Norm越大,L2Norm越大,说明权重越大,那么 …

  7. gradient norm对于adam的影响? - 知乎

    gradient norm对于adam的影响? 最近有一点搞不太明白,不知道大佬能否看下我这个思路是否有问题。 gradient norm 是把梯度乘比例缩放到模长不超过设定的max norm,那么… 显示全部 …

  8. TensorFlow中的stop gradient意味着什么? - 知乎

    TensorFlow中的stop gradient意味着什么? 我已经在百度谷歌知乎搜索过相关知识了,但是感觉都没有解决我最根本的问题:停止梯度意味着什么? 我最近在看的ContraD的论文( https://ar…

  9. 如何理解随机梯度下降(stochastic gradient descent,SGD)?

    随机梯度下降 Stochastic Gradient Descent SGD (Vinilla基础法/Momentum动量法) 一开始SGD没有动量,叫做Vanilla SGD,也就是没有之前时刻的梯度信息。 所以 m_t=\eta G_t ( …

  10. 谁帮忙解答一下强化学习中的policy -gradient 和Q-learning的区别 …

    我们在学习强化学习的时候,通常会被很多看起来似乎很相似的公式所迷惑(数学大佬除外),也就对相应的概念很模糊,这里我建议在学习强化学习的时候,用定性思维理清概念,然后再回 …