<?xml version="1.0" encoding="utf-8" ?><rss version="2.0"><channel><title>Bing: Gradient Color Page</title><link>http://www.bing.com:80/search?q=Gradient+Color+Page</link><description>Search results</description><image><url>http://www.bing.com:80/s/a/rsslogo.gif</url><title>Gradient Color Page</title><link>http://www.bing.com:80/search?q=Gradient+Color+Page</link></image><copyright>Copyright © 2026 Microsoft. All rights reserved. These XML results may not be used, reproduced or transmitted in any manner or for any purpose other than rendering Bing results within an RSS aggregator for your personal, non-commercial use. Any other use of these results requires express written permission from Microsoft Corporation. By accessing this web page or using these results in any manner whatsoever, you agree to be bound by the foregoing restrictions.</copyright><item><title>梯度（gradient）到底是个什么东西？物理意义和数学意义分别是什么？</title><link>https://www.zhihu.com/tardis/bd/ans/1827501472</link><description>我会使用尽量少的数学符号描述 梯度， 着重于意义而非计算。一个直观的例子，在机器学习领域有个术语叫「梯度下降」，你可以想象在群山之中，某个山的半山腰有只小兔子打算使用梯度下降的思路去往这片群山最深的山谷里找水喝。 我们用 变化率 来描述下山时各个方向的山路有多陡峭，往下 ...</description><pubDate>Thu, 02 Apr 2026 11:08:00 GMT</pubDate></item><item><title>梯度（gradient）到底是个什么东西？物理意义和 ... - 知乎</title><link>https://www.zhihu.com/question/29151564</link><description>为了降低随机梯度的方差，从而使得迭代算法更加稳定，也为了充分利用高度优化的矩阵运算操作，在实际应用中我们会同时处理若干训练数据，该方法被称为小批量梯度下降法 (Mini- Batch Gradient Descent)。 假设需要同时处理m个训练数据 则目标函数及其梯度为</description><pubDate>Tue, 31 Mar 2026 18:41:00 GMT</pubDate></item><item><title>梯度（gradient）到底是个什么东西？物理意义和数学意义分别是什么？</title><link>https://www.zhihu.com/tardis/bd/ans/1693484231</link><description>这篇回答节选自我的专栏 《机器学习中的数学：微积分与最优化》，和大家一起谈谈方向导数和梯度。 欢迎关注我的知乎账号 @石溪 ，将持续发布机器学习数学基础及算法应用等方面的精彩内容。 1.多元函数偏导数的数值解 在程序当中，利用数值方法求出各个自变量偏导数的近似解，其方法和步骤 ...</description><pubDate>Wed, 04 Mar 2026 07:46:00 GMT</pubDate></item><item><title>如何理解 natural gradient descent? - 知乎</title><link>https://www.zhihu.com/question/266846405</link><description>看到一篇文章写得非常浅显易懂： What is the natural gradient, and how does it work? 总结一下： 拿神经网络中的反向传播算法举例，我们计算各个权值w关于损失函数的导数，得到一个梯度向量，然后沿着这个梯度的反方向更新权值一小段距离，如此不断重复来使损失函数收敛到（局部）最小值。 问题就在于 ...</description><pubDate>Fri, 27 Mar 2026 15:33:00 GMT</pubDate></item><item><title>梯度（gradient）到底是个什么东西？物理意义和数学意义分别是什么？</title><link>https://www.zhihu.com/tardis/bd/ans/1607285093</link><description>梯度是雅可比矩阵的一种特殊形式，当m=1时函数的雅可比矩阵就是梯度，这个概念原是为场论设定的，任何场都可以用来理解梯度，后来被引用到数学中用来指明函数在指定点的变量率最快的方向和大小，是一种变化效率的数字抽象。 举一个降维的例子，在修建一个通向山顶的缆车时，缆车的路线 ...</description><pubDate>Sun, 01 Mar 2026 18:05:00 GMT</pubDate></item><item><title>谁帮忙解答一下强化学习中的policy -gradient 和Q-learning的区别。？</title><link>https://www.zhihu.com/question/351639865</link><description>我们在学习强化学习的时候，通常会被很多看起来似乎很相似的公式所迷惑（数学大佬除外），也就对相应的概念很模糊，这里我建议在学习强化学习的时候，用定性思维理清概念，然后再回头来看量化的东西。首先我们先具体了解强化学习家族的分类，然后了解一下policy-gradient出现的原因，这样就 ...</description><pubDate>Fri, 13 Mar 2026 03:32:00 GMT</pubDate></item><item><title>为什么ppo优于policy gradient? - 知乎</title><link>https://www.zhihu.com/question/357056329</link><description>2. policy gradient 缺点 1）训练慢 policy gradient 是on-policy 方法，只能通过和环境的不断互动，拿到当前的反馈来更新agent。 这就意味要花大量时间在采样上，数据利用率低，训练非常慢。agent 更新参数后，要重新 sample 一堆 trajectory τ ，之前的 trajectory 全部不能用了， sample 一堆 data 后只够做一次参数 ...</description><pubDate>Sun, 29 Mar 2026 17:46:00 GMT</pubDate></item><item><title>如何理解随机梯度下降（stochastic gradient descent，SGD）？</title><link>https://www.zhihu.com/question/264189719</link><description>随机梯度下降 Stochastic Gradient Descent SGD （Vinilla基础法/Momentum动量法） 一开始SGD没有动量，叫做Vanilla SGD，也就是没有之前时刻的梯度信息。 所以 m_t=\eta G_t （ \eta 就是学习率），也就是当前时刻的 m 与之前时刻的梯度都无关。</description><pubDate>Mon, 23 Mar 2026 13:21:00 GMT</pubDate></item><item><title>shim 和gradient 区别是什么？ - 知乎</title><link>https://www.zhihu.com/question/321839910</link><description>gradient是梯度场，在磁共振成像设备里，指的是剃度线圈产生的有剃度的磁场。它是通过对静态主磁场强度的削弱和增强产生的。在影像医学中，梯度磁场对MRI信号进行空间编码，以确定成像层面的位置和成像层面厚度；产生MR回波（梯度回波）；施加扩散加权梯度场；进行流动补偿；进行流动液体 ...</description><pubDate>Tue, 31 Mar 2026 13:05:00 GMT</pubDate></item><item><title>什么是分布式优化中的梯度跟踪（Gradient Tracking）？</title><link>https://www.zhihu.com/question/482227849</link><description>什么是分布式优化中的梯度跟踪（Gradient Tracking）？ 最近看到一些关于梯度跟踪的文章，一堆公式看得头疼，不知道到底是要做什么的，如何简单直观的解释其作用和原理？ 显示全部 关注者 19</description><pubDate>Tue, 24 Mar 2026 13:34:00 GMT</pubDate></item></channel></rss>