<?xml version="1.0" encoding="utf-8" ?><rss version="2.0"><channel><title>Bing: Loss Function for Multi Class Classification</title><link>http://www.bing.com:80/search?q=Loss+Function+for+Multi+Class+Classification</link><description>Search results</description><image><url>http://www.bing.com:80/s/a/rsslogo.gif</url><title>Loss Function for Multi Class Classification</title><link>http://www.bing.com:80/search?q=Loss+Function+for+Multi+Class+Classification</link></image><copyright>Copyright © 2026 Microsoft. All rights reserved. These XML results may not be used, reproduced or transmitted in any manner or for any purpose other than rendering Bing results within an RSS aggregator for your personal, non-commercial use. Any other use of these results requires express written permission from Microsoft Corporation. By accessing this web page or using these results in any manner whatsoever, you agree to be bound by the foregoing restrictions.</copyright><item><title>深度学习的loss一般收敛到多少？ - 知乎</title><link>https://www.zhihu.com/question/435099359</link><description>看题主的意思，应该是想问，如果用训练过程当中的loss值作为衡量深度学习模型性能的指标的话，当这个指标下降到多少时才能说明模型达到了一个较好的性能，也就是将loss作为一个evaluation metrics。 但是就像知乎er们经常说的黑话一样，先问是不是，再问是什么。所以这个问题有一个前提，就是 ...</description><pubDate>Tue, 07 Apr 2026 18:04:00 GMT</pubDate></item><item><title>如何分析kaiming新提出的dispersive loss，对扩散模型和aigc会带来什么影响?</title><link>https://www.zhihu.com/question/1916513058118939910</link><description>Dispersive Loss：为生成模型引入表示学习 何恺明团队的这篇文章提出了一种名为「Dispersive Loss」的 即插即用 正则化方法，用来弥合 扩散模型 与 表示学习 之间长期存在的鸿沟。 当前扩散模型主要依赖回归目标进行训练，普遍缺乏对内部表示的显式正则化。 Dispersive Loss 鼓励模型内部的特征表示在 ...</description><pubDate>Wed, 22 Apr 2026 03:35:00 GMT</pubDate></item><item><title>有哪些「魔改」loss函数，曾经拯救了你的深度学习模型？</title><link>https://www.zhihu.com/question/294635686</link><description>类似的Loss函数还有IoU Loss。 如果说DiceLoss是一种 区域面积匹配度 去监督网络学习目标的话，那么我们也可以使用 边界匹配度去监督网络的Boundary Loss。 我们只对边界上的像素进行评估，和GT的边界吻合则为0，不吻合的点，根据其距离边界的距离评估它的Loss。</description><pubDate>Wed, 22 Apr 2026 05:15:00 GMT</pubDate></item><item><title>深度学习中LOSS的设计思路是什么? - 知乎</title><link>https://www.zhihu.com/question/548302109</link><description>8本电子书免费送给大家，见文末。 常见的 Loss 有很多，比如平方差损失，交叉熵损失等等，而如果想有更好的效果，常常需要进行loss function的设计和改造，而这个过程也是机器学习中的精髓，好的损失函数既可以反映模型的训练误差，也可以反映模型的泛化误差，可参考以下几种思路： 首先就是 ...</description><pubDate>Mon, 23 Feb 2026 14:52:00 GMT</pubDate></item><item><title>损失函数｜交叉熵损失函数</title><link>https://www.zhihu.com/tardis/zm/art/35709485</link><description>1.3 Cross Entropy Loss Function（交叉熵损失函数） 1.3.1 表达式 (1) 二分类 在二分的情况下，模型最后需要预测的结果只有两种情况，对于每个类别我们的预测得到的概率为 和 ，此时表达式为（ 的底数是 ）： 其中： - —— 表示样本 的label，正类为 ，负类为</description><pubDate>Fri, 17 Apr 2026 14:32:00 GMT</pubDate></item><item><title>究竟什么是损失函数 loss function? - 知乎</title><link>https://www.zhihu.com/question/455139396</link><description>Focal Loss focal loss出于论文Focal Loss for Dense Object Detection，主要是为了解决one-stage目标检测算法中正负样本比例严重失衡的问题，降低了大量简单负样本在训练中所占的比重，可理解为是一种困难样本挖掘。 focal loss是在交叉熵损失函数上修改的。 具体改进：</description><pubDate>Tue, 21 Apr 2026 04:04:00 GMT</pubDate></item><item><title>深度学习中loss和accuracy的关系? - 知乎</title><link>https://www.zhihu.com/question/264892967</link><description>深度学习中loss和accuracy的关系? 以分类问题为例，最初的理解是相对于准确率（accuracy），损失函数（loss function）的数值能更精确的反应出预测值和真值的差距，但二者反… 显示全部 关注者 215 被浏览</description><pubDate>Thu, 23 Apr 2026 03:12:00 GMT</pubDate></item><item><title>深度学习的多个loss如何平衡？ - 知乎</title><link>https://www.zhihu.com/question/375794498</link><description>多个loss引入pareto优化理论，基本都可以涨点的。 例子： Multi-Task Learning as Multi-Objective Optimization 可以写一个通用的class用来优化一个多loss的损失函数，套进任何方法里都基本会涨点。反正我们在自己的研究中直接用是可以涨的。</description><pubDate>Thu, 23 Apr 2026 19:54:00 GMT</pubDate></item><item><title>大模型sft为什么第二个epoch的时候loss会突然下降？</title><link>https://www.zhihu.com/question/649093831</link><description>Loss surfaces of a ResNet-56 (Li et al, 2018) 很可能预训练的大型语言模型在接近最小损失的区域具有非常平滑的损失面，而开源社区在这一区域进行的大量微调工作。 这基于围绕2018年ULMFiT论文原始开发通用语言模型的前提。</description><pubDate>Fri, 03 Apr 2026 16:14:00 GMT</pubDate></item><item><title>深度学习中loss值可以为负吗？ - 知乎</title><link>https://www.zhihu.com/question/617222890</link><description>理论上来说，是可以为负的。 损失函数 是衡量模型预测结果和真实结果的差异，正常情况下如果预测完全正确应该会为0。如果，你修改了原来的损失函数，比如，都减去一个固定值，这种情况确实可以得到负值。 MSE 的损失是平方和，理论上最小值为0。不知道你改了什么内容，建议检查一下。看 ...</description><pubDate>Thu, 23 Apr 2026 13:35:00 GMT</pubDate></item></channel></rss>