<?xml version="1.0" encoding="utf-8" ?><rss version="2.0"><channel><title>Bing: Normalization of Wave Function Visualization</title><link>http://www.bing.com:80/search?q=Normalization+of+Wave+Function+Visualization</link><description>Search results</description><image><url>http://www.bing.com:80/s/a/rsslogo.gif</url><title>Normalization of Wave Function Visualization</title><link>http://www.bing.com:80/search?q=Normalization+of+Wave+Function+Visualization</link></image><copyright>Copyright © 2026 Microsoft. All rights reserved. These XML results may not be used, reproduced or transmitted in any manner or for any purpose other than rendering Bing results within an RSS aggregator for your personal, non-commercial use. Any other use of these results requires express written permission from Microsoft Corporation. By accessing this web page or using these results in any manner whatsoever, you agree to be bound by the foregoing restrictions.</copyright><item><title>如何理解归一化（Normalization）对于神经网络 ... - 知乎</title><link>https://www.zhihu.com/question/326034346</link><description>2016， Layer Normalization （没有发表） 用于RNN 2016， Instance Normalization （没有发表，但是经过了实践检验） 用于风格迁移 2016， Weight Normalization （NIPS） 2015， Batch Normalization （ICML） 用于卷积网络ConvNet和图像分类 逐篇看。 。。 总结归纳。 。。 需要时间。 。。</description><pubDate>Sat, 28 Mar 2026 19:13:00 GMT</pubDate></item><item><title>如何评价 Meta 新论文 Transformers without Normalization？</title><link>https://www.zhihu.com/question/14925347536</link><description>1221 27 苏剑林 新知答主 一个不负责任的回答： 旨在去掉Normalization的工作，这不是第一篇，肯定也不是最后一篇，早年尝试过一些做法，发现充分训练后至少效果上都不如带Normalization的模型，所以我现在本能地不相信或者说不看好任何去Normalization的工作。</description><pubDate>Mon, 20 Apr 2026 23:39:00 GMT</pubDate></item><item><title>如何理解Normalization，Regularization 和 standardization？</title><link>https://www.zhihu.com/question/59939602</link><description>如何理解Normalization，Regularization 和 standardization？ 我知道的是：normalization和standardization是降低极端值对模型的影响. 前者是把数据全部转成从0-1；后者是把数据变成均值为… 显示全部 关注者 124</description><pubDate>Sat, 11 Apr 2026 20:30:00 GMT</pubDate></item><item><title>z-score 标准化 (zero-mean normalization) - 知乎</title><link>https://www.zhihu.com/column/p/32482328</link><description>最常见的标准化方法就是 Z标准化，也是 SPSS 中最为常用的标准化方法，spss默认的标准化方法就是z-score标准化。 也叫 标准差 标准化，这种方法给予原始数据的均值（mean）和标准差（standard deviation）进行数据的标准化。 经过处理的数据符合 标准正态分布，即均值为0，标准差为1，其转化函数为： x ...</description><pubDate>Mon, 20 Apr 2026 16:09:00 GMT</pubDate></item><item><title>大模型 (LLM) 中常用的 Normalization 有什么？ - 知乎</title><link>https://www.zhihu.com/question/658789664?write</link><description>LayerNorm 其实目前主流的 Normalization 有个通用的公式 其中， 为均值， 为归一化的分母，比如对 LayerNorm 来说他是标准差，对 WeightNorm 来说是 L2 范数。 和 为可学习的参数，可以让模型根据分布 scaling 和 shifting。 有的文献把 叫做 gain, 把 叫做 bias。</description><pubDate>Fri, 27 Mar 2026 02:04:00 GMT</pubDate></item><item><title>深度学习中 Batch Normalization为什么效果好？ - 知乎</title><link>https://www.zhihu.com/question/38102762</link><description>Normalization是一个统计学中的概念，我们可以叫它 归一化或者规范化，它并不是一个完全定义好的数学操作 (如加减乘除)。 它通过将数据进行偏移和尺度缩放调整，在数据预处理时是非常常见的操作，在网络的中间层如今也很频繁的被使用。 1. 线性归一化</description><pubDate>Sun, 29 Mar 2026 23:23:00 GMT</pubDate></item><item><title>l1正则与l2正则的特点是什么，各有什么优势？ - 知乎</title><link>https://www.zhihu.com/question/26485586</link><description>理解L1，L2 范数 L1，L2 范数即 L1-norm 和 L2-norm，自然，有L1、L2便也有L0、L3等等。因为在机器学习领域，L1 和 L2 范数应用比较多，比如作为正则项在回归中的使用 Lasso Regression (L1) 和 Ridge Regression (L2)。 因此，此两者的辨析也总被提及，或是考到。不过在说明两者定义和区别前，先来谈谈什么是范数 ...</description><pubDate>Thu, 23 Apr 2026 22:24:00 GMT</pubDate></item><item><title>知乎 - 有问题，就会有答案</title><link>https://www.zhihu.com/question/395811291</link><description>知乎 - 有问题，就会有答案</description><pubDate>Mon, 06 Apr 2026 13:40:00 GMT</pubDate></item><item><title>计算时Normalization的意义何在？一个好的Normalization应该是怎样的？ - 知乎</title><link>https://www.zhihu.com/question/20598159</link><description>常见的一些Normalization可能有这样的一些情况： （1）无量纲化。 无量纲化换一个角度来看，它本身意味着选取一个更适合的单位。 比如同样是作为能量，是选取eV，还是选取kT作为单位，这其实反映出对于具体问题的理解。</description><pubDate>Sun, 22 Feb 2026 00:27:00 GMT</pubDate></item><item><title>深度学习中的 normalized embeddings 是什么意思呀？ - 知乎</title><link>https://www.zhihu.com/question/483536636</link><description>如题。原句是，&amp;#34;Representation learning with contrastive cross entropy loss benefits from norma…</description><pubDate>Mon, 20 Apr 2026 09:42:00 GMT</pubDate></item></channel></rss>