<?xml version="1.0" encoding="utf-8" ?><rss version="2.0"><channel><title>Bing: Transformer Matrix Formula Deep Learning</title><link>http://www.bing.com:80/search?q=Transformer+Matrix+Formula+Deep+Learning</link><description>Search results</description><image><url>http://www.bing.com:80/s/a/rsslogo.gif</url><title>Transformer Matrix Formula Deep Learning</title><link>http://www.bing.com:80/search?q=Transformer+Matrix+Formula+Deep+Learning</link></image><copyright>Copyright © 2026 Microsoft. All rights reserved. These XML results may not be used, reproduced or transmitted in any manner or for any purpose other than rendering Bing results within an RSS aggregator for your personal, non-commercial use. Any other use of these results requires express written permission from Microsoft Corporation. By accessing this web page or using these results in any manner whatsoever, you agree to be bound by the foregoing restrictions.</copyright><item><title>一文了解Transformer全貌（图解Transformer）</title><link>https://www.zhihu.com/tardis/zm/art/600773858</link><description>网上有关Transformer原理的介绍很多，在本文中我们将尽量模型简化，让普通读者也能轻松理解。 1. Transformer整体结构 在机器翻译中，Transformer可以将一种语言翻译成另一种语言，如果把Transformer看成一个黑盒，那么其结构如下图所示：</description><pubDate>Fri, 24 Apr 2026 00:26:00 GMT</pubDate></item><item><title>如何从浅入深理解 Transformer？ - 知乎</title><link>https://www.zhihu.com/question/471328838</link><description>Transformer升级之路：11、将β进制位置进行到底 Transformer升级之路：12、无限外推的ReRoPE？ Transformer升级之路：13、逆用Leaky ReRoPE Transformer升级之路：14、当HWFA遇见ReRoPE 预训练一下，Transformer的长序列成绩还能涨不少！ VQ一下Key，Transformer的复杂度就变成线性了</description><pubDate>Sun, 29 Mar 2026 13:36:00 GMT</pubDate></item><item><title>如何最简单、通俗地理解Transformer？ - 知乎</title><link>https://www.zhihu.com/question/445556653</link><description>Transformer最开始应用于NLP领域的机器翻译任务，但是它的通用性很好，除了NLP领域的其他任务，经过变体，还可以用于视觉领域，如ViT（Vision Transformer）。 这些特点让Transformer自2017年发布以来，持续受到关注，基于Transformer的工作和应用层出不穷。</description><pubDate>Sat, 04 Apr 2026 14:11:00 GMT</pubDate></item><item><title>如何从浅入深理解 Transformer？ - 知乎</title><link>https://www.zhihu.com/question/471328838/answers/updated</link><description>Transformer 全貌：一个纯注意力驱动的编解码架构 Transformer 的整体框架，依然遵循了序列建模经典的编码器 - 解码器（Encoder-Decoder）结构，但把里面的所有核心组件，都换成了注意力机制。 简单来说，这个架构的逻辑非常清晰：编码器负责 “理解输入”，把输入的源序列（比如一句英文）编码成包含 ...</description><pubDate>Thu, 26 Mar 2026 14:15:00 GMT</pubDate></item><item><title>Transformer模型详解（图解最完整版） - 知乎</title><link>https://www.zhihu.com/column/p/338817680</link><description>Transformer 的整体结构，左图Encoder和右图Decoder 可以看到 Transformer 由 Encoder 和 Decoder 两个部分组成，Encoder 和 Decoder 都包含 6 个 block。Transformer 的工作流程大体如下： 第一步： 获取输入句子的每一个单词的表示向量 X， X 由单词的 Embedding（Embedding就是从原始数据提取出来的Feature） 和单词位置的 ...</description><pubDate>Sat, 18 Apr 2026 12:00:00 GMT</pubDate></item><item><title>有没有比较详细通俗易懂的 Transformer 教程？ - 知乎</title><link>https://www.zhihu.com/question/485876732</link><description>Transformer目前没有官方中文译名，暂时就叫Transformer吧。 在该论文中，作者主要将Transformer用于机器翻译 [2] 任务，后来研究者们发现Transformer在自然语言处理的很多任务上都展现出了优越的性能。</description><pubDate>Mon, 30 Mar 2026 20:44:00 GMT</pubDate></item><item><title>如何最简单、通俗地理解Transformer？ - 知乎</title><link>https://www.zhihu.com/question/445556653/answer/2804026992?uk_sc=WENDY&amp;utm_psn=1587138077150896128</link><description>考虑到Transformer直接建模全局信息的魅力，许多研究尝试对其进行改造，以适应视觉数据分析任务。 自2020年10月，谷歌提出ViT模型开始，Transformer在计算机视觉领域展现出了强大的潜力。 在接下来的半年多时间，平均一个月就有一个重量级的改进出现。</description><pubDate>Thu, 09 Apr 2026 17:40:00 GMT</pubDate></item><item><title>MoE和transformer有什么区别和联系？ - 知乎</title><link>https://www.zhihu.com/question/12407807384</link><description>01. Transformer：像“万能翻译官”的神经网络 Transformer 是当今AI大模型（如ChatGPT）的核心架构，最初用于机器翻译，核心是自注意力机制（Self-Attention），能同时分析句子中所有词的关系，而非像传统RNN那样逐词处理。 核心特点： 并行计算：同时处理所有词 ...</description><pubDate>Mon, 06 Apr 2026 02:13:00 GMT</pubDate></item><item><title>Transformer两大变种：GPT和BERT的差别（易懂版）-2更</title><link>https://www.zhihu.com/tardis/zm/art/607605399</link><description>Transformer是GPT和BERT的前身。谷歌和OpenAI在自然语言处理技术上的优化，都是基于这个模型。 更多关于的Transformer可以看文章： ChatGPT与Transformer（无公式版） 而在目前的“猜概率”游戏环境下，基于大型语言模型（LLM，Large Language Model）演进出了最主流的两个方向，即Bert和GPT。 其中BERT是之前最流行 ...</description><pubDate>Tue, 31 Mar 2026 20:14:00 GMT</pubDate></item><item><title>如何评价NeurIPS 2025论文Credal Transformer 对幻觉 ... - 知乎</title><link>https://www.zhihu.com/question/1958640342082515039</link><description>如何评价NeurIPS 2025论文Credal Transformer 对幻觉问题的解决思路？ 话题收录 NIPS2025 该论文针对现有 Transformer 架构可能导致LLM幻觉的问题提出了新的解决思路 [图片] 显示全部 关注者 134 被浏览</description><pubDate>Fri, 24 Apr 2026 11:32:00 GMT</pubDate></item></channel></rss>