<?xml version="1.0" encoding="utf-8" ?><rss version="2.0"><channel><title>Bing: Inductive Learning Models</title><link>http://www.bing.com:80/search?q=Inductive+Learning+Models</link><description>Search results</description><image><url>http://www.bing.com:80/s/a/rsslogo.gif</url><title>Inductive Learning Models</title><link>http://www.bing.com:80/search?q=Inductive+Learning+Models</link></image><copyright>Copyright © 2026 Microsoft. All rights reserved. These XML results may not be used, reproduced or transmitted in any manner or for any purpose other than rendering Bing results within an RSS aggregator for your personal, non-commercial use. Any other use of these results requires express written permission from Microsoft Corporation. By accessing this web page or using these results in any manner whatsoever, you agree to be bound by the foregoing restrictions.</copyright><item><title>如何理解 inductive learning 与 transductive learning? - 知乎</title><link>https://www.zhihu.com/question/68275921</link><description>Inductive learning对应于 meta-learning (元学习)，要求从诸多给定的任务和数据中学习通用的模式，迁移到未知的任务和数据上。 Transductive learning对应于 domain adaptation (领域自适应)，给定训练的数据包含了目标域数据，要求训练一个对目标域数据有最小误差的模型。</description><pubDate>Fri, 24 Apr 2026 18:41:00 GMT</pubDate></item><item><title>什么是归纳偏置（inductive bias）？ - 知乎</title><link>https://www.zhihu.com/question/1950504296085947596</link><description>归纳偏置说白了就是算法的"偏见"——面对新数据时，它倾向于做什么假设。这个概念很关键，比如说前几年的ViT和CNN之争，直接决定了为什么CNN和ViT在不同场景下表现差这么多。 什么是归纳偏置 机器学习模型本质上是在做模式匹配，但训练数据永远是有限的。归纳偏置就是模型的"先入为主"，帮它 ...</description><pubDate>Thu, 09 Apr 2026 10:09:00 GMT</pubDate></item><item><title>如何理解 inductive learning 与 transductive learning? - 知乎</title><link>https://www.zhihu.com/question/68275921/answers/updated</link><description>如果是Inductive learning，我们在只知道ABCD的颜色的情况下，训练一个模型，推及到其他点。比如我们用nearest neighbor这个简单的 ...</description><pubDate>Sun, 19 Apr 2026 10:12:00 GMT</pubDate></item><item><title>英语中的inductive argument 和deductive argument 怎么区分？</title><link>https://www.zhihu.com/question/489957348</link><description>演绎推理（英语：Deductive Reasoning）在传统的亚里士多德逻辑中是「结论，可从叫做‘前提’的已知事实，‘必然地’得出的推理」。如果前提为真，则结论必然为真。这区别于溯因推理和归纳推理：它们的前提可以预测出高概率的结论，但是不确保结论为真。 “演绎推理”还可以定义为结论在普遍 ...</description><pubDate>Thu, 23 Apr 2026 06:18:00 GMT</pubDate></item><item><title>为什么GAT能够实现Inductive learning，而GCN不行？</title><link>https://www.zhihu.com/question/409415383</link><description>GAT的这种特性使其在理论上更适合于inductive learning。 GAT的设计使其天然适合inductive learning。 GCN 虽然依赖于固定的图结构，但通过适当的修改（如图池化技术或灵活的节点特征表示），它也可以在一定程度上处理新的图结构，从而进行inductive learning。</description><pubDate>Mon, 30 Mar 2026 22:10:00 GMT</pubDate></item><item><title>逻辑学中演绎 (deductive)与推理 (inferential)有什么区别和联系？</title><link>https://www.zhihu.com/question/369854579</link><description>1. 先看定义 演绎论证：必然来自前提-如果前提是正确的，那么结论是正确的。 Deductive Argument: necessarily follows from the premises - if the premises are true, the conclusion is true. 归纳论证：前提在一定程度上支持结论 Inductive argument: conclusion is supported, to a greater degree or lesser degree, by the premises</description><pubDate>Wed, 22 Apr 2026 11:41:00 GMT</pubDate></item><item><title>为什么Graphsage是inductive的，而GCN不是？ - 知乎</title><link>https://www.zhihu.com/question/604576368</link><description>现在勉强理解了，不过新的问题又来了，上面那个源码中为什么 Inductive learning 只能用于图级别的任务？ 查阅了很多资料，我怀疑是源码的问题，理论上 Inductive learning 不一定只能用于图级别的任务，不过图神经网络上面的一般区别还是有点不一样的。</description><pubDate>Tue, 14 Apr 2026 03:23:00 GMT</pubDate></item><item><title>为什么GAT能够实现Inductive learning，而GCN不行？ - 知乎</title><link>https://www.zhihu.com/question/409415383/answers/updated</link><description>为什么GAT能够实现Inductive learning，而GCN不行？ 最近在学习图神经网络，请问 1。 所谓inductive learning在test时可以有“unseen”的节点具体意思是什么？ 比如说有10个节点的图… 显示全部 关注者 190 被浏览</description><pubDate>Sat, 11 Apr 2026 09:17:00 GMT</pubDate></item><item><title>为什么GCN是Transductive的? - 知乎</title><link>https://www.zhihu.com/question/363234280</link><description>Inductive学习指的是训练出来的模型可以适配节点已经变化的测试集，但GCN由于卷积的训练过程涉及到邻接矩阵、度矩阵（可理解为拉普拉斯矩阵），节点一旦变化，拉普拉斯矩阵随之变化，也就是你说的需要“重新计算前面的归一化矩阵”，然后重新训练模型，不能“活学活用”，所以是Transductive的 ...</description><pubDate>Wed, 01 Apr 2026 19:37:00 GMT</pubDate></item><item><title>Transformer模型的「归纳偏置」有哪些？为什么这种偏置表现出极强的泛化能力？ - 知乎</title><link>https://www.zhihu.com/question/1913281172630406108</link><description>Transformer模型在计算机视觉、自然语言处理以及计算科学等多个领域展现出卓越的性能，其核心优势之一在于其独特的“归纳偏置”（inductive biases）。 这种偏置不仅定义了模型对数据结构和任务特性的先验假设，还深刻影响了模型的泛化能力。</description><pubDate>Mon, 30 Mar 2026 21:05:00 GMT</pubDate></item></channel></rss>