<?xml version="1.0" encoding="utf-8" ?><rss version="2.0"><channel><title>Bing: Dataset Control .Net</title><link>http://www.bing.com:80/search?q=Dataset+Control+.Net</link><description>Search results</description><image><url>http://www.bing.com:80/s/a/rsslogo.gif</url><title>Dataset Control .Net</title><link>http://www.bing.com:80/search?q=Dataset+Control+.Net</link></image><copyright>Copyright © 2026 Microsoft. All rights reserved. These XML results may not be used, reproduced or transmitted in any manner or for any purpose other than rendering Bing results within an RSS aggregator for your personal, non-commercial use. Any other use of these results requires express written permission from Microsoft Corporation. By accessing this web page or using these results in any manner whatsoever, you agree to be bound by the foregoing restrictions.</copyright><item><title>在看一些论文中经常遇到，data set 与 dataset ，那请问这二者的区别在哪里? - 知乎</title><link>https://www.zhihu.com/question/314502626</link><description>dataset未出现在任何词典中。 然而，在当代美国英语语料库中有172例，大部分都出现在“学术”部分，这意味着dataset是一种正式的学术写作。 它之所以没有出现在词典中，可能是因为它是一种新创词语。 而从2001年起，美国历史英语语料库中出现了两例。</description><pubDate>Sun, 19 Apr 2026 20:06:00 GMT</pubDate></item><item><title>Pytorch中的Dataset 和 DataLoader起什么作用？ - 知乎</title><link>https://www.zhihu.com/question/570770126</link><description>pytorch的Dataset和DataLoader为迭代训练过程提供数据加载（包括数据增强部分）等任务。 重载的Dataset类里的两个关键函数 __len__ 、 __getitem__ 是一般需要重写 (override)。其中__len__方法返回数据集的长度，__getitem__方法实现返回样本数据集的一条数据 (包括label标注数据)，__getitem__可以让对象实现迭代功能 ...</description><pubDate>Mon, 23 Mar 2026 22:25:00 GMT</pubDate></item><item><title>PyTorch Dataset的shuffle与不shuffle：为何会产生显著差异？</title><link>https://www.zhihu.com/question/4304224360</link><description>PyTorch Dataset的shuffle与不shuffle：为何会产生显著差异？ PyTorch Dataset的shuffle与不shuffle：为何会产生显著差异？ 如何选择shuffle参数？ 显示全部 关注者 11 被浏览</description><pubDate>Sun, 19 Apr 2026 14:29:00 GMT</pubDate></item><item><title>模仿学习 (Imitation Learning)入门指南</title><link>https://www.zhihu.com/tardis/bd/art/140348314</link><description>模仿学习的思想很直观 (intuitive)。我们在前面所介绍的Model-free, Model-based强化学习方法都是 从零开始 (from scratch) 探索并学习一个使累计回报最大的策略 (policy) 。 Imitation Learning的想法是，借助人类给出的示范 (demonstration)，可以快速地达到这个目的。这个示范是多组trajectory轨迹数据 ， 每条轨迹包含 ...</description><pubDate>Thu, 16 Apr 2026 14:33:00 GMT</pubDate></item><item><title>怎样用pytorch重写dataset类，用于读取csv数据？ - 知乎</title><link>https://www.zhihu.com/question/517898768</link><description>感觉如果为了让 pytorch 的 Dataset 读取 csv 文件中的数据不用这么麻烦。 可以先用pandas读取csv文件，然后把 pandas.DataFrame 转成 Dataset 。</description><pubDate>Tue, 17 Mar 2026 18:22:00 GMT</pubDate></item><item><title>Pytorch中Dataset类的作用是什么？自己创建数据集类时，没有继承Dataset，也并无影响？ - 知乎</title><link>https://www.zhihu.com/question/566597791</link><description>最主要的问题，PyTorch dataset里面包装了很多功能，自己写比较麻烦！ 而且对于我来说，最重要的问题就是Pytorch dataset里面有很多类似prefetch的schema, 就是在你做前向推理的过程中，为了避免把数据从硬盘拉到内存的时间的损耗，pytorch dataset 会在做前向推理的时候 ...</description><pubDate>Tue, 31 Mar 2026 21:47:00 GMT</pubDate></item><item><title>写深度学习代码是先写model还是dataset还是train呢，有个一般化的顺序吗？</title><link>https://www.zhihu.com/question/498167513</link><description>它们都采用 model - dataset - train 的顺序进行构建，实现了单机多卡，联邦学习等训练环境： 在Cifar10与Cifar100上采用各种ResNet，以Mixup作为数据增广策略， 实现监督分类与无监督学习。 关于数据增广策略Mixup的科普也可以移步我们的专栏 Mixup的一个综述。</description><pubDate>Sun, 19 Apr 2026 01:01:00 GMT</pubDate></item><item><title>如何用dataset加载mnist？ - 知乎</title><link>https://www.zhihu.com/question/343400301</link><description>首先这里的dataset不是pip安装的，而是该书自带的源代码中的一个文件库 下载路径： 深度学习入门基于Python的理论与实现 右边有一个随书下载 2. 大家目录不要有中文路径。 3. 然后修改sys.path.append (os.pardir)为：</description><pubDate>Sat, 18 Apr 2026 22:16:00 GMT</pubDate></item><item><title>有人用过voxceleb dataset？ - 知乎</title><link>https://www.zhihu.com/question/265820133</link><description>VoxCeleb 是从 YouTube 的视频中提取到的包含1251人共超过10万条语音的 数据集。数据集是性别平衡的，其中男性为55%. 说话人涵盖不同的种族，口音，职业和年龄. 数据可以到 VoxCeleb dataset 上，如果需要视频的话，利用给的脚本进行下载，只需要语音的话，给作者发邮件获取，邮件说明用处即可，不需要 ...</description><pubDate>Sat, 18 Apr 2026 17:08:00 GMT</pubDate></item><item><title>TensorFlow中，形成dataset数据集后，怎么把dataset ... - 知乎</title><link>https://www.zhihu.com/question/407668875</link><description>不建议将所有的数据一股脑的做成一个dataset，再去分dataset比较麻烦，而且拥有不同类别的数据时，比较难做到每个类别按照一定比例均分，建议先处理原始数据，将原始数据按照自己的想法分成训练集和验证集，再去制作训练集和验证集的dataset 可以使用k折交叉验证，方便多次验证，得到的结果 ...</description><pubDate>Thu, 26 Mar 2026 22:36:00 GMT</pubDate></item></channel></rss>