
知乎 - 有问题,就会有答案
为什么传统机器学习,都会用predict表示预测,而深度学习中往往用inference这个词,他们意义有什么不同吗
机器学习中Inference 和predict的区别是什么?
Inference in deep learning: More specifically, the trained neural network is put to work out in the digital world using what it has learned — to recognize images, spoken words, a blood disease, predict the …
如何简单易懂地理解变分推断 (variational inference)?
笔者在入门VAE(Variational Autoencoder)的时候,发现几乎所有博客都会提到 变分推断 (Variational Inference)和 ELBO (证据下界,Evidence Lower Bound),但是总是搞不明白具体是什么意思, …
[CMoE: Fast Carving of Mixture-of-Experts for Efficient LLM Inference ...
[CMoE: Fast Carving of Mixture-of-Experts for Efficient LLM Inference]: Large language models (LLMs) achieve impressive performance by scaling model parameters, but this comes with significant infer…
PyTorch如何量化模型(int8)并使用GPU(训练/Inference)?
或者是否可以通过将PyTorch模型转化成TensorRT进行int8的GPU Inference?
TensorRT做Inference时报错,cuda memory 泄露的问题如何解决?
CUDA编程入门 1、CUDA核函数嵌套核函数的用法多吗? 答:这种用法非常少,主要是因为启动一个kernel本身就有一定延迟,会造成执行的不连续性。 2、代码里的 grid/block 对应硬件上的 SM 的关 …
paddle inference 和 paddle fastdeploy哪个更好? - 知乎
注意:原始模型文件(.pdparams、.pdopt、.pdstates)经过paddle inference模型转换工具,即可得到。 ②inference_cls.yaml FastDeploy会从yaml文件中获取模型在推理时需要的预处理信息。 samples代 …
Judea Pearl 对 Causal Inference 的贡献有多大? - 知乎
2011年,Judea Pearl获得ACM图灵奖,颁奖词(以下不是严格的中译,仅供参考)总结了他的贡献: Judea Pearl创建了处理非确定信息的表示与计算基础,由此改变了人工智能。Pearl的工作超出了传统 …
如何看待DeepSeek发布的新模型DeepSeek-Math-V2? - 知乎
deepseek-v3.2为什么那么重视降本,而且是降低某些人(如chenqin)嗤之以鼻的inference cost,其实就是为了这个。 论文中最heavy的模式(能拿金牌的模式)是64证明——64* 64验证——16迭代,假 …
如何看待Qwen推出的新Scaling Law ——Parallel Scaling?
二是扩展推理思考的时间(Inference-time Scaling),让模型思考更长时间,得出更智能的结果。 然而,更大的参数量导致模型对显存需求“爆炸式”增长,更长的推理时间在需要更多算力的同时也大大增 …