
知乎
6 days ago · 知乎,中文互联网高质量的问答社区和创作者聚集的原创内容平台,于 2011 年 1 月正式上线,以「让人们更好的分享知识、经验和见解,找到自己的解答」为品牌使命。知乎凭借认真、专业 …
我国日均 Token 消耗量已突破 30 万亿,这是一个什么量级的概念?
不同的AI任务消耗的Token数量相差挺大的,从200Token左右的Micro任务到60万左右的Agent工作。 最少的Micro级别,可能就是做最基础的情感sentiment分析,就比如下面这个例子,判断一句话中透露 …
大模型的token究竟是什么?如何通俗易懂地解释? - 知乎
“这个模型支持128k token的上下文”—— 意思是你跟模型的对话,加在一起,最多128000个token。 超过了,模型就开始忘前面说过的事,就像一个人短期记忆装满了,自动把最早的内容挤掉。 128k …
OpenClaw小龙虾如何系统性节省Token,有没有可落地的方案?
最近Token疯涨,coding plan快顶不住了。有没有系统性的介绍如何OpenClaw如何省Token的方案?
在计算机领域token有多少种意思? - 知乎
int(关键字token) a(标识符token) =(操作符token) 1(数字token) ;(分隔符token) 就像把一句话拆分成一个个词语那样简单 AI/NLP领域的token 这是最近特别被人熟知,即使是不学计算机的也 …
Token消耗太快了,不管是openclaw,还是cursor,有没有减少token消 …
Apr 1, 2026 · Token消耗太快了,不管是openclaw,还是cursor,有没有减少token消耗有效的办法? LLM Token 优化是指在 AI 应用中最小化 Token 的消耗,以降低 API 成本并提高推理延迟。 LLM 处 …
本地模型部署划算还是付费买 Token 划算? - 知乎
当然是买token。 token贵是因为国外的贵。 国内提供商的又不贵。尤其是 coding plan 基本就国外二十分之一的价格,哪怕养个龙虾,成本也没多少。 你都 本地部署 了,本地部署的哪个能打得过 国内模 …
Claude Code每月$20配额不够用,有什么省token或多平台切换的技巧?
以每次交换约 500 token 为准: 5 条消息:7.5K token 10 条消息:27.5K token 20 条消息:105K token 30 条消息:232K token 第 30 条消息的成本比第 1 条消息高出 31 倍 正确的做法:在原始消息上点击 …
你们在OpenClaw上的token消耗如何? - 知乎
在 deepseek 上用掉1.6亿,deepseek比较诚实,只要在 cache 中,就按命中算,折合下来不到5毛/百万token,适合openclaw这种把一堆上下文颠过来倒过去发给大模型的用法。
用transformer做视觉,具体是怎么把图片转成token的? - 知乎
这些图像的token意义上等价于文本的token,都是原来信息的序列表示。 不同的是,文本的token是通过分词算法分到的subword,这些subword会被映射到字典的index;也就是说,文本的token是一个数 …