如何正确理解Token经济学?

吃瓜电子官网最新热点:如何正确理解Token经济学?

更新时间: 浏览次数:5692

文 | 解码Decode 文 | 解码Decode 🤗 去年5月,当大模型厂商卷起价格战时,Tokens大概率是🤯出镜率最高的英文单词。 简单来说,Tokens是大语言🤗模型(LLM)用来切割自然语言文本的基本单位,可以直观的理解🚀为“字”或“词”。 就像工业时代用“千瓦时”度量电力消🤩耗,互联网时代用“GB”度量数据流量,AI时代用“Token🤔”来度量模型的工作量。一个Token可以理解为一个词或词片段🤔(中文里可能是一个字或词语)。 Tokens的调用量,⭐本质反映了模型推理过程的计算量。而计算量的高或低,直接揭示了😁模型在实际应用中的能力、成本、速度和可行性。 因此,从😍Tokens角度跟踪AI应用落地进展,就是一个非常深刻且切中😘要害的视角。 它意味着我们将AI从一种“黑箱魔法”或纯🤯粹的技术概念,拉回到了一个可度量、可分析、可商业化的实际生产😊要素的层面。 简单来说,这意味着我们不再只关注AI“能🚀做什么”,而是开始量化分析它“做了多少”、“效率多高”、“成😘本多少”以及“价值多大”。 谁在消耗tokens? 😁 模型厂商以tokens为主要定价单位的底层逻辑是:模型调😢用时的tokens消耗量与相应算力投入存在强关联性。而另一条❤️暗线则是,算力投入链接了营收与tokens调用量。 换🥳个说法就是,模型厂商营收与其tokens调用量呈现显著同步的😎高增趋势。 2024年6月至2025年6月,OpenA🌟I大模型基础设施——微软Azure云的日均tokens调用量💯从0.55万亿上涨至4.40万亿,与此同时,OpenAI年化🤩营收(ARR)从2024年12月的55亿美元增长至2025年😢6月的突破100亿美元,并在2025年8月达到120亿-13🤔0亿美元。 也就是说,谁消耗tokens更多谁就是基模🤯厂商的主流商业模式。 就目前来看,OpenAI、Ant😂hropic、字节跳动等基模厂商主要有C端和B端两种,其中C🤩端包括原生聊天助手、工具类原生应用(影视、图片、编程等)的订😜阅收入、付费功能以及与内部C端产品整合后的间接收入(如Goo🤗gle Chrome); B端则包含为大客户落地AI应⭐用和企业直接API调用。 C端的tokens调用量,主🤗要贡献者有三个: 1 大流量池产品内部的附加AI功能 🔥 2024年5月谷歌搜索上线的AI Overview功能🙄,至2025年二季度月活已超20亿。国海证券预测,AI Ov😢erview功能单日tokens消耗量在1.6至9.6万亿区😁间内,在2025年7月Google日均tokens调用量中的👏占比为4.9%至29.4%。 展开全文 抖音、剪💯映、今日头条等同样为大流量池C端产品,月活量级已达到10亿(😁2025年3月)、7亿(2025年7月)、2.6亿(2024🚀年下半年月均)。 百度之于搜索、美图秀秀之于图像,大流🤗量C端应用的AI改造都是上述逻辑。据非凡产研,2025年7月😆百度AI搜索访问量居国内智慧搜索品类第一、美图秀秀的国内访问🎉量/存量月活、新增下载量依旧居图像品类第一,且月度收入仍在环🤗比提升。 2 原生聊天助手 ChatGPT聊天助😉手保有较大C端用户规模,2025年7月APP+网页端合计月活😅达10.15亿,是OpenAI重要Tokens调用量驱动因素😀。 3 视频赛道拥有较大用户基础的新兴应用 除产😁品内置AI功能、聊天助手外,图像、视频、陪伴、办公、教育赛道🤔内均出现了有较大潜力的C端新兴AI应用。 字节跳动进行💯多维度布局,推出醒图/星绘(图像)、即梦(视频)、猫箱(陪伴😀)、豆包爱学(教育)等AI应用。 其中醒图、即梦7月月😡活达到4924万(当月收入59万美元)、1393万(当月收入😍58万美元),已成为图像、视频赛道内拥有较大用户量级的产品;⭐猫箱7月月活794万,当月收入达112万美元,商业转化效率较😢高。 例如接入gpt-image-1、Leonardo⭐.AI的Canva,用于文生图、文生视频、图像补全等除文本模😎态外的编辑、生成场景。根据Gemini、Kimi等大模型的折😅算口径,单张图片的输出(输入)tokens消耗量在1024(😴kimi)—1290(Gemini)之间。 B端tok🌟ens调用量主要源于企业级AI应用。其所呈现出来的特征,一是🚀渗透率较高,Google发布的“全球601个领先企业AI应用😁案例”显示,各大规模的企业已开始尝试将生成式AI投入生产,涉💯及汽车与物流、商业与专用服务、金融服务、医疗与生命科学、酒店😆与旅游、制作、工业与电子、媒体、营销与游戏、零售、科技、通信🌟、公共部门与非盈利组织”11大行业。 二是基模厂商的B😅端收入比例较大。 数据预测2025年OpenAI来自B🙌端的ARR收入占比达54%;Anthropic占比达80%。❤️谷歌透露Gemini企业客户超过8.5万家,推动调用量同比增😀长35倍;火山引擎大模型收入2024年在国内公有云市场中份额👍排名第一,占比达46.4%(外部使用量,不包括豆包等内部AP🤯P)。 技术迭代解锁应用需求 越来越多的toke👍ns调用量,并非因为更大参数的大模型,而是推理增强、多模态、😘Agent化、长上下文转型共同作用的结果。用一句话概括既是:🌟技术迭代解锁应用需求。 以GPT-5和Grok4为例:😂 GPT-5把“更强的推理能力(通过引入test-ti🙌mecompute)+多模态+更长上下文+更严格的安全控制等🚀”置于产品默认层面; Grok4核心升级则是把“原生工👏具调用+多代理协同推理+超长上下文等”做成一个可商用产品。 👏 GPT-5和Grok4如此设置的目标,是希望借助技术迭😘代增强AI在更复杂、更具备“生产力”的关键场景下的实用性、准😡确性,并且使得AI应用加速落地。 举个例子,假设原来1😊轮客服对话服务消耗200tokens,升级后客服问答场景中的😜大模型推理过程将扩展成: 客户意图澄清+内部知识库检索😘+逻辑校验+答案润色4个环节,即4轮内部推理,每轮150~2👏00tokens,最终消耗600至800tokens。 🤯 类似的案例在对应的推理增强、多模态、Agent化、长上下文🙄转型中都能找到,其最终结果是双向增强,存量AI应用场景的解决😊方案更好,对应的tokens调用量也倍数增长。 随着技😡术趋势的不断推进,大量原本因“不准、不全、不落地”而被搁置的🚀需求将被解锁。当准确率、可控性跨过可行性线后,用户特别是B端🚀企业(有生产力场景需求)或将从观望转为批量采购。 总结🤯起来就四点,推理增强把能用变成敢用、多模态把单点工具变成端到🙄端工作流、Agent化把对话变成可审计的业务系统、长上下文把😴项目级任务放进模型。 与此同时,虽然tokens调用量💯倍数增长,但定价却是直线下降。 比如xAI的Grok-😉4-Fast,输出百万Token仅需0.5美元(约3.5元人😊民币),但比起国内基模厂商来还是不够狠,去年9月阿里通义千问😀主力模型最高降价85%,Qwen-Turbo低至0.3元/百🎉万Tokens。 其中一部分原因是基模厂商的价格战,让🙄“一百万Tokens的钱,都买不了钵钵鸡”,也有一部分是因为🥳模型厂优化算力成本的结果。 2024-2025年,为优😡化大模型算力成本,模型厂商进行了压缩大模型单次推理计算量(稀😜疏化、量化、投机解码)、提升GPU利用率(连续批处理、编译器⭐融合)以及换用租金更便宜的云、芯片(国产替代、专用ASIC)🤔等方面的尝试,平均tokens定价实现了较大降幅。 此😊外模型厂商还进一步通过“模型分层+价格分层”的多样化策略压低😍模型的使用门槛,让中小预算客户也可接入,比如:OpenAI 😍用GPT-5-mini/nano覆盖轻量场景;Google以😁Gemini 2.5 Flash 主打“极速低价”;Anth🎉ropic用Claude 3.5 Haiku 提供中等规模、👏高性价比选项等。 因此一个AI飞轮就已成型,当模型使用😴成本下降,企业/个人调用ROI随之上升,更多应用需求从观望向🌟采购转化,促进tokens调用量倍数增长的同时,AI应用随之🎉迎来生态繁荣。 Token经济学就意味着,可以直观的获😡得以下几个关键进展的洞察:成本与经济效益的量化、技术效能与模💯型能力的评估、应用场景的深化与演化以及商业模式与市场格局的清😎晰化。其中成本与经济效益的量化是最直接、最商业化的意义。 😊 尾声 如果把AI大模型想象成一个“知识电厂”,To😆ken就是它发出的“度电”,你的提示词就是“合上电闸”的指令🌟,AI应用开发者就像是“家电制造商”。 从Tokens🚀角度跟踪进展,就相当于电力公司和社会在跟踪: 全社会总🤔用电量(AI应用的总规模)增长了多少? 哪种家电(哪种AI😅应用)最耗电(消耗Token最多)? 发电技术是否进步了(😡模型效率)?每度电的成本是否下降? 新的高能效家电(高效的😍AI应用)是否被开发出来? 从Tokens角度跟踪AI😁应用落地进展,意味着AI行业正在走向成熟、务实和工业化。它摒⭐弃了早期对参数规模和技术炫技的过度关注,转而聚焦于一个更根本😢的问题:如何以可承受的成本,可靠地利用AI能力来解决实际问题🤗并创造商业价值。 这标志着AI不再是实验室里的玩具,而🙄是真正成为了驱动下一代技术和商业创新的基础效用。作为从业者、👏投资者或观察者,理解Token经济学,就如同在互联网时代理解🌟带宽成本一样,至关重要。返回搜狐,查看更多

北京市:市辖区:(东城区、西城区、朝阳区、丰台区、石景山区、海淀区、门头沟区、房山区、通州区、顺义区、昌平区、大兴区、怀柔区、平谷区、密云区、延庆区)

天津市:市辖区:(和平区、河东区、河西区、南开区、河北区、红桥区、东丽区、西青区、津南区、北辰区、武清区、宝坻区、滨海新区、宁河区、静海区、蓟州区)

河北省:石家庄市:(长安区、桥西区、新华区、井陉矿区、裕华区、藁城区、鹿泉区、栾城区、井陉县、正定县、行唐县、灵寿县、高邑县、深泽县、赞皇县、无极县、平山县、元氏县、赵县、石家庄高新技术产业开发区、石家庄循环化工园区、辛集市、晋州市、新乐市)

唐山市:(路南区、路北区、古冶区、开平区、丰南区、丰润区、曹妃甸区、滦南县、乐亭县、迁西县、玉田县、河北唐山芦台经济开发区、唐山市汉沽管理区、唐山高新技术产业开发区、河北唐山海港经济开发区、遵化市、迁安市、滦州市)

秦皇岛市:(海港区、山海关区、北戴河区、抚宁区、青龙满族自治县、昌黎县、卢龙县、秦皇岛市经济技术开发区、北戴河新区)

邯郸市:(邯山区、丛台区、复兴区、峰峰矿区、肥乡区、永年区、临漳县、成安县、大名县、涉县、磁县、邱县、鸡泽县、广平县、馆陶县、魏县、曲周县、邯郸经济技术开发区、邯郸冀南新区、武安市)

邢台市:(襄都区、信都区、任泽区、南和区、临城县、内丘县、柏乡县、隆尧县、宁晋县、巨鹿县、新河县、广宗县、平乡县、威县、清河县、临西县、河北邢台经济开发区、南宫市、沙河市)

保定市:(竞秀区、莲池区、满城区、清苑区、徐水区、涞水县、阜平县、定兴县、唐县、高阳县、容城县、涞源县、望都县、安新县、易县、曲阳县、蠡县、顺平县、博野县、雄县、保定高新技术产业开发区、保定白沟新城、涿州市、定州市、安国市、高碑店市)

张家口市:(桥东区、桥西区、宣化区、下花园区、万全区、崇礼区、张北县、康保县、沽源县、尚义县、蔚县、阳原县、怀安县、怀来县、涿鹿县、赤城县、张家口经济开发区、张家口市察北管理区、张家口市塞北管理区)

承德市:(双桥区、双滦区、鹰手营子矿区、承德县、兴隆县、滦平县、隆化县、丰宁满族自治县、宽城满族自治县、围场满族蒙古族自治县、承德高新技术产业开发区、平泉市)

沧州市:(新华区、运河区、沧县、青县、东光县、海兴县、盐山县、肃宁县、南皮县、吴桥县、献县、孟村回族自治县、河北沧州经济开发区、沧州高新技术产业开发区、沧州渤海新区、泊头市、任丘市、黄骅市、河间市)

中国大模型,首登Nature封面。 9月17日,在最新😍一期的国际权威期刊Nature(自然)中,DeepSeek-😊R1推理模型研究论文登上了封面。该论文由DeepSeek团队😅共同完成,梁文锋担任通讯作者,首次公开了仅靠强化学习就能激发👏大模型推理能力的重要研究成果。这是中国大模型研究首次登上Na💯ture封面,也是全球首个经过完整同行评审并发表于权威期刊的🙄主流大语言模型研究,标志着中国AI技术在国际科学界获得最高认🎉可。 Nature在其社论中评价道:“几乎所有主流的大🤔模型都还没有经过独立同行评审,这一空白终于被DeepSeek😆打破。” 中国AI大模型的“Nature时刻” 😆自大模型浪潮席卷全球以来,技术发布、性能榜单层出不穷,但始终😘缺乏一个权威的“科学认证”机制。OpenAI、谷歌等巨头虽屡😅有突破,但其核心技术多以技术报告形式发布,未经独立同行评审。🚀 DeepSeek以其公开性和透明性打破了这一局面。D🥳eepSeek-R1模型的研究论文最早于今年年初发布在预印本⭐平台arXiv上。自今年2月14日向Nature投递论文至今😀,历经半年,8位外部专家参与了同行评审,DeepSeek-R🙄1推理模型研究论文终获发表,完成了从预印本到Nature封面🙄的“学术跃迁”。审稿人不仅关注模型性能,更对数据来源、训练方❤️法、安全性等提出严格质询,这一过程是AI模型迈向更高的透明度😀和可重复性的可喜一步。 因此,Nature也对Deep⭐Seek的开放模式给予高度评价,在其社论中评价道:“几乎所有😀主流的大模型都还没有经过独立同行评审,这一空白终于被Deep⭐Seek打破。”全球知名开源社区Hugging Face机器😡学习工程师Lewis Tunstall也是DeepSeek论😊文的审稿人之一,他强调:“这是一个备受欢迎的先例。如果缺乏这🤔种公开分享大部分研发过程的行业规范,我们将很难评估这些系统的🤗潜在风险。” 据了解,DeepSeek本次在Natur🤯e上发表的论文较今年年初的初版论文有较大的改动,全文64页,🙌不仅首次披露了R1的训练成本,而且透露了更多模型训练的技术细🎉节,包括对发布初期外界有关“蒸馏”方法的质疑作出了正面回应,😂提供了训练过程中减轻数据污染的详细流程,并对R1的安全性进行🤩了全面评估。 其中,在训练成本方面,R1-Zero和R🥳1都使用了512张H800GPU,分别训练了198个小时和8💯0个小时,以H800每GPU小时2美元的租赁价格换算,R1的😂总训练成本为29.4万美元(约合人民币209万元)。不到30👏万美元的训练成本,与其他推理模型动辄上千万美元的花费相比,可💯谓实现了极大的降本。 关于R1发布最初时所受到的“蒸馏💯”质疑,DeepSeek介绍,其使用的数据全部来自互联网,虽😂然可能包含GPT-4生成的结果,但并非有意而为之,更没有专门😅的蒸馏环节。所谓“蒸馏”,简单理解就是用预先训练好的复杂模型🎉输出的结果,作为监督信号再去训练另外一个模型。R1发布时,O💯penAI称它发现DeepSeek使用了OpenAI专有模型😂来训练自己的开源模型的证据,但拒绝进一步透露其证据的细节。 🤩 R2何时问世引发关注 自今年年初发布R1以来,D😆eepSeek在全球树立了开源模型的典范,但过去数月,外界对⭐于R2何时发布始终保持高度关注,相关传言一直不断。不过,R2🙄的发布时间一再推迟,外界分析R2研发进程缓慢可能与算力受限有😆关。 展开全文 值得注意的是,今年8月21日,D🙌eepSeek正式发布DeepSeek-V3.1,称其为“迈🎉向Agent(智能体)时代的第一步”。据DeepSeek介绍🤩,V3.1主要包含三大变化:一是采用混合推理架构,一个模型同😆时支持思考模式与非思考模式;二是具有更高的思考效率,能在更短🤩时间内给出答案;三是具有更强的智能体能力,通过后训练优化,新🤯模型在工具使用与智能体任务中的表现有较大提升。 由于R😢1的基座模型为V3,V3.1的升级也引发了外界对于R2“在路😘上”的猜测。V3.1的升级更深刻的意义在于,DeepSeek🙌强调DeepSeek-V3.1使用了UE8M0 FP8 Sc😊ale的参数精度,而UE8M0 FP8是针对即将发布的下一代💯国产芯片设计。这也表明未来基于DeepSeek模型的训练与推😅理有望更多应用国产AI芯片,助力国产算力生态加速建设。这一表🙌态一度带动国产芯片算力股股价飙升。 中国银河证券研报指💯出,DeepSeek从V3版本就开始采用FP8参数精度验证了🤯其训练的有效性,通过降低算力精度,使国产ASIC芯片能在成熟💯制程(12-28nm)上接近先进制程英伟达GPU的算力精度,🥳DeepSeek-V3.1使用UE8M0 FP8 Scale❤️参数精度,让软件去主动拥抱硬件更喜欢的数据格式,“软硬协同”😜的生态技术壁垒逐渐成为AI浪潮下新范式,未来国产大模型将更多😊拥抱FP8算力精度并有望成为一种新技术趋势,通过软硬件的协同😎换取数量级性能的提升,国产算力芯片将迎来变革。 责编:😉万健祎 校对:王朝全 版权声明 " Typ😁e="normal"@@--> 证券时报各平台所有原创😡内容,未经书面授权,任何单位及个人不得转载。我社保留追究相关😀行为主体法律责任的权利。 转载与合作可联系证券时报小助😉理,微信ID:SecuritiesTimes " Ty🤔pe="normal"@@-->返回搜狐,查看更多

发布于:雷波县
评论
全部
还没有人评论过,快来抢首评
抢首评

推荐阅读

到了一定年纪才顿悟:你反复经历的痛苦,都是未完的功课

搜狐网地方资讯 2025-10-16 12:12:08 1969

字节跳动辞退百人的背后,是一场对人品底线的筛选

搜狐网地方资讯 2025-10-16 12:10:19 5793

35岁以后最节能的活法:低欲、低调、低耗

搜狐网地方资讯 2025-10-16 02:26:52 5331

摆脱不了穷命的人,大都是“白磷型人格”

搜狐网地方资讯 2025-10-16 13:56:17 8506

废掉一个人最隐蔽的方式:白嫖心态

搜狐网地方资讯 2025-10-16 01:37:31 5980

一个家最大的灾难,有个“讨伐型人格”

搜狐网地方资讯 2025-10-16 10:54:31 3234

永远不要因为“贱人”而离职

搜狐网地方资讯 2025-10-16 01:46:58 4275

我只喜欢三种人

搜狐网地方资讯 2025-10-16 09:24:52 8720

人生建议:不能困在一个地方太久

搜狐网地方资讯 2025-10-16 03:04:45 2787

人生建议:一定要和满脑子搞钱的人交朋友

搜狐网地方资讯 2025-10-16 02:17:52 3073

《尘埃落定》:未当过傻瓜的人,也成不了聪明人

搜狐网地方资讯 2025-10-16 06:26:07 7664

任何关系最舒服的状态:情出所愿,事过无悔

搜狐网地方资讯 2025-10-16 00:27:48 9782

《长夏记》:长久的关系,靠什么维系

搜狐网地方资讯 2025-10-16 10:24:50 5485

为什么能拿出30万的人很少,但30万的车却满大街都是

搜狐网地方资讯 2025-10-16 06:36:33 1704

读懂中元,才知人这一生,从何处来,往何处去

搜狐网地方资讯 2025-10-16 03:56:28 3653

一个人变富的开始:少相信人,多相信书

搜狐网地方资讯 2025-10-16 10:46:14 1775

无论在哪里上班,一定要戒掉你的“穷人思维”

搜狐网地方资讯 2025-10-16 10:46:03 2666

隐藏式门把手,特斯拉也要放弃了?

搜狐网地方资讯 2025-10-16 07:01:43 4845

迟到21年的IPO,奇瑞错失了太多

搜狐网地方资讯 2025-10-16 00:01:24 4151

火锅进入“70元时代”,品牌靠什么赚钱?

搜狐网地方资讯 2025-10-16 01:52:20 3407

小巫卡牌丨十月就要到啦,快来看看,最近你的事业运势如何吧?

搜狐网地方资讯 2025-10-16 11:16:33 9848
为您推荐中
暂时没有更多内容了……