ChatGPT中文网

一次 ChatGPT 问答,烧掉多少电

YY2026-04-27 10:22:453

你每天都在和 AI 聊天——ChatGPT、豆包、元宝、文心一言、Kimi,随便挑一个。

两个画面,你应该都熟。

第一个画面——打开 ChatGPT 问一个问题,三秒钟答案就刷出来。或者在 Claude 里跑代码,API 调用一个接一个触发,Token 额度掉掉掉,一会儿弹窗提示快到上限了。感知得最强的东西是屏幕上新出现的字、额度条在走——不是电费。

第二个画面——拿自己 8G 内存的 MacBook 本地跑一个 3B 的小模型转语音。风扇开始响,键盘底部烫手,电池电量肉眼可见地往下掉。感知得最强的东西是电脑发烫——不是电表。

不管是用 ChatGPT 这种云端的,还是本地跑模型的——电表都在转,只是你没看到

这篇做一件事——把一次 ChatGPT 问答的完整电力链条拆给你看。一次问答消耗多少计算量、烧多少电、值多少钱、钱从哪里来、电最后压到谁头上。

一、一次 ChatGPT 问答,0.3 瓦时

先给一个最硬的数字。

ChatGPT 现在跑的是 GPT-5 系列(刚发了 GPT-5.5)。按 Epoch AI 2025 年的第三方测算,一次问答大约 0.3 瓦时。这个数还是保守的——OpenAI 自己披露 GPT-5 相比上一代,推理能耗又降了 65%,折算到每百万 token 只烧 0.98 度电

Google 在 2025 年 8 月第一次官方披露 Gemini 的数据,基本是同量级——中位数 0.24 瓦时。0.24 瓦时是什么概念?大概让一台微波炉跑 1 秒钟

更有意思的是后半句——Google 同时披露,这个数字比一年前降了 33 倍。过去一年里,同样的 Gemini 系统,单次问答的能耗砍到了原来的三十分之一。

而跟同一代 ChatGPT 比——0.3 瓦时一次,和 Gemini 同量级,和你百度搜一次网页也是同量级。

而在 2023 年,一篇被广泛引用的论文给出的估算是 3 瓦时一次,是现在的十倍。那个数字直接催生了"一次 ChatGPT 查询等于 10 次谷歌搜索"的流行说法——这个说法现在已经被证伪了。

所以如果有人跟你说"AI 烧电是灾难",第一反应应该是:到底是 0.3 瓦时还是 3 瓦时? 相差十倍。

FIGURE 1

一次问答的能量分解:从计算量到电费

         一次 ChatGPT 问答                 计算量 FLOPS ≈ 激活参数 × 2 × token 数   相当于约 10 亿次乘加                 GPU 秒:按 H100 效率反推   相当于 1 到 2 秒 GPU 时间                 0.3 Wh   Google 2025-08 官方 · 相当于微波炉跑 1 秒       折算到电费 ≈ 不到 1 厘钱

一次问答的电费不到 1 厘。你感知不到,这就是问题的起点。

二、MoE 是个省电革命,但"省"得有条件

ChatGPT、Gemini、豆包这类 AI 模型一年能把能耗砍到三十分之一,背后有一个关键的技术动作——MoE

MoE 全称 Mixture of Experts,白话叫"专家分工"。传统模型像一个全科医生——你问什么它都从头到尾想一遍。MoE 模型像一个大医院——里面坐着几百个专科医生,你来问感冒,只请呼吸科那位出诊,其他人歇着。

DeepSeek V3 的数字最直观。总参数 6710 亿,但每次回答你的问题,实际激活的只有 370 亿——激活率 5.5%。算力消耗等于一个 30-40B 的普通稠密模型,但能处理的问题相当于一个 6710B 的大家伙。

省多少?Epoch AI 估算同等智能下省 2-4 倍电

这是 2024-2025 年整个行业的主旋律——GPT-5、Qwen3、豆包、华为盘古 5.5,几乎全部走 MoE 路线。你感觉模型越来越聪明、价格越来越便宜,背后有一大半是 MoE 在出力。

但 MoE 有一个反直觉的地方。

Stanford 2026 AI Index 测过一轮,发现同样问一个问题,DeepSeek V3 消耗的电是 Claude 4 Opus 的 4.6 倍

怎么回事?因为 V3 跑的是长链式思考——它会在内部先推理很多步再给你答案。MoE 让激活参数降下来了,但推理链变长,总的乘加运算次数反而上去了。

省的是"同等智能下"的电费,不是绝对值。 如果你让 MoE 去硬啃一个复杂推理任务,它照样烧。

三、单次降 33 倍,总量却涨了 1000 倍

到这里你可能会觉得——那 AI 烧电的问题好像没想象的那么严重?单次能耗一直在降,省电技术越做越好。

如果你只看"单次",确实是这样。但把视角拉远一点,看总量。

2026 年 3 月 23 日,国家数据局局长刘烈宏在中国发展高层论坛上公布了一个数字——截至 2026 年 3 月,中国日均 Token 调用量已经超过 140 万亿

往前翻两年。2024 年初的这个数字是多少?约 1000 亿

两年,1000 倍

这是什么概念?你把 2024 年一年用 AI 的次数算清楚,再乘一千倍,得到的就是现在一天的量。2026 年 3 月的某一周,全球 AI 模型调用量 20.4 万亿个 Token,中国一家吃掉 7.359 万亿,占全球 36%

FIGURE 2

单次降 33 倍 vs 总量涨 1000 倍——电表的真实剪刀

      能耗/价格   总调用量          单次能耗   ↓ 一年 33×          日均 Token 调用量   ↑ 两年 1000×          剪刀交叉          2024 年初   2025   2026 Q1       单次 ÷ 33 × 总量 × 1000 = 总电费 × 30

每次问答更省电,但问的人多了、问得也勤了——结果是电表转得更快。

经济学里有个词叫 Jevons 悖论——19 世纪英国经济学家发现,蒸汽机效率提高之后,煤的消耗不但没降,反而暴涨了。因为蒸汽机更便宜,用的人更多。

AI 正在重演这件事。单次能耗降 33 倍,总量涨 1000 倍,最后全国的电表转得更快了。

四、训练一次的电,推理一年之内追平

讲到这儿还有一层反常识需要拆开。

过去两年,媒体讲 AI 烧电,主角永远是训练。一次大模型训练动辄几百 GWh——GPT-5 训练一次花了 5 亿美元,比 GPT-4 多了五倍,对应的能耗保守估算在 200 到 500 GWh 之间。相当于 2 万到 5 万户美国家庭用一整年的电,或者旧金山全市跑一两周。数字听着吓人,记者写稿也爽。

但如果你去问 NVIDIA 的黄仁勋、问 McKinsey 的分析师、问 SemiAnalysis 的专家,他们会告诉你同一件事——AI 消耗的总电力里,80-90% 来自推理,不是训练

这话初听会觉得不对。一次训练烧几百 GWh,一次推理才 0.3 瓦时,怎么可能推理反而多?

算一下就明白。

ChatGPT 每天的查询量是 25 亿次(这是 2025 年中 Altman 披露的数字,GPT-5.5 上线之后只会更多)。按 Epoch 的 0.3 瓦时算,一年大约消耗 270 GWh——这个数字本身,已经能跟 GPT-5 训练一次的量级掰手腕了

这只是 OpenAI 一家。把 Google、Meta、Anthropic、字节、阿里全加起来——训练的那点电,推理在一年之内就能全部追平。

训练是一次性投入,推理是每天每秒都在发生的事。模型训练完就摆在那儿,但每一个用户的每一次对话,都是新一轮电表转动。

FIGURE 3

训练一次 vs 推理每天:两种完全不同的电力曲线

      训练   集中 · 一次性 · 脉冲          GPT-5 训练一次   200-500 GWh              推理   分散 · 持续 · 每天                                        ChatGPT 每天 25 亿次   年耗 ≈ 270 GWh+       每天追一点   几个月就追平训练

训练是一次性烟花,推理是一直转的风扇。时间拉长了看,风扇才是主角。

五、这杯免费的 AI 咖啡,你没付钱

讲到这儿第三个问题——这些电费到底是谁在付?

你每天用 ChatGPT 免费,用豆包免费,用文心一言免费。有些应用 Plus 档 20 美元一个月,重度用户也觉得没多少钱。但算力不是免费的,电也不是免费的。这笔钱一定是有人在付。

先看 OpenAI 2025 年的账本。收入 131 亿美元,推理成本 84 亿美元——一年翻了 4 倍。毛利率从 40% 砍到 33%。全年烧掉 85 到 90 亿美元现金。

更有意思的是用户结构——OpenAI 每周活跃用户 8 亿,其中 7.6 亿是免费用户。但免费用户只占推理支出的 34%。剩下的 66% 来自不到 5% 的付费用户——因为 o1、o3 这些重型推理模型,是付费档才开放的,而重度用户会用得特别狠。

OpenAI 收紧 Plus 档配额,不是在管白嫖党,是在管付费亏更多的人。

这笔 90 亿美元的窟窿谁来填?

第一层——股权。SoftBank 承诺投 400 亿美元(其中 85 亿是它自己把 Arm 股票拿去质押借来的),MGX(阿布扎比主权基金)再加 70 亿。

第二层——债务。Oracle 2026 年融资计划 450 到 500 亿美元,其中 PIMCO(全球最大的债券基金,背后是美国养老金)正在和 Oracle 谈 140 亿美元债务融资,专供给为 OpenAI 建的 Stargate 数据中心。

第三层——关联交易。微软 Azure 目前 45% 的未交付订单来自 OpenAI——微软用 Office 和 Windows 老业务的现金流,硬扛 AI 的资本开支。

穿透一下——你用 ChatGPT 免费这件事,电费实际上是阿布扎比主权基金 + 美国养老金 + 日本 SoftBank 借 Arm 股票 + 微软用 Office 老钱,这几方联手付的

换到中国场景。抖音广告、微信游戏玩家、淘宝卖家——钱烧得直接多了。字节 2026 年 AI 预算 1600 亿,其中 850 亿买 AI 芯片。腾讯元宝 2025 年前两个半月投放 7 亿人民币,是豆包的 8 倍。百度文心一言搞 5 亿红包补贴——花出去之后,它的 MAU 从 996 万掉到 531 万,几乎腰斩。

一句话——你用豆包免费,是抖音的广告主付的;你用元宝免费,是微信游戏玩家付的;你用文心免费,是百度的搜索广告主付的

FIGURE 4

这杯免费的 AI 咖啡,穿透下来谁付了钱

         你(免费用户)                    ChatGPT(美国路线)       豆包/元宝(中国路线)             OpenAI 烧 90 亿美元 / 年          SoftBank 400 亿(Arm 股票抵押)   MGX 阿布扎比主权基金 70 亿   PIMCO 美国养老金 140 亿债   微软 Azure 关联交易补贴             字节 1600 亿 / 腾讯 / 百度 烧钱抢用户          抖音广告主(刷抖音的每条广告)   微信游戏玩家(王者荣耀充值)   百度搜索广告主   电商卖家佣金       免费 AI 的电费,永远有人付——只是不是你

免费的东西最贵。贵的不是你,是替你付钱的那一圈人。

六、电网已经扛不住了

这些电,最后要落到电网上。

美国的信号最明显。PJM 电网(覆盖美国东部 13 个州的区域电网)2025 到 2026 年度容量拍卖,电价从每兆瓦每天 28.92 美元暴涨到 269.92 美元——一年涨了 833%。2026 到 2027 年度再涨到 329,直接触顶价。涨价里 63% 来自数据中心的新增用电,9.3 亿美元账单直接转嫁到当地居民身上。

美国弗吉尼亚、俄亥俄、伊利诺伊三个州 2025 年居民电价同比分别涨 13%、12%、16%——都是数据中心集中的地方。

电网扛不住,科技公司就开始自己找电源。最近一年最标志性的三张合同——

• 微软签了 Constellation 的三哩岛核电站,835 兆瓦、20 年、16 亿美元。原本计划 2027 年重启,现在推迟到 2028。

• 亚马逊签 Talen 的 Susquehanna 核电站,1920 兆瓦、17 年、180 亿美元。FERC(美国联邦能源监管委员会)两次否决它"表后直连"的方案——不允许核电绕过电网专供科技巨头。

• Google签了 Kairos 的小型模块化反应堆(SMR),500 兆瓦、2030 到 2035 年交付。

中国这边逻辑完全不同。国家集中规划——东数西算八大枢纽把负荷搬到西部风光基地,呼和浩特枢纽绿电占比做到 86%。国家电网 2025 年投资 8250 亿,"十五五"投资总规模 4 万亿,比上一个五年多 40%。

美国是市场定价把矛盾暴露出来(居民电价涨 13%,科技公司抢核电),中国是集中规划对冲(把数据中心搬到电便宜的地方、电网一次性扩建)。

两种路线各有代价。但共同的事实是——AI 这波消纳对电网的冲击,已经大到电力结构必须重新洗牌

七、端侧 AI 也不是解药

既然云端电费这么贵,有没有可能让 AI 全跑到你手机上、电脑上——所谓的"端侧 AI"?

硬件侧的铺垫已经到位。AI PC 2025 年占 PC 市场 31%,2026 年会冲到 54.7%(Gartner 数据)。智能手机里带 NPU 的型号 2025 年出货超过 9.8 亿台。Apple Intelligence 把一个 30 亿参数的模型塞进 iPhone,用 2 比特量化压缩。Qualcomm 说得更狠——端侧推理比云端省 90% 功耗

听起来好像问题解决了——AI 的电表不会响到电网头上,因为跑到每个终端里去了。

但端侧有个真实问题。

iPhone 用户在 Apple 官方社区的投诉很一致——开了 Apple Intelligence 之后,早上充到 85%,下午就剩 20%;关掉 AI,晚上回家还有 50%。Apple 的应对策略是在 iOS 26 里推一个"自适应电源管理"——用 AI 帮你省电,来弥补 AI 本身的耗电,套娃。

回到我 8G 内存 MacBook 跑 3B 模型那个画面——风扇响、键盘烫、电池 20 分钟掉三成。这是云端 AI 的电费转移到你自己的电表上

再看全局数字。Gartner 预测到 2026 年,云端 AI 基础设施支出的 55% 用于推理,2029 年会超过 65%——云端推理不降反升。为什么?因为端侧能跑的只是"漏斗第一层"——分类、短补全、语音识别这种简单任务。复杂推理、长上下文、多模态——还得回云端

也就是说——端侧 AI 不是让 AI 电费消失了,是把一部分电费从云厂的财报里,搬到了每个用户的充电宝里

这笔账特别隐形——云厂的财报看不到,国家能源统计看不到,全球 AI 碳排放的口径看不到。但它真实存在——全世界 14 亿台联网设备,每台每天多耗几分钱的电,汇总起来是一个不小的数字。

我的预测是——到 2027 年左右,欧盟或者中国会第一次把"AI 常驻功耗"写进手机/PC 的能效标签,像冰箱一样分等级。因为到那时候,旗舰手机端侧可能常驻一个 80 亿参数模型,待机功耗从现在的 50 毫瓦跳到 300 毫瓦,续航下滑会逼消费者维权——那一天,云厂"端云协同"的甩锅游戏就结束了。

八、给基建玩家的三点启发

写到这儿,这条"生产 → 包装 → 消纳"的完整链条就讲完了。如果你在做算力基建、IDC、光纤、电力、或者上下游任何环节,有三点值得收走。

第一点——电网是最后一道硬墙。前面六篇文章讲了芯片、光纤、枢纽、云厂。这些都有替代方案——芯片被制裁有国产,光纤不够可以建,枢纽用地可以批。但电网扩容要 3 到 5 年,核电站重启要 4 年起步。当 AI 推理总量两年涨 1000 倍时,真正会卡脖子的是电。谁手上有合规、位置对、电力配套的机房,谁就有说不完的客户。

第二点——补贴链条的终点迟早要到。C 端免费的 AI 应用,靠阿布扎比主权基金、美国养老金、广告主、游戏玩家在付账。这个游戏能玩多久?取决于 OpenAI 什么时候能真盈利(2025 年毛利率 33% 已经是近年最低)、字节 AI 预算什么时候收敛(2026 比 2025 多 100 亿)。补贴战在 2026-2027 年大概率见顶,之后进入"真正开始收钱"的阶段——这意味着模型 API 的 Token 价格会反弹、免费额度会收紧、广告变现会更激进。

第三点——DeepSeek V4 是下一个结构性转折点。(2026-04-24)V4 正式开源发布,双版本——Pro 1.6 万亿参数(激活 490 亿) 和 Flash 2840 亿参数(激活 130 亿)。相比 V3,计算量(FLOPs)降 73%、KV 缓存缩 90%——这是一次把"同等智能下的推理成本"砍掉四分之三的硬升级。更重要的是,寒武纪当天 Day 0 适配——模型开源的同一天就发布对应的推理代码。昇腾因为高端算力受限,V4-Pro 吞吐量暂时有限,DeepSeek 官方明确说下半年昇腾 950 超节点批量上市后价格会大幅下调。这意味着——国产芯片不再只靠政策驱动,而是有了第一个"性能够用 + 生态当天对齐"的外部标杆。未来 12 个月,会有大批中小企业从英伟达迁移到国产芯片跑推理。国产芯片产业链里谁最受益,值得重新排一次座次。

写在最后

这篇文章从一个画面开始——在云上调 API 时 Token 哗哗掉,在本机跑小模型时电脑发烫

走到这里,你应该明白了——这两个画面不是两件事,是同一件事的两个侧面。你看见的是 Token 额度和电脑温度,你没看见的是从计算量到瓦时、从瓦时到电费、从电费到那一串在暗处付账的人。

算力是算出来的,电是烧出来的,钱是有人在付的——这条链从来都有。AI 这波让它变得更长、更快、更疯。

这篇是"生产 → 包装 → 消纳"三段叙事的终章。下一篇,我想换一个方向——跳出技术层,看一看下一个可能被 AI 重塑的传统基建行业


数据来源:Google Cloud Blog 2025-08 Gemini 能耗官方披露;Epoch AI《ChatGPT 能耗分析》2025;OpenAI GPT-5 发布公告(2025-08-07)与 GPT-5.5 发布(2026-04-23,TechCrunch);Stanford《2026 AI Index》DeepSeek V3 推理对比;国家数据局刘烈宏在 2026-03-23 中国发展高层论坛年会发布数据;Fortune / The Information / Sacra OpenAI 财务数据;IEA《Energy and AI》2025;PJM 2025/2026 容量拍卖数据;Gartner AI PC 出货预测;DeepSeek V4 发布公告(2026-04-24)。

本文链接:https://www.chatgpt123.cn/ai/41.html

阅读更多

相关文章

网友评论