答:人工智能处理简单的文本任务耗电量极低,但当提示信息较长、输出结果为多模态或系统大规模运行时,耗电量则会大幅增加。训练通常是前期耗能最大的环节,而随着请求的累积,日常推理的耗电量也会显著增加。
要点总结:
背景:在给出任何能耗估算之前,请先明确任务、模型、硬件和规模。
培训:在制定预算时,将模型培训视为主要的预先能源投入。
推理:密切关注重复推理,因为每次请求的小额成本在规模化后会迅速累积。
基础设施:任何合理的估算都应包括冷却、存储、网络和闲置容量。
效率:使用更小的模型、更短的提示、缓存和批处理来降低能源消耗。

您可能还想阅读以下文章:
🔗 人工智能如何影响环境
阐述了人工智能的碳足迹、能源消耗和可持续性方面的权衡取舍。.
🔗 人工智能对环境有害吗?
揭示人工智能模型和数据中心隐藏的环境成本。.
🔗 人工智能是好是坏?优缺点分析
全面审视人工智能的益处、风险、伦理和实际影响。.
🔗 什么是人工智能?简明指南
几分钟内即可学习人工智能基础知识、关键术语和日常示例。.
为什么这个问题比人们想象的更重要🔍
人工智能的能源消耗不仅仅是一个环境方面的讨论话题,它还涉及到一些非常现实的问题:
-
电力成本——尤其是对于运行大量人工智能请求的企业而言
-
碳排放影响——取决于服务器背后的电源
-
硬件负载——高性能芯片消耗大量功率
-
规模化决策——一个廉价的提示可能会演变成数百万个昂贵的提示。
很多人会问“人工智能消耗多少能源?”,因为他们想要一个耸人听闻的数字,一个能吸引眼球、引人注目的巨额数字。但更重要的问题是:我们讨论的是哪种类型的人工智能应用?因为这会彻底改变一切。(国际能源署)
一个自动补全建议?成本很小。
在大规模集群上训练前沿模型?成本就大得多。
一个始终在线、服务数百万用户的企业级人工智能工作流程?没错,这笔开销会迅速累积……就像积少成多,最终变成房租一样。(美国能源部,谷歌云)
人工智能消耗多少能源?简而言之⚡
以下是实用版本。.
人工智能的耗电量差异巨大,从执行轻量级任务所需的几分之一瓦时,到进行大规模训练和部署所需的大量电力,不一而足。这个范围听起来大得惊人,因为它的确非常大。(谷歌云, Strubell等人)
简而言之:
-
简单的推理任务——通常每次使用量都相对较小。
-
长时间对话、大量输出、图像生成、视频生成——这些都明显更加耗能。
-
训练大型模型——耗电量之王
一条好的经验法则是:
-
训练是一项巨大的前期能量投入。 🏭
-
推理就像持续不断的公用事业账单💡( Strubell等人,谷歌研究院)
所以,当有人问“人工智能消耗多少能源?”,直接的回答是:“并非一个固定的数值——但消耗量之大,足以影响效率,也足以改变规模。”(国际能源署, 《绿色人工智能》)
我知道这话不够朗朗上口,但这是事实。.
好的AI能源估算应该具备哪些条件?🧠
好的估算并非只是在图表上随意罗列一个惊人的数字。一个切实可行的估算需要考虑具体情况。否则,就好比用体重秤称量雾气一样。结果听起来很厉害,但远不足以令人信服。(国际能源署,谷歌云)
一个合理的AI能耗估算应该包括:
-
任务类型——文本、图像、音频、视频、训练、微调
-
模型大小——更大的模型通常需要更多的计算能力。
-
所使用的硬件——并非所有芯片的效率都相同。
-
会话时长——简短提示和冗长的多步骤工作流程截然不同。
-
利用率——闲置系统仍会消耗电力
-
冷却和基础设施——服务器并非全部费用
这就是为什么两个人可以就人工智能的用电量争论不休,而且在谈论完全不同的事情时,两人都能显得信心满满。一个人指的是聊天机器人的一次回复,另一个人指的是大规模的训练运行。两人都提到“人工智能”,然后对话就突然跑偏了😅
对比表 - 估算人工智能能耗的最佳方法📊
对于任何想要回答这个问题而不把它变成行为艺术的人来说,这里有一个实用的表格。.
| 工具或方法 | 最佳观众 | 价格 | 为什么有效 |
|---|---|---|---|
| 简单的经验法则估算 | 好奇的读者们,同学们 | 自由的 | 快速、简便,虽然有点模糊——但足以进行粗略的比较。 |
| 设备侧功率计 | 独立建造者、业余爱好者 | 低的 | 测量实际的机器牵引力,这令人耳目一新地体现了混凝土的特性。 |
| GPU遥测仪表盘 | 工程师、机器学习团队 | 中等的 | 虽然它能更详细地描述计算密集型任务,但可能会忽略较大的设施开销。 |
| 云计费 + 使用情况日志 | 初创公司、运营团队 | 中等至高 | 将人工智能的使用与实际消费联系起来——虽然并不完美,但仍然很有价值。 |
| 数据中心能源报告 | 企业团队 | 高的 | 提供更全面的运营可视性,冷却和基础设施开始在此显现。 |
| 全生命周期评估 | 可持续发展团队,大型组织 | 感觉有点高,有时会很痛 | 它最适合进行深度分析,因为它超越了芯片本身……但它的速度很慢,而且相当笨重。 |
没有完美的方法。这多少有点令人沮丧。但价值是有层次的。通常来说,实用性胜过完美。(谷歌云)
最大的因素不是魔法,而是计算和硬件🖥️🔥
人们在想象人工智能的能耗时,往往会把模型本身想象成耗电的源头。但实际上,模型是运行在硬件上的软件逻辑。真正消耗电费的是硬件。( Strubell等人,谷歌云)
最大的变量通常包括:
-
GPU 或加速器类型
-
使用了多少芯片
-
它们保持活跃的时间有多长?
-
内存负载
-
批次大小和吞吐量
-
无论系统是否经过良好优化,还是仅仅依靠蛮力(谷歌云、 LLM 能源使用中的量化、批处理和服务策略)
高度优化的系统能以更少的能耗完成更多的工作。而粗制滥造的系统却能肆无忌惮地浪费电力。你也知道,有些系统堪比赛车,有些系统却像用胶带粘上火箭的购物车🚀🛒
没错,模型规模确实很重要。更大的模型往往需要更多的内存和计算资源,尤其是在生成较长的输出或处理复杂推理时。但一些效率优化技巧可以改变这种状况:(绿色人工智能、量化、批处理和LLM能源使用中的服务策略)
-
量化
-
更佳的路线
-
小型专业机型
-
缓存
-
批量处理
-
更智能的硬件调度( LLM 能源使用中的量化、批处理和服务策略)
所以问题不仅在于“模型有多大?”,还在于“它的运行有多智能?”
训练与推理——这两者截然不同🐘🐇
这种分歧几乎让所有人都感到困惑。.
训练
训练是指模型从海量数据集中学习模式的过程。这可能需要许多芯片长时间运行,处理海量数据。这个阶段非常耗能,有时甚至极其耗能。( Strubell等人)
训练能量取决于:
-
型号尺寸
-
数据集大小
-
训练次数
-
失败的实验
-
微调过程
-
硬件效率
-
冷却开销( Strubell 等人,谷歌研究)
人们常常忽略这一点——公众通常认为开发过程就是一次大型训练运行,完成一次就万事大吉了。但实际上,开发可能涉及多次运行、调优、重新训练、评估,以及围绕主要目标进行的所有繁琐但成本高昂的迭代。( Strubell 等人, 《绿色人工智能》)
推理
推理是指模型响应实际用户请求的过程。单个请求看似微不足道,但推理过程却会反复发生,次数高达数百万次,有时甚至数十亿次。(谷歌研究院,美国能源部)
推理能量随以下因素增长:
-
提示长度
-
输出长度
-
用户数量
-
延迟要求
-
多模态特征
-
正常运行时间预期
-
安全和后处理步骤( Google Cloud , LLM 能源使用中的量化、批处理和服务策略)
所以,训练比作地震,推断比作潮汐。一个是剧烈的,一个是持续的,两者都能在一定程度上改变海岸线。这或许是个不同寻常的比喻,但大体上说得通。.
人们往往忽略的隐性能源成本😬
如果仅凭芯片来估算人工智能的功耗,通常会低估实际功耗。虽然未必会造成灾难性后果,但足以产生影响。(谷歌云,国际能源署)
以下是隐藏的线索:
降温❄️
服务器会产生热量。强大的AI硬件会产生大量热量。散热必不可少。计算消耗的每一瓦功率都会导致需要消耗更多能源来维持合理的温度。(国际能源署,谷歌云)
数据流动🌐
在存储设备、内存和网络之间传输数据也需要消耗能量。人工智能不仅仅是“思考”,它还在不断地处理信息。(国际能源署)
闲置产能💤
为高峰需求而设计的系统并非始终以高峰需求运行。闲置或未充分利用的基础设施仍然会消耗电力。(谷歌云)
冗余性和可靠性🧱
备份、故障转移系统、冗余区域、安全层——所有这些都非常重要,都是更宏大的能源蓝图的一部分。(国际能源署)
存储📦
训练数据、嵌入向量、日志、检查点、生成的输出——这些数据都存储在某个地方。存储当然比计算便宜,但从能源角度来看,存储并非免费。(国际能源署)
这就是为什么“人工智能消耗多少能源?”这个问题无法仅通过单一的基准测试图表来解答。整个技术栈都至关重要。(谷歌云,国际能源署)
为什么一个人工智能提示可能很小,而下一个却可能很大📝➡️🎬
并非所有提示都相同。要求改写句子与要求进行冗长的分析、多步骤编码或生成高分辨率图像截然不同。(谷歌云)
以下因素往往会增加每次交互的能量消耗:
-
更长的上下文窗口
-
较长的回复
-
工具使用和回收步骤
-
多次推理或验证
-
图像、音频或视频生成
-
更高的并发性
-
降低延迟目标(谷歌云、 LLM 能源使用中的量化、批处理和服务策略)
轻量级的文本回复可能相对便宜。但庞大的多模态工作流程,嗯,就不便宜了。这有点像点咖啡和承办婚礼餐饮。从技术上讲,两者都属于“餐饮服务”。但它们之间却截然不同☕🎉
这一点对产品团队尤为重要。一项在低使用率下看似无害的功能,如果每次用户会话时间延长、内容更丰富、计算量更大,那么随着用户规模的扩大,其成本也会变得非常高昂。(美国能源部,谷歌云)
消费级人工智能和企业级人工智能并非同一概念🏢📱
普通用户如果只是偶尔使用人工智能,可能会认为偶尔出现的提示才是最大的问题。但通常情况下,真正的问题并不在于此。(谷歌云)
企业应用改变了计算方式:
-
数千名员工
-
始终在线的副驾驶
-
自动化文档处理
-
通话摘要
-
图像分析
-
代码审查工具
-
后台代理持续运行
这就是能源总消耗量开始变得至关重要的原因。并非因为每一次消耗都会造成灾难性后果,而是因为重复会产生倍增效应。(美国能源部,国际能源署)
在我自己的测试和工作流程审查中,人们常常会在这里感到惊讶。他们关注的是型号名称或炫酷的演示,而忽略了实际使用量。而实际使用量往往才是真正的驱动因素——或者说是救命稻草,这取决于你是向客户收费还是支付水电费😅
对消费者而言,这种影响可能感觉很抽象。但对企业而言,它很快就会变得具体起来:
如何在不放弃人工智能的前提下降低人工智能的能源消耗🌱
这一点很重要,因为我们的目标并非“停止使用人工智能”。通常来说,这既不现实,也没有必要。更有效地利用人工智能才是更明智的做法。.
以下是几个最重要的杠杆:
1. 使用能完成任务的最小型号
并非所有任务都需要重量级模型。使用更轻量级的分类或摘要模型可以快速减少浪费。( Green AI , Google Cloud )
2. 缩短提示和输出
输入冗长,输出也冗长。额外的令牌意味着额外的计算。有时,精简提示信息是最简单有效的办法。( 《LLM 能源使用中的量化、批处理和服务策略》 , Google Cloud )
3. 缓存重复结果
如果同一个查询反复出现,就不要每次都重新生成。这一点几乎显而易见,但却常常被忽略。(谷歌云)
4. 尽可能批量处理作业
批量执行任务可以提高资源利用率并减少浪费。( LLM 能源利用中的量化、批量处理和服务策略)
5. 智能地安排任务
仅当置信度下降或任务复杂度增加时才使用大型模型。( Green AI ,谷歌云)
6. 优化基础设施
更优化的调度、更先进的硬件、更高效的散热策略——这些看似平凡的措施,却能带来巨大的回报。(谷歌云、美国能源部)
7. 先测量后假设
很多团队自以为知道电力消耗在哪里。但经过测量后才发现,真正耗电的部分其实在别的地方。(谷歌云)
提高效率的工作并不光鲜亮丽,也鲜少获得掌声。但它是让人工智能更经济实惠、更易于大规模应用的最佳途径之一👍
关于人工智能用电的常见误区🚫
让我们澄清一些误解,因为这个话题很容易变得复杂。.
误区一:每一次人工智能查询都是巨大的浪费。
不一定。有些规模较小。规模和任务类型非常重要。(谷歌云)
误区二:训练是唯一重要的事
不。当使用量巨大时,推理可能会随着时间的推移而占据主导地位。(谷歌研究,美国能源部)
误区三:更大的模型总是意味着更好的结果
有时可以,有时则完全不行。很多任务用小型系统也能很好地完成。(绿色人工智能)
误区四:能源消耗必然等于碳排放。
不完全是这样。碳排放量也取决于能源来源。(国际能源署, Strubell等人)
误区五:你可以得到一个适用于人工智能能源消耗的通用数值。
你做不到,至少做不到能保持其意义的形式。或者你可以做到,但结果会被过度平均化,以至于失去价值。(国际能源署)
这就是为什么问“人工智能消耗多少能源?”是明智的——但前提是你要准备好接受一个多层次的答案,而不是一个口号。
所以……人工智能到底会消耗多少能源呢?🤔
以下是经过深思熟虑的结论。.
人工智能的应用:
它的形状就是这样。.
关键在于不要把整个问题简化成一个吓人的数字或一句轻描淡写的耸肩。人工智能的能源消耗是真实存在的,它很重要,而且可以改进。讨论这个问题最好的方式是结合实际情况,而不是哗众取宠。(国际能源署, 《绿色人工智能》)
公众讨论往往走向极端——一边是“人工智能基本上是免费的”,另一边是“人工智能将引发电力灾难”。而现实情况则更为平凡,也因此更具启发性。这是一个系统性问题,涉及硬件、软件、使用情况、规模、散热以及设计选择等诸多方面。听起来平淡无奇?确实如此。但至关重要?非常重要。(国际能源署,谷歌云)
要点总结⚡🧾
如果你来这里是想问“人工智能消耗多少能源?” ,那么答案就在这里:
-
没有一个通用的数字。
-
训练通常会在前期消耗最多的能量。
-
规模化推理成为关键因素。
-
模型尺寸、硬件、工作负载和散热都至关重要。
-
小小的优化就能带来意想不到的巨大变化。
所以,没错,人工智能确实会消耗能源。其消耗量之大,足以引起重视,也足以促使我们改进工程技术。但这并非是卡通式的、用数字来衡量的。.
常问问题
人工智能处理一次提示需要消耗多少能量?
对于单个提示,没有一个通用的能耗数字,因为能耗取决于模型、硬件、提示长度、输出长度以及任何涉及的额外工具。简短的文本回复能耗相对较低,而冗长的多模态任务则可能消耗更多能量。最有意义的答案并非单一的指标数字,而是任务的上下文。.
为什么对人工智能能耗的估算结果差异如此之大?
由于人们常常将截然不同的事物都归入“人工智能”这一范畴,因此估算结果也各不相同。一种估算可能描述的是轻量级的聊天机器人回复,而另一种估算则可能涵盖图像生成、视频制作或大规模模型训练。为了使估算结果有意义,需要考虑任务类型、模型规模、硬件配置、利用率、散热情况和地理位置等背景信息。.
训练人工智能和日常运行人工智能,哪一个能耗更高?
训练通常是前期耗能最大的环节,因为它可能需要许多芯片长时间运行,处理海量数据集。推理则是用户每次发送请求时都会产生的持续性开销,规模越大,开销也越大。实际上,两者都很重要,尽管它们的重要性体现在不同的方面。.
为什么有些人工智能请求比另一些请求消耗更多能源?
更长的上下文窗口、更长的输出、重复的推理过程、工具调用、检索步骤以及多模态生成都会增加每次交互的能耗。延迟目标同样重要,因为更快的响应速度可能会降低效率。一个小型重写请求与一个冗长的编码或图像工作流程根本无法相提并论。.
人们在询问人工智能消耗多少能源时,忽略了哪些隐性能源成本?
许多人只关注芯片本身,却忽略了散热、数据传输、存储、空闲容量以及诸如备份或故障转移区域等可靠性系统。这些支持层会显著影响整体能耗。因此,仅凭基准测试很难全面反映能耗情况。.
更大的人工智能模型总是消耗更多能源吗?
更大的模型通常需要更多的计算能力和内存,尤其是在处理冗长或复杂的输出时,因此它们往往消耗更多能源。但更大并不意味着在所有任务上都更好,优化可以显著改变这种状况。更小的专用模型、量化、批处理、缓存和更智能的路由都可以提高效率。.
消费级人工智能的使用是主要的能源问题,还是企业级人工智能才是更大的问题?
普通消费者的日常使用也会消耗大量能源,但更大规模的能源消耗往往体现在企业部署中。始终在线的辅助驾驶、文档处理、通话摘要、代码审查和后台代理等应用,都会在庞大的用户群体中产生重复的能源需求。问题通常不在于某一次剧烈的能源消耗,而在于长期持续的能源消耗。.
如果将数据中心和冷却系统也考虑在内,人工智能需要消耗多少能源?
一旦将整个系统纳入考虑,答案就变得更加实际,而且通常比仅考虑芯片的估算结果要大。数据中心不仅需要电力用于计算,还需要电力用于冷却、网络、存储和维持备用容量。因此,基础设施设计和设施效率几乎与模型设计同等重要。.
在实际工作流程中,衡量人工智能能耗最实用的方法是什么?
最佳方法取决于测量者是谁以及测量目的。粗略的经验法则可以帮助快速比较,而功率计、GPU 遥测数据、云计费日志和数据中心报告则能提供更深入的运营洞察。对于严肃的可持续发展工作,更全面的生命周期视角更为有效,尽管这种方法耗时更长、要求更高。.
团队如何在不放弃人工智能实用功能的情况下降低人工智能的能耗?
通常情况下,最大的收益来自于使用能够完成任务的最小模型、缩短提示和输出、缓存重复结果、批量处理任务,以及仅将更复杂的任务路由到更大的模型。基础设施优化也至关重要,尤其是调度和硬件效率。在许多流程中,先进行测量有助于防止团队优化错误的内容。.
参考
-
国际能源署 (IEA) -人工智能带来的能源需求- iea.org
-
美国能源部 (DOE) - DOE 发布新报告,评估数据中心不断增长的电力需求- energy.gov
-
谷歌云——衡量人工智能推理对环境的影响——cloud.google.com
-
Google 研究——机器学习训练碳足迹的好消息——research.google
-
谷歌研究——机器学习训练的碳足迹将趋于稳定并最终下降——research.google
-
arXiv -绿色人工智能- arxiv.org
-
arXiv - Strubell 等人。 - arxiv.org
-
arXiv - LLM 能源使用中的量化、批处理和服务策略- arxiv.org