本栏推荐

相关阅读

快讯信息

您现在的位置是:主页 > 科技圈快讯 > 最新 >

全球电力被AI“榨取”,更严重的隐患在后头

发布时间:2024年12月27日 19:07:43 最新 人已围观

简介近年来,人工智能的崛起引发了广泛讨论与担忧,许多人忧虑 AI 可能导致失业率上升。与此同时,部分乐观者以幽默的方式表示,认为只要电费高于基本生活成本,AI 就无法完全取代人...

最近,人工智能(AI)的迅速发展引发了广泛讨论和忧虑。人们对于 AI 可能引发的失业增长深感忧虑,而一些乐观的观点则玩笑道:“只要电费比馒头贵,AI就不会完全取代人类。”

尽管这话是戏言,但其背后反映了真实的高能耗问题,越来越多的人开始关注高能耗是否会成为 AI 发展的障碍。

不久前,技术创业者和前谷歌工程师凯尔·科比特(Kyle Corbitt)在社交平台 X 上透露,微软正在面对这样的瓶颈。

AI 的电力需求到底有多大?

科比特指出,微软的工程师们正在为训练 GPT-6 搭建 IB 网络(InfiniBand),旨在将分布在各地的 GPU 连接起来。尽管这项工作非常复杂,工程师们却别无选择,因为如果在同一地区部署超过 10 万块 H100 芯片,电网将可能崩溃。

来源:X@corbtt那么,为什么这些芯片会导致电网承受如此大的压力呢?让我们来看一下数据。

根据英伟达网站的信息,每块 H100 芯片的最大功率为 700W,10 万块 H100 芯片的功率可高达 7000 万W。有能源行业的专业人士在 X 的评论中提到,这些芯片的总能耗相当于一座小型太阳能或风能发电厂的全部发电能力。

此外,还需计算附属设施,诸如服务器和冷却设备的能耗。在有限区域内如此多的耗电设备,对电网造成的压力可想而知。

AI 能耗仍显微小

《纽约客》曾对此问题进行过深入报道,引起了广泛关注。文章估计,ChatGPT 的每日耗电量可能超过 50 万千瓦时。(参见:ChatGPT 日耗电超 50 万度,卡住AI发展的竟是能源?)实际上,虽然当前 AI 的耗电量看似惊人,但仍远远低于加密货币和传统的数据中心。

微软工程师所面临的挑战显示,影响 AI 发展的不仅是技术本身的能耗,还有其所需基础设施的能源消耗和电网的承载能力。

国际能源署(IEA)的一份报告显示,2022 年全球数据中心、人工智能与加密货币的能耗达到 460 TWh,约占全球能耗的近 2%。IEA 预测,在最坏情况下,到 2026 年这些领域的耗电量将达到 1000 TWh,相当于整个日本的电力需求。

不过,报告同时指出,直接投入 AI 研发的能耗依然低于数据中心和加密货币。英伟达在 AI 服务器市场占据约 95% 的份额,2023 年供应了大约 10 万块芯片,年耗电量约为 7.3 TWh。

相比之下,2022 年加密货币的能耗为 110 TWh,和整个荷兰的用电量相当。


图注:2022 年与 2026 年,传统数据中心、加密货币和 AI 数据中心的能耗预估(柱状图从下至上依次展示)。数据表明,目前 AI 的耗电量远低于数据中心和加密货币。图片来源:IEA

Tags: 人工智能  AI