NTT Data:AI 的能源消耗如何威胁“净零”目标

NTT Data 预测,AI 工作负载将消耗超过一半的数据中心电力,并需要数百万升的水与稀土矿物

众所周知,AI 热潮正在引发一场环境危机,可能使全球气候承诺脱轨。

因此,当企业努力部署更强大的系统时,训练和运行 AI 模型的能源需求正急剧攀升,这引发了一个严肃的问题:科技行业能否实现其脱碳目标。

为此,技术服务提供商 NTT Data 发布了一份报告,呼吁从根本上改变 AI 系统的设计与运行方式。

这份题为《面向更绿色未来的可持续 AI》(Sustainable AI for a Greener Tomorrow)的白皮书预测,最早到 2028 年,AI 工作负载将占到数据中心总用电量的一半以上。
  >

届时,这项技术每年的用电量可能相当于美国全部家庭的 22%。

训练 AI 模型的影响
资源压力远不止电力。

训练一个大型 AI 模型——即处理海量数据集来教会系统识别模式并进行预测——可能需要数百万升淡水用于数据中心冷却系统。

运行 10 到 50 次查询就可能消耗多达 500 毫升的水。

NTT Data 首席可持续发展业务官 David Costa
“AI 的快速增长与采用带来的资源后果令人望而生畏,但这项技术也能为其自身造成的环境问题提供创新解法。”NTT Data 首席可持续发展业务官 David Costa 如是说。

报告提出了衡量 AI 生态足迹的四项关键指标:

  • 能源需求

  • 全球变暖潜势(GWP)

  • 用水量

  • 非生物资源枯竭(指矿物与金属等不可再生材料的消耗)


在排放方面,预计到 2030 年数据中心的碳足迹将增加一倍以上,达到约 8.6 亿吨二氧化碳当量。

为何硬件更替周期会耗竭矿产资源
受短生命周期与频繁更换推动,数字终端设备目前驱动着全球 9.4% 的钴产量与 8.9% 的钯产量。

钴与其他稀土/稀有金属日益稀缺,这意味着浪费已不再可取。
数据中心则通过大量消耗铜、铝与稀土元素加剧了这一问题;为满足性能需求,服务器通常每隔几年就会被替换。

报告批评了 AI 行业长期以来对准确率、速度等性能指标的偏好,而忽视了效率考量。

一些现代 AI 模型的算力消耗是其前辈的 30 万倍以上,报告称这正把 AI 变成一个日益“排他”的领域,只有有资源承担能耗的组织才能进入。

NTT Data 的低能耗 tsuzumi 模型
NTT Data 认为,要应对 AI 的环境影响,需要整个技术生态的协同行动——从硬件制造商、数据中心运营商,到软件开发者、云服务商与政策制定者。

报告建议的干预措施包括:
在可再生能源更充足的地点与时段运行 AI 工作负载;
采用绿色软件工程模式(旨在降低能耗的编码实践);
优先使用模块化、可升级的硬件部件以减少电子垃圾。

“AI 的强大能力还能更高效地管理电网、降低总体排放、建模环境风险并改进水资源保护。”David 补充道。

公司也推出了自身的应对举措,包括远程 GPU 服务,把 AI 工作负载转移到能源优化的位置。

GPU 是执行 AI 并行计算所需的专用芯片。

NTT Data 还开发了名为 tsuzumi 的大语言模型(LLM),据称其训练所需能源比常规模型低 250~300 倍。

前路中的挑战
不过,报告也承认仍存在重大障碍,包括评估割裂、指标不一致,以及缺乏可与传统行业相当的标准化报告框架。
  >

此外,许多组织只把焦点放在能源或排放上,而未能全面考虑用水、稀有材料枯竭与电子废弃物,报告如是分析。

报告呼吁行业范围内采用全生命周期思维与循环经济原则,作为实现可持续 AI 开发的必要前提。


请使用浏览器的分享功能分享到微信等