【智网文摘】人工智能数据中心正在推高拉丁美洲气温:“数据热岛”威胁 3.43 亿人口
2026-04-11
20260411
来自《哥伦比亚人报》(El Colombiano)的报道:
原文参见:https://www.elcolombiano.com/negocios/ia-centros-datos-sube-temperatura-isla-calor-brasil-mexico-espana-IM35284378
当用户向 ChatGPT 提出问题、用 NanoBanana 生成图像,或训练自己的人工智能语言模型时,很少会想到屏幕另一端正在发生什么:成千上万台服务器满负荷运转,贪婪地消耗能源,并持续散发热量,而且是大量热量。如今,来自美国剑桥大学(University of Cambridge)、新加坡南洋理工大学(Nanyang
Technological University)和中国香港城市大学(City University of Hong
Kong)等高校的研究团队,首次对这一现象进行了量化。研究人员甚至提出了一个可能进入环境议题讨论词汇的新术语——“数据热岛效应”(efecto de isla de calor de datos)。
这项于今年 3 月发表的研究,分析了美国国家航空航天局(NASA)卫星在 2004 年至 2024 年间获取的地表温度(LST)记录,并将其与全球 11,000 多个数据中心的位置进行交叉比对。研究最引人注目的结论是:凡是部署了人工智能超大规模数据中心(hiperescalador de inteligencia artificial)的地方,地表温度就会上升。
文章指出,这一概念并非随意提出。研究作者之一、剑桥大学(University of Cambridge)地球观测团队副教授安德烈亚·马里诺尼(Andrea Marinoni)表示,它建立在人们早已熟知的城市热岛效应(urban heat island,UHI)类比之上。城市之所以通常比周边乡村高出数摄氏度,是因为沥青、建筑、工业活动高度集中且植被不足;而数据中心即使建在远离大型城市核心区的地方,也会制造出自身版本的“热岛”。
在清洗超过 6,700 个有效数据点、并剔除位于高密度城市区域内的位置以隔离数据中心本身的影响之后,研究人员得出了一个连作者自己都感到意外的数字。马里诺尼(Marinoni)表示:“在人工智能数据中心投入运营后,地表温度平均上升 2.07 摄氏度,由此诱发了我们称之为‘数据热岛效应’的局地微气候区。”这一平均值介于 1.5 摄氏度至 2.4 摄氏度之间,但个别案例的最高增温达到 9.1 摄氏度,而且影响并不止于建筑物周边。
研究显示,热量可向外扩散至半径
10 公里范围;即便距离超大规模数据中心核心区域 7 公里,其热强度仍可维持中心值的 30%;在距离中心 4.5 公里处,平均温升仍有 1 摄氏度。
为了说明问题规模,文章进一步比较了人工智能数据中心的能源需求。根据 Statista 的数据,一个超大规模人工智能数据中心需要持续 50 兆瓦至 100 多兆瓦的电力,相当于一座 8 万至 10 万人口城市的用电负荷。国际能源署(IEA)则指出,2024 年全球数据中心行业总耗电量约为 415 太瓦时,占全球总用电量的约 1.5%。
国际能源署(IEA)还预测,到 2030 年,这一数字几乎将翻倍至 945 太瓦时,超过当前日本全国的用电水平。在美国,这一趋势更加明显:2024 年相关耗电量达到 183 太瓦时,占全国总用电量的 4.4%,而到本十年末这一比例可能升至 12%。该机构警告称,限制人工智能增长的瓶颈将不再是芯片,而是可用电力。
一些项目甚至将这一逻辑推向极致。Meta
在美国建设的 Hyperion 园区,设计目标是达到 5 吉瓦(GW)的电力需求,约相当于新奥尔良当前耗电量的三倍。与此同时,一个传统服务器机架通常消耗 5 至 10 千瓦电力,而搭载 Nvidia H100 或 Blackwell 等最新 GPU 的人工智能优化机架则超过 60 千瓦,是前者的 6 至 12 倍。训练 GPT-4 这一级别的模型,需要超过 50 吉瓦时电力,相当于 4 万多个美国家庭一年的用电量。
文章还援引 Epoch AI 的数据称,在数据中心内部,能源使用分布极不均衡:约 60% 用于服务器和 GPU,其中仅 GPU 就占约 40%;冷却系统耗电占比在 7% 至 30% 之间,其余则分配给电力损耗、备用系统和网络基础设施。总体来看,多达 65% 的能源可能并未直接转化为有效计算,这也解释了为何余热会成为不可避免的副产品。
研究并未停留在全球平均水平,而是识别出三个具有代表性的地理案例——墨西哥(México)、西班牙(España)和巴西(Brasil)——这些地区的温度上升,在时间上与大型数据运营商进驻相吻合,并形成了作者所说的、难以用其他当地人为因素解释的热异常。
在墨西哥(México)中部的巴希奥地区(El Bajío),过去二十年里,该地区因气候稳定、地震活动较少以及区位优势,逐步成为面向北美市场的数据中心重要落点。但研究显示,这一发展也伴随着代价:当地地表温度在过去二十年间上升了约 2 摄氏度,而邻近区域并未出现同样异常。研究人员强调,这种模式“并未在附近地区被识别出来”,从而强化了其与超大规模数据中心活动之间的直接联系。
在欧洲,西班牙(España)阿拉贡(Aragón)近年来已成为云计算和高性能人工智能的关键节点,多家全球大型运营商在那里部署了超大规模基础设施。分析显示,该地区气温上升约 2 摄氏度,而且这一增温趋势“相较西班牙邻近省份以及欧洲范围内监测到的全球升温趋势更为突出”。换言之,阿拉贡(Aragón)升温更快、更明显,而数据中心扩张似乎正是其中的关键变量。
研究记录中最令人担忧的案例,出现在巴西(Brasil)东北部,尤其是皮奥伊州(Piauí)首府特雷西纳(Teresina)周边地区。这里已发展为区域性人工智能服务中心,其相关数值也是三个案例中最高的。研究指出,数据中心影响区内气温已上升 2.8 摄氏度,并预测未来五年内这一增幅可能达到 3.5 摄氏度。作者认为,这一轨迹“与巴西北部及赤道巴西其他地区相比相当反常”。
文章认为,这组数据最具政治和社会分量之处,在于其人类影响范围。当前,已有超过 3.43 亿人口生活在这些“数据热岛”影响半径之内;这里的影响范围,被定义为围绕研究所分析的超大规模数据中心 10 公里的区域。研究指出,其后果主要集中在直接影响公共健康的高温、空气质量下降、家庭能源消耗增加以及水资源管理压力上。马里诺尼(Marinoni)表示,这使得“数据热岛效应”几乎不可能被视为可忽略现象,因为它与城市热岛效应相似,可能对福祉、健康和能源系统造成严重影响。
面对问题的严重性,研究并不仅止于记录损害,还提出了一套涵盖软件、硬件乃至人工智能理论重构的解决路径。作者将应对策略归纳为两大类。第一类是从代码层面提升效率,即通过更优的数据组织与处理方式,实现“更少数据、更少热量”。例如,等几何网络(redes isogeométricas)可将数据建模为传播力与平流力的实现形式,从而识别数据集中真正重要的部分,剔除冗余连接,并把计算资源集中于更具意义的内容。与此同时,剪枝(pruning)与深度学习模型压缩技术,也能在不牺牲精度的前提下降低计算负荷。
第二类策略是硬件创新。其中最具前景的方向之一,是绝热电路(circuitos adiabáticos),即通过可逆逻辑与能量回收来显著减少计算过程中的损耗,从而直接降低向环境散发的热量。虽然这类技术在当前人工智能模型的大规模应用上仍面临技术限制,但研究人员认为,其发展方向已经非常明确。
此外,研究还指出,借助智能电池支持系统并结合负载与温度优化的动态功率管理,可以显著提升数据中心运行效率,减少停机时间,并增强其对电网波动的抵御能力。而最引人注目的方案,或许是被动辐射冷却(enfriamiento radiativo pasivo):通过在建筑外表面施加由聚合物和纳米颗粒构成的复合涂层,一方面反射太阳光、减少外部热增益,另一方面向深空释放红外辐射,在不消耗电力的情况下散热。研究显示,这类材料在住宅建筑到农业仓储设施等实际场景中的应用,可将冷却负荷降低 10% 至 40%,具体效果取决于朝向、表面反照率和当地气候条件等因素。
编辑:康晨雨
校对:姚少杰
科讯搜寻:薄焕文
本文使用ChatGPT辅助翻译,内容服务于中拉科技互鉴,不代表平台观点,如有疏漏,欢迎指正。