首页 AI科技正文

研究发现AI革命对环境影响惊人 谷歌AI年耗电量或超过爱尔兰全国

茶杯狐 AI科技 2023-10-14 15:54:36 122 0
导读:划重点 1 最新研究显示,将生成式人工智能添加到谷歌搜索中,其能源消耗将增加十倍以上。 2 如果谷歌上的每个搜索都使用类似ChatGPT的人工智能,那么其每年消耗的电力可能超过爱尔兰全国。 3 谷歌声称,其已经采取措施来大幅减少工作负载的碳足迹,帮助将模...

划重点

1

最新研究显示,将生成式人工智能添加到谷歌搜索中,其能源消耗将增加十倍以上。

2

如果谷歌上的每个搜索都使用类似ChatGPT的人工智能,那么其每年消耗的电力可能超过爱尔兰全国。

3

谷歌声称,其已经采取措施来大幅减少工作负载的碳足迹,帮助将模型训练的能耗减少了100多倍,排放量减少1000多倍。

科技新闻讯 10月12日消息,人工智能(AI)有望帮助程序员更快地编写代码,让司机驾驶更安全,并减少日常任务的耗时。但如果谷歌上的每个搜索都使用类似ChatGPT的人工智能,那么其每年消耗的电力可能超过爱尔兰全国。最新研究显示,将生成式人工智能添加到谷歌搜索中,其能源消耗将增加十倍以上。

最近发表在《焦耳》(Joule)杂志上的论文开始描绘人工智能对环境的影响,因为它开始渗透到流行文化和工作生活的方方面面。生成式人工智能需要强大的服务器,而人们担心的是,所有这些计算能力可能会使数据中心的能耗和碳足迹急剧增加。

这项新的分析由研究人员亚历克斯德弗里斯(Alex de Vries)撰写,他曾在自己的网站Digiconomist上呼吁人们关注加密货币挖矿造成的污染。当他把注意力转向人工智能时,他说现在计算地球加热污染可能与ChatGPT等新工具和类似人工智能驱动的应用程序有关还为时过早。但他认为,现在值得关注的是,要避免排放失控。

自2022年以来,可以生成文本、图像或其他数据的生成式人工智能经历了快速增长,包括OpenAI的ChatGPT。训练这些人工智能工具需要向模型提供大量数据,这是一个能源密集型的过程。总部位于纽约的人工智能开发公司Hugging Face报告称,其多语言文本生成人工智能工具在培训期间消耗了约433兆瓦时(MWH)的电力,足以为40个普通美国家庭供电一年。

而且,人工智能的能源足迹还不止于培训。德弗里斯的分析表明,当该工具开始运行时(即根据提示生成数据),每当该工具生成文本或图像时,它也会使用大量的计算能力和能源。例如,ChatGPT每天运行可能需要564兆瓦时的电力。

虽然世界各地的公司都在努力提高人工智能硬件和软件的效率,以降低这种工具的能源密集型,但德弗里斯表示,机器效率的提高往往会增加需求。最终,技术进步将导致资源使用的净增加,这种现象被称为杰文斯悖论(Jevons' Paradox)。

德弗里斯说:“提高这些工具的效率和易用性的结果可能是,我们构建更多的应用程序,并允许更多的人使用它。”

例如,谷歌一直在将生成式人工智能整合到该公司的电子邮件服务中,并正在测试用人工智能为其搜索引擎提供动力。该公司目前每天处理多达90亿次搜索。根据这些数据,德弗里斯估计,如果每次谷歌搜索都使用人工智能,每年将需要大约29.2太瓦时的电力,这相当于爱尔兰全国一年的用电量。

德弗里斯表示,这种极端情况在短期内不太可能发生,因为额外的人工智能服务器成本高昂,而且人工智能服务器供应链存在瓶颈。但人工智能服务器的生产预计将在不久的将来迅速增长。

德弗里斯表示:“这篇论文的一个关键要点是,呼吁人们注意他们将使用人工智能做什么。这并不是人工智能所特有的。即使是区块链,我们也曾经历类似的阶段。如果你要耗费大量的资源,建立非常大的模型,并尝试运行一段时间,这将是潜在的巨大电力浪费。”

到2021年,人工智能技术的使用已经占到谷歌耗电量的10%到15%。从那时起,该公司在人工智能方面的雄心就变得越来越大。上周,谷歌甚至向政策制定者展示了新的人工智能工具,以减少尾气排放,并为社区应对洪水和野火等与气候变化有关的灾害做好准备。

谷歌首席可持续发展官凯特勃兰特(Kate Brandt)在上周的新闻发布会上表示:“当然,人工智能目前正处于一个转折点。所以你知道,预测我们数据中心人工智能计算的能源使用和排放的未来增长情况具有很大挑战性。但如果我们从历史上的研究和我们自己的经验来看,人工智能计算需求的增长速度远远低于它所需的电力。”

谷歌发言人科瑞娜斯坦福(Corina stanford)在一封电子邮件中表示:“为这项技术提供动力所需的能源增长速度,远低于许多人的预测。我们已经使用经过测试的实践来大幅减少工作负载的碳足迹,帮助将模型训练的能耗减少了100多倍,排放量更是减少1000多倍。我们计划继续应用这些经过测试的实践,并不断开发新的方法来提高人工智能计算的效率。”

德弗里斯的论文还包含了一个更现实的场景,计算了英伟达预计今年交付的10万台人工智能服务器的潜在能耗。如果这些服务器满负荷运行,每年可能会消耗5.7至8.9太瓦时的电力。德弗里斯写道,与数据中心历史上估计的年用电量205太瓦时相比,这“几乎可以忽略不计”。在一封电子邮件中,英伟达表示,其产品每一代都是节能的。

但德弗里斯认为,即便如此,如果人工智能的普及程度继续飙升,供应链限制放松,用电量可能会大幅增长。到2027年,如果英伟达交付150万台人工智能服务器,每年将消耗85.4至134.0太瓦时的电力。这与如今比特币对能源的渴求不相上下。

这相当于荷兰、阿根廷、瑞典等国家的全年用电量。此外,人工智能效率的提高还可以使开发人员将一些计算机处理芯片重新用于人工智能,这可能会进一步增加人工智能相关的电力消耗。(文/金鹿)

赞助本站

阅读声明

本文由网友整理于互联网公开分享,仅供参考!