AI能耗爆发式增长,电力撑得起AI的算力吗?
人工智能可以做的事情越来越多,而且越来越好。这是一件好事,但是这些好处背后的代价是什么呢?人工智能的能耗走出了一种指数式的走势,模型和训练数据规模的不断扩大都需要算力的指数式增长才能满足要求。智能向边缘层下移则进一步恶化了这种趋势。任由这种趋势发展下去,人类生产的电力将无法满足人工智能的胃口,能耗优化已经迫在眉睫。
机器学习正在消耗提供的所有能源,这种模式成本高昂、效率低下,且不可持续。
很大程度上,这是因为这个领域还很新、令人兴奋,且正在迅速发展。做 AI 的目的是要在准确性或能力方面开辟出一片新天地。发展到今日之地步,这意味着要有更大规模的模型和训练集,这些都需要算力的指数级增长才能满足要求,算力则需要数据中心消耗大量电力来进行训练和推理。而且,智能设备也开始随处可见。
但是这些处理所需的电耗总数开始吓到人们。在最近的设计自动化大会(Design Automation Conference)上,AMD 首席技术官 Mark Papermaster 放出了一张幻灯片,上面展示了机器学习系统的能耗(图 1)与全球发电情况的对比。
图 1:机器学习的能耗。资料来源:AMD
发出警报的并不只有 Papermaster 一个人。Perceive 首席执行官 Steve Teig 表示:“我们已经忘了过去 100 年来,效率一直是创新的驱动力。效率是推动摩尔定律的原因。但我们现在正处在一个反效率的时代。”
Synopsys 主席兼首席执行官 Aart de Geus 则代表地球这个星球恳求人们对此采取行动。 “有智慧的人应该有一颗帮忙的心。”
为什么能源消耗增长如此之快?Arm 研究员兼高级技术总监 Ian Bratt 说:“神经网络的计算需求是没法满足的。网络规模越大,结果就越好,可以解决的问题就越多。电力使用与网络规模成正比。因此,高效节能的推理对于采用越来越复杂的神经网络和增强的用例
这么大的电力损耗,靠什么去弥补,新增电力来源于哪里?不就是风光储吗?还有Ai尽头的智能机器人,行动的电力来源于哪里,建议大家去看机器人瓦力