当前,人工智能(AI)已广泛应用于众多领域,包括计算机视觉、自然语言处理、时间序列分析和语音合成等。
在深度学习时代,尤其是随着大型语言模型的出现,大多数研究人员的注意力都集中在追求新的最先进结果上,使得模型规模和计算复杂性不断增加。
对高计算能力的需求带来了更高的碳排放,也阻碍了资金有限的中小型公司和研究机构的参与,从而破坏了研究的公平性。
近日,蚂蚁集团携手国内众多高校和研究机构共同发布一项调查报告,系统地概述了绿色计算所使用的技术,并提出了一个绿色计算框架,其中包括以下四个关键组成部分:
绿色衡量指标:衡量智能系统所需计算资源的关键因素和方法。常见的测量指标包括直接指标,如运行时间、电力消耗和模型大小,也包括间接指标,如碳排放。
节能AI:优化AI模型整个生命周期的节能方法,包括模型设计、训练、推理,还包括针对大型语言模型的优化技术,从而减少训练和推理的功耗。
节能计算系统:优化计算系统资源消耗的技术,包括集群资源调度、分区和数据管理优化。
可持续性AI应用:采用AI来提高可持续性的应用,包括用于环境效益(用于环境的绿色计算)和提高工程效率(用于工程的绿色计算)的 应用。环境绿色计算包括利用卫星成像CV监测空气污染排放和碳封存估计等应用,工程绿色计算包括优化数据库安全加密等。
从众多AI算法的训练和推理案例中,模型大小、参数调优和训练数据成为影响计算资源的三大主要因素。在这基础上,该研究总结了六种常见的“环保性”测量方法,包括运行时间、模型大小、FPO、FLOPS(浮点运算操作数)、硬件功耗、能源消耗以及碳排放。
用于跟踪“环保性”测量的工具包括tf-prof、绿色算法、CodeCarbon、Carbon-tracker以及自动AI模型环保性跟踪工具包。
在图像分类、目标检测和其他AI任务中,一些传统的深度学习神经网络模型,如LeNet、VGG、GoogleNet等,虽然取得了不错的性能,但却需要过多的计算资源。
此外,在开发基于图数据的神经网络方面,该研究还提出了ImprovedGCN,其中包含GCN的主要必要组成部分。另外,该研究还推荐了另外一种神经网络——SeHGNN,用于汇总预先计算的邻近表示,降低了复杂性,避免了在每个训练周期中重复聚合邻近顶点的冗余操作。
在时间序列分类方面,目前常用的集成学习方法需要大量计算资源。为此,研究建议使用LightTS和LightCTS两种方法来解决这个问题。
另外,Transformer是一个强大的序列模型,但随着序列长度的增加,其需要的时间和内存呈指数级增长。自注意力类型的网络在处理长序列时需要大量内存和计算资源。为此,研究建议使用EffectiveAttention以及EdgeBERT和R2D2两种模型来应对这一挑战。
除了特定神经网络组件的设计,还有一些通用策略可以用于高效的神经网络结构设计,例如低秩模块策略、静态参数共享、动态网络和超级网络等策略。这些策略可以无缝地集成到任何参数化结构中。
在模型训练方面,研究总结了有效训练范式、训练数据效率以及超参数优化三个方面的方法。为了实现绿色AI,降低神经网络的能源消耗,可以采用模型剪枝、低秩分解、量化和蒸馏等有效方法。
在节能计算系统方面,研究简要介绍了包括优化云数据库资源利用、硬件和软件协同设计等多方面的解决方案,这些原则也同样适用于数据分析领域,包括利用混合查询优化和机器学习等技术,以提高处理过程的能源效率。
值得注意的是,绿色计算强调的是AI不仅在其自身的开发和运行中应具备能源效率,还应积极参与各种绿色应用领域,以解决环境和可持续性挑战。
研究指出,AI能够有效地从监测数据、遥感数据和气象数据中提取有用信息,其中涵盖了空气污染监测、碳封存估算、碳价格预测等众多领域,从而为决策和行动提供指导。
(闫一米)