全球微动态丨模拟芯片为AI模型运行降耗
2023-08-30 12:15:50
原标题:模拟芯片为AI模型运行降耗
来源:中国科学报
可提高人工智能效率的模拟芯片。
本报讯 模拟计算机芯片运行人工智能(AI)语音识别模型的效率是传统芯片的14倍,有可能为AI研究中巨大且不断增长的能源消耗以及全球范围内通用数字芯片的短缺问题提供解决方案。
这一新产品由IBM Research开发,概述这项工作的论文发表于《自然》。
研究人员声称,模拟芯片可以减少人工智能发展的障碍。
GPU是一种图形处理器,最初设计用于运行视频游戏,传统上也用于训练和运行AI模型,这种芯片供不应求,目前全球都在抢购。
研究还表明,AI的能源使用量正在迅速增长,从2012年到2021年增长了100倍,其中大部分能源来自化石燃料。
这些问题致使有人认为,AI模型发展将很快陷入僵局。
当前AI硬件的另一个问题是,它必须在内存和处理器之间来回传输数据。
一种解决方案是模拟存算一体(CIM)芯片,它直接在内存中执行计算,IBM现在已经大规模演示了这种芯片。
IBM的新设备包含3500万个所谓的相变存储单元,这是CIM的一种形式,其可被设置为两种状态中的一种,就像计算机芯片中的晶体管一样,也可以在两种状态之间进行不同程度的设置。
这一特征至关重要,因为这些变化的状态可以用于表示神经网络中人工神经元之间的突触权重——神经元之间的连接强度。
神经网络是一种AI,它能模拟人类大脑在学习新信息或新技能时神经元连接的变化,这些信息或技能通常以数位值的形式存储在计算机内存中。
这使得新芯片能够存储和处理这些突触权重,而无须在远程存储芯片中进行数百万次调用或存储数据的操作。
美国英特尔公司相关负责人评价说,这种芯片“还不是一个成熟的产品”,但实验表明,它可以在当今常用的AI神经网络上有效工作,并有潜力支持ChatGPT等流行应用。
“就像GPU无法完成标准计算机中央处理器CPU可以执行的所有任务一样,模拟AI芯片或CIM芯片也有其局限性。
但如果AI能够继续保持当前的发展趋势,定制的芯片肯定会变得更加普遍。
”
尽管该芯片是专门定制的,但它在IBM语音识别任务之外可能有其他用途。
“正如展示的那样,模拟AI或模拟CIM芯片具有更高的功率和硅使用效率,与CPU或GPU相比,它可能会降低成本。
”上述负责人说。
(文乐乐)
相关论文信息:https://doi.org/10.1038/s41586-023-06337-5
本文《模拟芯片为AI模型运行降耗》介绍到此结束,感谢阅读。