我们都清楚,训练 SOTA 人工智能系统往往需要耗费大量的计算资源,这意味着资金雄厚的科技公司的发展进程会远远超过学术团队。但最近的一项研究提出了一种新方法,该方法有助于缩小这种差距,使得科学家可以在单个计算机上解决前沿的 AI 问题。 OpenAI 2018 年的一份报告显示,用于训练游戏 AI 的处理能力正在快速地提升,每 3.4 个月翻一番。其中对数据需求量最大的一种方法是深度强化学习,通过在数百万个模拟中迭代,AI 在反复试错中进行学习。《星际争霸》和《Dota2》等电子游戏领域取得了令人瞩目的新进展,但都依赖封装了数百个 CPU 和 GPU 的服务器。 针对这种情况,Cerebras System 开发的 Wafer Scale 引擎能够使用单个大芯片来替换这些处理器,这个芯片为训练 AI 进行了完美的优化。但是由于价格高达数百万,所以对于资金短缺的研究人员来说是可望不可即的。 最近,来自南加州大学和英特尔实验室的研究团队创建了一种新方法,该方法可以在学术实验室常见的硬件上训练深度强化学习算法。该研究被 ICML 2020 会议接收。