AI技术在近几年得到了快速的发展,大众对AI技术不像前两年那么陌生了。
AI在很多领域做出了令人惊叹的成绩——如今你可以用AI给明星换头,用AI给动画补帧,还可以用AI去马赛克(划掉)。
不过目前的AI存在一个问题,就是需要大量的时间进行学习和训练。随着人们给AI指派新的任务越来越复杂,训练AI的时间也变得越来越长。这客观上是因为AI需要处理的信息量本身就十分的巨大,但另一方面也是因为目前运行AI使用的芯片性能不足,限制了AI的运算速度,导致了学习时间很长。
因此研究人员正在想方设法的制造出更强的芯片来提升AI的能力。近日,谷歌就推出专门用于AI的 Tensor处理器(TPU),TPU中的芯片是专门为机器学习设计的AI芯片,特别强化了神经网络和机器学习等方面的性能,运算效率更高。
可问题是,在现实中一款新的芯片从规划、设计到生产,这种特制的芯片可能需要工程师们长达几年的设计,而AI的进步速度要比芯片的进步速度快得多,这样一来硬件研制滞后于软件开发,就大大拖慢了AI技术整体的发展进度。
谷歌的研究科学家 Azalia Mirhoseini 说:“我们已经发现,一些算法和神经网络构架在如今的AI加速器上表现并不理想,因为这些加速器大概是两年前设计的了,那时候神经网络甚至都不存在。”
因此要强化AI的能力,就需要在更短的时间内制造出更好的芯片,而谷歌给出的解决方案,就是让AI自己设计AI芯片。
“我们相信AI能缩短芯片的设计周期,在硬件和AI中建立一种共生关系,相互促进彼此的进步,”谷歌在研究论文中写到。
目前谷歌已经研究出了一种AI,可以学习规划芯片的布局。布局规划是芯片设计中非常耗时的一个工序。这通常需要斟酌逻辑单元和内存块的排布,同时顾忌芯片的性能、综合表现和尺寸大小,因此需要花很多时间一点点的尝试。
一般来说由一个工程师团队设计一款全新的谷歌Tensor 处理器(TPU)布局大概需要几周的时间,而在实验中经过训练的AI只用了不到24个小时。而且AI设计的处理器在性能、表现和体积上也全面超过人工设计的产品。
这个AI使用的并不是人们熟知的深度学习,而是深度强化学习技术(Deep Reinforcement learning )。这种技术不需要让AI学习数量巨大的样本,而是让AI根据环境边做边学,并根据结果是否成功给与AI反馈,AI会再根据反馈来进行调整。有名的AlphaGo使用的就是这种技术。
深度强化学习看起来更像是人类学习的模式,不过这种AI训练的难度很大,因此不像深度学习一样普及。