AI 创新的微芯片设计将计算推到边缘 使人工智能可以实时使用

为了应对人工智能对计算机网络的爆炸性需求 , 普林斯顿大学的研究人员近年来从根本上提高了专门的人工智能系统的速度并减少了其能源使用 。现在 , 研究人员通过创建共同设计的硬件和软件 , 使设计者能够将这些新型系统融合到他们的应用中 , 使他们的创新更接近于广泛使用 。
AI 创新的微芯片设计将计算推到边缘 使人工智能可以实时使用
文章图片

通过减少电力需求和从远程服务器交换数据的需要 , 用普林斯顿技术制造的系统将能够把人工智能应用 , 如无人机的驾驶软件或高级语言翻译带到计算基础设施的最边缘 。
新的芯片基于模拟计算 , 它使用电路来模拟正在解决的方程 , 而不是像数字计算机那样产生1和0 。
两年前 , 普林斯顿大学的研究团队制作了一种新的芯片 , 旨在提高神经网络的性能 , 而神经网络是当今人工智能的精髓 。该芯片的性能比其他先进的微芯片好几十到几百倍 , 在几个方面标志着一种革命性的方法 。事实上 , 该芯片与目前用于神经网络的任何东西都有很大的不同 , 以至于它对开发者构成了挑战 。
在接下来的两年里 , 研究人员努力完善该芯片 , 并创建一个软件系统 , 使人工智能系统能够利用新芯片的速度和效率 。在2021年2月举行的国际固态电路虚拟会议上 , 主要作者、Verma研究实验室的研究生Hongyang Jia描述了新软件将如何让新芯片与不同类型的网络一起工作 , 并让系统在硬件和软件的执行方面都具有可扩展性 。
Verma的团队开发了新的芯片 , 以应对日益增长的人工智能需求和人工智能对计算机网络的负担 。人工智能使机器能够模仿学习和判断等认知功能 , 在图像识别、翻译和自动驾驶汽车等新技术中发挥了关键作用 。理想情况下 , 无人机导航等技术的计算将基于无人机本身 , 而不是在一个远程网络计算机中 。但数字微芯片的功率需求和对内存存储的需求会使设计这样的系统变得困难 。通常情况下 , 该解决方案将大部分计算和内存放在一个远程服务器上 , 该服务器与无人机进行无线通信 。但是这增加了对通信系统的要求 , 并引入了安全问题和向无人机发送指令的延迟 。
AI 创新的微芯片设计将计算推到边缘 使人工智能可以实时使用
文章图片

为了解决这个问题 , 普林斯顿大学的研究人员从几个方面重新考虑了计算 。首先 , 他们设计了一个芯片 , 在同一个地方进行计算和存储数据 。这种技术被称为内存计算 , 削减了用于与专用存储器交换信息的能量和时间 。这项技术提高了效率 , 但也带来了新的问题:由于它将两种功能塞进了一个小区域 , 内存计算依赖于模拟操作 , 而模拟操作对电压波动和温度尖峰等来源的破坏很敏感 。为了解决这个问题 , 普林斯顿大学的团队使用电容器而不是晶体管设计他们的芯片 。电容器是储存电荷的设备 , 可以以更高的精度制造 , 并且不受电压变化的影响 。电容器也可以非常小 , 并放置在存储单元的顶部 , 增加处理密度并削减能源需求 。
为了解决这个问题 , 普林斯顿大学的研究人员从几个方面重新考虑了计算 。首先 , 他们设计了一个芯片 , 在同一地方进行计算和存储数据 。这种技术被称为内存计算 , 它削减了与专用存储器交换信息所需的能量和时间 。这项技术提高了效率 , 但也带来了新的问题:由于它将两种功能塞进了一个小区域 , 内存计算依赖于模拟操作 , 而模拟操作对电压波动和温度尖峰等来源的破坏很敏感 。为了解决这个问题 , 普林斯顿大学的团队使用电容器而不是晶体管设计他们的芯片 。电容器是储存电荷的设备 , 可以以更高的精度制造 , 并且不受电压变化的影响 。电容器也可以非常小 , 并放置在存储单元的顶部 , 增加处理密度并削减能源需求 。
但是 , 即使在使模拟操作变得强大之后 , 仍然存在许多挑战 。模拟核心需要有效地集成在一个主要是数字的架构中 , 以便它能与其他功能和软件相结合 , 使实用系统实际运作 。一个数字系统使用开关来表示1和0 , 计算机工程师用它来编写构成计算机编程的算法 。模拟计算机则采取了完全不同的方法 。在IEEE Spectrum的一篇文章中 , 哥伦比亚大学教授Yannis Tsividis将模拟计算机描述为一个物理系统 , 被设计为受与程序员想要解决的问题相同的方程所支配 。例如 , 一个算盘就是一个非常简单的模拟计算机 , 一个水桶和一根软管可以作为某些微积分问题的模拟计算机:要解决一个积分函数 , 可以进行数学运算 , 或者可以直接测量水桶里的水 。

推荐阅读