Intel|英特尔发新神经形态芯片 31mm2容纳100万人工神经元( 二 )


许多简单的单元(“神经元”)连接到许多其他单元(通过“突触”) , 一个神经元接收来自许多其他神经元的信号 , 当刺激达到某个阈值时 , 它会将自己的信号发送给周围的神经元 , 大脑则通过调整神经元之间的连接强度来学习 。

Intel|英特尔发新神经形态芯片 31mm2容纳100万人工神经元
文章图片


人工神经网络(Artificial Neural Networks)通常由层组成 , 具有许多此类层的网络称为深度学习网络 。神经网络是机器学习的一种形式 , 是计算机根据经验调整其行为的过程 , 在今天用于自动驾驶、人脸识别等领域 。
康奈尔大学的神经生物学家Thomas Cleland曾说 , 神经形态计算(Neuromorphic Computing)“将成为摇滚明星” , “它不会把一切都做得更好 , 但它将完全拥有计算领域的一小部分” 。
然而模仿大脑的计算成本非常高 , 人脑有数十亿个神经元和数万亿个突触 , 即使模拟一小块大脑也可能需要对每块输入进行数百万次计算 。运行所有这些小计算并不适合必须一次处理一条指令的经典计算架构(CPU) , 而今天常用的图形处理单元(GPU)仍然没有像大脑那样有效地执行深度学习——人类的大脑可以一边驾驶汽车 , 一边谈论自动驾驶的未来 , 但使用的瓦数比灯泡还少 。

Intel|英特尔发新神经形态芯片 31mm2容纳100万人工神经元
文章图片


常规计算机架构与神经形态架构的对比
于是 , 解决神经形态计算问题的芯片出现了 。最初是在20世纪80年代 , 工程师Carver Mead创造了术语“神经形态处理器”(neuromorphic processors)来描述以基于大脑的松散方式运行的计算机芯片 , 为这个领域奠定了基础 。
神经形态芯片如何运行?
Loihi芯片包含通过通信网络连接的128个独立内核 , 每个独立内核中都有大量单独的“神经元”或执行单元 , 每一个神经元都可以接收来自任何其他神经元脉冲形式的输入——同一核心中的邻居、同一芯片上不同核心中的一个单元或完全来自另一个芯片 。随着时间的推移 , 神经元会整合它接收到的尖峰信号(Spiking Signals , 神经元通过跨突触相互发送尖峰信号进行交流) , 并根据其编程的行为来确定何时将自己的尖峰信号发送到与其连接的任何神经元 。
所有尖峰信号都是异步发生的 。在设定的时间间隔内 , 同一芯片上的嵌入式x86内核会强制同步 。届时 , 神经元将重新计算其各种连接的权重——本质上 , 是决定对所有向其发送信号的单个神经元给予多少关注 。

推荐阅读