科学家们在试图建立和扩大可以进行机器学习的类脑系统时遇到了很多权衡。例如,人工神经网络能够学习复杂的语言和视觉任务,但训练计算机执行这些任务的过程很慢,需要大量的能量
训练机器以数字方式学习,但以模拟方式执行任务——这意味着输入随物理量(如电压)的变化而变化——可以减少时间和功率,但小错误会迅速复合
宾夕法尼亚大学物理和工程研究人员之前设计的电气网络更具可扩展性,因为误差不会随着系统规模的增长而复合,但它受到严重限制,因为它只能学习线性任务,即输入和输出之间有简单关系的任务
现在,研究人员已经创建了一个快速、低功耗、可扩展的模拟系统,能够学习更复杂的任务,包括“异或”关系(XOR)和非线性回归。这被称为对比局部学习网络;组件在不了解更大结构的情况下基于局部规则自行进化
物理学教授Douglas J.Durian将其比作人类大脑中的神经元不知道其他神经元在做什么,但学习却出现了
工程教授Marc Z.Miskin说:“我们真正感到兴奋的一件事是,因为它不了解网络的结构,它对错误非常宽容,对以不同的方式制作非常稳健,我们认为这为扩大这些东西提供了很多机会。”
“我认为这是一个理想的模型系统,我们可以研究它来深入了解各种问题,包括生物问题,”物理学教授Andrea J.Liu说。她还表示,这可能有助于与收集需要处理的数据的设备(如相机和麦克风)进行接口连接
在论文中,作者表示,他们的自学习系统“为研究紧急学习提供了一个独特的机会。与包括大脑在内的生物系统相比,我们的系统依赖于更简单、更容易理解的动力学,可以精确训练,并使用简单的模块化组件。”
这项研究基于刘和博士后梅纳切姆·斯特恩设计的耦合学习框架,并于2021年发表了他们的发现。在这种范式中,不是为了完成某个任务而设计的物理系统适应应用输入来学习任务,同时使用本地学习规则,而不使用集中式处理器
Dillavou说,他是专门为这个项目来到宾夕法尼亚大学的,他致力于将框架从模拟工作转化为当前的物理设计,可以使用标准电路组件进行物理设计
Durian说,他希望这“是一个巨大领域的开始”,并指出他的实验室的另一位博士后Lauren Altman正在构建对比本地学习网络的机械版本
研究人员目前正在扩大设计规模,刘说,关于内存存储的持续时间、噪声的影响、网络的最佳架构,以及是否有更好的非线性形式,还有很多问题
“如果你想想大脑,一只拥有300个神经元的蠕虫和一个人之间有着巨大的差距,但这些能力是从哪里出现的,以及随着你的规模扩大,事情是如何变化的,这一点并不明显。拥有一个可以变得越来越大的物理系统是一个真正研究这一点的机会。”
Durian 表示,他希望这是“一个巨大领域的开始”,并指出他实验室的另一位博士后 Lauren Altman 正在构建对比局部学习网络的机械版本。
研究人员目前正在扩大设计规模,刘说,关于记忆存储的持续时间、噪声的影响、网络的最佳架构以及是否存在更好的非线性形式,还有很多问题。
“当我们扩大学习系统时,并不清楚会发生什么变化,”米斯金说。
“如果你想象一个大脑,在有300个神经元的蠕虫和人类之间存在巨大的差距,这些能力从何而来,当你扩大规模时情况如何变化,这些都是不明显的。拥有一个可以变得越来越大的物理系统,这是真正研究这些问题的机会。”
想要了解更多关于脑机接口技术的内容,请关注脑机网,我们将定期发布最新的研究成果和应用案例,让您第一时间了解脑机接口技术的最新进展。