神经元更少,计算速度最高完善百万倍
预测复杂的系统一定要用更多的神经元吗?在最新一期的《自然 · 通讯》上,俄亥俄州立大学的研究者给出了否定的答案。他们找到了一种将储备池计算速度最高提升 100 万倍的方法,使用的神经元比原来要少得多。
在数学领域,有一个名叫「动力系统」的概念。这一系统中存在一个固定的规则,描述了几何空间中的一个点随时间的演化情况,例如钟摆晃动、管道中水的流动、湖中每年春季鱼类的数量等。
然而,动力系统就像天气一样,是很难预测的,因为初始条件下微小的变化能带动整个系统的长期的巨大的连锁反应,这就是我们所熟知的蝴蝶效应。ASP站长网
为了更好地预测动力系统随时间的演化,相关研究者在本世纪初提出了一种名为「储备池计算(Reservoir computing )」的机器学习算法。这是一种模仿人脑工作方式的计算方法,在预测动力系统演化方面非常有效,研究者也一直在这条路上不断改进。
在最新一期的《自然 · 通讯》杂志上,来自美国俄亥俄州立大学的研究者公布了他们在储备池计算研究上的新进展。这些研究者表示,他们找到了一种新方法,将储备池计算的速度提高了 33 到 100 万倍,而所需的计算资源和数据输入却大大减少。他们将这种方法称为「下一代储备池计算」。 (编辑:焦作站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |