当前位置: 加热墙 >> 加热墙优势 >> Nature评论机器学习的物理启示录
老话说:隔行不取利。但时过境迁,目前不管是娱乐圈还是学术界,跨界方可大红大紫。在娱乐圈,相声演员客串脱口秀,歌手跨界演员,赚的钵满盆满。而在学术界,如果我们的眼界仅仅局限于自己的专业领域,那么很可能错过一些难得的火花。在本文中,作者详细介绍了物理学——这个古老、严谨、充斥着各种智商怪物争相斗法的传统学术方向,是如何与机器学习和深度学习擦出智慧的火花的。
作者
Don
编辑
青暮
神经网络,对于这个熟悉的名词,我们一听之下便知它深受生物学的影响,尤其是脑神经科学。虽然神经网络的灵感最初源于生物学,但是随着人们研究的深入,生物学这个母体学科中可用资源日渐枯竭。但是与生物一墙之隔的物理学还是处于一片蓝海,这片科研的处女地中的很多经验和研究方法论有望帮助神经网络的研究变得更加优秀,找到更多的真理。因此,近些年不少工作开始琢磨如何在机器学习和物理学之间建立更强的纽带,设计出更加强大的计算方法。
自诞生之初,机器学习和物理学便有着十分紧密的关联。早在年,JohnHopfield就进行了第一步尝试,他在神经网络和物理学之间建立了第一座互通有无桥梁。Hopfield发现,在物理学中,一个由相互作用的粒子组成的粒子群物理系统中,粒子间通常会产生一些形似磁性力的作用现象。
Hopfield于是将这种相互作用的现象借鉴到了神经网络模型的设计当中,尤其是网络中的那些具有自发计算特性的神经元结构。因此,Hopfield发明出了“Hopfieldnetwork”,而它则是递归神经网络(RNN)的前身。
时至今日,RNN的广泛应用无需赘述,它大量的应用在时序分析、自然语言处理等领域。只要数据之间具有时间依赖性、时序动态特征,那么RNN就是一个十分优秀的备选方案。
换个角度来看,理论物理学有望帮助人们从基础上重新认识机器学习领域。早在年,L.G.Valiant就发表了一篇经典论文《Atheoryofthelearnable》,在其中,他便对此定下了基调。