第250章 人工智能项目的探讨
燃面不燃提示您:看后求收藏(第250章 人工智能项目的探讨,科技革命,从1984开始,燃面不燃,奇书网),接着再看更方便。
请关闭浏览器的阅读/畅读/小说模式并且关闭广告屏蔽过滤功能,避免出现内容无法显示或者段落错乱。
书中明确指出,感知机仅能处理线性可分问题,面对异或问题这类线性不可分的情况则无能为力,并且认为在当时的条件下,多层神经网络的训练算法难以实现。这一观点给神经网络的研究带来了极为沉重的打击。
后来的事实也的确在一定程度上验证了书中的说法,尽管神经网络的概念早已存在,但人们始终未能找到有效训练多层神经网络的方法。传统的神经网络在训练过程中,面对多层结构,往往难以有效地调整每一层的参数,致使网络难以很好地学习复杂模式。
这种困境一直持续到 1986 年,随着关于反向传播的论文发表,情况才会出现转机。论文中提出的 “反向传播” 算法,为训练多层神经网络提供了一种行之有效的途径。
该算法的核心思路是,通过计算每一层的误差,并将这些误差逐层向后传播,进而调整每一层的权重和偏置,使整个网络的输出误差达到最小化。
此后,神经网络总算是有了些许希望,吸引了不少人投身研究,被后来者称为“深度学习三巨头”的杨立昆就在反向传播论文发布后,构建了应用于图像分类的卷积神经网络,即 LeNet 的最初版本,并且首次使用了 “卷积” 一词,“卷积神经网络” 由此得名。
秦奕作为重生之人,自然知道神经网络与深度学习虽在当下发展迟缓,但未来必将大放异彩。
可历景铄并非穿越之人,显然无法预知未来,所以秦奕很好奇历景铄选择这个方向的理由:“历同学,你为什么会选择在神经网络这个方向进行研究呢?就目前的科研情况来看,它的发展状况似乎不太乐观。”
历景铄嘿嘿一笑,说道:“发展状况不乐观,那都是过去的事情了。我最近了解到,漂亮国那边的人工智能学术圈有不少人都研究出类似的反向传播训练算法。据说有了这个算法,神经网络的训练会变得简单可行,所以神经网络的发展环境马上就要迎来改变了!”
“原来如此,看来你在漂亮国那边积累了不少学术人脉啊!” 秦奕笑着说道,“不过说实话,即便有了便捷的训练算法,神经网络本身所能表达的内容,目前还不是很清晰,其发展潜能也不是很明朗啊。”
其实神经网络的内容何止是目前不清晰,就算是后来人工智能大放异彩的时候,其可解释性仍旧是一个相当复杂的问题。
另外就算有了合适的训练算法,以目前这个硬件环境,神经网络还是没法快速发展的。
前世神经网络在这几年短暂复苏了一阵之后,就又一次进入了寒冬,要一直到 GpU 能够为深度神经网络提供足够的训练算力之后,神经网络才会在计算机视觉、自然语言处理、推荐系统等各个应用领域多点开花。
“事情总归是从不清晰走向清晰的嘛,真相哪能一开始就摆在眼前呢!我觉得从 1980 年福岛邦彦提出的神经认知机模型入手开展研究,是个不错的选择。” 历景铄自信满满地回应道。
“很有自信啊!你要是坚持这个研究方向,倒也并非不可。但我感觉,要是仅仅做理论研究,似乎不太需要资金支持。你申请理想基金,究竟出于什么目的呢?” 秦奕追问道。
本章未完,点击下一页继续阅读。