CSiEra

CSiEra

I know I know nothing.

阅读人工智能历史

这是很短的一篇 blog#

前面几周,因为各种原因,我仔细阅读了很多关于人工智能历史的文章和书籍。总体来看,我的收获是很多的,了解了很多大佬们的有趣的故事,也看了他们之间的恩怨情仇。但是,除了感叹 “有人的地方就有江湖” 这类老生常谈的话题,我还有一个感受。

我自己学习机器学习、深度学习也有好多年了,自己也跑过很多的模型。当深度学习称为热门方向之后,我突然发现,很多以前没有见过的模型都被大家提了出来,包括卷积神经网络、长短时记忆网络,到后来,大家又提出了生成对抗网络这类惊为天人的模型。我一度以为,自己太过愚钝,想不到这些聪明的主意。

但是读了人工智能的历史,我发现我错了。无论是卷积神经网络、长短时记忆网络,还是强化学习或者是生成对抗模型中核心的最小最大优化函数,都是在人工智能 70 年的发展历程中早就被提出来的,只不过当时由于各种原因没有引起重视。等到算力和数据足够,之前的科学家重新把这些方法利用了起来,结合最新的模型构建和训练方法,是这些以前的 “思想” 获得了新生。甚至,强化学习本身的出现早于人工智能术语的出现。


对于我来说,这些也就是一个不大不小的收获。但是对于我国科技来说,这种情况正好表明单纯的追求研究热点是不对的,我们要打牢基础,从各个方面坚持做下去,才有可能在未来的某一天成功;单纯地追热点,对于大部分人来说就是不求甚解,以为这是大牛科学家的灵光一现。

美国因为对神经网络的批评,导致神经网络的研究从美国转移到了加拿大,这也是为什么深度学习的圣地成了加拿大的多伦多大学和蒙特利尔大学。Hinton 等人也是在神经网络模型被批判的那段时间里坚持不懈,才有今天的辉煌的,所以人家做出好的结果也是理所当然的。

加载中...
此文章数据所有权由区块链加密技术和智能合约保障仅归创作者所有。