這是很短的一篇部落格#
前面幾週,因為各種原因,我仔細閱讀了很多關於人工智能歷史的文章和書籍。總體來看,我的收穫是很多的,了解了很多大佬們的有趣的故事,也看了他們之間的恩怨情仇。但是,除了感嘆「有人的地方就有江湖」這類老生常談的話題,我還有一個感受。
我自己學習機器學習、深度學習也有好多年了,自己也跑過很多的模型。當深度學習稱為熱門方向之後,我突然發現,很多以前沒有見過的模型都被大家提了出來,包括卷積神經網絡、長短時記憶網絡,到後來,大家又提出了生成對抗網絡這類驚為天人的模型。我一度以為,自己太過愚鈍,想不到這些聰明的主意。
但是讀了人工智能的歷史,我發現我錯了。無論是卷積神經網絡、長短時記憶網絡,還是強化學習或者是生成對抗模型中核心的最小最大優化函數,都是在人工智能 70 年的發展歷程中早就被提出來的,只不過當時由於各種原因沒有引起重視。等到算力和數據足夠,之前的科學家重新把這些方法利用了起來,結合最新的模型構建和訓練方法,是這些以前的「思想」獲得了新生。甚至,強化學習本身的出現早於人工智能術語的出現。
對於我來說,這些也就是一個不大不小的收穫。但是對於我國科技來說,這種情況正好表明單純的追求研究熱點是不對的,我們要打牢基礎,從各個方面堅持做下去,才有可能在未來的某一天成功;單純地追熱點,對於大部分人來說就是不求甚解,以為這是大牛科學家的靈光一現。
美國因為對神經網絡的批評,導致神經網絡的研究從美國轉移到了加拿大,這也是為什麼深度學習的聖地成了加拿大的多倫多大學和蒙特利爾大學。Hinton 等人也是在神經網絡模型被批評的那段時間裡堅持不懈,才有今天的輝煌的,所以人家做出好的結果也是理所當然的。