昨天的諾貝爾物理學(xué)獎一公布,瞬間炸翻了物理圈和AI圈。 Hinton的第一反應(yīng)更是有趣:這不會是個詐騙電話吧? 如此出乎意料的結(jié)果,。 而諾貝爾獎的官方賬號,也被網(wǎng)友們給沖爆了。 他們紛紛高呼:這不是物理學(xué)! 「數(shù)據(jù)科學(xué)或神經(jīng)網(wǎng)絡(luò)是『用于』物理學(xué),但絕對不『是』物理學(xué)! 相比之下,AI圈則是一片其樂融融的景象。大佬們都開心地給Hinton送去了祝福。 AI教母李飛飛:AI的深遠(yuǎn)影響,如今才剛剛開始 MIT博士生Ziming Liu直言:「Physics (Science) for AI」是一個被嚴(yán)重低估的領(lǐng)域。規(guī);梢詫(shí)現(xiàn)一對多的效果,但唯有科學(xué)才能帶來從無到有的突破。 Jim Fan則做了一個非常有趣的「AI-物理學(xué)對照表」: 想沖擊諾獎的AI學(xué)者們,你們學(xué)會了嗎 言歸正傳,諾貝爾物理學(xué)獎,為何要頒給AI學(xué)者? 這就要從深度學(xué)習(xí)爆發(fā)的那一年講起。 Geoffrey Hinton:2012年,深度學(xué)習(xí)的驚人革命 早在1986年,Geoffrey Hinton等人在Nature上發(fā)表的論文,就讓訓(xùn)練多層神經(jīng)網(wǎng)絡(luò)的「反向傳播算法」廣為人知。
可以說,神經(jīng)網(wǎng)絡(luò)在經(jīng)歷第一波寒冬之后,自此開始重新走向AI舞臺。 1989年,LeCun率先使用了反向傳播和卷積神經(jīng)網(wǎng)絡(luò)。他也同意Hinton的看法。
早期的圖靈三巨頭 不過,反向傳播算法引發(fā)的熱潮,隨后又在1995年被統(tǒng)計機(jī)器學(xué)習(xí)蓋過去了。 統(tǒng)計機(jī)器學(xué)習(xí)的風(fēng)頭興盛了很多年,即使2006年Hinton在Science上首次提出「深度學(xué)習(xí)」,業(yè)內(nèi)也響應(yīng)寥寥。 直到2012年9月,一篇題為「用深度卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行ImageNet圖像分類」的論文,讓此前沉寂多年的AI領(lǐng)域熱度驟起。 文中提出的AlexNet深度卷積神經(jīng)網(wǎng)絡(luò),在當(dāng)年的ImageNet比賽上以碾壓之勢奪冠,一舉將top-5錯誤率降低到了15.3%,比身后的第二名(26.2%)足足高出10多個百分點(diǎn)。 ImageNet數(shù)據(jù)集,正是由斯坦福李飛飛團(tuán)隊(duì)在2007年創(chuàng)建。 AlexNet摧枯拉朽般的大勝,讓研究人員驚嘆于大型卷積深度神經(jīng)網(wǎng)絡(luò)架構(gòu)的神奇威力,這篇論文也成為深度學(xué)習(xí)和人工智能自「AI寒冬」后重新成為熱門領(lǐng)域的重要里程碑。 后來人們所講的「深度學(xué)習(xí)革命」,也借此文以發(fā)端,直到十二年后的今天。 事后李飛飛這樣回顧:自2012年以來,深度學(xué)習(xí)的發(fā)展堪稱「一場驚人的革命,令人做夢都沒想到」。 自此,人們開始相信:大數(shù)據(jù)、算力、深度模型,是走向通用人工智能的關(guān)鍵三要素。 而深度模型也從最早的卷積神經(jīng)網(wǎng)絡(luò),迭代為遞歸神經(jīng)網(wǎng)絡(luò)、Transformer、擴(kuò)散模型,直至今天的GPT。 從生理學(xué)、哲學(xué)到AI:大腦究竟如何思考 在年輕時,為了弄清楚人類的大腦如何工作,Hinton首先來到劍橋?qū)W習(xí)生理學(xué),而后又轉(zhuǎn)向哲學(xué),但最終也沒有得到想要的答案。 于是,Hinton去了愛丁堡,開始研究AI,通過模擬事物的運(yùn)行,來測試?yán)碚摗?/span>
某個周日,Hinton坐在辦公室,突然有人敲門。AI命運(yùn)的齒輪從此轉(zhuǎn)動。 敲門的正是Ilya。 當(dāng)年青澀的Ilya Hinton給了Ilya一篇關(guān)于反向傳播的論文,約定兩人一周后討論。
——Hinton的眼睛亮了一下,這是他們花了好幾年時間在思考的問題。 Ilya很早就有一種直覺:只要把神經(jīng)網(wǎng)絡(luò)模型做大一點(diǎn),就會得到更好的效果。Hinton認(rèn)為這是一種逃避,必須有新的想法或者算法才行。 但事實(shí)證明,Ilya是對的。 新的想法確實(shí)重要,比如像Transformer這樣的新架構(gòu)。但實(shí)際上,當(dāng)今AI的發(fā)展主要源于數(shù)據(jù)的規(guī)模和計算的規(guī)模。 2011年,Hinton帶領(lǐng)Ilya和另一名研究生James Martins,發(fā)表了一篇字符級預(yù)測的論文。他們使用維基百科訓(xùn)練模型,嘗試預(yù)測下一個HTML字符。 模型首次采用了嵌入(embedding)和反向傳播,將每個符號轉(zhuǎn)換為嵌入,然后讓嵌入相互作用以預(yù)測下一個符號的嵌入,并通過反向傳播來學(xué)習(xí)數(shù)據(jù)的三元組。 當(dāng)時的人們不相信模型能夠理解任何東西,但實(shí)驗(yàn)結(jié)果令人震驚,模型仿佛已經(jīng)學(xué)會了思考——所有信息都被壓縮到了模型權(quán)重中。 AI如何「蹭」上物理學(xué) 講到這里,你可能有一個疑問:這些跟物理學(xué)有什么關(guān)系呢? 諾獎委員會的解釋是,人工神經(jīng)網(wǎng)絡(luò)是用物理學(xué)工具訓(xùn)練的。 Geoffrey Hinton曾以Hopfield網(wǎng)絡(luò)為基礎(chǔ),創(chuàng)建了一個使用不同方法的新網(wǎng)絡(luò):玻爾茲曼機(jī)。在這個過程中,Hinton使用的是統(tǒng)計物理學(xué)的工具,來學(xué)習(xí)和識別數(shù)據(jù)中的模式。 就這樣,AI跟物理學(xué)聯(lián)系上了。 如果講到此次另一位獲獎?wù)逬ohn Hopfield,倒是和物理學(xué)的關(guān)系更緊密一些。 一言以蔽之,Hopfield網(wǎng)絡(luò)是按物理學(xué)上能量函數(shù)最小化來構(gòu)建的,可以看作是物理學(xué)中「自旋玻璃模型」的擴(kuò)展。
另外,Hopfield Network和玻爾茲曼機(jī)都是基于能量的模型。 統(tǒng)計力學(xué)原理,便是這兩者的核心。它們都使用來自統(tǒng)計力學(xué)的能量函數(shù),來建模和解決與模式識別和數(shù)據(jù)分類相關(guān)的問題。 在前者當(dāng)中,能量函數(shù)被用來尋找與所存儲的模式相對應(yīng)的最穩(wěn)定狀態(tài)。后者中,能量函數(shù)通過調(diào)整節(jié)點(diǎn)之間連接的權(quán)重來幫助學(xué)習(xí)數(shù)據(jù)的分布。 至此,諾獎委員會就自圓其說了。 John Hopfield:一個想法,波及三大學(xué)科 20世紀(jì)80年代初,John Hopfield在加州理工學(xué)院創(chuàng)建了一個簡單的計算機(jī)模型——Hopfield Network。 其行為方式不太像當(dāng)時的計算機(jī),而更像人腦。 這是因?yàn)椋琀opfield Network模仿了人腦儲存信息的結(jié)構(gòu)。它由相互連接的節(jié)點(diǎn)組成,正如人腦中的神經(jīng)元一樣。 節(jié)點(diǎn)中的連接強(qiáng)度具有可塑性,可強(qiáng)可弱,而強(qiáng)連接進(jìn)而形成了我們所說的「記憶」。 Hopfield學(xué)生,現(xiàn)Caltech計算機(jī)科學(xué)、計算與神經(jīng)系統(tǒng)以及生物工程教授Erik Winfree解釋道: Hopfield Network是物理學(xué)中「自旋玻璃模型」(the spin glass model)的擴(kuò)展。自旋玻璃有兩種磁化狀態(tài),可以稱之為它的「記憶」。 Hopfield擴(kuò)展了這一模型,讓其有了更復(fù)雜的連接模式。 簡言之,他使用一個簡單的規(guī)則,讓每對單元(每個節(jié)點(diǎn))之間有不同的連接強(qiáng)度,而不再局限于兩種狀態(tài)。 他的工作證明了,這種網(wǎng)絡(luò)可以儲存多種復(fù)雜的模式(記憶),而且比之前的方法更接近大腦運(yùn)作方式。 Hopfield以一種跨學(xué)科的視角闡述這個模型,解釋了人工神經(jīng)網(wǎng)絡(luò)與物理學(xué)之間的聯(lián)系。 復(fù)旦大學(xué)計算機(jī)科學(xué)教授張軍平認(rèn)為,Hopfield Network與物理學(xué)領(lǐng)域的關(guān)聯(lián)是,它的設(shè)計思路模擬了電路結(jié)構(gòu)。 「假設(shè)網(wǎng)絡(luò)每個單元均由運(yùn)算放大器和電容電阻組成,而每個單元就代表著一個神經(jīng)元」。 在普林斯頓大學(xué)新聞發(fā)布會上,Hopfield表達(dá)了同樣的觀點(diǎn)。他認(rèn)為,長遠(yuǎn)來看,新科學(xué)領(lǐng)域通常產(chǎn)生于,大量科學(xué)知識的交叉點(diǎn)上。
來自MIT-IBM實(shí)驗(yàn)室物理學(xué)家Dmitry Krotov分享了,Hopfield Network一個想法至少對三大學(xué)科產(chǎn)生了巨大的影響。 它們分別是,統(tǒng)計物理學(xué)、計算機(jī)科學(xué)和人工智能、神經(jīng)科學(xué)。 2023年,他曾發(fā)表了一篇Nature論文,對Hopfield Network在統(tǒng)計物理、神經(jīng)科學(xué)和機(jī)器學(xué)習(xí)等多個學(xué)科中,進(jìn)行了分析。 論文地址:https://www.nature.com/articles/s42254-023-00595-y Krotov本人也與Hopfield合作過多篇研究,因此他對Hopfield Network工作的了解再熟悉不過了。 統(tǒng)計物理學(xué) 在統(tǒng)計物理學(xué)中,Hopfield Model成為最常被研究的哈密頓量(Hamiltonian)之一。哈密頓量在物理學(xué)中,描述了系統(tǒng)的總能量,是理解系統(tǒng)行為的關(guān)鍵。 這一模型已經(jīng)催生了數(shù)以萬計的論文、幾本書籍。它為數(shù)百名物理學(xué)家進(jìn)入神經(jīng)科學(xué)和人工智能,提供了切入點(diǎn)。 就連諾貝爾獎官方給出了解釋,機(jī)器學(xué)習(xí)模型,是基于物理方程式。 計算機(jī)科學(xué)和AI 在計算機(jī)科學(xué)中,Hopfield Network終結(jié)了AI寒冬(1974-1981),并開啟了人工神經(jīng)網(wǎng)絡(luò)的復(fù)興。 Hopfield在1982年發(fā)表的論文,標(biāo)志著現(xiàn)代神經(jīng)網(wǎng)絡(luò)的開始。 論文地址:https://www.pnas.org/doi/10.1073/pnas.79.8.2554 就連如今的頂會NeurIPS,起源可以追溯到1984-1986年在加州理工學(xué)院舉行的被稱為「Hopfests」的會議。 這個名字直接致敬了Hopfield,彰顯了他的早期工作在神經(jīng)網(wǎng)絡(luò)研究中的核心地位。 John Moody在1991年的NeurIPS論文集中記錄了這段歷史。 另外,Hopfield Network成為限制玻爾茲曼機(jī)(Restricted Boltzmann Machine)發(fā)展的主要靈感來源。RBM在早期深度學(xué)習(xí)中,發(fā)揮著重要的作用。 還有基于能量的模型(Energy Based Model),代表著人工智能領(lǐng)域中一個重要的范式。 它也是從Hopfield基于能量和記憶的模型發(fā)展而來。 神經(jīng)科學(xué) 在神經(jīng)科學(xué)領(lǐng)域,Hopfield Network成為后來許多計算記憶模型的基礎(chǔ)。 它將記憶回憶概念化,即能量景觀中滾下山坡的想法,已成為神經(jīng)科學(xué)中的經(jīng)典隱喻。 這次「諾獎風(fēng)波」后,許多人也對如今的學(xué)科分類有了全新的思考。 不可否認(rèn)的是,AI已經(jīng)融入了全學(xué)科、全領(lǐng)域。 而這次諾貝爾物理學(xué)獎頒給AI,也是AI大爆發(fā)對于人類社會顛覆影響的一個真實(shí)寫照。 本文來源:新智元 |
原創(chuàng)欄目
IT百科
網(wǎng)友評論
聚超值•精選