2024諾貝爾物理學得主,以神經(jīng)絡(luò)為筆 書寫AI時代新篇章

1982年,霍普菲爾德在論文中提出了“霍普菲爾德絡(luò)”,旨在模擬人腦記憶的存儲和檢索過程。這個自聯(lián)想記憶絡(luò)能夠在部分或不完整輸入下,通過動態(tài)調(diào)整神經(jīng)元狀態(tài),恢復(fù)完整的存儲模式。

霍普菲爾德絡(luò)的提出推動了神經(jīng)絡(luò)領(lǐng)域的發(fā)展,尤其是在理解記憶如何在大腦中存儲和檢索的機制上提供了理論框架。且它的“能量最小化”思想影響了后續(xù)許多神經(jīng)絡(luò)模型的發(fā)展。

霍普菲爾德絡(luò)被廣泛應(yīng)用于神經(jīng)科學、計算機科學和優(yōu)化問題等領(lǐng)域,尤其是在模式識別、聯(lián)想記憶和優(yōu)化算法方面發(fā)揮了重要作用,在推動現(xiàn)代人工智能和神經(jīng)計算理論的發(fā)展上起到了關(guān)鍵作用。

霍普菲爾德還對生物物理學和分子生物學做出了重要貢獻,特別是在蛋白質(zhì)折疊和生物系統(tǒng)的計算功能方面。他提出的“Hopfield Barrier”概念解釋了蛋白質(zhì)如何有效找到其折疊的最低能量狀態(tài)。

霍普菲爾德絡(luò)的發(fā)現(xiàn)吸引了一些理論物理學家參與到神經(jīng)絡(luò)的研究當中。而辛頓就將霍普菲爾德絡(luò)的想法應(yīng)用于一種新絡(luò),這種新絡(luò)使用另一種方法:玻爾茲曼機(Boltzmann Machine)。

玻爾茲曼機是第一個能夠?qū)W習不屬于輸入或輸出的神經(jīng)元內(nèi)部表示的神經(jīng)絡(luò),可以學習給定數(shù)據(jù)類型的特征元素,可以用來分類圖像或創(chuàng)建新材料,幫助推動了當今機器學習的快速發(fā)展。

辛頓的貢獻為深度學習的復(fù)興奠定了基礎(chǔ),使得神經(jīng)絡(luò)得以在更復(fù)雜、更大規(guī)模的數(shù)據(jù)集上進行訓練,從而在圖像識別、語音識別、自然語言處理等任務(wù)中取得了巨大的成功。

辛頓在神經(jīng)絡(luò)方面的開創(chuàng)性工作塑造了為當今許多產(chǎn)品提供動力的人工智能系統(tǒng)。2018年,辛頓與楊立昆(Yann LeCun)和約書亞·本吉奧(Yoshua Bengio)共同獲得了當年的圖靈獎。

值得一提的是,辛頓的團隊很早就開始利用英偉達的CUDA平臺訓練神經(jīng)絡(luò)模型。2012年,辛頓與他的學生Alex Krizhevsky和Ilya Sutskever在CUDA平臺上訓練了一個視覺識別神經(jīng)絡(luò)“AlexNet”。

在當年著名的ImageNet競賽中,AlexNet幾乎將對象識別的錯誤率減少一半,重塑了計算機視覺領(lǐng)域。這也讓英偉達GPU+CUDA組合在深度學習領(lǐng)域一鳴驚人,為十年后股價的爆發(fā)奠定了理論基礎(chǔ)。

2012年底,辛頓團隊三人創(chuàng)建了DNNresearch公司,次年該公司被谷歌買下。2016年,谷歌推出AlphaGo,在圍棋上橫掃了人類棋手,成為當時公認的最強AI大廠。而在前一年,Sutskever離開了谷歌,參與創(chuàng)立了OpenAI并擔任首席科學家。

去年,辛頓在社交媒體上證實他離開谷歌。在接受媒體采訪時,他表示,“我對我畢生所研究的東西感到后悔了?!苯芨ダ镄稳莘Q,AI聊天機器人所帶來的某些危險“相當恐怖”。

? 版權(quán)聲明
評論 搶沙發(fā)
加載中~
每日一言
不怕萬人阻擋,只怕自己投降
Not afraid of people blocking, I'm afraid their surrender