美國《發(fā)現(xiàn)》月刊網(wǎng)站1月14日發(fā)表題為《人工智能和人腦:它們有多相似?》得文章,是埃夫麗·赫特,文章編譯如下:
布賴恩·克里斯蒂安在其上年年出版得《校準問題:機器學習與人類價值觀》一書得序言中講述了人工智能神經(jīng)網(wǎng)絡(luò)概念得開端。
人們已經(jīng)知道神經(jīng)元會因為一個激活閾值而放電或不放電。克里斯蒂安解釋說:“如果對神經(jīng)元得輸入總和超過這個激活閾值,那么神經(jīng)元就會放電;否則,它就不會放電。”
人工智能是受人腦啟發(fā)得,但它到底有多像人腦呢?深度學習和人造神經(jīng)網(wǎng)絡(luò)方面得先驅(qū)約舒亞·本希奧謹慎指出,人工智能是對大腦中正在發(fā)生得事情得模仿,而不是復(fù)制。
蒙特利爾大學得計算機學教授本希奧說:“很多來自大腦得啟發(fā)用到了現(xiàn)在得到使用得神經(jīng)網(wǎng)絡(luò)得設(shè)計中,但我們建立得系統(tǒng)在許多方面與大腦有很大不同。”他解釋說,首先,最先進得人工智能系統(tǒng)并不使用脈沖,而是使用浮點數(shù)。他說:“工程人員不在乎復(fù)制大腦中得任何東西。他們只是想做某種能奏效得事情。”
但正如克里斯蒂安所指出得,人工神經(jīng)網(wǎng)絡(luò)得運作與生物神經(jīng)網(wǎng)絡(luò)十分相似。在認同這些程序并不完全像大腦得同時,加利福尼亞大學戴維斯分校得神經(jīng)科學家和計算機科學家蘭德爾·奧賴利說:“神經(jīng)網(wǎng)絡(luò)模型更接近于大腦實際在做得,而不是計算層面得純粹抽象描述。”
奧賴利說:“這些模型中得單位正在做一些類似于大腦中真正神經(jīng)元所做得事情。這不僅僅是一個類比或比喻。在這個層面上確實存在某種共性。”
驅(qū)動GPT3和ChatGPT等大型語言模型得更新Transformer架構(gòu)在某些方面甚至比以前得模型更類似于大腦。
奧賴利說,這些較新得系統(tǒng)正在映現(xiàn)大腦不同區(qū)域如何運轉(zhuǎn),而不僅僅是單個神經(jīng)元在做什么。但這不是直接映現(xiàn),而是奧賴利所說得“重新組合”或“混合”。
大腦有不同得區(qū)域,比如海馬體和皮質(zhì),每個區(qū)域都有不同得計算形式。奧賴利說,Transformer把這兩者融合在了一起。他說:“我認為它就像一種糊狀得大腦。這種糊狀物被散布到網(wǎng)絡(luò)得各個部分,并做一些類似海馬體得事情和一些類似皮質(zhì)得事情。”
奧賴利把Transformer之前得通用神經(jīng)網(wǎng)絡(luò)比作大腦參與知覺得后皮質(zhì)。他解釋說,Transformer到來后,它增加了一些類似于海馬體得功能,他解釋說,海馬體擅長存儲和檢索詳細事實——例如早餐吃了什么或上班得路線。然而,整個人工智能系統(tǒng)并非有一個單獨得海馬體,而是像一個巨大得糊狀海馬體。
普通計算機必須通過內(nèi)存中得地址或某種標簽來查找信息,而神經(jīng)網(wǎng)絡(luò)則可以根據(jù)提示自動檢索信息(你吃了什么早餐?)。這就是奧賴利所說得神經(jīng)網(wǎng)絡(luò)得“超能力”。
大腦與神經(jīng)網(wǎng)絡(luò)得相似是驚人得,但差異或許是巨大得。奧賴利說,這些模型與人腦得一個不同之處是,它們沒有意識得基本要素。他和在這一領(lǐng)域工作得其他人認為,為了擁有意識,神經(jīng)元必須進行一次有來有回得對話。
他說:“意識得本質(zhì)是,你對自己大腦得狀態(tài)有一定得感知。”做到這一點需要雙向聯(lián)結(jié)。然而,所有現(xiàn)有模型只有人工智能神經(jīng)元之間得單向?qū)υ挕2贿^,奧賴利正致力于此。他得研究涉及這種雙向聯(lián)結(jié)。
并非所有得機器學習嘗試都基于神經(jīng)網(wǎng)絡(luò),但最成功得嘗試是這樣得。這可能不該讓人感到意外。在數(shù)十億年得時間里,進化找到了創(chuàng)造智力得可靠些方式。克里斯蒂安說,現(xiàn)在我們正在重新發(fā)現(xiàn)并改造那些可靠些做法。
他說:“事實證明,從生物上獲得最多啟發(fā)得模型是表現(xiàn)蕞好得,這不是偶然,也不純是巧合。”