飛象原創(魏德齡/文)諾貝爾獎得主杰弗里·辛頓在2025世界人工智能大會上的發言令很多人感到興奮,尤其是圍繞人類理解語言與大模型理解問題相似性的觀點,以及大模型在博聞強記方面的能力,尤其是所謂會出現比人類更智能AI的觀點,無疑燃起了現場的人工智能從業者繼續努力奮斗的高昂斗志。
然而,如果仔細審視前沿領域人工智能觀點的話,包括辛頓的發言在內,無論是對大模型的褒與貶,實際上均來自于對這些技術未來的無限擔憂。正如奧本海默的那句:“我已成為死亡,世界的毀滅者”。如果說核能技術是人類打開的一次潘多拉魔盒的話,人工智能可能是歷史的又一次押韻。
對大模型的褒與貶
辛頓的發言無疑代表對于大模型褒的一面,在去年一次與外媒的采訪中,他便表示AI將會在最終操控人類。當他在2022年看到Google開發的大語言模型PaLM的聊天機器人能夠解釋笑話的時候,他認為這是AI能夠理解人類語言的重要時刻,并逐漸開始意識到AI有可能威脅人類,未來擁有超越人類智慧的AI將可以用語言操控人類,試圖說服不要關掉電源的開關。
如同人類在勸說操控一個3歲的孩子,“有個人,把老虎當寵物,那老虎也可以當小虎崽,是很可愛的寵物。但是,如果一直養這個寵物,那么你要確保它長大的時候,它不會把你給殺掉。”給出這段發言的辛頓似乎在復述“養虎為患”的成語故事。
而辛頓的好朋友,與他一起獲得圖靈獎的楊立昆,卻代表了對于大模型貶的一面。在他的觀點中,人工智能更像是一個小鎮做題家般的書呆子,對于世界的理解局限于大量的現有資料內容,但人類的知識理解涉及對世界的感知、經驗、情感以及更深層次的直覺和常識,這是很多文本難以觸及的層面。有人這樣形容:“GPT 雖然‘讀遍’了互聯網,但它從未喝過一口紅酒、摔過一只杯子,從未親身體驗過任何事情。”但對于一個可能還坐不穩的嬰兒來說,便已經能夠通過以不斷向地面拋出物體的方式,感知了解地心引力所帶來的物理特性。
于是,楊立昆開始越來越提及AMI(先進機器智能)一詞,可以學習抽象概念,并據此進行邏輯推理、制定計劃的AI系統。如同人類全神貫注于一件事時, AI 模型不應該僅僅依賴像素級重建誤差,而是要具備多層次抽象表征能力。好比人類的大腦并非逐像素、逐幀地處理世界,而是依賴抽象層次的表征與結構化信息。
已經上崗的不完美管理者
然而,正是這樣沒有抽象能力、沒有感知能力的人工智能,卻在如今已經在很多企業中進入到實際崗位中,甚至可能成為很多普通人工作生活中難以揮之的夢魘。今年在人工智能領域的一大暢銷書《連結》中,列舉了不少AI在掌握關鍵權力后,可能帶來的隱憂。
例如,銀行中正在開始通過人工智能來進行放貸的評定,這也意味著對于信用稍有問題的人來說,一旦失去了人情的介入,出現資金問題,無法還款,此人將可能在人工智能來進行判定的體系中,再無出頭之日。
這也引出的另一個問題便是,人工智能在信用評定中的思維方式在大模型中完全處于黑盒的狀態,無論是AI在進行信用評定,或充當人力資源管理者進行績效考核,更不用提使其進入執法或安全領域,誰也可能無法說清大模型的腦子里到底在真實的想些什么,又如何充當著人類工作生活的裁判員。如果活在訂單系統中的外賣員已經足夠辛苦的話,未來由大模型所規劃的工作考核,也許將會讓更多人汗流浹背。甚至不完美的人工智能可能會帶來某種新形式的官僚辦事風格。
另一個近在咫尺的話題,便是擁有幻覺、不完美的人工智能作品正在污染人類的知識體系,并進一步影響模型的認知。當下搜索引擎所使用AI總結的內容結果,很多錯誤百出,但對于門外漢而言,可能信以為真。更不用說AGI撰寫的文章,盡管外行看著內行,但內行看了又十分外行,有些幻覺更是令人笑掉大牙。
同時,奇怪蹩腳的機器語言,還正在成為兒童的對外交流工具,不少廠商開始將AI引入到早教產品中,悟性欠缺、沒有感知能力,難以多層次抽象表征的人工智能,反倒成為了人類幼崽的老師,讓不少人開始為人類的未來而擔憂。
褒貶之意在于向善
實際上,很多人在聽取辛頓的演講后都發現,核心表達之意可能并不在于人工智能將會如何取代人類,而是AI向善。“每個國家可以做自己的研究,讓AI向善。他可以在自己主權的AI上進行研究,他不可以不給別的國家,但是,他可以把成果分享給大家,也就是怎么訓練AI,讓AI向善。”
這一層面,顯然比警惕未來AI如何統治世界更具現實意義。就像同期展館中的一些演示項目,AI開始監測到崗員工的情緒,觀察教室中學生的上課狀態,一個本沒有情感的智能體,卻開始監督起人類的情感。
《連結》一書開頭拋出這樣的問題:“要是我們真那么聰明,為什么這么愛走上自我毀滅的道路?”而該書給出的答案是,面對人工智能,也需要打造強大的自我修正機制。
如果只是一味逐利于AI概念,或幻想通過打開魔盒換來突飛猛進的快感,最終并不是AI將操控的人類,而是失控的人類,正在作繭自縛。