share_log

大语言模型并非AI“尽头”?Meta首席科学家:仍无法企及人类智慧

大語言模型並非AI“盡頭”?Meta首席科學家:仍無法企及人類智慧

財聯社 ·  05/23 17:09

①Meta首席AI科學家楊立昆認爲,現有的所有大型語言模型對邏輯的理解非常有限,永遠無法實現像人類一樣的推理和計劃能力; ②楊立昆表示其團隊正致力於創造一種能夠形成“常識”的人工智能,這種方法被稱爲“世界建模”; ③楊立昆的這一觀點也讓Meta公司內部生出巨大分歧。

財聯社5月23日訊(編輯 周子意)Meta的首席人工智能(AI)科學家楊立昆(Yann LeCun)認爲,現有的大型語言模型(LLM)永遠無法實現像人類一樣的推理和計劃能力。

楊立昆表示,大型語言模型“對邏輯的理解非常有限,它不了解物質世界,沒有持久的記憶,不能以任何合理的術語定義來推理,也不能進行分層規劃”。

在一次最新採訪中,他認爲並不能依靠現有的先進大型語言模型來創造出媲美人類智慧的通用人工智能(AGI),因爲這些模型只有在獲得了正確的訓練數據的情況下才能準確回答提示,因此“本質上是不安全的”。

具體來說就是,楊立昆認爲,目前的大型語言模型儘管在自然語言處理、對話理解、對話交互、文本創作上有着出色的表現,但其仍然只是一種“統計建模”技術,通過學習數據中的統計規律來完成相關任務,本質上並非真正擁有理解和推理能力

而楊立昆本人則在努力開發全新一代的人工智能系統,他希望該系統將爲具有人類智能水平的機器提供動力,在機器中創造“超級智能”。不過他指出,這一願景可能需要10年才能實現。

“世界建模”方法

楊立昆在Meta的基礎人工智能研究(Fair)實驗室管理着一個約500人的團隊。他們正致力於創造一種能夠形成“常識”的人工智能,並以與人類相似的方式觀察和體驗、並學習世界的運作方式,並最終實現通用人工智能(AGI),這種方法被稱爲“世界建模”

2022年,楊立昆首次發表了一篇關於“世界建模”願景的論文,此後Meta基於該方法發佈了兩個研究模型。

楊立昆最新指出,Fair實驗室正在測試各種想法,希望讓人工智能最終能達到人類的智力水平,然而“這其中有很多不確定性和探索,我們也無法判斷哪個會成功,哪個最終會被選中”。

此外,他還堅定認爲,“我們正處於下一代人工智能系統的風口浪尖。”

內部矛盾

然而,這位科學家的實驗性願景對Meta公司來說是一場代價高昂的賭博,因爲目前的投資者更希望看到人工智能投資的快速回報。

也因此,Meta公司內部也出現了關於“短期收入”和“長期價值”之間的觀念分歧。這一點分歧從去年GenAI團隊的成立便可看出。

Meta於2013年成立了Fair實驗室,以開拓人工智能研究領域,並聘請了該領域的頂尖學者。然而在2023年,Meta單獨劃出了一個新的GenAI團隊,由首席產品官Chris Cox領導,該團隊從Fair實驗室挖來了許多人工智能研究人員和工程師,並領導了Llama 3模型的工作,並將其整合到其新的人工智能助手和圖像生成工具等產品中。

一些內部人士認爲,GenAI團隊的成立,或許因爲楊立昆和Meta首席行政官扎克伯格兩者在理念上存在某種矛盾。在投資者的壓力以及盈利壓力下,扎克伯格一直在推動人工智能的更多的商業化應用;而Fair實驗室內部的學院派文化卻讓Meta在生成式人工智能熱潮中稍顯“弱勢”。

在楊立昆發表這一觀點之際,Meta及其競爭對手正在推進更多增強版本的大型語言模型,包括OpenAI上週發佈的更快的GPT-4o模型;谷歌推出了一款新的“多模態”AI助理Project Astra;Meta上月還推出了最新的 Llama 3模型。

對於這些最新的大型語言模型,楊立昆是不屑的,他認爲,“大型語言模型的這種進化是膚淺和有限的,只有當人類工程師介入並根據這些信息進行訓練時,模型才會學習,而不是像人類那樣自然地得出結論。”這也相當於在打自家Llama模型的臉。

儘管觀念上存有矛盾,不過有知情人士透露,楊立昆依舊是扎克伯格的核心顧問之一,因爲他在人工智能領域享有極大聲譽。

譯文內容由第三人軟體翻譯。


以上內容僅用作資訊或教育之目的,不構成與富途相關的任何投資建議。富途竭力但無法保證上述全部內容的真實性、準確性和原創性。
    搶先評論