share_log

Meta首席AI科学家杨立昆:现有大模型存在重大缺陷,永远无法到达人类智能水平

Meta首席AI科學家楊立昆:現有大模型存在重大缺陷,永遠無法到達人類智能水平

全天候科技 ·  05/23 04:15

ChatGPT的橫空出世,讓稍顯拗口的“大型語言模型”(LLM)這個詞成了聚光燈的寵兒。從OpenAI、Anthropic等明星創企到谷歌、微軟和Meta等公司,都在持續推進LLM的能力和商業應用前景。

然而,Meta人工智能首席科學家楊立昆 (Yann LeCun) 卻認爲,目前的LLM路線無法通往AGI,且非常危險,顯示出業界對AI發展路線圖的分歧。

近日,在接受媒體採訪時,楊立昆直指當前的LLM技術存在“理解邏輯能力極其有限”、“無法對物理世界建模”、“無法形成持久記憶”、“無法進行層級規劃推理”等重大缺陷,並稱單純追求推進LLM的發展“本質是上不安全”的,無法實現真正的AGI。

LeCun指出,現有的LLM儘管在自然語言處理、對話交互、文本創作等領域表現出色,但其仍只是一種"統計建模"技術,通過學習數據中的統計規律來完成相關任務,本質上並非具備真正的"理解"和"推理"能力。

但直到今年,包括OpenAI、谷歌在內的科技巨頭,都將LLM視爲邁向AGI的關鍵一步。OpenAI CEO山姆·奧特曼就曾多次表示,GPT模型是朝着AGI方向發展的重要突破。

楊立昆所推崇的,是所謂“世界模型”(World Modeling)方法,即能夠像人類一樣,藉助觀察和體驗,循序漸進地學習認知這個世界,從而形成“常識”,最終實現AGI。

楊立昆認爲,“世界模型”更接近真正的智能,而非只學習數據的統計特徵。以人類的學習過程爲例,孩童在成長過程中,更多是通過觀察、交互和實踐來認知這個世界,而非被單純“注入”知識。而楊立昆的“世界模型”路線,則是試圖通過對視頻、音頻等媒體的模擬與補全,讓AI也經歷這樣一個自主學習的過程。

不過,他也承認實現“世界模型”並非易事,這一雄心勃勃的目標可能需要耗時10年才能實現。業內專家對此也存疑。

圖蘭大學計算機科學教授亞倫·庫洛塔指出,“常識”一直是人工智能發展的痛點,教會AI模型“因果關係”並非易事,很容易出現“難以預料的失敗”。此前也曾有Meta內部員工質疑楊立昆的“世界模型”理念含糊不清,更像是一種噱頭

從本質上看,楊立昆與OpenAI、谷歌等公司對人工智能發展路徑的分歧,也反映出科技巨頭在AI領域投入上的矛盾與分歧。

對砸下重金購買GPU的Meta來說,首要的使命是短期內快速推出商業化AI產品,在元宇宙的失敗之後,公司在AI探索上的成果對Meta的未來至關重要。且扎克伯格面臨着巨大的盈利壓力,上月,當扎克伯格誓言要將Meta打造成“全球領先的人工智能公司”時,Meta就一度蒸發近2000億美元的市值,反映出投資者對其人工智能投資回報的疑慮。

但身爲首席科學家的楊立昆更看重探索性研究和長期價值,不那麼在意短期的收入。他這一番公開宣稱LLM路線存在重大問題,也是在打自家公司的臉——Meta也是那些斥巨資研發“危險的LLM”的公司之一。

外界早就揣測,Meta CEO扎克伯格和楊立昆之間可能存在某種微妙的矛盾,例如,去年底,扎克伯格將“AI產品化”工作剝離出楊立昆手中,成立獨立的“GenAI”團隊,直接分割了楊立昆“學院派”的權力。

總體而言,Meta仍然是AI浪潮的主要受益者,今年迄今,Meta股價累計大漲35%。

本文來自微信公衆號“硬AI”,關注更多AI前沿資訊請移步這裏

風險提示及免責條款市場有風險,投資需謹慎。本文不構成個人投資建議,也未考慮到個別用戶特殊的投資目標、財務狀況或需要。用戶應考慮本文中的任何意見、觀點或結論是否符合其特定狀況。據此投資,責任自負。

譯文內容由第三人軟體翻譯。


以上內容僅用作資訊或教育之目的,不構成與富途相關的任何投資建議。富途竭力但無法保證上述全部內容的真實性、準確性和原創性。
    搶先評論