share_log

黄仁勋谈AI现状:仍需数年才能达到“高度可信”

黃仁勳談AI現狀:仍需數年才能達到「高度可信」

金十數據 ·  11/25 12:25

黃仁勳認爲,我們距離一個可以「高度信任」的AI系統仍有「數年之遙」。整個行業也在重新思考如何在有限數據和資源下更有效地訓練模型。

儘管人工智能正在迅速發展,但離一個可以高度信任的AI系統仍有距離。黃仁勳強調,在未來數年內,持續提升計算能力和探索新的方法將是關鍵任務。同時,行業正重新思考如何在有限數據和資源下更有效地訓練模型,以實現更可靠、更強大的人工智能應用。

英偉達(NVDA.O)首席執行官黃仁勳近日表示,目前的人工智能並不能提供最優解答,我們距離一個可以「高度信任」的AI系統仍有「數年之遙」。

「目前我們得到的答案還遠非最佳答案,」黃仁勳在香港科技大學的採訪中說道。他指出,人們應該不需要對AI的回答心存疑慮,比如它是否「幻覺化」或是否「合理」。

「我們必須達到這樣一個階段——你大體上可以信任AI的回答……而要實現這一點,我認爲我們還有數年的路要走。在此期間,我們需要不斷提升計算能力。」

大語言模型的侷限性:幻覺和數據瓶頸

像ChatGPT這樣的語言模型在過去幾年中取得了指數級的進步,能夠回答複雜問題,但依然存在諸多限制。其中,「幻覺」,即生成虛假或不存在的答案,是AI聊天機器人的持續問題。

例如,去年一位廣播主持人就因ChatGPT編造了一份虛假的法律指控文件而起訴OpenAI,而後者未對此作出回應。

此外,一些AI公司正面臨如何在有限數據資源下推進大語言模型(LLM)發展的困境。黃仁勳表示,僅依靠預訓練,即在大規模、多樣化的數據集上對模型進行訓練,並不足以開發出功能強大的AI。

「預訓練——自動從世界上的所有數據中發現知識——是不夠的……就像大學畢業是一個重要的里程碑,但它並不是終點。」

過去幾年,科技公司如OpenAI、Meta和谷歌專注於收集海量數據,假設更多的訓練數據會造就更智能、更強大的模型。然而,這種傳統方法如今正受到質疑。

轉變思路:超越「盲目擴展」

研究表明,基於Transformer的神經網絡(LLM的核心技術)在數據量和計算能力增加時性能呈線性增長。然而,業界領導者開始擔憂這一策略的侷限性,並嘗試探索替代方法。

Scale AI首席執行官Alexandr Wang表示,AI投資主要基於這種「擴展定律」的假設,但現在它已成爲「整個行業的最大問題」。

Cohere公司首席執行官Aidan Gomez認爲,雖然增加計算能力和模型規模確實能提升性能,但這種方法有些「機械化」。「這種方法雖可靠,卻顯得有些愚蠢,」他在播客中說道。Gomez提倡開發更小、更高效的模型,這種方法因其成本效益受到支持。

其他人則擔心,這種方法可能無法實現「通用人工智能」(AGI,即匹配或超越人類智能的理論AI形態)。

前Salesforce高管、AI搜索引擎You.com首席執行官Richard Socher表示,大語言模型的訓練方式過於簡單化,僅僅是「基於已知的token預測下一個token」。他認爲,更有效的訓練方式是強迫模型將問題轉化爲計算機代碼,並基於代碼的輸出生成答案。這種方法能減少在定量問題上的幻覺,並增強AI能力。

行業觀點分化:規模擴展是否見頂?

然而,並非所有行業領導者都認爲人工智能已經遇到了規模擴張的障礙。

微軟首席技術官Kevin Scott持不同觀點。他在7月的採訪中表示:「與其他人的看法不同,我們尚未達到擴展規模的邊際收益遞減階段。」

OpenAI也在努力改進現有的大語言模型。例如,9月發佈的o1模型仍基於Socher提到的token預測機制,但其在處理定量問題(如編程和數學)方面更加出色,與更通用的ChatGPT有所不同。

前Uber工程師Waleed Kadous將兩者進行了類比:「如果將GPT-4擬人化,它更像是一個知道一切的朋友,在回答問題時會滔滔不絕,讓你從中篩選有價值的信息。而o1更像是那個仔細傾聽後沉思片刻,再給出一兩句切中要害答案的朋友。」

然而,o1模型需要更多計算資源,導致運行速度更慢、成本更高。

譯文內容由第三人軟體翻譯。


以上內容僅用作資訊或教育之目的,不構成與富途相關的任何投資建議。富途竭力但無法保證上述全部內容的真實性、準確性和原創性。
    搶先評論