share_log

小模型实现大收益!人工智能公司正寻求获利“新思路”

小模型實現大收益!人工智能公司正尋求獲利“新思路”

財聯社 ·  05/20 15:14

①科技公司正寄望於一種推動收入增長的新方式——小型語言模型; ②小型語言模型被視爲一種更便宜、更節能、可定製的替代方案; ③它們可以用更少的算力來訓練和運行,並且還可以保護敏感數據。

財聯社5月20日訊(編輯 周子意)全球諸多科技公司已經砸下數百億美元來構建各種大型語言模型,爲生成式人工智能產品提供動力,而如今,這些公司開始寄望於一種推動收入增長的新方式——小型語言模型。

小型語言模型的參數相較於大型語言模型少很多,但仍然具有強大的功能。微軟、Meta和谷歌近期都發布了新的人工智能小參數模型。

通常來說,參數的數量越多,人工智能軟件的性能就越好,它所能執行的任務就越複雜和巧妙。上週,OpenAI公司新宣佈的最新模型GPT-4o和谷歌的Gemini 1.5 Pro估計擁有超過1萬億參數,而Meta的開源Llama模型約有4000億參數。

不過,運行大型語言模型所需的計算能力龐大,也就意味着成本高昂。除了難以說服一些企業客戶支付大筆運營費用外,數據和版權問題也成了人工智能產品使用的阻礙。

替代方案

一些科技公司目前正在將只有幾十億個參數的小型語言模型視爲更便宜、更節能、可定製的替代方案進行宣傳。這些模型可以用更少的電力來訓練和運行,並且還可以保護敏感數據。

谷歌、Meta、微軟和法國初創公司Mistral已陸續發佈了各自的小型語言模型,這些模型顯示出先進的功能,並且可以更好地專注於特定的應用功能。

Meta全球事務總裁Nick Clegg直言,Llama 3最新的80億參數模型可與GPT-4媲美。他指出,“我認爲,在你能想到的幾乎所有衡量標準中,你都看到了卓越的表現。”

微軟則表示,其擁有70億個參數的Phi -3小型模型的性能優於OpenAI模型的早期版本GPT-3.5。

微軟Azure人工智能平台的副總裁Eric Boyd表示,“通過以更低的成本獲得如此高的質量,你實際上爲客戶提供了更多的應用程序,讓他們可以做一些令人望而卻步的事情。”

Boyd還指出,“更小的型號將帶來有趣的應用,並且能夠延伸到手機和筆記本電腦”。

小型模型另外的一大優勢就是可以在設備上“本地”處理任務,而不是將信息發送到雲端,這一點可能會吸引那些注重信息隱私的客戶。

目前,谷歌最新的Pixel手機和三星最新的S24智能手機中已嵌入了谷歌的“Gemini Nano”模型;蘋果公司也暗示它也在開發AI模型,以運行iPhone上。上個月,蘋果發佈了OpenELM模型,這是一個小型模型,旨在執行基於文本的任務。

譯文內容由第三人軟體翻譯。


以上內容僅用作資訊或教育之目的,不構成與富途相關的任何投資建議。富途竭力但無法保證上述全部內容的真實性、準確性和原創性。
    搶先評論