share_log

阿里云大模型上新!AI神器「通义听悟」公测中:长视频一秒总结,还能自动做笔记、翻字幕

阿里雲大模型上新!AI神器「通義聽悟」公測中:長視頻一秒總結,還能自動做筆記、翻字幕

量子位 ·  2023/06/01 13:57

來源:量子位 作者:魚羊

又一個接入大模型能力的組會神器,開啓免費公測啦!

背後大模型,是阿里的通義千問。至於爲什麼說是組會神器嘛——

注意看,這是我的B站導師李沐老師,他正在帶同學們精讀一篇大模型論文。

不巧就在這時,老闆催我抓緊搬磚。我只好默默摘下耳機,點開名爲“通義聽悟”的插件,然後切換頁面。

你猜怎麼着?雖然我人不在“組會”現場,但聽悟已經幫我完整記錄下了組會內容。

甚至還幫我一鍵總結出了關鍵詞、全文摘要和學習要點。

簡單來說,這個剛剛接入大模型能力的“通義聽悟”,是一個大模型版的聚焦音視頻內容的工作學習AI助手

跟以往的錄音轉寫工具不同,它不只是能把錄音、視頻轉成文字這麼簡單。能一鍵總結全文不說,總結不同發言人觀點也能做到:

甚至還能當實時字幕翻譯來用:

看上去,不僅開組會好使,對於經常要處理一大堆錄音、熬夜跟各種國外發佈會的量子位來說,也實屬日常工作新神器。

我們趕緊第一時間深入測試了一波。

通義聽悟上手實測

音頻內容的整理和分析,最基礎也是最重要的,就是轉寫的準確性

Round 1,我們先上傳一個時長在10分鐘左右的中文視頻,看看聽悟與同類工具相比,在準確性方面表現如何。

基本上,AI處理這種中等長度音視頻的速度很快,大概不到2分鐘就能轉寫完成。

先來看看聽悟的表現:

在這個200字左右的段落中,聽悟只出現了兩處錯誤:強 → 牆,都好處 → 恰到好處。像原子核、電荷、斥力這些物理名詞,聽悟都能弄明白。

我們用同一段視頻在飛書妙記上也進行了測試。基本問題也不大,但相比聽悟,飛書多了兩處錯誤,把其中一處“原子”寫成了“園子”,把“斥力”聽成了“勢力”。

有意思的是,聽悟犯的錯,飛書也一比一復刻了。看來這口鍋還得量子位某說話吞字的up主來背(手動狗頭)。

訊飛聽見,倒是分辨出了前兩位選手沒有識別出來的“恰到好處”。但訊飛聽見基本上把“牆”全部都轉寫成了“強”,還出現了“強的糖粒”這種神奇的搭配。另外,三位選手中,只有訊飛聽見把“電磁力”聽成了“電子力”。

總體來說,中文的識別對這些AI工具來說難度不大。那麼在英文材料面前,它們又會表現如何?

我們上傳了一段馬斯克的最新訪談,內容是他與OpenAI過去的恩怨糾葛。

還是先來看聽悟給出的結果。在馬斯克的這一段回答中,聽悟沒有分辨出拉里·佩奇的名字,除此之外基本都能識別正確。

值得一提的是,聽悟能夠直接將英文轉寫結果翻譯成中文,並將雙語對照顯示,翻譯質量也相當不錯。

飛書妙記則成功聽出了拉里·佩奇的名字,不過和聽悟一樣,由於馬斯克整體語速較快並且有一些口語化的表達,存在一些小錯誤,比如把“stay at his house”寫成了“say this house”。

訊飛聽見這邊,人名、連讀細節處理得都不錯,不過同樣存在被馬斯克的口語化表達誤導的情況,比如把“long into the evening”當成了“longing to the evening”。

如此看來,在基礎能力語音識別方面,AI工具們都已經達到了很高的準確率,在極高的效率面前,一些小問題已經瑕不掩瑜。

那麼,我們將難度再升一級,Round 2,來測試測試它們對1小時左右長視頻的總結能力

測試視頻是一段40分鐘的圓桌討論,主題是中國AIGC新機遇。參與圓桌討論的共有5人。

聽悟這邊,從轉寫完成到AI提取關鍵詞、給出全文摘要,一共花了不到5分鐘的時間。

結果是醬嬸的:

不僅給出了關鍵詞,圓桌討論的內容也總結得很到位,並且還給視頻劃分了關鍵點。

對比人類編輯摘錄的話題要點,我嗅到了一絲危機……

值得一提的是,針對不同嘉賓的發言,聽悟都能給出對應的發言總結。

同樣的題目拋給飛書妙記。目前,在內容總結方面,飛書妙記還只能給出關鍵詞。

會議紀要需要手動在轉寫文字上標註。

訊飛聽見基於星火認知大模型,也有能夠分析文件內容的產品正在內測,不過需要填寫申請,排隊等待。

在基礎的訊飛聽見中,目前沒有類似的總結功能。

看來這一輪測試:

不過要說在本次實測中,通義聽悟最令人感覺驚喜的,其實是一個“小”設計:

Chrome插件功能

無論是看英文視頻,看直播,還是上課開會,點開聽悟插件,就能實現音視頻的實時轉錄和翻譯。

就像開頭所展示的那樣,拿來當實時字幕用,延遲低,翻譯快,還有雙語對照功能,同時,錄音和轉寫文字都能一鍵保存下來,方便後續使用。

媽媽再也不用擔心我啃不下來英文視頻資料了。

另外,我還有個大膽的想法……

開組會的時候打開聽悟,開會兒小差再也不用怕被導師突然抽查了。

目前,聽悟已經和阿里雲盤打通,存放在雲盤中的音視頻內容可以一鍵轉寫,在線播放雲盤視頻時還能自動顯示字幕。並且在企業版本中,AI整理後的音視頻文件將來還可以在內部快速分享。

聽悟官方還透露,接下來,聽悟還會持續上新大模型能力,比如直接抽取視頻內的PPT截圖、針對音視頻內容可以直接向AI提問……

背後技術:大語言模型+語音SOTA

其實,在公測之前,通義聽悟就已經在阿里內部精心打磨過了。

去年年底,也有網友拿到了聽悟內測體驗卡,當時版本中,已經有離線語音/視頻轉寫和實時轉寫的功能。

這次公測,聽悟主要是接入了通義千問大模型的摘要及對話能力。具體而言,是以通義千問大模型爲基座,融合了研發團隊在推理、對齊和對話問答等方面的研究成果。

首先,如何準確抽取關鍵信息,是這類神器提升工作效率的關鍵。這就需要藉助大模型的推理能力

阿里AI團隊在2022年提出了基於大語言模型的知識探測與推理利用框架Proton(Probing Turning from Large Language Models)。相關論文發表在KDD2022和SIGIR2023等國際頂會上。

該框架的核心思路在於,探測大模型的內部知識,以思維鏈爲載體進行知識流動和利用。

在通用常識推理CommonsenseQA2.0、物理常識推理PIQA、數值常識推理Numbersense三大榜單上,Proton曾先後取得第一。

在TabFact(事實驗證)榜單上,Proton憑藉知識分解和可信思維鏈技術,首次實現了超越人類的效果。

其次,爲了確保摘要內容和格式符合用戶預期,在對齊方面,聽悟還用上了ELHF,即基於人類反饋的高效對齊方法

該方法僅需少量高質量人工反饋樣本,就能實現對齊。在模型效果主觀評測中,ELHF能使模型勝率提高20%。

在此之外,聽悟背後的研發團隊,還發布了首箇中文超大規模文檔對話數據集Doc2Bot。該團隊提升模型問答能力的Re3G方法,已經入選ICASSP 2023:該方法通過Retrieve(檢索)、Rerank(重排序)、Refine(精調)和Generate(生成)四個階段,能提升模型對用戶問題的理解、知識檢索和回覆生成能力,在Doc2Dial和Multi Doc2Dial兩大文檔對話榜單中取得第一。

除了大模型能力,聽悟還是阿里語音技術的集大成者。

其背後的語音識別模型Paraformer,來自阿里達摩院,首次在工業級應用層面解決了端到端識別效果與效率兼顧的難題:

不僅在推理效率上較傳統模型提升10倍,剛推出時還“屠榜”多個權威數據集,刷新語音識別準確率SOTA。在專業第三方全網公共雲中文語音識別評測SpeechIO TIOBE白盒測試中,目前,Paraformer-large仍是準確率最高的中文語音識別模型。

Paraformer是單輪非自回歸模型,由編碼器、預測器、採樣器、解碼器和損失函數這五個部分組成。

通過對預測器的創新設計,Paraformer實現了對目標文字個數及對應聲學隱變量的精準預測。

另外,研究人員還引入了機器翻譯領域中瀏覽語言模型(GLM)的思路,設計了基於GLM的採樣器,增強了模型對上下文語義的建模。

同時,Paraformer還使用了數萬小時、覆蓋豐富場景的超大規模工業數據集進行訓練,進一步提升了識別準確率。

而準確的多人討論發言人區分,則得益於達摩院的CAM++說話人識別基礎模型。該模型採用基於密集型連接的時延網絡D-TDNN,每一層的輸入均由前面所有層的輸出拼接而成,這種層級特徵複用和時延網絡的一維卷積,可以顯著提高網絡的計算效率。

在行業主流的中英文測試集VoxCeleb和CN-Celeb上,CAM++均刷新了最優準確率。

大模型開卷,用戶受益

據中國科學技術信息研究所報告,據不完全統計,目前國內已經發布了79個大模型。

這種大模型開卷的趨勢下,AI應用進化的速度再次進入到一個衝刺階段。

站在用戶的角度來說,喜聞樂見的局面正逐步形成:

大模型的“統籌”之下,各種AI技術開始在應用側百花齊放,使得工具越來越高效,越來越智能。

從一個斜槓就能幫你自動寫完工作計劃的智能文檔,到快速幫你總結要素的音視頻記錄和分析工具,生成式大模型這朵AGI的火花,正在讓越來越多的人感受到AI的魔力。

與此同時,對於科技企業來說,新的挑戰和新的機會,無疑也已經出現。

挑戰是,所有產品都將被大模型的風暴席捲,技術創新已經成爲了無可迴避的關鍵問題。

機會是,對於新的殺手級應用而言,重寫市場格局的時間點已經到來。而誰能拔得頭籌,就要看誰的技術準備更充分,誰的技術進化速度更快了。

無論如何,技術開卷,終將是用戶受益。

編輯/lambor

譯文內容由第三人軟體翻譯。


以上內容僅用作資訊或教育之目的,不構成與富途相關的任何投資建議。富途竭力但無法保證上述全部內容的真實性、準確性和原創性。
    搶先評論