share_log

苹果想在拥抱生成式人工智能的同时避开众多陷阱

蘋果想在擁抱生成式人工智能的同時避開衆多陷阱

新浪財經 ·  06/17 00:24

在本週的活動中,Apple發佈了其備受期待的產生式人工智能願景。很快,蘋果裝置的使用者就可以利用人工智能來改寫和總結電子郵件、管理日曆以及與Siri進行更多交流。如果這聽上去有點,嗯,不令人滿意的話,那是設計使然。

蘋果自己也承認,它不想挑戰人工智能的極限,也不想創造一個無所不知的超級智慧代理。在6月10日的全球開發者大會上,蘋果負責軟件工程的高階副總裁費德里吉(Craig Federighi)在臺上接受採訪時表示,蘋果“對於我們將產生式人工智能應用於哪些領域非常非常謹慎。我們不會讓這位少年去開飛機。”

蘋果有充分理由感到擔憂。儘管投資者熱情高漲,但產生式人工智能仍然是一個不聽話的孩子——容易作出不可預知和不準確的回應——而且讓那些擁抱這項技術的大型科技公司面臨明顯的風險。看看蘋果最大的競爭對手就知道了:今年早些時候,微軟的Copilot聊天機械人給出了被使用者稱爲怪異、令人不安的回覆,在某些情況下甚至是有害的回覆,由此受到了嚴格的審查。Google核心搜尋引擎的人工智慧摘要功能建議人們吃石頭,在披薩上塗抹膠水。Google的人工智慧影像產生器不顯示白人的影像,同樣引起了軒然大波。

Apple希望避免類似的可能損害自己品牌的失誤。該公司長期以來一直將自己定位爲負責任、注重隱私的科技龍頭,可以建立讓客戶全家都安全的數字避難所。例如,當馬克·朱克伯格受到劍橋分析醜聞影響時,蘋果行政總裁蒂姆·庫克就公開指責過他。庫克說,他不會陷入這樣的境地。

蘋果稱,該公司沒有儲存私人資料,也沒有利用這些資料來訓練其人工智能模型。蘋果在臺上展示的影像產生器版本沒有顯示出建立逼真圖片的能力,從而有可能避開人們對“深度僞造”的擔憂。截至目前,蘋果仍沒有發佈可以自主地爲使用者執行各種任務的所謂的人工智能“代理”——這是其他公司注重的一種熱門產品,但一旦出錯,風險也更大。

即使是蘋果與OpenAI的高調合作,也存在一些限制,似乎是爲了讓iPhone製造商在其無法控制的系統出現響應錯誤時保持一定的距離。蘋果的Siri語音助手只有在使用者明確授權蘋果後,才會向ChatGPT發出提問。蘋果也很快表示,與OpenAI的合作並不是排他性的。未來,蘋果可能會與包括Google在內的其他人工智慧聊天機械人開發商合作。(蘋果不與單一公司獨家合作可能還有另一個原因:蘋果之前與Google達成的讓Google成爲iPhone預設搜尋引擎的協議成爲了一起反壟斷案的基礎。)

不過,如果要限制人工智能的風險,蘋果推出的產品可能會少一些令人驚歎的因素。“蘋果正試圖把人工智慧裝進盒子裏,讓它變得非常普通,”賓夕法尼亞大學沃頓商學院研究人工智能的教授莫利克(Ethan Mollick)說,“OpenAI就是要讓你接觸到這個東西的全部怪異之處,這正是它強大的地方。”

蘋果希望透過提供個性化的人工智能建議來實現其人工智慧產品的差異化——但蘋果表示,它將在不實際收集和儲存個人資料的情況下做到這一點。蘋果之所以能做到這一點,是因爲許多工都是在裝置上處理的,這意味著該公司不需要向外部伺服器傳送請求。對於必須發送到伺服器的更復雜的任務,蘋果表示將依靠一種新的“私有云計算”模式,對使用者資料進行加密。該公司在加密使用者資料和讓外部專家驗證其資料安全性的方法上有著良好記錄。

儘管如此,蘋果在隱私方面的預防措施仍招架不住所有的批評者。經營著另一家與之競爭的人工智能初創公司,長期與OpenAI(有時也與蘋果)關係不睦的馬斯克表示,如果ChatGPT整合到裝置的作業系統中,那麼他的公司將禁止蘋果裝置進入。

“蘋果其實不知道把你的資料交給OpenAI會發生什麼。他們是在背叛你,”馬斯克在X上發帖說。這很可能只是馬斯克的酸葡萄心理在作怪,但鑑於蘋果裝置上共享了大量個人資訊,我們有理由對Apple的隱私保護提出更高要求。

無論Apple多麼謹慎,在人工智慧的青少年階段,必然會出錯。庫克已經承認了這一點:他在接受《華盛頓郵報》採訪時承認,他不能百分之百保證蘋果的人工智能不會產生幻覺或編造資訊。

“我知道,還有可能發生一系列可怕的事情,”他說,“這就是爲什麼我們致力於在這個領域深思熟慮。”

責任編輯:楊淳端

譯文內容由第三人軟體翻譯。


以上內容僅用作資訊或教育之目的,不構成與富途相關的任何投資建議。富途竭力但無法保證上述全部內容的真實性、準確性和原創性。
    搶先評論