OpenAI CEO提出了一個獨特的想法,建議通過AI聊天機器人與用戶進行長時間對話,以確定如何根據人類價值觀調整AI以保護人類。
OpenAI首席執行官山姆·阿爾特曼(Sam Altman)說,他對人工智能的最大期望是:它能夠「熱愛人類」。他對將這一特質嵌入AI系統充滿信心——但並不完全確定。
「我認爲可以,」阿爾特曼在接受哈佛商學院副院長黛博拉·斯帕(Debora Spar)採訪時談到這一問題時表示。
人工智能崛起引發的擔憂,早已不再侷限於艾薩克·阿西莫夫(Isaac Asimov)的科幻小說,或詹姆斯·卡梅隆(James Cameron)的動作電影。如今,這不僅成爲熱門話題,甚至演變爲需要認真討論的監管問題。那些曾被認爲是怪人的思考,如今卻成爲了切實的政策議題。
阿爾特曼提到,OpenAI與政府之間的關係一直「相對建設性」。他補充說,開發人工智能這樣一個範圍廣泛且影響深遠的項目,原本應由政府來主導。
「在一個運轉良好的社會中,這應該是一個政府主導的項目,」阿爾特曼說,「鑑於這一點並未發生,我認爲以(OpenAI)這種方式作爲一個美國項目推進,可能是更好的選擇。」
AI立法的進展緩慢
美國聯邦政府在AI安全立法方面尚未取得顯著進展。加州曾試圖通過一項法律,要求AI開發者對可能導致的災難性事件負責,例如開發大規模殺傷性武器,或攻擊關鍵基礎設施。然而,這一法案雖在立法機關通過,卻被加州州長加文·紐瑟姆(Gavin Newsom)否決了。
一些AI領域的頂尖人物警告稱,確保AI完全符合人類利益是一個至關重要的問題。被譽爲「AI教父」的諾貝爾獎得主傑弗裏·辛頓(Geoffrey Hinton)表示,他「看不到一條能夠保證安全的路徑」。特斯拉CEO埃隆·馬斯克(Elon Musk)則多次警告稱,AI可能導致人類滅絕。值得注意的是,馬斯克曾在OpenAI創立初期提供了大量資金支持,對此阿爾特曼依然「心懷感激」,儘管目前馬斯克正對他提起訴訟。
近年來,許多專注於此類問題的機構湧現,例如非營利組織「對齊研究中心」(Alignment Research Center)和由前OpenAI首席科學官創立的初創公司「安全超級智能」(Safe Superintelligence)。
阿爾特曼對AI「對齊」的信心
阿爾特曼認爲,目前設計的AI非常適合進行對齊。這裏的「對齊」(alignment)通常指的是,人工智能的目標或行爲與人類的目標和價值觀保持一致。因此,他認爲,確保AI不對人類造成傷害比看起來要容易得多。
「目前最令人驚訝的成就是,我們已經能夠讓AI系統以特定方式行動,」他說。「因此,如果我們能在不同情況下明確這一點,我相信我們能夠讓系統按照預期行動。」
AI如何幫助定義價值觀
阿爾特曼提出了一個獨特的想法,建議利用AI與公衆互動,以明確這些價值觀和原則,從而確保AI始終維護人類利益。他建議通過AI聊天機器人與用戶進行長時間對話,了解其價值體系,並以此作爲調整AI對齊方式的依據。他說,
「我對這樣的思維實驗很感興趣:AI與人們聊幾個小時,了解每個人的價值體系……然後它會說,『好吧,我不能一直讓每個人都滿意。』」
阿爾特曼希望,通過與數十億人「深入溝通並理解他們」,AI能夠更廣泛地識別社會面臨的挑戰。隨後,AI可以達成共識,明確如何實現公衆的普遍福祉。
AI內部的「超級對齊」團隊
OpenAI內部曾有一個專門負責「超級對齊」的團隊,致力於確保未來的超級智能不會失控或造成巨大傷害。2023年12月,該團隊發佈了一篇早期研究論文,展示了通過一個大型語言模型監督另一個模型的研究方法。然而,今年春季,該團隊的兩位領導人——Ilya Sutskever和Jan Leike離開了OpenAI,團隊隨即解散。
據CNBC當時的報道,Leike離職的原因是與OpenAI領導層在安全承諾上的分歧加劇。他認爲,公司在邁向通用人工智能(AGI,即擁有類似人類智慧的AI)的過程中,安全文化和流程已退居次要地位。「構建比人類更聰明的機器本質上是一項危險的工作,」Leike在社交平台X上寫道,
「OpenAI正在爲全人類承擔巨大的責任。但過去幾年,安全文化和流程已被那些耀眼的產品所取代。」
阿爾特曼則在Leike離職時表示,「非常感謝他爲OpenAI的對齊研究和安全文化所作出的貢獻。」
在阿爾特曼看來,AI技術的對齊與安全既是挑戰,也是機遇。他相信,通過與人類廣泛互動,AI有可能不僅避免傷害,還能成爲解決社會難題的重要工具。然而,在邁向通用人工智能的道路上,如何平衡創新與安全,將是OpenAI及整個行業必須直面的核心問題。
編輯/lambor