摘要

Bowyer Research敦促股東在蘋果公司(“蘋果” 或 “公司”)2024年代理投票中對第7號提案投反對票。第7號提案的 “已解決” 條款指出:

已決定:股東要求蘋果公司編寫一份透明度報告,説明該公司在其業務運營中使用人工智能(“AI”)的情況,並披露該公司就公司使用人工智能技術所採取的任何道德準則。本報告應在公司網站上向公司股東公開,以合理的成本編寫,並省略任何專有、特權或違反合同義務的信息。

本提案的支持聲明1,由西格爾·馬可顧問公司(“支持者”)提交,辯稱:

1.越來越多地使用人工智能/機器學習模型(統稱為人工智能)帶來了嚴重的 “社會政策問題”。

1.未能通過一套有關人工智能的具體道德準則將導致代價高昂的勞動力中斷。

2.這樣的道德體系要求蘋果不要使用人工智能 “取代或取代專業作家的創造性作品”。

但是,這些斷言是基於錯誤的論證和分析,即:

1.在技術開發的快速發展階段,要求具體的人工智能自我監管。

2.不公平地誹謗和反對在技術工作空間中開發人工智能的主要職能。

3.為蘋果的人工智能前景設定一個Luddite的限制性框架。


1https://www.sec.gov/Archives/edgar/data/320193/000130817924000010/laapl2024_def14a.pdf


1.該提案要求在該技術開發的快速發展階段進行具體的人工智能自我監管。

正如第7號提案的支持聲明中所斷言的那樣,“在人力資源決策中使用人工智能可能會引起對員工歧視或偏見的擔憂。使用人工智能實現工作自動化可能會導致大規模裁員和整個設施關閉。”支持者認為,人工智能顛覆現有工作場所基礎設施的潛力令人擔憂,足以證明這種能夠在人工智能衝突開始之前解決的先發制人的企業自我監管是合理的。然而,企業對人工智能技術(依賴不斷變化的知識庫的系統)的先發制人的自我監管,很容易跨越人工智能技術合法目標的自我約束,從自我監管到自我阻礙。支持者的觀點掩蓋了這樣的假設,即當前領域的人工智能監管將實現更發達、更晚的人工智能狀態的必要目標。這種假設嚴重缺乏證據——支持者要求過多的自我監管還為時過早。蘋果本身也暗示將在不久的將來推出與人工智能有關的新產品。2蘋果及其開發人員沒有先見之明。當前監管此類產品,將使蘋果開發人員屈從於自己的監管承諾參數,從而危及公司成功推出人工智能產品的能力,從而阻礙創新,降低公司開發人員為其用户提供高質量產品的能力。

2.該提案不公平地誹謗和反對在技術工作空間中開發人工智能的主要職能。

該提案在其支持聲明中指出,不應使用人工智能模型來 “取代或取代專業作家的創造性作品”。支持者的聲明掩蓋了這樣的信念,即人工智能取代人類努力產物的能力是 事實上負面的。這種信念從根本上對機器學習模型的目的一無所知:在最基本的層面上,人工智能是 設計為了減輕人類的工作量——舉個例子,ChatGPT 在定義上取代了作家的創造性作品——使該提案完全成為反對人工智能的哲學論點,而不僅僅是對進一步自我監管的渴望。


2https://www.cnbc.com/2024/02/01/tim-cook-teases-apple-ai-announcement-later-this-year.html


這些論點使該提案不僅與蘋果的表面發展軌跡背道而馳,而且與其現有的iOS技術基礎,包括面部和動物識別軟件背道而馳。3為了滿足支持者的要求,蘋果不僅必須停止進一步的人工智能開發,還必須撤銷現有的技術功能,此舉將給公司帶來廣泛的聲譽風險,削弱蘋果作為行業領導者的地位。

3.該提案的前提是蘋果的人工智能前景採用Luddite的限制性框架。

第7號提案在其支持聲明中斷言:“採用道德框架來使用人工智能技術將加強 [蘋果的]作為該行業負責任和可持續的領導者的地位。”然而,如上文第2點所示,支持者在意識形態上甚至反對人工智能的相對基本的用途,即取代作家和(在某種程度上)藝術家的作品,蘋果的所有主要競爭對手都在這一創新領域取得了顯著的進步。

蘋果要成為 “負責任和可持續” 的行業領導者,首先必須保持領導地位。支持者倡導的那種過分的、過早的要求進行廣泛的自我監管,只會危及領導者的地位。這樣的要求不但沒有提升蘋果為股東創造價值的能力,反而代表了可能劫持公司運營理念的那種激進主義者的要求。

結論

正如本報告所示,第7號提案未能通過以下方式有效倡導人工智能自我監管:

1.在技術開發的快速發展階段,要求具體的人工智能自我監管。


3https://www.cnbc.com/2019/06/26/apple-adds-new-image-recognition-features-for-pets-to-ios.html


2.不公平地誹謗和反對在技術工作空間中開發人工智能的主要功能。

3.假設蘋果的人工智能前景採用Luddite的限制性框架。

企業中沒有股東真正投資 “人工智能”。他們只投資於特定公司對機器學習模型的使用,從OpenAI到谷歌再到蘋果。鑑於這一現實,蘋果在人工智能方面的運營理念現在比以往任何時候都更加重要——根據其信託責任,該公司理應抵制向盲目呼籲先發制人的自我監管或激進分子要求在人工智能開發上 “時光倒流” 的誘惑。從道德角度處理下一個技術前沿包括有真正追求機器學習積極潛力的意願——通過讓這種追求受到意識形態要求的玷污,蘋果正在削弱其為用户提供優質產品和為股東提供持續價值的能力。