豁免招標通知

註冊人姓名:Alphabet Inc.

依賴豁免的人員姓名:打開 MIC

申請豁免的人的地址:加利福尼亞州舊金山託尼大道1012號潮汐中心郵編 94129-1755。

書面材料:所附書面材料是根據1934年《證券交易法》頒佈的第14a-6 (g) (1) 條(“規則”)提交的 ,*與註冊人將在2024年年會上表決的代理提案 有關。*根據 規則的條款,本申報人無需提交,而是為了公開披露和考慮這些重要問題,由支持者自願提交。

2024年5月7日

尊敬的各位股東,

我們寫這封信是為了敦促你對代理卡 的第12號提案投贊成票,該提案要求Alphabet報告與通過Alphabet的 生成人工智能 (GaI) 傳播或生成的錯誤和虛假信息相關的風險,並計劃降低這些風險。

提案 12 的擴展理由

該提案提出以下要求:

已解決:股東要求董事會以 合理的成本發佈一份報告,省略專有或法律特權信息,該報告將在年會後的一年內發佈,並在此後每年更新 ,評估公司 在為通過生成人工智能生成、傳播和/或放大的錯誤信息和虛假信息提供便利方面所面臨的公司運營和財務以及公共福利風險; 公司採取了哪些措施為補救這些危害而採取的計劃;以及將如何衡量這些危害這些努力的有效性。

1

我們認為,股東應該對第12號提案投贊成票,原因如下:

Alphabet在反對該提案的聲明中宣稱,它 於2018年發佈了其人工智能原則,“以追究我們如何研究和開發人工智能,包括生成式人工智能...” 該公司斷言,其自我監管措施——創建企業風險框架、產品政策、專門 團隊和工具——足以防止對公司和社會造成損害。儘管支持者讚揚Alphabet制定了指導其人工智能開發的原則 ,但光靠公司的承諾——無論多麼 “穩健” ——並不能確認對這些技術進行負責任、合乎道德的、 或人權的管理,這些技術非常強大,可以毫不費力地用類似人類的思想和言語來欺騙人們。1在不知情者或不良行為者手中,這種技術有可能通過虛假和隱藏的議程破壞高風險決策,有可能改變選舉、市場、公共 健康和氣候變化的進程。它還被證明會加劇網絡安全風險。2

股東們知道,真正的價值和持續的信任來自公司 的表現而不是説出來。 Alphabet 及其董事會主張對第 12 號提案投反對票,並拒絕披露履行承諾的具體證據,實際上並未追究自己的責任。相反,人們似乎假設股東應該 信守公司的諾言。由於風險如此之高,這是不切實際的期望,特別是考慮到Alphabet的 雙股結構也使大多數股東追究公司責任的能力降至最低。

如果不以既定指標、示例和分析為後盾,對Alphabet的 AI 框架、政策和工具的有效性進行一致和定期的核算,股東和公眾都無法確定公司在投資數百億美元開發該技術和支持該技術所需的數據中心時所承擔的重大風險金額。3

提案 #12 要求什麼

提案 #12 要求以合理的成本以年度 報告的形式進行這樣的核算。支持者要求Alphabet評估利用其生成式人工智能技術(包括現在臭名昭著的不準確的Gemini)創造和傳播錯誤和虛假信息對公司和社會構成的風險4, 是之前臭名昭著的不準確的 Bard 的繼任者。5

支持者承認,Alphabet已經制定了框架、政策、 和其他工具來建立 “護欄”,但是如果不瞭解 現有的指標以及對這些指標的持續監測和評估,我們就無法評估這些護欄的位置和堅固程度。

_____________________________

1https://techcrunch.com/2024/01/13/anthropic-researchers-find-that-ai-models-can-be-trained-to-deceive/

2https://www.pwc.com/us/en/tech-effect/ai-analytics/managing-generative-ai-risks.html

3https://www.washingtonpost.com/technology/2024/04/25/microsoft-google-ai-investment-profit-facebook-meta/

4https://youtu.be/S_3KiqPICEE

5https://www.reuters.com/technology/google-ai-chatbot-bard-offers-inaccurate-information-company-ad-2023-02-08/

2

為了使護欄的比喻更加具體, Alphabet 投資和部署生成式人工智能的速度假設是直行的。同時,每日新聞報道 關於這項技術的缺點和由此產生的影響,如提案和主要申報人Arjuna Capital的 豁免招標通知中所述,6説明前進的道路更像是一條有急轉彎的山地土路。沒有 護欄在任何速度下都能發揮作用。

與大多數股東決議一樣,董事會認為 發佈這樣的報告不符合 “公司和我們的股東的最大利益”。也就是説,記錄下將生成式人工智能整合到我們信息生態系統的各個方面所面臨的財務、法律和聲譽風險充其量是不確定的,似乎不符合董事會的利益,更不用説對機構的信任 和整個民主所構成的風險了。

生成式 AI 的風險

支持者斷言,不受限制的生成式人工智能是一項風險投資。 在沒有風險評估、人權影響評估或其他政策保護措施的情況下開發和部署生成式人工智能 會使Alphabet在財務、法律和聲譽上面臨風險。它在人工智能上投資了數百億美元, 但是我們對它如何衡量其投資回報率知之甚少。而且,當GaI失敗時,Alphabet將損失巨大的 市值,就像今年早些時候雙子座失敗後一樣。7

已經對包括Alphabet, 在內的人工智能公司提起了多起訴訟,指控其侵犯了版權。8,9歐洲可能面臨數十億美元的賠償,那裏的媒體公司正在就基於人工智能的廣告行為起訴 Alphabet。10從隱私的角度來看,人工智能表現出的複製人們 聲音和肖像的能力已經引發了一起集體訴訟,有可能為更多的法律挑戰創造機會。

生成式人工智能還給Alphabet帶來了巨大的聲譽風險, 並正在加速源於社交媒體內容審核挑戰(部分原因也是 AI)的科技反彈。此外,大型科技公司的不透明度和失誤導致 “美國人對科技 ,特別是科技公司的信心明顯下降——比對任何其他類型的機構都更大、更普遍。”11公共關係巨頭愛德曼最近發佈的一份 報告宣稱 “創新面臨風險”,並記錄了五年內對 人工智能的信任度下降了35%。12

_____________________________

6https://www.sec.gov/Archives/edgar/data/1652044/000121465924008379/o532411px14a6g.htm

7https://www.forbes.com/sites/dereksaul/2024/02/26/googles-gemini-headaches-spur-90-billion-selloff/

8https://topclassactions.com/lawsuit-settlements/lawsuit-news/google-class-action-lawsuit-and-settlement-news/google-class-action-claims-company-trained-ai-tool-with-copyrighted-work/

9https://www.reuters.com/technology/french-competition-watchdog-hits-google-with-250-mln-euro-fine-2024-03-20/

10https://www.wsj.com/business/media/axel-springer-other-european-media-sue-google-for-2-3-billion-5690c76e

11https://www.brookings.edu/articles/how-americans-confidence-in-technology-firms-has-dropped-evidence-from-the-second-wave-of-the-american-institutional-confidence-poll/

12https://www.edelman.com/insights/technology-industry-watch-out-innovation-risk

3

生成式人工智能還可以加劇現有的社會經濟差距, 與企業多元化的全球趨勢背道而馳。13例如,虛假信息進一步使本已處於弱勢或邊緣化狀態的人們 處於不利地位,因為他們無法獲得對決策權至關重要的資源、知識和機構地位 。14最近的研究表明,人工智能驅動的 “方言偏見” 要求語言模型僅根據人們的説話方式對他們做出假設的決定,有可能造成有害後果。15

儘管承認這些挑戰並公開呼籲通過監管 來應對這些挑戰,但Alphabet及其同行經常通過遊説私下避開監管。去年,該公司花費了超過1400萬美元遊説反對反壟斷監管,對立法者進行人工智能教育等。16在加利福尼亞州,包括Alphabet在內的大型科技公司的 反擊導致一項監管算法歧視、 加強隱私並允許居民選擇退出人工智能工具的法案被取消。17

最大限度地減少潛在危害的不確定性

創新需要目標才能有價值。到目前為止,生成式 AI 已將 具體化為一組客廳技巧。Alphabet將雙子座作為計劃旅行、列出購物清單、發送短信、 撰寫社交媒體帖子、從照片中移除不需要的物體、所有無需GaI即可完成且環境足跡小得多的活動的一種方式。同時,Alphabet承認Gemini犯了錯誤,鼓勵用户對聊天機器人的 結果進行事實核對,並在頁面底部顯示一條精美的消息,上面寫着:“雙子座可能會顯示不準確的信息,包括關於人的信息, ,因此請仔細檢查其回覆。”在搜索與選舉有關的信息時,Gemini會返回一條類似的消息:“我 仍在學習如何回答這個問題。同時,試試谷歌搜索。”同時,許多企業都在努力賺取 對生成式人工智能的投資回報,這種狀況可以追溯到社交媒體的首次亮相之時。18,19

科技行業和Alphabet以前曾出現過社交媒體, ,其危害包括人際暴力和心理傷害;大規模散佈仇恨言論和虛假信息, 損害我們的健康、代理機構和市場的過濾泡沫;定向廣告和監控資本主義,它不可挽回地將我們的言論、我們的個人屬性、我們的好惡、我們的關係——無異於我們的人性。

_____________________________

13https://corpgov.law.harvard.edu/2024/03/06/global-corporate-governance-trends-for-2024/#more-163181

14https://www.cigionline.org/articles/in-many-democracies-disinformation-targets-the-most-vulnerable/

15https://arxiv.org/abs/2403.00742

16https://news.bloomberglaw.com/in-house-counsel/amazon-google-among-firms-focusing-on-ai-lobbying-in-states

17https://news.bloomberglaw.com/artificial-intelligence/californias-work-on-ai-laws-stalls-amid-fiscal-tech-concerns

18https://www.fastcompany.com/91039524/whats-the-roi-of-generative-ai

19https://www.pwc.com/us/en/tech-effect/ai-analytics/artificial-intelligence-roi.html

4

在最近發表的一篇論文中20,合著者 Timnit Gebru (因對大型語言模型發出警報而於 2020 年被谷歌解僱)和分佈式人工智能研究所 的埃米爾·託雷斯認為,生成式人工智能只不過是通往技術樂觀主義者的墊腳石 等人視為 AGI(人工 通用智能)的聖盃,一種可以回答任何問題的無所不知的 “機器之神”,可以解決任何 問題的靈丹妙藥。

他們寫道,問題在於生成式人工智能及其想象中的繼任者 AGI “範圍不明確,因此不安全”。他們認為,“嘗試構建 AGI 既不遵循科學原則,也不遵循工程 原則。”然後問:“宣傳為'用於在任何環境中學習和行動的通用算法 '的系統的標準運行條件是什麼?”他們提倡範圍明確、定義明確的 “狹義人工智能” 系統, 這樣他們接受訓練的數據和完成的任務才能與他們試圖解決的問題相關。

Gebru和Torres還強調,人工智能系統是貪婪的能量消耗者,與詢問未答覆的選舉查詢、使廣告商能夠直接定位和與 買家交談,以及使用魔術橡皮擦從圖像中刪除不需要的人和物體相比,這些系統可以用來做更好的事情。他們指出:“可以流向全球許多實體 的資源,每個實體都在構建滿足特定社區需求的計算系統, 正在被抽走給少數幾家試圖建立人工智能的公司。”

支持者並不反對人工智能或生成式人工智能。我們支持它, 當它不會造成傷害或混亂時。當它符合解決問題的需求時,其功能不僅方便 而且是必需的。當它的使用使大多數人受益而不會造成附帶損害時,尤其是那些由於在獲得權力方面面臨障礙而已經被邊緣化 和脆弱的人,他們需要保護家庭、健康、環境、 生計以及人權和公民權利。當人工智能和生成式人工智能對它聲稱 服務的人負責時,我們支持人工智能和生成式人工智能。

對於第12號提案,在目前缺乏一般監管的情況下, 的支持者只需要求Alphabet根據公司為自己設定的標準衡量生成人工智能的表現 來最大限度地減少生成式人工智能潛在危害和浪費的不確定性。然後,我們要求公司每年分享一次所學到的知識,以便股東 可以在清楚地瞭解Alphabet的生成式人工智能工具對社會(包括信息生態系統)的影響的情況下就其投資做出明智的決策。通過公開對生成式人工智能的承諾承擔可衡量的責任,Alphabet 將有助於重建對技術乃至公司日益減弱的信任,為其他公司設定在這個關鍵時刻可以遵循的標準。

我們鼓勵你對該決議投贊成票,並邁出第一步 ,告訴 Alphabet 人工智能在以人為中心和服務時創造價值。

_____________________________

20Gebru、T. 和 託雷斯,埃米爾·P.(2024)。TESCREAL 套裝:優生學和通過人工通用智能實現烏託邦的承諾。 第一個 星期一, 29(4)。https://doi.org/10.5210/fm.v29i4.13636

5