免責通知 免責招攬通知
註冊人姓名: 微軟公司
依賴豁免的人員姓名: 阿周那 Capital,Open MIC
依賴豁免的人的地址:阿周那資本,13 Elm St. Manchester, MA 01944;Open MIC, 1012 Torney Avenue, San Francisco, CA 94129-1755.
書面材料附上的書面材料是根據1934年《證券交易法》下頒佈的第14a-6(g)(1)條款(簡稱「法規」)提出的,與註冊公司2024年年度股東大會上將要投票的代理提案有關。*根據規定,本申報人不需要提交此申報,但是代理人自願出於公開披露和考慮這些重要問題的利益而進行提交。
十月三十日, 2024
親愛的微軟-t股東們,
我們致信請您 投票支持提案8 在代理人卡上投票,該提案要求微軟就通過微軟的生成人工智能(gAI)產生和傳播的錯誤和虛假信息所涉及的風險進行報告,計劃如何減輕這些風險以及此類努力的效果。 我們相信股東應該出於以下原因投票支持該提案:
1. | 來自gAI的錯誤信息和虛假信息帶來嚴重的經濟和社會風險; 世界經濟論壇將其列爲未來兩年內最重要的全球風險。 |
2. | 微軟的gAI容易生成錯誤和虛假信息。 |
3. | 微軟的gAI生成的錯誤信息和虛假信息存在法律、監管和聲譽風險,包括潛在的在第230節中缺乏法律保護。 |
4. | 微軟目前的行動和報告並未解決這項提案的關注點。 |
提案 8 的擴展理由
提案要求:
已解決: 股東要求董事會出具一份報告,成本合理,並省略專有或法律特許信息,在每年股東大會後一年內發佈,並且之後每年更新一次,評估公司運營和財務面臨的風險,以及公司在通過人工智能促進傳播或生成的誤導和虛假信息方面對公司運營和財務以及公共福祉產生的風險,以及公司計劃採取何種措施來消除這些危害,以及這些努力的有效性。
我們認爲股東應該投票「贊成」該提案,理由如下:
1. 從gAI傳播的錯誤信息和不實信息將帶來嚴重的經濟和社會風險;世界經濟論壇將其列爲接下來兩年的最重要全球風險。
世界經濟論壇將誤信息和虛假信息排名爲 未來兩年內最重要的全球風險,而歐亞集團將無政府狀態的人工智能排名爲 2024年的第四大風險.1 如若沒有合適的技術阻隔措施,這些風險將隨着惡意行爲者在操控gAI上變得更加複雜而不斷增加。
背景:在ChatGPt發佈人工智能gAI初始版本後,頂尖 人工智能專家發出強烈警告稱,gAI尚未準備好供公衆使用,並可能帶來潛在危害。2023年3月,數百名專家 簽署了一封公開信,敦促全球領先的人工智能實驗室暫停訓練強大的人工智能系統六個月。2 這些專家警告稱,人工智能gAI如果沒有得到妥善管理,將對社會和人類造成「深遠風險」。2023年5月, 包括OpenAICEOSamAltman在內的500多名知名學者和行業領袖簽署了由人工智能安全中心發表的獨立聲明,宣稱「減輕人工智能滅絕風險應該作爲全球貨幣衡量其他社會規模風險的優先事項,如大流行和核戰爭等。」3
科技行業,包括微軟,在過去兩年中未能聽取這些警告 我們看到許多專家的不幸預測成爲現實。值得注意的是,我們看到了 由於gAI極大降低了「生成可信的虛假信息的成本多達數個數量級」。4 這種誤導和虛假信息的潛在危害不僅僅侷限於簡單的錯誤判斷或錯誤陳述。
過去兩年來,通過gAI傳播和生成的錯誤和虛假信息展示了gAI可以:
· | 影響金融市場: 《經濟與業務學報》 發現負面錯誤信息對股票回報率有顯着、負面的短期影響。5 這種潛在的市場影響尤其令人擔憂,因爲人工智能降低了製造可信錯誤信息的障礙。我們在2023年實時目睹了這一情況,當時一張人工智能生成的五角大樓爆炸畫面導致股市短暫下跌。6 |
_____________________________
1 https://www3.weforum.org/docs/WEF_全球風險報告_2024.pdf; https://www.eurasiagroup.net/live-發帖/風險-4-無政府ai - :~:text=在一個四00億人的年份,懶散發帖間諜機構可能摧毀選舉的做法,這可能會引發政治混亂,規模前所未有。
2 https://futureoflife.org/open-letter/pause-giant-ai-experiments/
3 https://www.safe.ai/work/statement-on-ai-risk
4 http://www.theinformation.com/articles/what-to-do-about-misinformation-in-the-upcoming-election-cycle
5 https://www.sciencedirect.com/science/article/pii/S0148619523000231
6 https://www.theguardian.com/us-news/2023/jul/19/人工智能生成的虛假信息美國選舉; https://www.business-humanrights.org/en/latest-news/us-image-produced-by-generative-ai-spreads-fear-over-fake-pentagon-explosion/
· | 影響選舉在過去的一年中,已經有通過gAI操縱的視頻、音頻和照片傳播,試圖影響選舉結果。****發現,已有16個國家使用gAI散佈懷疑,詆譭對手或在線影響公共辯論。7他們還發現,威權政府利用gAI模型增強了在線審查,通過部署機器學習來消除不利的政治、社會和宗教言論。8 另一項研究發現,gAI聊天機器人在27%的情況下提供錯誤的選舉信息,包括註冊說明、投票日期和總統候選人信息。9 |
· | 破壞整體信任信息生態系統和公共機構: 廣泛傳播的gAI虛假信息已經在我們的信息生態系統中播下了重大的不信任,最終可能會減少對我們公共機構的信任。一項adobe研究報告顯示,84%的美國受訪者擔心在線內容容易被操縱,擔心選舉公正性。10而70%的人認爲很難驗證在線信息的可信度。11 廣泛使用gAI可能會削弱對準確選舉信息或公衆人物的信任。 |
不僅人工智能風險對整個社會構成威脅, 對微軟及其投資者也構成威脅。誤導和虛假信息操縱公衆輿論的能力,加劇偏見, 削弱制度信任,影響選舉,損害我們的民主和經濟的穩定性。當公司損害社會 和經濟時,多元化投資組合的價值隨國內生產總值下降。12
儘管微軟短期可能會受益於急於推出人工智能技術,但這可能會以長期財務健康和多元化股東投資組合的潛在成本爲代價。對於微軟有效地減輕錯誤和虛假信息,以保護公司的長期財務健康並確保投資者不內化這些成本,符合股東的最佳利益。
2. | 微軟的gAI容易生成錯誤和虛假信息。 |
很明顯,微軟正大力 s 投資於 gAI,因爲公司已經在這項 科技 上投資超過130億美元。13 在其 gAI 搜索引擎初始發佈之前,倫理學家和微軟員工就該 科技 的準備工作提出了擔憂,包括可能會“用錯誤信息「淹沒[社交 媒體],降低批判性思維,破壞現代社會的事實基礎」 。14
_____________________________
7 https://freedomhouse.org/report/freedom-net/2023/repressive-power-artificial-intelligence
8同上。
9 https://www.nbcnews.com/tech/tech-news/ai-chatbots-got-questions-2024-election-wrong-27-time-study-finds-rcna155640
10 https://www.brennancenter.org/our-work/analysis-opinion/how-ai-puts-elections-risk-and-needed-safeguards
11 https://www.cnet.com/tech/services-and-software/generative-ai-muddies-the-election-2024-outlook-and-voters-are-worried/
12 本封底的其餘信息不被視爲根據證券交易所法案第18條進行「提交」,或受該法案的其他規定的責任,但仍需遵守該法案的所有其他規定(但全球擁有:爲什麼環保母基對機構投資者重要, 附錄 IV(展示國內生產總值與多樣化投資組合之間的線性關係)可在 https://www.unepfi.org/fileadmin/documents/universal_ownership_full.pdf; 參見 https://www.advisorperspectives.com/dshort/updates/2020/11/05/market-cap-to-gdp-an-updated-look-at-the-buffett-valuation-indicator (市場總市值與國內生產總值「可能是在任何時刻衡量估值的最好單一指標」)(援引禾倫·巴菲特)。
13 https: //www.cnbc.com/2023/04/08/microsofts-complex-bet-on-openai-bet-on-openai-帶來了潛力和不確定性。htmlmsockid=357d576b676b69d14679a
14 https://www.nytimes.com/2023/04/07/technology/ai-chatbots-google-microsoft.html
然而,微軟一直在前進,最近承諾與貝萊德一同投資另外300億美元用於gAI。15 儘管進行了大量投資,微軟仍然在努力控制通過其gAI生成和傳播的錯誤和虛假信息:
· | Copilot重複錯誤信息稱6月份CNN選舉辯論轉播將會延遲1至2分鐘,導致人們產生候選人的選舉表現可能被編輯的陰謀論。16 |
· | 微軟的圖像生成器生成了虛假照片,顯示個人篡改美國選票和投票箱,這可能被用來加劇選舉不信任。17 |
· | 一項研究發現,Copilot在醫療問題上只有54%的準確率。18 |
· | 微軟的MyCity聊天機器人向紐約市的企業主提供了誤導性信息,暗示他們可以剝削工人的小費並基於收入來源進行歧視。19 |
· | 當被詢問有關各國智商測試時,Copilot引用了已經被證實錯誤的研究,宣揚白人在基因上優於非白人的觀念。20 |
如圖所示,微軟的gAI仍然是一個正在進行的工作。鑑於風險的嚴重性,公司必須做更多來控制這些漏洞。
3. | 微軟的gAI生成的錯誤信息和虛假信息存在法律、監管和聲譽風險,包括潛在的在第230節中缺乏法律保護。 |
微軟在短期內面臨法律、監管和聲譽風險,可能會對公司造成財務影響。
· | 法律風險法律專家質疑最終誰將對gAI生成的誤導和錯亂信息負責。由於公司的gAI技術可能是誤導和錯亂信息的源頭,無法保證第230條將繼續保護公司免受因平台上的錯誤信息和錯誤信息而引發訴訟。這可能使微軟面臨未來的法律審查。 |
_____________________________
15 https://www.techradar.com/pro/microsoft-and-blackrock-team-up-on-30-billion-ai-investment
16 https://www.nbcnews.com/tech/internet/openai-chatgpt-microsoft-copilot-fallse-claim-presidential-debate-rcna159353
17 https://www.bbc.com/news/world-us-canada-68471253?utm_source=syndication
18 https://www.msn.com/en-us/news/technology/42-of-ai-answers-were-considered-to-lead-to-moderate-or-mild-harm-and-22-to-death-or-severe-harm-a-damning-research-
論文指出,必應 微軟 Copilot 人工智能 醫療建議實際可能導致危險/ar-AA1saa97?ocid=BingNewsVerp
19 https://www.analyticsinsight.net/artificial-intelligence/the-most-controversial-ai-decisions-in-recent-years
20 https://arstechnica.com/ai/2024/10/google-microsoft-and-perplexity-promote-scientific-racism-in-ai-search-results/
· | 監管風險科技公司在過去一年中面臨不斷變化的監管環境,歐盟人工智能法案率先提供了第一套全面的規則,爲人工智能設立了防護框架。21 算法問責法案(AAA)已經提交到美國參議院,並將要求聯邦貿易委員會要求實體對其人工智能系統進行影響評估。22 在州一級,19個州已通過法律來應對深度僞造技術等人工智能的其他問題。23微軟必須考慮併爲額外、即將到來的人工智能報告要求做好準備。此外,通過履行此提案的要求並樹立最佳實踐的強有力示範,微軟有機會積極塑造人工智能報告框架。 |
· | 聲譽風險儘管微軟在其人工智能領域投入了大量資金,但該技術缺乏可靠性和一致性,已經在用戶中間播下了重大的不信任。24 美聯社-諾克公共事務研究中心和USAFacts發現,三分之二的美國成年人對生成式人工智能的可靠性毫不自信。只有12%的人相信,包括Copilot在內的人工智能搜索引擎產生的結果總是或經常基於事實。25 微軟必須彌合這種人工智能信任鴻溝,以確保其技術被用戶接受。關於微軟技術所傳播的錯誤和虛假信息的負面新聞可能引發用戶不信任,減緩採用速度,並對股票價值產生負面影響。我們已經看到了關於人工智能誤傳負面新聞如何影響公司股價表現。26 微軟必須盡其所能降低造成公司技術不信任的聲譽風險。 |
4. | 微軟目前的行動和報告並未解決這項提案的關注點。 |
在反對聲明中,微軟列舉了幾份有關負責任人工智能的報告和做法,以混淆履行本提案請求的必要性。然而,這項提案要求微軟提供一份 超越當前和計劃中的報告。當前的報告,包括歐盟和澳大利亞反虛假信息和虛假信息行爲規範、負責任人工智能標準和原則,以及其負責任人工智能透明度報告,僅概述了公司對道德人工智能標準和框架的承諾。而首次發佈的負責任人工智能透明度報告提供了微軟對負責任人工智能的方法的更深入解釋,我們正在尋求超越這一點的報告 並評估微軟的原則和框架實際運作情況。請求的報告將提供一份全面的 評估 與人工智能相關的風險,以便公司能夠有效地減輕這些風險,以及 評估與人工智能相關的風險,以便公司能夠有效地減輕這些風險,並 評估 公司如何有效地應對所識別的風險。
_____________________________
21 https://www.techmonitor.ai/digital-economy/ai-and-automation/what-is-the-eu-ai-act?cf-view
22 https://www.jdsupra.com/legalnews/the-current-and-evolving-landscape-of-4080755/
23 https://www.esginvestor.net/keeping-up-with-ai/
24 https://www.ftc.gov/policy/advocacy-research/tech-at-ftc/2023/10/consumers-are-voicing-concerns-about-ai -foot2
25 https://apnews.com/article/ai-chatbots-misinformation-voting-election-2024-7131822c0f2ebe843b4c7e3cb111a3d3
26 https://www.npr.org/2023/02/09/1155650909/google-chatbot--error-bard-shares
由於gAI的風險嚴重且廣泛影響,微軟透明地向股東說明已充分識別風險並評估其有效解決能力是至關重要的。我們相信這些步驟將有助於減輕公司的短期和長期風險,並提供適當的問責機制。
結論
基於上述提供的原因,我們強烈建議您支持該提案。我們相信就與生成式人工智能相關的虛假信息和誤導風險、緩解措施和評估撰寫一份報告,將有助於確保微軟在長期最符合股東利益的情況下行事。
請聯繫Natasha Lamb,郵箱爲 natasha@arjuna-capital.com 或者聯繫Michael Connor,郵箱爲mconnor@openmic.org 獲取更多信息。
此致敬禮,
Natasha Lamb,Arjuna Capital
Michael Connor, 執行董事, Open MIC
這不是請求您授權投票的邀請。請 不要將您的代理投票卡寄給我們。Arjuna Capital和Open Mic無法爲您投票,本通訊也不涉及 這類事件。提議方敦促股東根據管理層代理函上提供的指示,投票支持代理事項8。
所表達的觀點僅代表作者、Arjuna Capital和Open MIC在指定日期時的觀點,隨時會根據市場或其他條件發生變化。這些觀點不應被視爲對未來事件的預測或未來結果的保證。不應依賴這些觀點作爲投資建議。本材料中提供的信息不應被視爲買入或賣出所提及證券的建議。不應假設對這些證券的投資已經或將會盈利。本文僅用於信息目的,不應被視爲研究報告。