美國證券交易委員會
華盛頓特區20549
豁免招募通知
根據第14a-103條規定
登記人姓名:微軟公司-t
依靠豁免的人姓名:國家法律和政策中心
依靠豁免的人地址:107 Park Washington Court, Falls Church, VA 22046
根據1934年證券交易法》下頒布的第14a-6(g)(1)條款,提交的書面材料。 這個提交對該申報人並不是義務,但出於公眾披露和考慮這些重要問題的興趣是自願的。
代理憶稿
致: 微軟-t 股東
主旨: 贊成投票的理由 為了批准延期召開會議或需要的日期或日子,或者從股東那裡再請求贊同上述議案之一或多個, 2024年代理投票權案件九的提案(“人工智能數據採購責任報告”)
這不是一份授權投票的請求。請勿將您的代理卡寄給我們; 國家法律與政策中心無法為您投票,此次通知也未考慮到此類事件。NLPC敦促股東投票支持提案9 根據管理層的代理郵件中提供的指示。
以下信息不應被解釋為投資建議。
在報告末尾列出的照片來源。
國家法律與政策中心(“NLPC”)敦促股東投票。 贊成該組織在2024年微軟公司(“微軟”或“公司”)的代理投票中贊助提案9。提案的“措辭”條款如下:
股東要求公司以合理成本準備一份報告,不包含專有或法律特權信息,並在年度股東大會後的一年內發布此報告,之後每年更新一次,該報告評估公司運營和財務以及對公共福祉的風險,由外部數據的真實或潛在的不道德或不當使用在其人工智能產品的開發和培訓中所產生; 公司採取了哪些措施來減輕這些風險; 以及如何衡量此類努力的效果。
1
股東要求公司以合理成本準備一份報告,不包含專有或法律特權信息,並在年度股東大會後的一年內發布此報告,之後每年更新一次,該報告評估公司運營和財務以及對公共福祉的風險,由外部數據的真實或潛在的不道德或不當使用在其人工智能產品的開發和培訓中所產生; 公司採取了哪些措施來減輕這些風險; 以及如何衡量此類努力的效果。
介紹
人工智能是現代史上最具革命性的創新之一,重塑了產業、革新了業務實踐,並影響著個人和政府如何與技術互動。人工智能改善從醫療保健到金融服務的潛力不容忽視,但也存在巨大風險。微軟憑藉其巨額人工智能投資,站在一個重要的十字路口上,採取強大的以隱私為中心的政策可能使其成為一個值得信賴的領導者。 |
|
數據是人工智能的命脈。機器學習模型需要大規模數據集來學習、適應並隨著時間改進其性能。這種對數據的貪婪需求驅使開發人員通過互聯網和其他數字源頭尋求大量信息,其中一些可能是通過非道德或非法方式獲取的。人工智能模型可能包含有關人類行為、語音、圖像和其他敏感內容的數據,使其開發和部署成為隱私問題。
隨著人工智能的成熟,公眾對人工智能數據倫理的意識也在提高。消費者、監管機構和政府越來越多地質疑人工智能開發人員獲取用於訓練模型的數據的來源。數據爬取、未經授權的收集以及未經許可使用專有或受版權保護的內容已成為人工智能倫理辯論的焦點。如果沒有適當的內部檢查和平衡,微軟的人工智能開發可能違反數據隱私法、侵犯知識產權或未經同意使用個人信息。
在提案中要求的報告將通過改善微軟有關在人工智能開發中合法使用用戶數據策略的披露來提高股東價值。該報告旨在鼓勵微軟採取更宏偉的側重隱私立場,這可能為公司提供強大的競爭優勢。
微軟在人工智能開發中面臨的隱私和倫理挑戰
微軟是人工智能領域的領導者,這在很大程度上要歸功於其與OpenAI的合作。該公司的地位為制定負責任的人工智能開發期望提供了一個平台。
2
The data-gathering practices that underpin Microsoft’s AI models raise ethical concerns. As mentioned in the Proposal, these include the Company’s partnership with OpenAI,1 its ties to the United States Intelligence Community,2 3 copyright infringement,4 and questionable privacy features.5 6
Microsoft’s organizational size, scope, and influence – the Company is one of the largest in the world by market capitalization,7 revenue,8 and headcount9 – invite distrust. Public scrutiny is further amplified by Microsoft’s relationships with other power players in the industry as well as the federal government.
For example, why were Microsoft and Apple both offered special seats on OpenAI’s board? Are they not competitors? The two rivals only dropped their seats after antitrust concerns were raised.10
| Microsoft’s partnership with OpenAI raises other issues. OpenAI has faced multiple allegations of unethical data collection practices, including data scraping without consent. Reports indicate that OpenAI has incorporated vast amounts of personal, copyrighted, and proprietary information into its AI models without notifying data owners or obtaining their permission. Such practices have led to legal action, including a high-profile lawsuit by the 紐約時報 over alleged |
copyright infringement. Finally, Paul Nakasone, the former director of the National Security Agency, now sits on OpenAI’s board of directors. Under his tenure, he pushed to renew the expanded surveillance powers11 awarded to the NSA after 9/11, which have since been abused to spy on political opponents of the national security apparatus.12 |
Nakasone’s appointment to OpenAI’s board raises the broader issue of government interference with AI development and Microsoft’s extensive relationship with the federal government. Microsoft derives a significant portion of its revenue from government contracts. The federal government spends between $100億 and $150億 on contracts for It and software
1 https://www.businessinsider.com/openai-chatgpt-generative-ai-stole-personal-data-lawsuit-children-medical-2023-6
2 https://www.foxbusiness.com/politics/us-spies-use-secretive-ai-service-from-microsoft
3 https://www.newsweek.com/edward-snowden-open-ai-nsa-warning-1913173
4 https://www.reuters.com/legal/transactional/ny-times-sues-openai-microsoft-infringing-copyrighted-work-2023-12-27/
5 https://time.com/6980911/microsoft-copilot-recall-ai-features-privacy-concerns/
6 https://www.theverge.com/2024/6/7/24173499/microsoft-windows-recall-response-security-concerns
7 https://companiesmarketcap.com/
8 https://companiesmarketcap.com/largest-companies-by-revenue/
9 https://companiesmarketcap.com/largest-companies-by-number-of-employees/
10 https://www.theguardian.com/technology/article/2024/jul/10/microsoft-drops-observer-seat-on-openai-board-amid-regulator-scrutiny
11 https://www.cbsnews.com/news/nsa-director-us-surveillance-power-paul-nakasone/
12 https://apnews.com/article/election-2020-b9b3c7ef398d00d5dfee9170d66cefec
3
此外,他們相信春秋資本及FRI聯系不是根據13d‑5規則將這些人或實體的證券歸属于其他任何人的義務。13 微軟主導這些合同市場,14 在沒有競爭性投標過程的情況下贏得其中25-30%, 這意味著它們可能被標高價。15 隨著聯邦政府力圖控制人工智能分發以控制言論自由,16 政府完全有可能利用微軟的合同作為籌碼,獲取讓步,有效地將世界上最大的企業之一與國家利益纏繞在一起。例如,“Twitter files”揭示,FBI和CIA在Twitter的內容審查中扮演了重要角色 - 在埃隆·馬斯克收購之前 - 通過標記被認為是“虛假資訊”的帖子或帳戶,並建議將其刪除。17 股東和公民都應該關心美國情報機構正試圖與主要人工智能開發商進行類似的操作,後者的工具最終可能超越社交媒體,因其在塑造全球話語權方面的影響力。
微軟龐大的權力,加上與聯邦政府密切的關係,在美國社會和其他地方代表對個人自由的重大威脅。兩者結合,透過微軟的平台、產品和服務,對數百萬公民的個人信息擁有前所未有的訪問權。在大數據時代,個人信息越來越被視為商品的情況下,這種關係引發了對於大規模監視和隱私侵犯的潛在危機。
此外,隨著微軟的人工智能工具和技術越來越多地嵌入公共基礎設施,18 微軟和國家安全體系之間的界線日益模糊。19 這些技術被用作控制工具的潛力——無論是用於監控異議、限制言論自由還是追蹤公民,都不可忽視。在這種情況下,微軟的人工智能發展不僅僅是關於技術進步。更重要的是,這是關於控制權的無節制增長,掌握在一家已顯示出願意與政府利益保持一致的公司手中,即使以犧牲個人自由為代價。
此外,微軟的演算法是保密的。隨著這些系統越來越多地融入日常生活,從貸款批准到招聘的決策,其內部運作的透明度不足存在重大倫理風險。
人工智能發展的核心是依賴於龐大數據集來做出預測、檢測模式和推薦操作的機器學習演算法。這些演算法如何權衡某些變數、優先特定結果和做出決策,往往仍然隱藏在“黑箱”內。這種缺乏透明度不僅是技術問題;它提出了有關責任、信任和公平的基本問題。如果這些演算法應用於醫療診斷等關鍵領域20 或刑事司法風險評估,21 後果可能包括
13 https://prospect.org/power/2024-06-11-defense-department-microsofts-profit-taking/
14 https://ccianet.org/news/2021/09/new-study-shows-microsoft-holds-85-market-share-in-u-s-public-sector-productivity-software/
15 https://prospect.org/power/2024-06-11-defense-department-microsofts-profit-taking/
16 https://www.csis.org/analysis/distrust-everything-misinformation-and-ai
17 https://nypost.com/2022/12/24/latest-batch-of-twitter-files-shows-cia-fbi-involved-in-content-moderation/
18 https://wwps.microsoft.com/blog/ai-public-sector
19 https://theintercept.com/2024/10/25/africom-microsoft-openai-military/
20 https://www.forbes.com/sites/saibala/2023/01/23/microsoft-is-aggressively-investing-in-healthcare-ai/
21 https://counciloncj.org/the-implications-of-ai-for-criminal-justice/
4
對於微軟來說,這種不透明可能保護專有信息和知識產權,但最終引發了對公司是否重視利潤和競爭優勢而不是透明度和問責制的疑問。
作為回應,市民和消費者開始要求加強數據隱私保護。從本質上講,這場辯論圍繞著誰真正“擁有”用戶生成的數據——無論是個人信息、行為模式還是數字內容——以及個人對於他們的數據如何被使用、存儲或分享擁有什麼權利。22 這些不斷演進的期望給微軟和OpenAI等公司帶來了挑戰,特別是當它們收集大量數據來訓練和完善人工智能系統時。 |
|
歐盟已成為全球推動更強數據權利的領導者,通過2018年頒布的《一般數據保護規則》(GDPR)。23 GDPR代表著地球上最全面的數據隱私法之一,從根本上改變了公司為歐盟公民收集、處理和存儲個人數據的方式。它賦予個人更多對其數據的控制權,包括訪問、更正或刪除信息的權利,以及了解其數據如何被使用的權利。 GDPR對於不符合規定的公司實行嚴格的懲罰,罰款可達到公司全球年收入的四分之一,為公司遵守透明度、問責制和用戶控制原則提供了強大的激勵。對於像微軟這樣在全球範圍內運營的公司來說,GDPR已將數據倫理的賭注提高了。
在美國,數據隱私法律傳統上比歐盟的相對寬鬆,沒有類似GDPR的全面聯邦數據隱私法。然而,這種情況正在改變。各州已開始制定自己的數據保護法規,反映出對隱私保護需求日益增長的認識。例如,加州在2020年頒布了加州消費者隱私權法(CCPA),24 賦予居民與GDPR下類似的權利,如知悉個人信息的收集情況的權利、刪除該信息的權利以及拒絕出售該信息的權利。
數據隱私運動在其他州也正在蓬勃發展,形成了各州水平的法規拼圖,這需要微軟等公司掌握。圍繞數據隱私的這些新期望表明了公眾對數據所有權態度的轉變,美國人越來越要求擁有控制其數字信息的權利。
22 https://www2.deloitte.com/us/en/insights/topics/digital-transformation/data-ownership-protection-privacy-issues.html
23 https://gdpr-info.eu/
24 https://oag.ca.gov/privacy/ccpa
5
前文提到的訴訟由 紐約時報提起 against Microsoft and OpenAI serves as a high-profile example of how changing expectations around data ownership intersect with legal challenges. The Times has accused OpenAI of scraping its copyrighted content to train AI models without permission or compensation, thereby infringing on intellectual property rights.25 如果 Times lawsuit succeeds, it could set a precedent that imposes greater restrictions on data scraping, especially when it involves proprietary or copyrighted content. This would create | |
additional hurdles for Microsoft and OpenAI, forcing them to either secure permission from data sources or reconsider their datasets. |
By continuing its current practices, Microsoft risks becoming entangled in more lawsuits and regulatory actions that could erode shareholder value and harm its reputation. Additionally, as consumers become more privacy-conscious, they may choose to support companies that demonstrate a genuine commitment to respecting data rights.
透過隱私領導力來提高股東價值並建立競爭優勢
消費者一直對他們對個人數據缺乏控制表示擔憂。26 麥肯錫公司認為,將數據隱私列為首要事項的公司將比不重視數據隱私的競爭對手建立競爭優勢。27
隨著消費者對分享數據變得更加謹慎,監管機構加強隱私要求,領先企業正在學習到數據保護和隱私能夠創造商業優勢。
鑒於整體信任水平偏低,消費者常常希望限制與企業共享的數據類型。由於現在有許多隱私工具,包括內建cookie阻止功能的網頁瀏覽器,廣告封鎖軟件(全球超過60000萬設備使用),以及隱密瀏覽器(全球40%的互聯網用戶使用),消費者對自己的個人信息有更大的控制權。然而,如果產品或服務選擇——例如,醫療保健或財富管理——對消費者至關重要,許多人願意把他們的隱私顧慮擱置一邊。
25 https://www.nytimes.com/2023/12/27/business/media/new-york-times-open-ai-microsoft-lawsuit.html
26 https://www.pewresearch.org/internet/2019/11/15/americans-and-privacy-concerned-confused-and-feeling-lack-of-control-over-their-personal-information/
27 https://www.mckinsey.com/capabilities/risk-and-resilience/our-insights/the-consumer-data-opportunity-and-the-privacy-imperative
6
消費者不願意分享他們認為不太重要的交易數據。他們甚至可能"以腳投票",不與那些他們不信任、不認同或不理解其數據隱私做法的公司做生意。
作者們補充說:
根據我們的研究,我們樣本的消費者簡單地不信任公司處理他們的數據和保護他們隱私的能力。因此,公司可以通過在這個領域採取刻意的積極措施來區分自己。根據我們的經驗,消費者對那些如同他們自己一樣謹慎對待個人數據的公司有回應。
報告強調了一個現實,隨著數據隱私問題的增長,消費者越來越青睞那些優先考慮道德數據處理和透明度的公司。這凸顯了一個事實,即在信任至上的市場中,擁有透明、注重隱私的做法的公司具有戰略優勢。
對於Microsoft來說,關於數據擁有權期望的轉變為其提供了一個機會,讓其成為道德人工智能領域的領導者,採用透明和同意驅動的數據做法。這樣的轉變不僅有助於Microsoft避免法律挑戰,還將建立消費者信任,使公司與重視個人控制其數據權利的全球標準保持一致。
對於Microsoft來說,透明且尊重隱私的人工智能做法可培養顧客忠誠度並減少流失。保留現有客戶的財務好處是有充分記錄的,因為保留現有客戶通常比獲得新客戶費用顯著降低。
此外,以隱私為中心的方法與日益增長的“技術樂觀主義”運動保持一致,該運動倡導賦予個人權力而不是利用他們的技術。這些運動的支持者,如風險投資家馬克·安德森,主張技術應分散權力、增強透明度並賦予用戶權力。通過支持這些價值觀,Microsoft可以吸引日益增長的技術作為個人賦權而非企業控制工具的用戶族群。這種對齊不僅會吸引消費者,還將影響公眾觀感,將Microsoft定位為道德人工智能領域的領導者。28 主張技術分散權力、增強透明度和賦予用戶權力的增長的“技術樂觀主義”運動,如風險投資家馬克·安德森所說。通過支持這些價值觀,Microsoft可以吸引日益增長的技術作為個人賦權而非企業控制工具的用戶族群。這種對齊不僅會吸引消費者,還將影響公眾觀感,將Microsoft定位為道德人工智能領域的領導者。
迄今為止,對隱私和透明度的強調可能降低微軟對監管反彈和法律問題的脆弱性。隨著全球出現更嚴格的數據隱私法規和紐約時報等案件彰顯不道德數據實踐風險,微軟可以預先通過設定高透明度標準來減輕風險。 紐約時報 瞭解每家公司如何處理隱私可洞察 AI 道德、透明度和消費者信任的整體風景。
微軟的競爭對手,包括蘋果、Meta、Alphabet 和 Anthropic,在隱私方面的方法迥異,反映了它們的價值觀、業務模式和戰略目標。
28 https://a16z.com/the-techno-optimist-manifesto/
7
瞭解每家公司如何處理隱私可洞察 AI 道德、透明度和消費者信任的整體風景。
蘋果
蘋果雖然主要不以人工智能為重點,但已將用戶隱私保護置於重要位置。29 與Meta和Alphabet不同,蘋果的主要業務模式不依賴廣告,這使其能夠增強用戶隱私而不影響其營收模型。蘋果表示其由人工智能驅動的產品,如Siri,均採用增強隱私的技術,包括裝置內處理,最大程度地減少了數據收集,並促進用戶對個人信息的控制。 |
|
蘋果對隱私的重視為注重隱私的消費者提供了額外的保證,使其能夠保持忠誠的用戶群,為公司帶來了競爭優勢。
Meta
Meta在數據隱私問題上受到了審查,特別是關於用戶數據如何影響定向廣告演算法的問題。30 31 然而,近年來,Meta在增加其人工智能研究透明度方面取得了進展。其開源的Llama AI工具的推出證明了其新方向,表明了其願意為透明且可訪問的人工智能開發做出貢獻。像Llama這樣的開源人工智能模型使研究人員和開發人員能夠查看並修改代碼,從而增加透明度。
儘管存在這種開源轉變,仍然存在隱私問題,因為Meta依賴用戶數據來獲取廣告收入。Meta的人工智能演算法廣泛利用個人數據來生成定向廣告,這引發了有關公眾是否會對公司最有價值和最敏感的數據驅動演算法的開源承諾等問題。近年來,Meta受到的公眾審查,包括劍橋分析醜聞,也影響了信任。儘管開源Llama可能表明更大的透明度,但對Meta的隱私改進是否足夠仍存在疑問。32 公司是否有公開承諾 I see them 年輕人也會受到試探33 這個公司将要公佈i see 分析師會在五點鐘發布賺錢的消息
29 https://www.cnbc.com/2021/06/07/apple-is-turning-privacy-into-a-business-advantage.html
30 https://www.theguardian.com/technology/2023/jul/11/threads-app-privacy-user-data-meta-policy
31 https://www.nytimes.com/2023/05/22/business/meta-facebook-eu-privacy-fine.html
32 https://www.reuters.com/technology/meta-gets-11-eu-complaints-over-use-personal-data-train-ai-models-2024-06-06/
33 https://www.nytimes.com/2018/04/04/us/politics/cambridge-analytica-scandal-fallout.html
8
字母表
Alphabet,透過其子公司Google,在人工智能領域處於強勢地位,利用大量數據資源來支持服務,例如搜索引擎和語音助手。34 然而,其數據實踐與廣告收入緊密相關,一直受到批評,因為他們將用戶數據收集置於隱私保護之上。35 Alphabet的廣泛數據追蹤用於定向廣告已多次引起隱私擔憂,尤其在歐盟的GDPR下,由於在數據使用方面缺乏透明度而面臨重罰。儘管實施了像“自動刪除”選項和嘗試使用聯合學習等功能,即數據存儲在設備上而不是集中式數據庫中,但這些措施在范圍上有限,看似是反應式的而非基礎性的。
Alphabet的聲譽因追蹤用戶位置數據,即使位置服務關閉,而受到進一步損害,突顯了其公開隱私承諾與實際操作之間的不一致。批評者認為Alphabet將用戶隱私視為次要,與像蘋果這樣將數據最小化置於優先位置的公司形成鮮明對比。隨著隱私期望的增長,Alphabet對廣泛數據收集的依賴可能會日益與消費者對透明度和數據主權的要求發生衝突,從根本上挑戰其方法的可持續性。36 Anthropic成立了一個人工智能研究實驗室,由前OpenAI員工創立,定位為一家致力於“對齊”和AI安全的公司。其主要使命是開發符合人類利益的人工智能系統,優先考慮安全和道德而非快速部署。雖然Anthropic比微軟、Meta或Alphabet規模較小,但其對長期AI安全的關注使其成為隱私話題中一個相關的參與者。
Anthropic
Anthropic是一家由前OpenAI員工創立的人工智能研究實驗室,定位為一家致力於“對齊”和AI安全的公司。其主要使命是開發符合人類利益的人工智能系統,優先考慮安全和道德而非快速部署。37 儘管Anthropic比微軟、Meta或Alphabet規模較小,但其對長期AI安全的關注使其成為隱私話題中具有相關性的參與者。38
Anthropic強調人工智能行為的透明性,並在在沒有進行嚴格測試的情況下謹慎地部署其模型時持謹慎態度。雖然Anthropic的方法並沒有像微軟或Meta那樣明確地將隱私置於重要位置,但它對安全、對齊和道德問題的強調間接支持了一個注重隱私意識的框架。通過促進透明度和謹慎的部署,Anthropic將自己定位為一個願意為負責任、以用戶為中心的人工智能實踐而犧牲快速增長的組織。
鑒於Anthropic公司仍相對較新,尚未遇到重大監管或公眾審查。然而,其基本原則表明其致力於道德實踐,這可能在隨著隱私期望演變時提供競爭優勢。
微軟、Meta、Alphabet、Anthropic和蘋果分別以不同方式處理隱私問題,反映了它們各自獨特的商業模式和消費者期望。雖然微軟和蘋果將隱私視為競爭優勢,Alphabet和Meta由於依賴廣告收入而面臨挑戰。Anthropic公司對長期安全和道德一致性的關注使其在隱私討論中成為一個獨特的參與者,尤其是隨著人工智能的進步。隨著消費者對隱私的需求增長,這些不同的方法將塑造公眾對每家公司對負責任人工智能承諾的看法。
34 https://www.thestreet.com/investing/stocks/analyst-update-alphabet-stock-price-target-after-ai-event
35 https://www.bloomberg.com/news/articles/2022-02-28/all-the-ways-google-is-coming-under-fire-over-privacy-quicktake
36 https://time.com/6209991/apps-collecting-personal-data/
37 https://www.anthropic.com/
38 https://etc.cuit.columbia.edu/news/ai-community-practice-hosts-anthropic-explore-claude-ai-enterprise
9
Anthropic公司的長期安全和道德一致性使其在隱私討論中成為一個獨特的參與者,特別是在人工智能繼續發展的情況下。隨著消費者對隱私的需求增長,這些不同的方法將塑造公眾對每家公司對負責任人工智能承諾的看法。
由於某些原因,微軟的競爭對手都有阻礙他們在人工智能行業中佔據主導地位的障礙,無論是在質量還是隱私方面都能成爲領導者。採取強硬的隱私中心立場可能會使微軟與競爭對手有所區分,並與現代價值觀保持一致,從而加強消費者的信任和股東價值。
對微軟的經濟效益可能是巨大的。單單訴訟可能價值數十億美元,而違反《 GDPR 》或《 CCPA 》的罰款也可能是幾十億美元。然而,更重要的問題是,生成式人工智能市場到 2032 年可能達到 1.3兆 美元,市場份額的少數百分比變化將價值數百億美元。微軟的競爭力太強,潛在獎勵太大,不認真對待數據道德和隱私問題。 紐約時報 訴訟本身可能價值數十億美元,違反 GDPR 或 CCPA 的罰款也可能是數十億美元。然而,更重要的問題是,生成式人工智能市場到 2032 年可能達到 1.3兆美元,市場份額的少數百分比變化將價值數百億美元。微軟的競爭力太強,且市場份額的少數變化將價值數百億美元。微軟的競爭對手實在太強大,市場份額的少數增長將價值數十億美元。39 通過將隱私和道德人工智能置於首位,微軟可以在消費者信任至關重要的行業中區分自己。隨著監管壓力增大,公眾期望轉向數據透明度和控制,微軟對負責任人工智能的承諾將不僅保護其聲譽,還將增強股東價值。擁抱以隱私為先的方法將微軟定位為道德技術的領導者,使其與消費者和社會價值觀保持一致。這一戰略轉變可以幫助微軟獲得可持續的競爭優勢,促進長期增長,並對整個行業產生積極影響。出於這些原因,我們敦促股東支持提案 9。
結論
通過優先考慮隱私和道德人工智能,微軟可以在消費者信任至關重要的行業中區分自己。隨著監管壓力增大,公眾期望轉向數據透明度和控制,微軟對負責任人工智能的承諾將不僅保護其聲譽,還將增強股東價值。擁抱以隱私為先的方法將微軟定位為道德技術的領導者,使其與消費者和社會價值觀保持一致。這一戰略轉變可以幫助微軟獲得可持續的競爭優勢,促進長期增長,並對整個行業產生積極影響。出於這些原因,我們敦促股東支持提案 9。40
照片來源:
第2頁- 德國科隆微軟大樓/Rawpixel.com (知識共享授權)
第3頁- Paul Nakasone/INSA活動,知識共享
第5頁- OpenAI圖像/focal5,知識共享
第6頁- 紐約時報總部/Jessohackberry,知識共享
第8頁- iPhone/YouTube截圖
上述信息可能通過電話、美國郵政、電子郵件、特定網站和特定社交媒體平台傳達給股東,絕不應被解釋為投資建議或代表授權投票的要求。
39 https://www.bloomberg.com/company/press/generative-ai-to-become-a-1-3-trillion-market-by-2032-research-finds/
40 https://view.officeapps.live.com/op/view.aspx?src=https://cdn-dynmedia-1.microsoft.com/is/content/microsoftcorp/2024_Proxy_Statement
10
將上述信息傳達給股東的成本完全由申報者承擔。
這裡所包含的信息是從可信賴的來源編製的,但我們並不保證其及時性或準確性,並且不是所有可用數據的完整摘要或陳述。本文僅供參考,不得被解釋為研究報告。
我們不接受代理人卡。請勿將您的代理人卡寄給我們。如需投票您的代理權,請按照代理卡上的指示進行。
關於微軟公司第9條提案 - 要求董事會製作“AI數據來源責任報告”,由國家法律與政策中心提交 - 請聯繫NLPC的企業誠信項目副主任Luke Perlot,電郵:lperlot@nlpc.org。
11