豁免招标通知

注册人姓名:Alphabet Inc.

依赖豁免的人员姓名:Arjuna Capital

依赖豁免的人的地址:马萨诸塞州曼彻斯特市榆树街 13 号 01944

书面材料:所附书面材料是根据1934年《证券交易法》颁布的第14a-6 (g) (1) 条(“规则”)提交的 ,*与注册人将在2024年年会上表决的代理提案 有关。*根据规则的条款,这个 申报人无需提交,而是为了公开披露和考虑这些 重要问题,由支持者自愿提交。

2024年5月3日

亲爱的 Alphabet Inc. 股东,

我们写这封信是为了敦促你对代理卡上的第12号提案投赞成票,该提案要求Alphabet报告与通过Alphabet的 生成式人工智能(GaI)传播或生成的错误和虚假信息相关的风险,并计划降低这些风险。我们认为股东应该对该提案投赞成票,原因如下 :

1.尽管人工智能专家发出了严厉警告,但Alphabet还是将其GaI技术推向了市场。
2.Alphabet的GaI工具已经创造了虚假和误导性的信息。
3.通过GaI传播的错误信息和虚假信息给Alphabet和投资者都带来了风险。
4.该提案不仅要求制定负责任的人工智能政策和协议,还要求建立问责机制以确保 Alphabet 有效识别和缓解错误和虚假信息风险。

提案 12 的扩展理由

该提案提出以下要求:

已解决:股东要求董事会以 合理的成本发布一份报告,省略专有或法律特权信息,该报告将在年会后的一年内发布,并在此后每年更新 ,评估公司 在为通过生成人工智能生成、传播和/或放大的错误信息和虚假信息提供便利方面所面临的公司运营和财务以及公共福利风险; 公司采取了哪些措施为补救这些危害而采取的计划;以及将如何衡量这些危害这些努力的有效性。

我们认为,股东应该对提案 投赞成票,原因如下:

1.尽管人工智能专家发出了严厉警告,但Alphabet还是将其GaI技术推向了市场。

严重警告:多年来,Alphabet一直忽视人工智能专家的警告和担忧, 有时也保持沉默,这使该公司负责任的人工智能战略受到质疑:

2020年,谷歌阻止其顶尖的人工智能伦理研究人员发表一份研究论文,该论文描述了GaI散布 辱骂性或歧视性语言的风险。1
2022年1月,该公司禁止另一位研究人员埃尔·姆哈姆迪博士发表批评GaI的论文。不久之后,El Mhamdi博士辞去了谷歌的职务,理由是 “研究审查”,并表示GaI的风险 “远远超过了” 其 的好处,而且 “过早部署”。2
2023年3月,两名负责审查公司人工智能产品的谷歌员工建议不要发布该公司的GaI 聊天机器人Bard,因为他们认为这可能会产生不准确和危险的陈述。3
2023 年 3 月,生命未来研究所发布了一封来自顶级人工智能专家的公开信,呼吁所有人工智能实验室立即暂停 对比 GPT-4 更强大的人工智能系统的培训至少 6 个月。这些签名者包括人工智能运动的 “开国元勋” 约书亚·本吉奥等人工智能专家,以及众多有关人工智能的书籍的作者伯克利教授斯图尔特·罗素。信中指出: “先进的人工智能可能代表地球生命史的深刻变化,应在相应的 护理和资源下进行规划和管理。”4
2023年4月,彭博社报道说,该公司急于与OpenAI竞争导致了 “道德失误”,并导致了员工在该技术发布前对Bard测试结果的令人不安的报道。现任和前任员工表示, 从事人工智能伦理工作的小组被剥夺了权力,士气低落,因为他们被告知不要妨碍 GaI 工具的开发。5
2023年5月,人工智能安全中心发布了一份由500多位知名学者和行业领袖签署的关于人工智能风险的声明, 包括OpenAI首席执行官山姆·奥特曼,该声明宣称 “减轻人工智能灭绝的风险应与流行病和核战争等其他社会规模风险一样,作为全球优先事项。”6人工智能安全中心主任丹·亨德里克斯(Dan Hendrycks)表示,人工智能构成 “系统性偏见、错误信息、恶意使用、网络攻击和武器化” 的紧迫风险。7

_____________________________

1 https://www.nytimes.com/2023/04/07/technology/ai-chatbots-google-microsoft.html

2同上。

3同上。

4 https://futureoflife.org/open-letter/pause-giant-ai-experiments/

5 https://www.bloomberg.com/news/features/2023-04-19/google-bard-ai-chatbot-raises-ethical-concerns-from-employees

6https://www.safe.ai/statement-on-ai-risk -公开信

7https://www.npr.org/2023/05/30/1178943163/ai-risk-extinction-chatgpt -: ~: text=ai%20experts%20issued%20a%20dire%

20Warning%20on%20on%20Tuesday%3A,取得 %20control%20over%20over%20over%20or%20or%20destroy%20the%20world。

赶上市场:2022年12月,Alphabet首席执行官桑达尔·平查伊和人工智能负责人杰夫·迪恩在一次全体员工 会议上承认,将一项毫无准备的技术推向市场会带来巨大的声誉风险。8然而,同月,谷歌宣布了 “红色代码”,指示员工将时间和资源 转移到人工智能项目上,并加快人工智能审查流程。9谷歌可能会感受到ChatGPT推出带来的压力,于2023年3月发布了 其人工智能聊天机器人 Bard,并将其称为 “生成式人工智能的早期实验”。10很明显 巴德还没有为上市做好准备,因为该公司在产品发布期间提供了与事实不准确的数据,这导致Alphabet的股票下跌了11% ,相当于1000亿美元的市值。11谷歌员工将巴德的发布称为 “匆忙”、“拙劣” 和 “不合时宜”。12差不多一年后,即2024年2月,谷歌 发布了其更新的大型语言模型(LLM)Gemini。用户发现双子座容易生成历史上不准确的图像 ,例如种族多元化的纳粹分子。桑达尔·平查伊承认了双子座模型中的这种偏见,称这 “完全 不可接受,我们错了。”13由于双子座的上市失败,Alphabet股票的市值损失了960亿美元。14

短期策略:尽管许多 专家敦促他们停下来考虑GaI的风险,但Alphabet似乎将短期利润置于长期成功之上。因此, 公司似乎在采取高风险策略,在没有充分了解或披露相关的 风险的情况下将新兴的GaI推向市场。Alphabet明确表示了创建人工智能护栏和负责任地构建产品的意图,首席执行官桑达尔·平查 表示:“但是,更重要的是竞相负责任地建设人工智能,并确保我们作为一个社会把它做好。”15 但是,如果战略不一致,良好的意愿是不够的。谷歌前员工、谷歌 道德人工智能团队创始人玛格丽特·米切尔最近表示,她认为公司优先考虑鲁莽的速度,而不是经过深思熟虑的战略。16 该提案要求建立问责机制,以确保Alphabet的GaI战略实际上是在优先考虑人工智能安全和责任的情况下实施的。

_____________________________

8 https://gizmodo.com/lamda-google-ai-chatgpt-openai-1849892728

9https://www.nytimes.com/2023/03/31/technology/google-pichai-ai.html

10https://ai.google/static/documents/google-about-bard.pdf

11https://www.npr.org/2023/02/09/1155650909/google-chatbot--error-bard-shares -: ~: text=shares%20for%20google%27s%20parent%20parent%20company%2c%20Alphabet%2c%20Alpabet%2c%20dropped% 209% 25%
produced%20a%20factual%20error%20in%20in%20its%20first%20demo。

12https://www.cnbc.com/2023/02/10/google-employees-slam-ceo-sundar-pichai-for-rushed-bard-announcement.html

13https://www.businessinsider.com/google-gemini-bias-sundar-pichai-memo-2024-2

14https://www.msn.com/en-us/news/technology/google-loses-96b-in-value-on-gemini-fallout-as-ceo-does-
damage-control/ar-bb1j4z21-: ~:text=google%20parent%20alparent%20alphabet%20has%20lost%20在举报%20用户%20之后,将近20% 2497% 200亿
%20its%20bias%20Against%20White%20People。

15https://www.ft.com/content/8be1a975-e5e0-417d-af51-78af17ef4b79

16https://time.com/6836153/ethical-ai-google-gemini-debacle/

2.Alphabet的GaI工具已经创造了虚假和误导性的信息。

Alphabet自己承认:“正如我们自己的研究和其他人的研究所强调的那样,人工智能有潜力 加剧现有的社会挑战——例如不公平的偏见——并随着它变得更加先进和 新用途的出现而构成新的挑战。”17谷歌已经认识到,必须 “明确、周到、肯定地应对这些挑战”。18即使是人工智能最坚定的支持者也继续 呼应对护栏和这些技术运作方式的透明度的需求。OpenAI首席执行官山姆·奥特曼曾表示,他 “特别担心这些模型可能被用于大规模的虚假信息。” 信息已指出,GaI 将 “生成可信错误信息的 成本降低了几个数量级”。19普林斯顿、弗吉尼亚理工大学和斯坦福大学的研究人员发现,包括谷歌在内的许多公司用来减轻风险的护栏 “并不像人工智能开发人员所认为的那样坚固。”20

作为 LLM、聊天机器人助手以及依赖它们的文本- 和图像生成工具的开发者,Alphabet 有责任预测这些专有的 GaI 工具将如何使用, 并减轻因其故障或被不良行为者滥用而可能造成的危害。这些 GaI 工具已经证明了它们在生成错误和虚假信息方面的敏感性 :

巴德将太阳系以外行星的第一张照片归因于詹姆斯·韦伯太空望远镜,而不是美国宇航局证实的欧洲 南方天文台的超大型望远镜(VLT)。这些错误信息包含在 Bard 的演示视频中, 突显了该技术在传播错误信息方面的漏洞。21
反数字仇恨中心发现,当研究人员提示巴德进行 “角色扮演” 时,对78%的话题进行了虚假叙述,但没有提供任何关于信息可能不正确的免责声明。这些话题从反疫苗 言论到反犹太主义不等。22
当被问及特定的医学问题时,巴德提供的信息不正确,并引用了不存在的医学研究报告。23
在几个例子中,巴德为诸如 “Pizzagate” 之类的令人震惊的阴谋辩护,他引用了出版物 中的捏造文章,例如 《纽约时报》《华盛顿邮报》.24
2024 年 2 月,谷歌的双子座制作了将纳粹描绘成有色人种的图片。25
在欧盟大选之前,研究人员用10种不同的语言向Gemini和其他人工智能聊天机器人询问了有关即将到来的 选举和投票过程的问题。双子座无法 “提供可靠可靠的答案”。26
Alphabet还有责任快速识别和删除在Youtube上传播的错误和虚假信息,无论是否由 人工智能生成。近几个月来,随着深度伪造或由AI 操纵的视频在Youtube上传播虚假信息的增加,这已成为越来越令人担忧的问题。包括史蒂夫·哈维和丹泽尔·华盛顿在内的几位黑人名人的深度伪造作品已在Youtube上流传 。27

_____________________________

17https://blog.google/technology/ai/google-responsible-ai-io-2023/

18https://ai.google/responsibility/responsible-ai-practices/

19 http://www.theinformation.com/articles/what-to-do-about-misinformation-in-the-upcoming-election-cycle

20https://www.nytimes.com/2023/10/19/technology/guardrails-artificial-intelligence-open-source.html

21https://www.engadget.com/google-bard-chatbot-false-information-twitter-ad-165533095.html

22https://finance.yahoo.com/news/prompts-google-bard-easily-jump-065417010.html

23https://www.ncbi.nlm.nih.gov/pmc/articles/PMC10492900/

24https://futurism.com/google-bard-conspiracy-theory-citations

25https://www.msn.com/en-us/news/other/is-chatgpt-safe-what-you-should-know-before-you-start-using-ai-chatbots/ar-AA1nPxlW

26https://www.msn.com/en-xl/news/other/most-popular-ai-chatbots-providing-unintentional-misinformation-to-users-ahead-of-eu-elections/ar-AA1nqjTW

27https://www.nbcnews.com/tech/misinformation/ai-deepfake-fake-news-youtube-black-celebrities-rcna133368

3.通过GaI生成和传播的错误信息和虚假信息给Alphabet和投资者都带来了风险。

法律风险:如果Alphabet不能妥善缓解通过其GaI工具生成和 传播的错误和虚假信息,Alphabet将面临重大的法律风险。许多法律专家认为,Alphabet可能对由自己的 技术生成的错误和虚假信息负责,因为它不太可能受到联邦法律第 230 条的保护,该条款保护社交媒体平台和 网络主机免于为发布到其网站的第三方内容承担法律责任。但是,使用谷歌自己的GaI工具,内容 是由该公司技术本身创建的,这使得Alphabet容易受到未来的法律审查。
民主风险:错误和虚假信息对社会、Alphabet和投资者都是危险的,因为它可以操纵公众的观点,削弱机构信任并影响选举。研究人员认为,“人工智能生成内容的盛行引发了人们对虚假信息传播以及对社交媒体平台和数字互动信任减弱的担忧。传播 误导性或被操纵的内容会进一步削弱公众对社交媒体上共享信息真实性的信任,从而削弱 这些平台和媒体来源的总体可信度。”28通过GaI产生和传播的 “真相” 的歪曲最终破坏了对我们民主进程的信任,这些进程是我们社会 和经济稳定的基础。这在 2024 年越来越令人担忧,这一年将举行大量选举,包括 美国、土耳其和乌克兰的总统选举。29
监管风险:Alphabet的人工智能监管格局仍在发展中,这本身就是一种风险。第一批主要的 指导方针是由新出台的欧盟人工智能法案制定的。Alphabet在这项新规定中面临一些严重的阻力。它要求 Alphabet 识别和标记 deepfake 和 AI 生成的内容,进行模型评估、风险评估和缓解措施,并报告 任何人工智能系统出现故障的事件。此外,当人工智能系统 造成伤害时,欧盟公民将能够向欧洲人工智能办公室报告。30

_____________________________

28https://www.techrepublic.com/article/generative-ai-impact-culture-society/

29https://en.wikipedia.org/wiki/List_of_elections_in_2024

30https://www.technologyreview.com/2024/03/19/1089919/the-ai-act-is-done-heres-what-will-and-wont-change/amp/?ref=everythinginmoderation.co

在美国,《安全可靠和可信赖的人工智能行政命令》仍然是一个自愿框架,但许多人预计欧盟采用的标准将在全球范围内得到更多采用。美国监管的最终 形式尚不清楚,但人们普遍支持强有力的监管。最近的 皮尤调查报告称,“在熟悉 ChatGPT 等聊天机器人的人中,有67% 表示,他们更担心 政府在监管其使用方面做得不够,而不是走得太远。”31

全经济风险:多元化股东也面临风险,因为他们将错误和虚假信息的社会成本内在化。 当公司危害社会和经济时,多元化投资组合的价值会随着国内生产总值的增长而上升和下降。32Alphabet减少错误和虚假信息,保护公司的长期财务健康以及 确保其投资者不会将这些成本内在化,符合股东的最大利益。新成立的值得信赖的人工智能促进中心 首席执行官加里·马库斯指出:“最大的短期风险 [生成式 AI]是故意使用大型语言 工具制造错误信息,以破坏民主和市场。”

4.该提案不仅要求制定负责任的人工智能政策和协议,还要求建立问责机制以确保 Alphabet 有效识别和缓解错误和虚假信息风险。

Alphabet在其反对声明中描述了其负责任的人工智能 方法和治理,以混淆满足本提案要求的必要性。但是,所要求的报告要求公司 不仅仅是描述负责任的人工智能原则和举措。我们要求对与GaI相关的风险 进行全面评估,以便公司能够有效地降低这些风险,并评估公司 应对已确定风险的有效性。由于GaI的风险严重且影响广泛,因此至关重要的是,Alphabet不仅要报告其信念 和对负责任的GaI的承诺,还要透明地向股东说明它已经完全识别了风险 并正在评估其应对风险的能力。

当前的报告未满足该提案的 请求。在谷歌的《2023年人工智能原则进展更新》中,该公司概述了其人工智能原则、治理和风险缓解 实践。33但是,如果没有提案要求的报告,Alphabet股东只能相信 公司正在有效实施这些原则和做法。鉴于公司迄今为止在防止GaI失误- 和虚假信息方面的表现不佳,该报告将向股东保证,公司正在积极识别和缓解与GaI相关的风险 。

_____________________________

31https://www.pewresearch.org/short-reads/2023/11/21/what-the-data-says-about-americans-views-of-artificial-intelligence/

32参见 普遍所有权:为什么环境外部因素对机构投资者很重要,附录 IV (演示了国内生产总值与多元化投资组合之间的线性关系)可在以下网址查阅
https://www.unepfi.org/fileadmin/documents/universal_ownership_full.pdf; cf。
https://www.advisorperspectives.com/dshort/updates/2020/11/05/market-cap-to-gdp-an-updated-look-at-the-
buffett-valuation-Indication-Indication-Indication-Indication (总市值占国内生产
估值在任何给定时刻都有效”) (引用沃伦·巴菲特的话)。

33 https://ai.google/static/documents/ai-principles-2023-progress-update.pdf

结论

出于上述所有原因,我们强烈敦促您支持 该提案。我们认为,一份关于与生成式人工智能相关的错误信息和虚假信息风险、补救措施和衡量措施的报告将 有助于确保 Alphabet 全面缓解风险,符合股东的长期最大利益。

如需了解更多 信息,请通过 juliac@arjuna-capital.com 与 Julia Cedarholm 联系。

真诚地,

娜塔莎·兰姆

阿周那资本

这不是请求授权您对代理人进行投票。请 不要将您的代理卡发送给我们。Arjuna Capital无法对您的代理进行投票,本次来文也未考虑此类事件。 支持者敦促股东按照管理层代理邮件中提供的指示,投票支持代理项目12。

所表达的观点是截至参考日期作者和Arjuna Capital 的观点,并可能随时根据市场或其他条件进行更改。这些观点无意成为 对未来事件的预测或对未来结果的保证。这些观点可能不能被用作投资建议。本材料中提供的信息 不应被视为买入或卖出上述任何证券的建议。不应假设 对此类证券的投资已经或将要盈利。这篇文章仅供参考,不应将 解释为研究报告。