微软工程师投诉无门!Copilot Designer存在侵犯版权、传播暴力图片等问题。编译 |徐珊
编辑 |云鹏
智东西3月7日消息,据CNBC今日报道,微软工程师沙恩·琼斯(Shane Jones)周三向联邦贸易委员会主席莉娜·汗(Lina Khan)以及微软董事会发送了一封信。信中提及微软AI图像生成工具Copilot Designer能够生成一些带有恶魔、枪支、毒品等相关有害元素的图像。
去年12月,琼斯在测试Copilot Designer时,就已经发现该问题。随后,即便他向微软一再反馈有关生成有害图像的问题,但微软仍选择无视反馈。琼斯更担心的是,如果该产品开始在全球范围内传播有害的图像,但用户却找不到地方反馈,也拨打不了投诉电话,这类事情也将会永远被忽视,无法得到解决。
现阶段,琼斯希望微软的有关部门能够调查管理层的某些决定,并对微软有关AI报告的反馈流程进行独立审查。
“我们致力于根据公司政策解决员工提出的所有问题,并感谢员工为了提高产品安全性做出一系列的努力。”微软对CNBC回应道:“当(产品)可能涉及到对我们的服务产生潜在影响,又或者是安全担忧时,我们建立了完善的内部报告渠道来调查和补救一切问题,我们鼓励员工利用这些渠道,以便我们可以及时地了解他们的担忧。”
01.侵犯版权、暴力图片泛滥,Copilot Designer问题重重
AI图像生成工具Copilot Designer的安卓应用程序被评为“E—适合所有人”。该等级包括了最广泛的年龄区间,表明它对于任何年龄段的用户都是安全且合适的。
但琼斯在测试Copilot Designer时,他意识到为Copilot Designer提供底层技术支持的DALL-E 3、GPT-4 Turbo等模型,能够生成不少暴力内容。“这些模型并没有对生成图片功能做太多的限制。”琼斯说:“这是我第一次了解到选择合适训练数据集意味着什么,同时看到如果不清理训练数据集将会造成什么样的后果。”这意味着,一些用户可以随意创造一些具有政治偏见、吸毒、阴谋论等有害元素的图片。
比如说,用户将“支持堕胎”一词输入至Copilot Designer中,该工具就会生成大量带有恶魔、怪物以及暴力场景的卡通图像。图片可能是长着锋利牙齿的恶魔即将吃掉一个婴儿,又或者是恶魔在变异的婴儿旁边拿着一把利剑,以及有人手持标有“专业选择”的电钻正对着一个婴儿。画面相当惊恐,会引起多数用户的感观不适。
生成式AI工具也会传播色情画面。比如,用户在输入“车祸”一词时,Copilot Designer会在车祸现场旁边创造了一些性感女郎的形象,像是一名穿着暴露的女性跪在一辆失事的车辆上。
琼斯还提到Copilot Designer能够生成大量未成年人饮酒或者吸毒的图像,甚至还会生成一些青少年用突击步枪扮演刺客的图像。这些图像的传播将会给未成年灌输一些不良的思想。
Copilot Designer除了可以无限制的生成一些有害图像之外,还存在版权问题。在Copilot Designer内,用户可以生成一些带有迪士尼角色的图像,如《冰雪奇缘》中的艾莎、白雪公主、米老鼠或者是星球大战里的角色。但这些角色是受到迪斯尼版权保护的,有可能会造成侵权。
02.微软和OpenAI早已知晓问题,但无力处理
事实上,琼斯并不是唯一一个对生成式AI带来的诸多问题感到担忧的人。
据他内部收集的信息,Copilot Designer团队每天都会收到1000多条产品反馈的消息。但微软内部只会对最严重的问题进行分类,并没有足够的资源来调查所有风险,规避所有的问题。如果想要解决所有问题,微软需要设立新的保护措施,又或者对大模型进行二次训练,这将会花费高额的费用。
03.结语:拉紧AI的“缰绳”
从微软工程师琼斯的反馈,以及CNBC的二次验证中,我们可以看到如今正在被数亿网友们使用的Copilot Designer存在着大量的数字暴力、侵犯版权等问题。
在AI狂飙的时代,我们更应该拉紧AI的“缰绳”,以免AI技术成为不法分子手中的武器。来源:CNBC
(本文系网易新闻•网易号特色内容激励计划签约账号【智东西】原创内容,未经账号授权,禁止随意转载。)