AI模型"绘制不出白人",谷歌CEO:完全不可接受,已连夜改进
2月28日消息,谷歌首席执行官桑达尔·皮查伊(Sundar Pichai)周二晚间发布了关于公司“双子座(Gemini)”图像生成工具争议的内部备忘录,他表示这款AI应用在种族问题上的不当回应是不可接受的,并承诺将进行结构性改变以纠正此问题。谷歌在上周暂停了其“双子座”图像生成工具,原因是它生成了一些令人尴尬且具有攻击性的结果,比如在被要求创建维京人、纳粹和教皇的图像时,AI系统拒绝展示白人,可能生成女性或有色人种的图片。
“双子座”还在创建文本回应时产生了一些引发争议的回应,例如将埃隆·马斯克(Elon Musk)对社会的影响与阿道夫·希特勒(Adolf Hitler)相提并论,使争议进一步加剧。
这些评论引发了尖锐的批评,特别是来自保守派,他们谴责谷歌存在反白人偏见。
大多数提供类似“双子座”这种AI工具的公司都设有防护措施,旨在减少滥用并避免偏见,尤其是基于以往的经验教训。例如,OpenAI等公司的图像生成工具在生成的图像中,主要将白人描绘在专业职位上,而将黑人描绘在符合刻板印象的角色中,这受到了批评。
皮查伊表示:“我知道其中一些回应冒犯了我们的用户,并展现出了偏见——明确地说,这完全不可接受,我们在这方面犯了错。”
皮查伊还表示,公司已经在修正“双子座”的安全措施方面取得了进展。“我们的团队已经连夜工作,以解决这些问题。我们已经在广泛的提示请求上看到了实质性的改善。”
美国媒体人士认为,“双子座”争议事件的核心问题并非偏见,而是反映出谷歌在调整其人工智能模型时出现了技术性失误。问题并不在于底层模型本身,而在于模型之上设置的软件安全防护。这是每一个开发消费级AI产品的公司都面临的挑战——并不仅限于谷歌。
知情人士透露,谷歌内部并没有人故意设计“双子座”将教皇描绘成女性,或者将维京人描绘成黑人,也没有人试图在马斯克和希特勒之间找到道德等同性。这是一次旨在减少偏见的尝试,但结果却南辕北辙。
分析认为,尽管谷歌近年来动作有所放缓,但生成式人工智能的竞争迫使其加速了产品开发的步伐。“双子座”的错误是一个可以修复的技术问题,但由此引发的声誉问题可能不那么容易解决。
以下是皮查伊的内部备忘录:
我想对“双子座”应用(原名巴德)中出现的问题性文本和图像回答发表看法。我知道其中一些回应冒犯了我们的用户,并展现出了偏见——明确地说,这完全不可接受,我们在这方面犯了错。
我们的团队已经连夜工作,以解决这些问题。我们已经在广泛的提示请求上看到了实质性的改善。目前没有任何人工智能能做到完美,特别是在行业发展的早期阶段,但我们知道对我们的期望很高,我们将不遗余力地继续努力,无论需要多久。我们将对发生的情况进行回顾,并确保在广泛范围内纠正这一问题。
我们的使命是组织信息、使之普遍可获取且实用,这个使命至关重要。我们一直追求在我们的产品中为用户提供有用、准确、无偏见的信息。这是人们信赖我们产品的原因。这必须是我们所有产品的处理方式,包括我们即将推出的人工智能产品。
我们将采取一系列明确的措施,包括结构调整、更新产品指导原则、改进上市流程、加强评估与红队测试,以及提出技术建议。我们正在全面审查所有这些方面,并将进行必要的调整。
即便我们从这次的失误中吸取教训,我们也应该基于过去几周我们在人工智能领域做出的产品和技术公告继续前进。这包括我们在底层模型上取得的一些基础性进展,比如我们100万长文本的突破和我们的开放模型,这些都得到了积极的反响。
我们清楚创造出亿万用户和企业喜爱与广泛使用的卓越产品需要什么,并且借助我们的基础设施和研究专长,我们为人工智能的浪潮提供了强大的跳板。让我们集中精力做最重要的事情:开发出值得用户信赖的有益产品。
(易句)
(本文由AI翻译,网易编辑负责校对)
延伸阅读
苹果不造车了,余承东李想们该笑该哭?
十年长跑后,苹果内部宣布,基本放弃造车
外媒评苹果放弃造车:遗憾,但这就是现实,苹果更需要AI
页:
[1]