图片源于:https://www.theguardian.com/us-news/2025/feb/12/google-all-staff-meeting-ai-dei?utm_source=newsshowcase&utm_medium=gnews&utm_campaign=CDAQo5e9vYewsLusARjk6Jmw6o33yawBKhAIACoHCAowwo6qCzDCmcID&utm_content=rundown
谷歌高管在周三的全体员工会议上详细说明了该科技巨头将如何逐步取消其多样性倡议,并为放弃对不开发武器和监控用人工智能的承诺辩护。
谷歌前多样性负责人梅洛妮·帕克表示,公司将取消员工的多样性和包容性培训项目,并”更新”更广泛的培训项目,其中包含”DEI内容”。
这是公司高管首次针对谷歌宣布不再遵循多样性招聘目标的消息,以及取消不开发军事化人工智能的承诺而对全体员工进行的回应。
谷歌首席法律官肯特·沃克表示,自谷歌在2018年首次推出人工智能原则后,许多事情已发生变化,这些原则明确表示谷歌不会为有害目的开发人工智能。
他在面对关于公司为何移除禁止开发武器和监控人工智能的提问时表示,参与不断演变的地缘政治讨论”对社会是有益的”。
帕克表示,作为联邦承包商,公司一直在根据唐纳德·特朗普的行政命令审查其所有项目和倡议,该命令指示联邦机构和承包商拆除DEI工作。
她的角色也从首席多样性官改为谷歌员工参与副总裁。
“不变的是,我们一直都在为工作招聘最佳人选,”她说,根据《卫报》审查的会议录音。
谷歌首席执行官桑达尔·皮查伊表示,公司一直”非常关心”招募能代表其全球用户多样性的员工,但公司必须遵守运营所在地的法律法规。
“我们的价值观是持久的,但我们必须根据法律指示的变化进行合规,”皮查伊说。
皮查伊从巴黎参加国际人工智能峰会发言,和其他高管回应了员工在内部论坛上提出的问题。
这些问题是由工人 activist 团体,如“反科技种族隔离”组组织的,目的是迫使公司高管回应该科技巨头显著偏离其先前核心价值观的举动。
员工提交了93个关于公司决定取消其不开发人工智能武器承诺的问题,还有100多个关于谷歌宣布放宽DEI承诺的问题,据《卫报》审查的屏幕截图显示。
最近,公司转向使用人工智能来总结员工在定期安排的员工会议(称为TGIF)之前提出的类似问题。
上周,谷歌与Meta和亚马逊一起,转变了对包容文化的重视,偏向于以特朗普政府的形象为基础的政策。
除了在与美国证券交易委员会的文件中取消对多样性、公平和包容性的承诺外,该公司表示不再为来自缺乏代表性背景的人设定招聘目标。
公司还删除了其公开发布的人工智能原则中关于不为有害目的(包括武器和监控)开发人工智能的内容。
“我们被越来越多地要求在一些重要的对话中占有一席之地,我认为谷歌在这些对话中扮演角色对社会是有益的,在那些我们专业的领域内——网络安全、生物学等更多内容,”沃克,首席法律官说道。
“虽然之前版本的人工智能原则中一些严格的禁令可能与我们现在正在进行的更为微妙的对话不太相符,但我们一直的北极星原则是其益处显著大于风险。”
长久以来,谷歌试图在其声明的公司文化价值观与追求政府和国防合同之间保持平衡。
在2018年员工抗议后,公司退出了美国国防部的“项目梅文”(Project Maven),该项目使用人工智能分析无人机录像,并发布其人工智能原则和价值观,承诺不为武器或监控开发人工智能。
然而,自那时以来,该公司开始重新与五角大楼合作,获得了与微软、亚马逊和甲骨文共同实现的90亿美元联合战争云能力合同。
谷歌还与以色列国防军的积极合同为其提供人工智能服务。
该科技巨头在过去一段时间内努力使名为“项目尼布斯”的合同与以色列政府的军方脱离关系,但《华盛顿邮报》披露的文件显示,公司不仅与以色列国防军合作,还在10月7日袭击后急于满足对更多人工智能访问的新请求。
不清楚以色列国防军如何利用谷歌的人工智能能力,但正如《卫报》报道,以色列军方已使用人工智能进行多项军事用途,包括帮助寻找和识别轰炸目标。
谷歌发言人安娜·科瓦尔奇克在一份声明中表示,该公司与以色列政府的工作并未”针对与武器或情报服务相关的高度敏感、机密或军事工作”。
组织者们在“反科技种族隔离”组织表示,DEI和人工智能的公告紧密相关。
“人力资源高级副总裁菲奥娜·西科尼在内部沟通中表示,拆除DEI项目的举动是为了保护政府合同免受‘风险’,”该组织在周二发布的工人行动号召中写道。
“需要注意的是,政府在技术服务上的开支大部分是通过军事部门进行的。”
对于员工提出的每个类别的问题,谷歌的内部人工智能会将所有查询总结为一个单一的查询。
人工智能将关于人工智能武器开发的问题提炼为:”我们最近从我们的人工智能原则页面中删除了一段承诺,避免将该技术用于潜在有害应用(如武器和监控)。我们为什么要删除这段内容?”
虽然公司没有将所有提交的问题全部公开,但这些列表提供了一些问题的快照。
员工们提出的包括那些新的人工智能原则如何确保公司工具“不会被滥用于有害目的”的问题,并要求高管们“请坦诚地发表,而不是使用公司说辞和法律语言”。
员工们提问的第三个热门问题是为什么人工智能总结这么糟糕。
“人工智能对提问的总结太糟糕了。我们可以退回到回答人们实际提出的问题的方式吗?”