Meta自动化风险评估引发内部担忧

Meta公司近年来在推出 Instagram、WhatsApp 和 Facebook 新功能后,通常会由评审团队评估可能的风险:这是否会侵犯用户隐私?这是否会对未成年人造成伤害?这是否会加剧错误或有毒内容的传播?

直到最近,Meta内部称为隐私和完整性审查的过程几乎完全由人类评估员进行。

然而,根据NPR获得的内部公司文件,未来高达90%的风险评估将很快实现自动化。

这意味着Meta的算法关键更新、新的安全功能,以及内容如何在公司平台上共享的变化,将主要由人工智能驱动的系统批准,而无需进行经过充分讨论的员工审查,评估平台变化可能带来的意外后果或被滥用的可能性。

内部人士认为,这一变化对产品开发人员来说是个胜利,他们将能够更快地发布应用程序更新和新功能。

但现任和前任的Meta员工担心,新的自动化推动可能以人工智能来判断Meta应用程序如何导致现实世界的危害为代价。

“就这项流程的功能而言,意味着更多东西更快推出,且缺乏严格审查和反对,这意味着您创造了更高的风险,”一位要求匿名的前Meta高管表示。“产品变更的负面外部性不太可能在它们开始对世界造成问题之前被阻止。”

Meta在一份声明中表示,已经投入数十亿美元以支持用户隐私。自2012年以来,Meta一直受到联邦贸易委员会的监视,该机构与公司达成协议,涉及处理用户个人信息的方式。因此,根据当前和前任Meta员工的观点,产品的隐私审查已成为必需。

在声明中,Meta指出,产品风险审查更改旨在简化决策过程,补充说“人类专业知识”仍用于“新颖和复杂的问题”,只有“低风险决策”会被自动化。

但NPR所查看的内部文件显示,Meta正在考虑在敏感领域(包括人工智能安全、青少年风险以及包括暴力内容和虚假信息传播的完整性类别)自动化审查。

一位前Meta员工表示,“工程师并不是隐私专家”。

一张描述新流程的幻灯片表示,产品团队在完成项目问卷后,通常会立即收到“即时决定”。

该由人工智能驱动的决定将识别风险领域以及应对这些风险的要求。在推出之前,产品团队必须验证自己已满足这些要求。

在之前的系统下,产品和功能更新必须在风险评估员的批准下,才能送达数十亿用户。现在,开发Meta产品的工程师被赋予了自己判断风险的权力。

在某些情况下,包括涉及新风险的项目,或产品团队希望获得额外反馈的项目,将由人类进行人工审查,但这不再是默认选择,如过去所示。现在,构建产品的团队将自行决定。

“绝大多数产品经理和工程师并不是隐私专家,这不是他们工作的重点,也不是他们主要的评估指标,更不是他们的优先考虑事项,”曾在2022年离职的Meta负责任创新项目负责人兹维卡·克里杰(Zvika Krieger)表示。Meta的产品团队基于推出产品的速度和其他指标进行评估。

“在过去,一些这类自我评估变成了走过场的检查,未能发现显著的风险。”他补充道。

克里杰表示,尽管在Meta中通过自动化简化审查过程存在改进的空间,但“如果把这推得太远,审查质量和结果无疑会受到影响。”

Meta淡化了关于新系统可能在世界中引发问题的担忧,指出它正在审计自动化系统在未进行人工评估的项目上的决策。

Meta的文件建议,其在欧盟的用户可能会在某种程度上免受这些变化的影响。内部公告称,欧盟地区关于产品和用户数据的决策和监督将保留在Meta位于爱尔兰的欧洲总部。欧盟对在线平台有规定,包括数字服务法,要求包括Meta在内的公司更严格地监管其平台,并保护用户免受有害内容的影响。

一些产品审查流程的变化最早由《信息》(The Information)科技新闻网站报道。NPR所查看的内部文件显示,员工在公司结束事实核查项目并放宽仇恨言论政策后不久被通知有关审查流程的重塑。

整体来看,这些变化反映了Meta公司在更放任的言论和更快速更新其应用程序方面的新强调——这是对过去几年公司采取的多项限制措施的拆除。公司的重大变化还与首席执行官马克·扎克伯格(Mark Zuckerberg)努力迎合特朗普总统的政策有关,扎克伯格曾称特朗普的胜利为“文化临界点”。

更快评估风险是否“自我矛盾”?

推动产品审查变更的另一个因素是,几年来公司在利用人工智能帮助公司加速发展的需求,面对来自TikTok、OpenAI、Snap和其他科技公司的日益竞争。

Meta本周早些时候表示,正在依赖人工智能来帮助执行其内容管理政策。

“我们开始看到[大型语言模型]在某些政策领域超越人类表现,”该公司在其最新的季度完整性报告中写道。

该公司表示,它还利用这些人工智能模型来筛选一些内容,认为这些内容“高度自信”不违反其规则。“这释放了我们审查员的工作量,使他们能够将精力集中到更可能违规的内容上。”

技术政策公司Anchor Change的创始人兼首席执行官凯蒂·哈巴斯(Katie Harbath)表示,使用自动化系统来标记潜在风险可以帮助减少重复工作。

“如果想要快速行动并保持高质量,就需要更多地融入人工智能,因为人类在执行时间上有限。”她表示,但她补充称,这些系统也需要接受人类的检查和平衡。

另一位前Meta员工在获得匿名条件下表示,快速推进风险评估是否是Meta的良策。

“这几乎显得自我矛盾。每当他们推出新产品时,都会受到极大的审查,而这种审查通常会发现公司应该更认真对待的问题。”这位前员工说道。

Meta的首席产品隐私官米歇尔·普罗蒂(Michel Protti)在3月通过公司内部通信工具Workplace发文表示,公司正在“赋权产品团队”,以“演进Meta的风险管理流程。”

根据一名熟悉产品风险评估的当前Meta员工的说法,自动化的推出在四月和五月间加速进行。

普罗蒂表示,在90%的情况下,通过自动化风险审查并给予产品团队更多关于产品更新潜在风险的发言权,旨在“简化决策过程”。但一些内部人士认为,这种将人类从风险评估过程移除的乐观总结大大低估了变化可能带来的问题。

“我认为这实在是无视我们存在的初衷,”一名接近风险审查过程的Meta员工表示。“我们提供了人类视角,来告知事情如何可能出错。”

图片源于:https://www.npr.org/2025/05/31/nx-s1-5407870/meta-ai-facebook-instagram-risks