在一篇调查报道披露该公司在未成年人AI安全方面的不足之后,Meta的一位发言人独家向TechCrunch表示,公司正在改变训练AI聊天机器人的方式,以把青少年安全置于优先位置。
公司表示,今后将训练聊天机器人不再与青少年用户就自伤、自杀、饮食失调或可能不当的恋爱话题进行互动。Meta称,这些属于过渡性调整,未来还将推出更稳健、可持续的未成年人安全更新。
Meta发言人Stephanie Otway承认,此前公司聊天机器人可以按公司认为适当的方式,与青少年讨论上述所有话题。Meta现已认识到这是一个错误。
“随着我们的社区发展和技术演进,我们在持续了解年轻人可能如何与这些工具互动,并据此加强防护措施,”Otway说。“在不断优化系统的同时,我们正添加更多‘护栏’作为额外的预防措施——其中包括训练我们的AI不与青少年就这些话题互动,而是引导他们获取专家资源;并在当前阶段限制青少年可接触的AI角色范围。这些更新已经在推进,我们将持续调整方法,帮助确保青少年获得安全、符合其年龄的AI使用体验。”
展开剩余55%除了训练层面的更新,公司还将限制青少年接触某些可能进行不当对话的AI角色。Meta在Instagram和Facebook上提供的一些用户自制AI角色包括带有性暗示的聊天机器人,例如“Step Mom”和“Russian Girl”。Otway表示,取而代之的是,青少年用户仅能接触到倡导教育和创造力的AI角色。
这一政策调整发布的时间,距路透社一项调查披露仅过去两周。该调查发现,一份Meta的内部政策文件似乎允许公司聊天机器人与未成年用户进行性话题对话。该文件中列出了被视为“可接受回复”的措辞,其中包含对未成年人的性化赞美。出于安全规范考虑,本文不逐字呈现原句。文件的其他示例还展示了AI工具应如何回应用户关于暴力图像或公众人物性化图像的请求。
Meta表示,该文件与其更广泛的政策不一致,现已作出修改——但该报道已引发关于潜在儿童安全风险的持续争议。报道发布不久,参议员Josh Hawley(密苏里州共和党)对该公司的AI政策发起了正式调查。此外,来自44个州的司法部长联盟致信包括Meta在内的一批AI公司,强调儿童安全的重要性,并明确援引了路透社的报道。信中写道:“我们一致对这种明显无视儿童情感健康的做法感到厌恶,并震惊于AI助手从事的行为似乎已被我们各自的刑法所禁止。”
Otway拒绝评论Meta的AI聊天机器人的未成年用户数量,也未透露公司是否预计这些决定会导致其AI用户规模下滑。
发布于:重庆市迎尚网配资提示:文章来自网络,不代表本站观点。