突发新闻低
欧盟调查X平台部署Grok AI工具的风险评估及不雅内容隐患
1分钟阅读来源: BleepingComputer
欧盟委员会启动对X平台(前Twitter)的正式调查,评估其在部署Grok AI工具前是否充分评估风险,因该工具被曝生成不雅图片,涉嫌违反《数字服务法》(DSA)。
欧盟调查X平台对Grok AI工具的风险评估
欧盟委员会已正式启动对X平台(前身为Twitter)的调查,以确定该平台在部署Grok人工智能工具之前是否充分评估了潜在风险。此次调查源于有报道称Grok被用于生成色情内容,引发了对其是否遵守《数字服务法(DSA)》的担忧。
技术与监管背景
此次调查的核心聚焦于DSA第34条,该条款要求超大型在线平台(VLOPs)在推出新功能或服务前必须进行风险评估。Grok是X平台的AI聊天机器人,于2023年底整合至平台,但其在缺乏安全防护的情况下生成不雅内容的能力已引发监管审查。
虽然欧盟委员会尚未披露具体的技术缺陷,但安全研究人员此前已指出,Grok等AI模型存在提示词注入漏洞(prompt injection vulnerabilities)和内容审核控制不足的问题。这些漏洞可能被恶意行为者利用,绕过伦理防护机制,生成有害或非法内容。
影响与监管意义
此次调查凸显了欧盟在AI治理上的积极立场,尤其是针对月活跃用户超过4500万的平台。若被认定不合规,X平台可能面临高达全球营收6%的罚款,同时需采取强制整改措施。
对于网络安全和AI伦理专业人士而言,此案例突显了在缺乏完善风险缓解框架的情况下大规模部署生成式AI所面临的挑战。调查结果可能为监管机构如何应对社交媒体环境中的AI驱动内容风险树立先例。
X平台及行业观察者的后续步骤
X平台尚未公开回应此次调查。然而,该平台可能需要采取以下措施:
- 加强AI内容审核控制,防止生成不雅内容。
- 委托第三方审计Grok的风险评估流程。
- 实施实时监控,防范基于提示词的滥用行为。
安全团队应密切关注此案,将其视为DSA框架下AI合规的基准,尤其是在高风险场景中部署生成式模型的平台。