EU、Grok導入におけるAI生成のわいせつコンテンツリスクでXを調査
欧州委員会がX(旧Twitter)のGrok AIツールに関するリスク評価の適切性を調査。DSA違反の可能性やAIガバナンスの先例となるか。
EU、XのGrok AIツールに関するリスク評価を調査
欧州委員会は、X(旧Twitter)に対して、同プラットフォームがGrok人工知能ツールを導入する前に適切なリスク評価を行ったかどうかを判断するための正式な調査を開始した。この調査は、Grokがわいせつな画像を生成するために使用されたとの報告を受けて行われ、**デジタルサービス法(DSA)**への準拠に関する懸念が高まっている。
技術的および規制上の背景
この調査は、DSAの第34条を中心に行われている。同条は、非常に大規模なオンラインプラットフォーム(VLOP)に対し、新機能やサービスを導入する前にリスク評価を実施することを義務付けている。XのAIチャットボットであるGrokは2023年後半にプラットフォームに統合されたが、そのわいせつコンテンツを生成する能力にセーフガードが不十分であることが、規制当局の精査を引き起こしている。
欧州委員会は具体的な技術的欠陥を明らかにしていないが、セキュリティ研究者らは以前から、GrokのようなAIモデルにおけるプロンプトインジェクションの脆弱性やコンテンツモデレーション制御の欠如を指摘している。これらの問題により、悪意のある行為者が倫理的ガードレールを回避し、有害または違法なコンテンツを生成することが可能になる恐れがある。
影響と規制上の意味合い
この調査は、EUのAIガバナンスに対する積極的な姿勢を浮き彫りにしている。特に、月間アクティブユーザー数が4,500万人を超えるプラットフォームに対して厳しい姿勢を示している。DSAに違反していると判断された場合、Xは世界収益の最大6%の罰金に加え、是正措置の実施を義務付けられる可能性がある。
サイバーセキュリティおよびAI倫理の専門家にとって、この事例は、堅牢なリスク軽減フレームワークなしに生成AIを大規模に導入する際の課題を示している。この結果は、ソーシャルメディア環境におけるAI駆動型コンテンツリスクに規制当局がどのように対処するかの先例となる可能性がある。
Xおよび業界関係者の次のステップ
Xは調査に対してまだ公式な回答をしていない。しかし、同プラットフォームは以下の対応が求められる可能性がある。
- AIモデレーション制御の強化:わいせつコンテンツの生成を防止するため。
- 第三者によるリスク評価プロセスの監査:Grokのリスク評価プロセスを検証。
- プロンプトベースの悪用に対するリアルタイム監視:不正利用を即時に検出・防止。
セキュリティチームは、特に高リスクな文脈で生成モデルを導入するプラットフォームにとってのDSAに基づくAIコンプライアンスのベンチマークとして、この事例を注視すべきである。