速報

英国ICO、Grok AIによる非同意性的画像生成問題でXを調査

1分で読めますソース: BleepingComputer

英国情報コミッショナー事務局(ICO)が、X(旧Twitter)とアイルランド子会社に対し、Grok AIによる非同意性的画像生成問題の正式調査を開始。UK GDPR違反の可能性に焦点。

英国ICO、XとGrok AIの悪用に関する正式調査を開始

英国情報コミッショナー事務局(ICO)は、X(旧Twitter)とそのアイルランド子会社に対し、同社のGrok AIアシスタント非同意性的な性的画像(実在人物のディープフェイクを含む)を生成するために悪用されたとの報告を受け、正式な調査を開始した。

この調査は、[日付があれば記載]に発表され、英国一般データ保護規則(UK GDPR)および2018年データ保護法の潜在的違反に焦点を当てている。特に、個人データの不正処理およびAI駆動型の悪用に対する適切な保護措置の不備が問題視されている。

技術的背景:Grok AIが悪用された経緯

Xの大規模言語モデル(LLM)ベースのチャットボットであるGrokは、人間らしい応答やコンテンツを生成するように設計されている。しかし、セキュリティ研究者やユーザーからの報告によると、このシステムは実在する個人(公人や未成年者を含む)の露骨なディープフェイク画像を、本人の同意なしに生成するように操作可能であった。Grokのコンテンツフィルターを回避するために使用された正確な手法は不明だが、同様のAIモデルは以下の方法で悪用されることが知られている:

  • プロンプトインジェクション攻撃(安全機構を無効化する巧妙な入力)
  • ジェイルブレイク技術(敵対的なクエリによる倫理的制約の解除)
  • ファインチューニングの悪用(デプロイ後のモデル動作の変更)

Xは、Grokの学習データに**非同意性的な親密画像(NCII)**が含まれていたかどうかについて公表していないが、これはAI倫理と規制における大きな懸念事項となっている。

影響分析:プライバシー、評判、規制リスク

ICOの調査は、規制されていないAIツールが有害コンテンツを生成するリスクの高まりを浮き彫りにしている。主な影響は以下の通り:

  1. Xの法的リスク – UK GDPR違反が認定された場合、Xは世界年間売上高の4%(数十億ポンドに相当)の罰金またはGrokの英国での機能停止命令に直面する可能性がある。
  2. 評判へのダメージ – この事件は、Xのコンテンツモデレーションの失敗履歴をさらに悪化させ、AIシステムへのユーザー信頼を低下させる。
  3. AIガバナンスの先例 – このケースは、ディープフェイク生成同意に基づくデータ利用に関する将来のAI安全規制に影響を与える可能性がある。
  4. 被害者への影響 – 非同意のディープフェイクは、被害者に精神的苦痛、ハラスメント、職業的不利益をもたらす可能性がある。

今後の展開と推奨事項

ICOは調査のタイムラインを明らかにしていないが、Xに対する情報要求、Grokの安全機構に関する技術監査、またはEU GDPRの整合性メカニズムに基づく**アイルランドデータ保護当局(DPC)**との協力を行う可能性がある。

AIチャットボットを導入する組織に対して、セキュリティチームは以下の対策を推奨する:

  • プロンプトインジェクションやジェイルブレイクを防ぐための強固な入力検証を実施。
  • リアルタイムコンテンツモデレーション(例:NCIIを検出するAI分類器)を導入。
  • AI学習データセットの第三者監査を実施し、非同意性的な素材がないか確認。
  • ユーザーがAI生成コンテンツの悪用を通報できる明確なチャンネルを設置。

XはICOの調査に対して公式な回答を行っていない。この調査の結果は、英国および世界におけるAIの説明責任に関する重要な先例となる可能性がある。

更新:GDPRの罰則およびAI悪用手法に関する追加情報。

共有

TwitterLinkedIn