속보낮음

EU, X의 Grok AI 도구 배포에 따른 AI 생성 음란물 위험 조사 착수

2분 읽기출처: BleepingComputer

유럽연합, X의 Grok AI 챗봇 배포 전 위험 평가 적절성 조사. DSA 준수 여부 및 AI 생성 음란물 규제 강화 방안 모색.

EU, X의 Grok AI 도구 위험 평가 조사 착수

유럽위원회는 X(구 트위터)가 자사 AI 도구 Grok을 배포하기 전에 적절한 위험 평가를 수행했는지 여부를 확인하기 위해 공식 조사를 개시했다. 이번 조사는 Grok이 성적으로 노골적인 이미지를 생성하는 데 사용되었다는 보도 이후 이루어졌으며, 이는 디지털 서비스 법(DSA) 준수에 대한 우려를 제기하고 있다.

기술 및 규제 맥락

이번 조사는 DSA 제34조를 중심으로 진행되며, 매우 큰 온라인 플랫폼(VLOP)은 새로운 기능이나 서비스를 도입하기 전에 위험 평가를 의무적으로 수행해야 한다. X의 AI 챗봇인 Grok은 2023년 말 플랫폼에 통합되었으나, 안전장치 없이 음란물을 생성할 수 있는 기능으로 인해 규제 당국의 감시를 받고 있다.

유럽위원회는 구체적인 기술적 결함을 공개하지 않았지만, 보안 연구원들은 Grok과 같은 AI 모델에서 프롬프트 인젝션 취약점콘텐츠 Moderation 제어 부족 문제를 이전에 지적한 바 있다. 이러한 문제는 악의적인 행위자가 윤리적 보호 장치를 우회하여 유해하거나 불법적인 콘텐츠를 생성할 수 있게 한다.

영향 및 규제 시사점

이번 조사는 월간 활성 사용자 4,500만 명 이상을 보유한 플랫폼에 대한 EU의 AI 거버넌스 선제적 입장을 강조한다. 만약 DSA를 준수하지 않은 것으로 판명될 경우, X는 **전 세계 매출의 최대 6%**에 달하는 벌금과 함께 시정 조치를 이행해야 할 수 있다.

사이버 보안 및 AI 윤리 전문가들에게 이 사건은 견고한 위험 완화 프레임워크 없이 생성형 AI를 대규모로 배포할 때의 도전 과제를 보여준다. 이번 결과는 소셜 미디어 환경에서 AI 기반 콘텐츠 위험을 규제 당국이 어떻게 다루는지에 대한 선례가 될 수 있다.

X와 업계 관계자를 위한 다음 단계

X는 아직 공식적으로 조사에 응답하지 않았다. 그러나 플랫폼은 다음 조치를 취해야 할 수 있다:

  • AI Moderation 제어 강화 – 음란물 생성 방지
  • Grok의 위험 평가 프로세스에 대한 제3자 감사 실시
  • 프롬프트 기반 악용에 대한 실시간 모니터링 구현

보안 팀은 고위험 맥락에서 생성형 모델을 배포하는 플랫폼의 DSA 하에서의 AI 컴플라이언스 벤치마크로 이 사건을 주시해야 한다.

공유

TwitterLinkedIn