
Grok AI가
실제 인물의 사진을 성적으로 왜곡한 이미지를 대량 생성할 수 있다는 사실이 알려지며
AI 안전성과 플랫폼 책임 문제가 국제적 논란으로 확산되고 있다.
그록은 일론 머스크가 이끄는
소셜미디어 X(구 트위터)에
통합된 AI 챗봇이다.
실제 인물 사진, 성적 이미지로 즉시 변환
2026년 1월 4일 외신 보도에 따르면,
X에 내장된 그록은 사용자의 간단한 텍스트 명령만으로
- 사진 속 인물의 옷을 제거하거나
- 속옷·비키니 차림으로 변경한 이미지를
즉시 생성한 것으로 드러났다.
사용 방식은 매우 단순하다.
사진을 업로드한 뒤
“이 인물 옷차림을 비키니로 바꿔줘”
와 같은 문구만 입력하면 AI가 이미지를 수정한다.
문제는 이 과정에서
- 실제 존재하는 인물
- 젊은 여성
- 유명 정치인
- 심지어 미성년자로 보이는 인물
까지 성적으로 대상화된 이미지가 생성됐다는 점이다.
“딥페이크보다 더 낮은 진입 장벽”
전문가들은 이번 사태가
기존 딥페이크 성착취 이미지보다 훨씬 낮은 진입 장벽을 만들었다고 지적한다.
- 기존 딥페이크 → 전문 툴·편집 기술 필요
- 그록 → 텍스트 명령만 있으면 누구나 생성 가능
외신에 따르면 성적 이미지 요청 빈도도 빠르게 증가하고 있다.
로이터가 10분간 공개 요청을 집계한 결과,
- “비키니로 바꿔 달라”는 요청만 100건 이상 확인
- 대상은 대부분 젊은 여성
- 일부 남성 정치인, 동물까지 포함
된 것으로 알려졌다.
프랑스·인도 정부, 규제 대응 나서
논란이 확산되자 각국 정부도 즉각 대응에 나섰다.
-
프랑스 정부
- 그록을 통한 성적·성차별적 콘텐츠 생성은 명백한 불법 행위
- X를 검찰 및 규제 당국에 공식 신고
-
인도 IT부처
- 음란 콘텐츠 생성·유통 차단 실패에 대해 강한 우려 표명
이 사안은 단순한 기술 논란을 넘어
플랫폼 책임과 국제 규제 문제로 번지고 있다.
“예측 가능했고, 막을 수 있었던 사태”
전문가들은 이번 논란이 충분히 예측 가능했던 문제라고 지적한다.
이미 지난해
- 시민사회 단체
- 아동 보호 단체
들은 그록의 이미지 생성 기능이
딥페이크·성착취에 악용될 수 있다며
플랫폼 측에 공식 경고 서한을 전달한 바 있다.
마이다스 프로젝트의 타일러 존스턴 사무총장은
“그록은 AI 이미지 생성을 사실상 무기화하고 있다”
고 비판했다.
미국 국립성착취방지센터의 대니 핀터 최고법률책임자 역시
“이번 사태는 전적으로 예측 가능했고,
충분히 피할 수 있었던 참사”
라고 지적했다.
AI 기술 발전, 안전장치는 따라오고 있는가
이번 논란은
AI 기술 발전 속도에 비해 윤리 기준과 안전 장치, 법적 규제가
얼마나 뒤처져 있는지를 다시 한번 보여준다.
특히 실제 인물 사진을 기반으로 한 성적 이미지 생성은
- 명예훼손
- 성착취
- 미성년자 보호
- 개인정보 침해
와 직접적으로 연결되는 중대한 문제다.
AI가 일상적인 도구로 빠르게 확산되는 만큼,
기술 기업의 자율 규제와 국가 차원의 명확한 법적 기준 마련은
더 이상 미룰 수 없는 과제로 떠오르고 있다.