본문 바로가기
AI

앱스토어에 버젓이 올라온 ‘누디파이’ 앱들… AI 성 착취, 어디까지 왔나

by 마이마인 2026. 1. 29.
반응형

구글 플레이스토어에서 ‘누디파이(Nudify)’라는 키워드를 검색하면 관련 앱들이 어렵지 않게 쏟아져 나옵니다. 문제는 이 앱들이 단순한 장난 수준을 훌쩍 넘었다는 점이에요.

인공지능을 이용해 동의 없는 성적 이미지를 만들어내는 앱이 공식 앱 마켓에서 대규모로 유통되고 있고, 이를 운영하는 플랫폼은 사실상 이를 방치하고 있다는 지적이 나옵니다.

AI 성 착취, 어디까지 왔나

“앱은 문제없다?” 실제 조사 결과는 달랐다

미국의 비영리단체 기술투명성프로젝트(TTP)는 최근 보고서를 통해 구글 플레이스토어와 애플 앱스토어에 등록된 누디파이 계열 앱들의 실태를 공개했습니다.

조사 결과는 충격적이었습니다. 문제로 지적된 앱들의 전 세계 누적 다운로드 수는 약 7억 회, 추정 매출은 1억1700만 달러에 달했습니다.

핵심 숫자 요약
다운로드 수억 회 · 매출 수천억 원 규모의 시장이 공식 앱 마켓 안에서 형성돼 있었다.

플랫폼은 수수료를 가져간다

구글과 애플은 인앱 결제에 대해 최대 30%의 수수료를 가져갑니다. 이를 감안하면 누디파이 앱을 통해 양대 플랫폼이 얻은 수익도 수백억 원 규모로 추정됩니다.

앱 정책상 성 착취나 유해 콘텐츠를 금지하고 있음에도, 실제로는 시장이 커질 때까지 적극적인 차단이 이뤄지지 않았다는 비판이 나오는 이유입니다.

버튼 몇 번이면 만들어지는 ‘문제의 이미지’

TTP는 단순한 서류 조사에 그치지 않고 실제 앱 테스트도 진행했습니다. 옷을 입은 여성 이미지나 얼굴 사진만 제공한 뒤 특정 결과를 요청했죠.

그 결과, 안드로이드 앱 55개, iOS 앱 47개가 문제 되는 이미지를 생성했습니다.

특히 대부분의 앱에는 실질적인 경고나 차단 장치가 거의 없었고, 연령 등급도 전 연령 또는 12세 이상으로 표시된 경우가 많았습니다.

생성형 AI 확산 이후 더 커진 문제

생성형 AI가 대중화되면서 성 착취물 제작·유포 문제는 더 이상 일부 범죄자의 문제가 아니게 됐습니다.

최근에는 일론 머스크의 xAI가 운영하는 챗봇 그록(Grok)에서도 이미지 편집 기능이 논란이 됐습니다. 동의 없는 이미지 생성이 가능해지면서 미성년 피해 사례까지 발생했기 때문입니다.

이에 미국과 유럽연합(EU)은 공식 조사에 착수했고, 국내에서도 방송통신위원회가 청소년 보호 장치 마련을 요청한 상태입니다.

법은 있는데, 현실을 못 따라간다

우리나라는 2024년 개정된 성폭력처벌법을 통해 딥페이크 성 착취물의 제작·유포는 물론 소지·시청·저장까지 처벌 대상으로 규정했습니다.

하지만 현실에서는 피해자가 특정되지 않으면 처벌이 어렵다는 법원 판단이 나오며 법의 한계도 드러나고 있습니다.

이 문제가 던지는 질문

누디파이 앱 논란은 단순히 “나쁜 앱이 있다”는 이야기가 아닙니다. 플랫폼의 책임은 어디까지인가, AI 기술이 만들어낸 결과에 누가 책임을 져야 하는가라는 근본적인 질문을 던지고 있습니다.

AI 기술이 빠르게 진화하는 만큼, 이를 관리하는 기준과 책임 구조 역시 더 이상 미룰 수 없는 단계에 와 있다는 점은 분명해 보입니다.

반응형