본문 바로가기
핫이슈

기자·아나운서 얼굴로 재테크 영상… AI 딥페이크 범죄 확산

by 마이마인 2026. 2. 13.
반응형

분명 TV에서 보던 기자와 아나운서인데, 알고 보니 본인은 출연한 적도 없는 유튜브 영상이었다. 얼굴과 목소리는 그대로인데, 내용은 전혀 다른 ‘재테크 홍보 영상’이었다.

딥페이크 기술이 발전하면서 이제는 언론인을 사칭한 AI 영상 범죄까지 일상 속으로 들어오고 있다.

◆ 어떤 일이 벌어졌나
  • ● 방송 영상 기반으로 제작된 것으로 보이는 딥페이크 콘텐츠 확산
  • ▶ 언론인 얼굴·음성 무단 활용해 재테크 정보 전달
  • ▪ 언론사 “출연 사실 전혀 없다” 공식 입장
  • ▶ 초상권 침해·허위 정보 유포 우려 커져
AI 딥페이크 범죄 확산
◆ 실제 사례는?

서울경제TV 아나운서의 방송 장면과 동일한 의상·헤어스타일을 한 영상이 특정 유튜브 채널에 게시됐다. 회사 측은 해당 채널을 운영한 사실이 없으며, AI를 활용한 합성 영상으로 추정된다고 밝혔다.

지난달에는 뉴스타파 기자를 사칭한 채널이 등장해 마치 기자가 직접 재테크 정보를 제공하는 것처럼 허위 영상을 게시하기도 했다. 뉴스타파 측은 이를 온라인 사칭 범죄로 보고 경찰에 신고했다.

얼굴은 진짜처럼 보이지만,
말하는 사람은 존재하지 않는다.
◆ 왜 더 위험한가

언론인은 기본적으로 신뢰를 기반으로 활동한다. 시청자는 화면에 등장하는 인물을 믿고 정보를 받아들인다. 이 신뢰를 악용해 투자, 재테크, 가상자산 홍보로 이어진다면 2차 피해로 확산될 가능성이 크다.

특히 AI 음성 합성과 영상 합성 기술은 일반 이용자가 진위를 구분하기 어려울 정도로 정교해졌다. 단순 초상권 침해를 넘어 금융 사기와 결합할 위험도 제기된다.

◆ 법적 대응 가능성

온라인에서 타인의 신분 정보를 이용해 본인인 것처럼 가장하는 행위는 스토킹 범죄에 해당할 수 있다. 언론사들은 채널 운영자에 대한 형사 고발과 법적 대응을 예고했다.

다만 해외 서버를 이용하거나 채널 운영자를 특정하기 어려운 경우 수사에 시간이 걸릴 수 있다는 점도 변수다.

기술은 빠르게 진화하지만,
제도와 수사는 그 속도를 따라가기 쉽지 않다.
◆ 우리가 조심해야 할 점

유명 언론인이나 방송인을 앞세운 투자·재테크 영상이 등장한다면 공식 채널인지 반드시 확인해야 한다.

여러분은 유튜브에서 본 ‘기자·아나운서’ 영상,
공식 채널인지 확인해본 적 있으신가요?

반응형