[TV리포트=박혜은 기자] 최근 자녀의 얼굴을 딥페이크 기술로 합성해 납치를 빙자한 보이스피싱 사건이 발생하고 있어 주의가 요구된다.
경찰청 국가수사본부는 “최근 딥페이크 기술로 자녀의 얼굴을 합성한 가짜 영상을 제작해 부모에게 전송하고, ‘자녀를 납치했다’며 금전을 요구한 외국인 대상 전화금융사기가 발생했다”며 국내에서도 유사 사건 발생 가능성을 경고했다.
지난 10월, 외국인 부모 A씨는 한국 여행 중인 딸이 감금된 채 울면서 도움을 청하는 영상을 받았다. 범인은 “당신 딸을 납치했다. 딸을 살리고 싶으면 합의금을 보내라”고 협박했고, A씨는 즉시 영사관에 신고했다. 한국 경찰이 딸의 안전을 확인한 결과, 해당 영상은 딥페이크 기술로 만들어진 가짜였다.
딥페이크 기술은 인공지능(AI)을 통해 실제 인물처럼 보이는 가짜 영상을 만들어내는 방식으로, 범죄에 악용될 가능성이 커지고 있다. 여기에 딥보이스 기술도 더해지며 피해가 확산될 위험이 있다. 딥보이스는 AI가 특정 인물의 목소리를 학습해 가짜 음성을 생성하는 기술로, 범죄 조직은 이를 통해 자녀의 목소리로 부모에게 전화를 걸어 납치를 가장하거나 금전을 요구할 수 있다.
경찰청에 따르면, 올해 9월까지 이 같은 납치 빙자형 보이스피싱 사건이 총 174건 발생했다. 경찰은 이러한 범죄 예방을 위해 SNS 등에서 본인과 가족의 영상, 사진, 목소리 등을 불특정 다수가 볼 수 있는 공개 설정으로 올리는 것을 지양할 것을 권고했다. 딥페이크와 딥보이스 기술이 점차 고도화됨에 따라 전문가조차 진위 판단이 어려워지는 만큼, 공개된 개인정보가 범죄 표적이 될 수 있기 때문이다.
또한 경찰은 납치 빙자형 보이스피싱에 대응하기 위해서는 즉시 신고하는 것이 중요하다고 강조하며, 만약 전화를 끊을 수 없는 상황이라면 주변 사람에게 신고를 요청하거나 문자로 112에 신고하는 방법을 소개했다.
박혜은 기자 vieweun@fastviewkorea.com / 사진= 셔터스톡 코리아
댓글0