유머
뉴스
미디어
일상

경찰청, 딥페이크 이용한 ‘자녀 납치’ 가짜영상 금융사기 주의경보 울려

글샘일보 2024.11.25
공유하기
신고
조회 2
사진 = 경찰청
사진 = 경찰청

 

경찰청 국가수사본부는 최근 외국에서 발생한 전화금융사기 수법과 관련해 국내에서도 인공지능(AI) 기술을 악용한 범죄가 일어날 가능성이 높으므로 각별한 주의를 당부했다. 해당 사건은 딥페이크 기술을 사용해 자녀의 얼굴을 합성한 가짜 영상을 제작, 이를 부모에게 전송하고 '납치'를 빙자해 금전을 요구하는 방식이었다.

지난달 외국에서 한국을 여행 중인 딸이 납치되었다는 내용의 영상이 부모에게 전송된 사건이 발생했다. 영상 속 딸은 방 안에서 울면서 살려달라고 애원하는 모습이었고, 이를 본 부모는 즉각 영사관에 연락했다. 영사관은 한국 경찰에 신고했고, 경찰은 신속히 딸의 안전을 확인했다. 이후 해당 영상이 딥페이크로 조작된 가짜임이 드러났다.

이 사건은 AI 기술이 범죄에 악용될 수 있음을 단적으로 보여준다. 딥페이크와 함께 딥보이스 기술도 위험하다. 범인은 자녀의 목소리를 복제해 부모에게 전화를 걸어 납치된 것처럼 흐느끼며 살려달라고 하거나, 급히 돈이 필요하다고 말하며 송금을 요구할 수 있다. 이처럼 부모의 판단력을 흐리게 하고 즉각적인 송금을 유도하는 방식은 매우 교묘하다.

피해를 예방하기 위해서는 딥페이크딥보이스 기술이 범죄에 사용될 수 있음을 인지하는 것이 중요하다. 특히, 이 기술들은 실제 인물을 학습하기 때문에 SNS에 본인과 가족의 영상, 사진, 목소리 등을 공개적으로 게시하는 것은 위험할 수 있다. 기술이 고도화되어 전문가조차 진위를 구분하기 어려운 경우가 많으므로 불특정 다수가 접근할 수 있는 설정으로 게시물을 올리는 것을 지양해야 한다.

만약 납치를 빙자한 전화금융사기를 당한다면, 가장 중요한 것은 즉각 경찰에 신고하는 것이다. 납치 협박 전화를 받은 피해자들은 두려움과 불안으로 인해 신고를 주저할 수 있지만, 경찰은 구조가 필요한 사람의 위치 파악 등 초동 조치를 최우선으로 하기 때문에 신속한 신고가 피해 예방의 핵심이다.

경찰청 자료에 따르면, 올해 9월까지 납치 빙자 전화금융사기 사건이 174건 발생했다. 이러한 전화금융사기의 가능성을 염두에 두고, 어떠한 경우에도 협박 전화는 경찰에 신고하여 안전과 금전 피해를 방지해야 한다.

저작권자 © 글샘일보 무단전재 및 재배포 금지
댓글
콘텐츠 더보기

포스트를 불러옵니다...