2025.01.23 (목)

  • 맑음속초2.6℃
  • 박무-6.8℃
  • 맑음철원-6.5℃
  • 맑음동두천-4.8℃
  • 맑음파주-7.5℃
  • 맑음대관령-7.2℃
  • 맑음춘천-6.0℃
  • 맑음백령도3.2℃
  • 연무북강릉-0.6℃
  • 맑음강릉3.2℃
  • 맑음동해0.6℃
  • 박무서울-1.0℃
  • 맑음인천-1.5℃
  • 맑음원주-3.4℃
  • 구름조금울릉도5.0℃
  • 박무수원-4.2℃
  • 맑음영월-5.9℃
  • 맑음충주-6.1℃
  • 맑음서산-4.1℃
  • 구름조금울진-0.2℃
  • 연무청주-0.5℃
  • 연무대전-0.8℃
  • 맑음추풍령-0.6℃
  • 박무안동-3.4℃
  • 맑음상주2.2℃
  • 연무포항5.1℃
  • 구름많음군산-1.6℃
  • 연무대구1.7℃
  • 박무전주1.3℃
  • 연무울산5.0℃
  • 맑음창원3.8℃
  • 박무광주1.1℃
  • 연무부산7.1℃
  • 맑음통영3.2℃
  • 박무목포1.8℃
  • 연무여수4.7℃
  • 박무흑산도4.8℃
  • 맑음완도2.5℃
  • 맑음고창-1.0℃
  • 맑음순천-2.5℃
  • 박무홍성(예)-3.9℃
  • 맑음-3.7℃
  • 맑음제주5.9℃
  • 맑음고산8.9℃
  • 맑음성산5.1℃
  • 맑음서귀포7.3℃
  • 구름많음진주-2.3℃
  • 맑음강화-3.6℃
  • 맑음양평-4.2℃
  • 맑음이천-5.3℃
  • 맑음인제-6.3℃
  • 맑음홍천-5.3℃
  • 맑음태백-6.1℃
  • 맑음정선군-8.2℃
  • 맑음제천-7.9℃
  • 맑음보은-4.6℃
  • 맑음천안-3.9℃
  • 구름조금보령-1.4℃
  • 맑음부여-3.0℃
  • 맑음금산-2.1℃
  • 맑음-1.7℃
  • 구름조금부안-1.1℃
  • 맑음임실-0.7℃
  • 맑음정읍-0.5℃
  • 구름많음남원-1.7℃
  • 맑음장수-4.3℃
  • 맑음고창군-1.4℃
  • 맑음영광군-2.2℃
  • 구름많음김해시4.6℃
  • 맑음순창군-2.7℃
  • 구름조금북창원3.7℃
  • 구름조금양산시0.2℃
  • 맑음보성군2.4℃
  • 맑음강진군-1.6℃
  • 맑음장흥-2.2℃
  • 맑음해남-3.8℃
  • 맑음고흥-2.6℃
  • 구름많음의령군-1.5℃
  • 구름많음함양군-2.0℃
  • 구름조금광양시2.6℃
  • 맑음진도군0.0℃
  • 맑음봉화-6.4℃
  • 맑음영주-4.9℃
  • 맑음문경-0.5℃
  • 맑음청송군-6.7℃
  • 흐림영덕3.6℃
  • 맑음의성-4.5℃
  • 구름많음구미2.3℃
  • 구름많음영천-1.0℃
  • 구름많음경주시1.7℃
  • 맑음거창-2.8℃
  • 흐림합천-0.3℃
  • 구름많음밀양-0.2℃
  • 구름많음산청-1.3℃
  • 맑음거제2.6℃
  • 맑음남해1.8℃
  • 연무-0.2℃
딥페이크 이용, “자녀 납치했다” 사기 주의
  • 해당된 기사를 공유합니다

종합뉴스

딥페이크 이용, “자녀 납치했다” 사기 주의

- 급속히 발달 중인 인공지능(AI) 기술의 범죄 악용 우려, 10월에 실제 사례도 발생해
- 자녀 얼굴은 물론 목소리까지 복제…. 무조건 경찰에 신고해야 피해를 막을 수 있어


 

경찰청 국가수사본부는 최근 딥페이크(Deepfake)* 기술로 자녀의 얼굴을 합성한 가짜 영상을 제작해 부모에게 전송하고, ‘자녀를 납치했다.’라며 금전을 요구한 외국인 대상 전화금융사기가 발생했다.”라며 국내에서도 유사한 사건이 발생할 가능성이 있으므로 각별한 주의를 당부했다.

* 인공지능(AI) 기술을 활용해 실제 인물처럼 보이는 가짜 인물을 만들어내는 기술, 단순히 영상 속 얼굴을 바꾸는 것을 넘어서 실제 인물처럼 표정ㆍ움직임 등도 재현 가능

 

지난 10월경 외국에 거주하는 부모(외국인)는 불상의 외국 범죄조직으로부터 한국을 여행 중이던 딸이 방 안에 감금된 채 울면서 살려달라고 하는 영상을 받았다. 범인은 당신 딸을 납치했다, 딸을 살리고 싶으면 합의금을 보내라.라고 부모를 협박했다. 부모는 이 사실을 영사관에 알렸고, 영사관에서는 한국 경찰에 신고했으며, 신속히 출동한 경찰은 요구조자의 안전을 확인하였다.

 

다행히 이 사건에서 피해는 발생하지 않았지만, 해당 영상에 등장한 딸의 모습이 딥페이크 기술로 만들어진 가짜였다는 점이 확인되면서 인공지능(AI) 기술이 범죄에 악용될 수 있다는 심각성을 보여준다.

 

피싱범죄에 악용될 수 있는 인공지능(AI) 기술에는 딥보이스(Deepvoice)* 있다. 범인이 자녀의 목소리를 복제한 뒤 부모에게 전화하여 마치 납치된 것처럼 흐느끼며 살려달라고 한다거나 급한 일이 있다면서 돈을 빌려달라는 목소리를 들려주는 방식으로 범행에 이용할 수도 있다. 부모와 자식 간의 가족관계라는 특수성을 이용하여 자녀의 얼굴이나 목소리를 가짜로 생성한 후 부모가 상황을 판단할 여유를 가질 수 없도록 압박하며 즉각적인 송금을 요구하는 방식이다.

* 인공지능 기술을 통해 특정 인물의 목소리를 학습하여 그 사람처럼 말하는 가짜

음성을 생성하는 기술

 

앞으로 인공지능(AI) 기술을 악용한 전화금융사기가 국내에서도 발생할 수 있으므로 피해 예방을 위해서는 딥페이크ㆍ딥보이스 기술이 범죄에 악용될 수 있음을 반드시 숙지하고 있어야 한다.

 

딥페이크와 딥보이스는 실제 인물을 학습해야 하므로 사회관계망 서비스(SNS) 등에 공개된 본인과 가족의 영상, 사진, 목소리 등은 범죄조직의 표적 될 수 있다. 특히, 딥페이크 기술이 고도화되어 전문가들조차도 육안만으로는 진위를 판단하기 어려운 만큼, 평소에 사회관계망 서비스(SNS) 등에 불특정 다수가 볼 수 있는 공개 설정으로 게시물을 올리는 것을 지양해야 한다.

위와 같은 딥페이크 등 이용 전화금융사기를 포함한 납치빙자형 전화금융사기에 대처하기 위해서는 경찰에 신고하는 것이 가장 중요하다는 점을 명심해야 한다.

 

올해 9월까지 납치 빙자 전화금융사기 사건이 총 174건 발생한 사실을 고려할 납치 전화가 전화금융사기일 가능성을 항상 염두에 두어야 한다. 그리고 범죄조직은 가족이나 지인을 납치했다.’라는 협박 전화를 받으면 두려움과 걱정 때문에 피해자들이 신고를 주저한다는 점을 노리기 때문에 납치든, 납치를 가장한 전화금융사기 사건이든 무조건 경찰에 신고해야 한다.

 

경찰은 납치 신고를 접수하면 요구조자의 위치 파악 등 초동 조치를 최우선으로 하므로 경찰에 신고해야 요구조자의 안전은 물론 금전 피해까지 예방할 수 있다. 범인이 전화를 끊지 못하도록 협박하여 경찰에 신고하기 곤란한 경우에는 주변 사람에게 경찰에 신고하도록 도움을 청하거나, 통화하면서 문자메시지로 112에 신고하여 자녀의 안전을 확인하는 방식으로 대처해야 한다.