지역별 뉴스를 확인하세요.

많이 본 뉴스

광고닫기

기사공유

  • 페이스북
  • 트위터
  • 카카오톡
  • 카카오스토리
  • 네이버
  • 공유

AI 음성 복제 사기 기승…스타링 조사 “4명중 1명 피해”

3초 분량 샘플이면 카피 가능
금전 요구나 개인 정보 탈취

본인 음성 3초면 AI로 음성 복제 가능하며 이를 악용한 보이스 피싱이 늘고 있어서 소비자들이 주의해야 한다.

본인 음성 3초면 AI로 음성 복제 가능하며 이를 악용한 보이스 피싱이 늘고 있어서 소비자들이 주의해야 한다.

AI(인공지능)를 이용한 음성 복제 기술이 정교해지면서 이를 악용한 보이스 피싱에 대한 한인들의 주의가 요구된다.
 
영국 온라인 대출 전문기관 스타링뱅크가 성인 3000명을 대상으로 한 조사에서 응답자 4명 중 1명이 지난 1년 동안 AI 음성 복제 사기를 당했다고 CNN은 최근 보도했다.  
 
특히 매체는 현재 AI를 이용한 음성 복제 기술 수준은 “수백만 명을 속일 수 있다”고 강조했다.
 
AI 음성 복제 수준이 복제 음성과 실제 음성을 구분할 수 없을 정도로 발달한 데다 유튜브와 틱톡 등 소셜미디어(SNS)에서 복제 대상의 음성 파일도 손쉽게 취득할 수 있어서 음성 복제를 악용한 보이스 피싱 등의 피해가 커질 수 있다고 분석했다. 3초 분량의 짧은 음성으로도 개인의 목소리를 그대로 카피할 수 있다는 게 AI 전문가들의 설명이다.
 
리사 그레이엄 스타링뱅크 최고 정보보안 책임자(CIO)는 “소비자들은 사기범들에 의해 음성 복제될 수 있다는 사실을 모르기 때문에 온라인에 본인들의 음성이 담긴 콘텐츠를 올린다”고 지적했다.  
 
사기범들은 사기 대상을 물색해서 음성 복제를 한 후 SNS를 통해 친구, 가족 등 지인 관계를 파악하고 금전을 요구하거나 개인정보를 탈취하고 있는 것으로 알려졌다.
 
문제는 복제 기술 발달 수준에 대한 소비자 인식이 저조해서 복제 음성 사기에 대한 대응이 매우 부실하다는 것이다.  
 
같은 조사에 따르면 응답자의 46%는 음성 복제 사기 유형이 존재한다는 사실조차 알지 못했다. 또 사기가 의심되더라도 사기범들이 요구한 금전을 지불할 것이라고 답한 비율도 8%였다.
 
매체는 음성 사기 피해 방지를 위한 방법으로 본인 음성의 노출을 자제하고 친인척이나 지인의 목소리로 금융 정보나 금전을 요구할 때는 다시 한번 해당 지인에게 연락해서 한 번 더 확인하는 게 좋다고 조언했다.
 
문자도 사기에 취약할 수 있어서 개인정보를 문자로 전송하거나 통화할 때도 유의해야 한다고 덧붙였다.

서재선 기자 [email protected]

Log in to Twitter or Facebook account to connect
with the Korea JoongAng Daily
help-image Social comment?
lock icon

To write comments, please log in to one of the accounts.

Standards Board Policy (0/250자)


많이 본 뉴스





실시간 뉴스