summarize 핵심 요약

  • 사기 유형: 보이스피싱
  • 예방 핵심: AI는 3초 음성만으로 가족의 목소리를 완벽히 복제할 수 있습니다
보이스피싱

"엄마, 나 납치됐어" AI가 복제한 딸의 목소리에 2천만원을 보냈습니다

SNS에 올린 딸의 짧은 영상 하나가 화근이었습니다. AI가 딸의 목소리를 복제해 '납치됐다'며 울먹이는 전화를 걸었고, 62세 박 씨는 2천만원을 송금했습니다. 3초면 가족의 목소리까지 훔치는 AI 딥페이크 보이스피싱의 실체를 알려드립니다.

2026년 03월 10일 visibility 3,409 조회 NEW

딸의 목소리가 들려왔다

올해 62세인 박OO 씨(가명)는 서울 은평구에서 남편과 단둘이 살고 있는 평범한 주부입니다. 서른 살 딸 수진(가명) 씨는 2년 전 결혼해 분당에 살고 있었고, 일주일에 두세 번은 꼭 전화를 주고받을 만큼 모녀 사이가 좋았습니다.

3월 초 수요일 오후 2시쯤, 박 씨의 휴대전화가 울렸습니다. 발신번호는 '모르는 번호'였지만, 전화를 받자마자 귀에 익은 목소리가 흘러나왔습니다.

"엄마... 엄마 나야, 수진이..."

딸의 목소리였습니다. 그런데 울먹이고 있었습니다.

"엄마, 나 지금 너무 무서워... 어떤 사람들이 나를..."

말이 끊기더니 낯선 남자 목소리가 들렸습니다.

"지금 따님을 데리고 있습니다. 경찰에 신고하면 어떤 일이 일어날지 모릅니다. 2천만원을 보내면 풀어드리겠습니다."

분명히 우리 딸 목소리였습니다

박 씨의 심장이 멎는 듯했습니다. 분명히 딸의 목소리였습니다. 말투도, 억양도, '엄마'라고 부르는 톤까지 수진이가 맞았습니다. 30년을 키운 자식의 목소리를 못 알아볼 리가 없었습니다.

"수진아! 수진아! 괜찮아?"

다시 딸의 목소리가 들렸습니다.

"엄마, 제발 시키는 대로 해줘... 나 진짜 무서워..."

공포에 질린 박 씨는 남편에게 연락할 생각도, 딸에게 직접 전화할 생각도 나지 않았습니다. 머릿속이 하얗게 변했습니다. 사기범이 알려준 계좌로 2천만원을 이체하는 데 걸린 시간은 채 15분이 되지 않았습니다.

송금을 마치고 나서야, 박 씨는 떨리는 손으로 딸에게 전화를 걸었습니다.

"엄마? 왜? 나 지금 회사인데."

수진 씨는 아무 일 없이 사무실에 앉아 있었습니다. 납치는 없었습니다. 전화 속 딸의 목소리는 AI가 만들어낸 가짜였습니다.

AI는 어떻게 딸의 목소리를 알았을까

경찰 조사 결과, 범행의 실마리는 수진 씨의 인스타그램에 있었습니다. 수진 씨는 평소 일상을 담은 짧은 영상을 자주 올렸습니다. 카페에서 친구와 웃으며 이야기하는 10초짜리 릴스, 남편과 여행 가서 찍은 브이로그. 공개 계정이었기에 누구나 볼 수 있었습니다.

사기범들은 이 영상에서 수진 씨의 음성을 추출했습니다. 현재 AI 음성 복제 기술은 단 3초에서 10초 정도의 샘플만으로도 특정인의 말투, 억양, 감정까지 정교하게 재현할 수 있습니다. 다크웹에서는 50달러 정도면 음성 복제 도구를 구할 수 있고, 일부 상용 AI 서비스도 악용 가능한 것으로 알려져 있습니다.

범인들은 수진 씨의 목소리를 복제한 뒤, 울먹이는 톤으로 "엄마, 살려줘"라는 음성을 생성했습니다. 박 씨의 전화번호는 수진 씨의 SNS 프로필에 연결된 다른 정보들을 조합해 알아낸 것으로 추정됩니다.

2025년 보이스피싱 피해액은 사상 처음으로 1조원을 넘어선 1조 2,578억원을 기록했습니다. 그중에서도 AI 딥페이크를 활용한 가족 사칭형은 가장 빠르게 증가하고 있는 유형입니다.

이런 수법을 조심하세요

박 씨를 속인 AI 딥페이크 보이스피싱의 핵심 수법을 정리했습니다.

  1. SNS 음성 수집: 공개된 영상, 릴스, 브이로그에서 타깃의 음성 샘플을 추출합니다
  2. AI 음성 복제: 3~10초의 짧은 샘플만으로 말투, 억양, 감정까지 완벽히 복제합니다
  3. 납치/사고 시나리오: 가족이 위험에 처했다는 급박한 상황을 연출하여 공포를 유발합니다
  4. 판단력 마비: 극도의 공포 속에서 피해자가 논리적으로 생각하지 못하게 만듭니다
  5. 확인 차단: "경찰에 신고하면 해치겠다"며 제3자 확인을 차단합니다
  6. 소액 빠른 송금: 수천만원 단위의 금액을 즉시 송금하도록 압박합니다

피해 예방 체크리스트

  • [ ] 가족끼리만 아는 '비밀 암호'를 미리 정해두세요 (예: 어릴 때 키우던 강아지 이름)
  • [ ] 위급한 전화를 받으면 반드시 해당 가족에게 직접 전화를 걸어 확인하세요
  • [ ] SNS 계정을 '비공개'로 전환하고, 음성이 포함된 영상 공개를 최소화하세요
  • [ ] 전화로 돈을 요구하는 것은 어떤 상황에서든 사기일 가능성이 높습니다
  • [ ] 급박한 상황일수록 일단 전화를 끊고 가족에게 직접 연락하세요
  • [ ] AI가 목소리를 복제할 수 있다는 사실을 가족 모두와 공유하세요
  • [ ] 경찰청 보이스피싱 전용 신고번호 112, 금융감독원 1332를 저장해두세요
  • [ ] 시티즌코난 앱 등 보이스피싱 탐지 앱을 설치하세요

피해를 당했다면

사기 피해를 당했다면, 즉시 다음 조치를 취하세요.

  1. 경찰 신고: 112 또는 가까운 경찰서 사이버범죄수사대에 신고
  2. 계좌 지급정지: 송금한 은행 고객센터에 즉시 전화하여 수취 계좌 지급정지 요청
  3. 금융감독원 신고: 1332에 전화하여 피해 사실 접수
  4. 증거 보존: 통화 기록, 발신번호, 송금 내역, 문자 등 모든 자료 캡처
  5. 보이스피싱제로 지원: 긴급 생활비, 심리 상담, 법률 상담 지원 신청 가능

박 씨는 경찰에 신고했지만 송금한 돈은 이미 여러 대포통장을 거쳐 인출된 뒤였습니다. 하지만 박 씨는 이 사연을 공유하며 말합니다.

"30년 키운 자식 목소리를 못 알아볼 부모가 어디 있겠어요. 그런데 그 목소리가 가짜였다니... 미리 가족 암호만 정해뒀어도 이런 일은 없었을 겁니다."

정부는 AI 보이스피싱 대응 태스크포스를 운영하며, 은행권도 AI 기반 이상금융거래 탐지 시스템을 고도화하고 있습니다. 하지만 가장 확실한 방패는 가족 간의 사전 약속입니다. 오늘 저녁 식사 자리에서, 가족만 아는 비밀 암호를 하나 정해보세요.


이 사연은 2024~2026년 AI 딥페이크 음성 보이스피싱 피해 사례들과 경찰청, 금융감독원 발표 자료를 바탕으로 재구성되었습니다. 피해자의 개인정보 보호를 위해 가명을 사용했습니다.

verified_user 예방 수칙

  • AI는 3초 음성만으로 가족의 목소리를 완벽히 복제할 수 있습니다
  • SNS에 공개된 영상에서 음성이 추출될 수 있습니다
  • 전화 속 가족 목소리가 진짜처럼 들려도 AI 합성일 수 있습니다
  • 납치, 사고 등 급박한 상황을 연출하며 돈을 요구하면 사기입니다
  • 경찰에 신고하지 말라고 하면서 돈을 요구하면 100% 사기입니다
  • 감정적으로 공포에 휩싸일 때가 사기범이 노리는 순간입니다
  • 전화로 돈을 요구하는 것은 어떤 상황에서든 의심해야 합니다
  • 가족끼리 비밀 암호를 정해두면 AI 음성 사기를 막을 수 있습니다