summarize 핵심 요약

  • 사기 유형: 사칭 사기
  • 예방 핵심: 가족이 갑자기 전화로 급한 돈을 요구하면 반드시 끊고 직접 전화하세요
사칭 사기

아들 목소리가 똑같았습니다... AI가 복제한 가짜 전화에 3,000만원을 잃었습니다

AI 딥페이크 기술로 아들의 목소리를 복제한 사기범에게 속아 3,000만원을 송금한 60대 박OO 씨의 사연. 3초의 음성만으로 가족 목소리를 85% 재현하는 신종 사기 수법이 급증하고 있습니다.

2026년 03월 01일 visibility 2,218 조회 NEW

평소와 다름없던 토요일 오후

올해 63세인 박OO 씨는 서울 외곽의 조용한 아파트에서 남편과 둘이 사는 평범한 주부였습니다. 두 아들은 모두 독립해서 살고 있었고, 큰아들은 부산에서 회사를 다니고 있었습니다. 매주 일요일마다 영상통화를 하는 것이 가족의 작은 루틴이었습니다.

2026년 1월의 어느 토요일 오후, 박 씨의 휴대폰이 울렸습니다. 화면에는 '큰아들'이라는 이름이 떠 있었습니다.

"엄마, 나야. 큰일 났어."

전화기 너머로 들려온 목소리는 분명 큰아들의 것이었습니다. 약간 떨리는 말투, 급할 때 높아지는 톤, 습관적으로 붙이는 "엄마" 호칭까지. 박 씨는 의심할 여지가 없었습니다.

급박한 상황, 멈출 수 없었던 마음

아들이라고 믿은 상대방은 다급한 목소리로 말했습니다.

"엄마, 나 교통사고 났어. 상대방 차가 많이 부서졌는데, 지금 합의금을 바로 보내지 않으면 형사 처리된대. 제발 빨리 도와줘."

박 씨의 심장이 쿵쿵 뛰기 시작했습니다. 아들이 다쳤다는 말에 눈앞이 캄캄해졌습니다.

"얼마가 필요한데?"

"3,000만원이야. 보험 처리하면 돌려받을 수 있는데, 지금 당장 합의해야 해. 상대방이 화가 많이 나서 경찰 부르겠다고 하거든."

이어서 '보험사 직원'이라는 사람이 전화를 바꿔 받았습니다. 차분하고 전문적인 말투로 "사고 합의금을 지금 송금하시면 보험 처리 후 3일 이내 환급됩니다"라고 안내했습니다. 계좌번호를 불러주며 "시간이 촉박하니 빨리 처리해 달라"고 했습니다.

박 씨는 혹시 사기가 아닐까 순간 의심이 들었습니다. 하지만 방금 들은 목소리는 분명 아들이었습니다. 30년 넘게 키운 자식의 목소리를 모를 리가 없다고 생각했습니다.

은행 앱을 열고 3,000만원을 송금했습니다. 노후를 위해 모아둔 정기예금을 해지한 돈이었습니다.

진짜 아들의 전화, 그리고 무너진 세계

송금을 마친 뒤 30분쯤 지나 전화가 다시 울렸습니다. 이번에도 '큰아들'이었습니다.

"엄마, 나 내일 부산에서 올라가려고 하는데 시간 괜찮아?"

평소처럼 밝은 목소리였습니다. 사고가 났다는 기색은 전혀 없었습니다.

"아니, 너 아까 사고 났다며? 합의금 보냈잖아."

"뭐? 엄마, 무슨 소리야. 나 사고 안 났는데?"

박 씨의 손에서 휴대폰이 미끄러졌습니다. 머릿속이 하얘졌습니다. 3,000만원. 남편에게도 말 못하고 혼자 모아온 노후 자금이 한순간에 사라진 것입니다.

경찰에 신고했지만 돈은 이미 여러 대포통장을 거쳐 해외로 빠져나간 뒤였습니다. 경찰은 "최근 AI 음성 복제 기술을 이용한 사칭 사기가 급증하고 있다"며 "3초 분량의 음성만 있으면 본인과 85% 이상 일치하는 가짜 목소리를 만들 수 있다"고 설명했습니다.

아들의 SNS 영상, 유튜브 댓글 음성, 심지어 배달 주문 전화 녹음까지. 사기범들은 온라인에 흩어진 짧은 음성 조각들을 수집해 AI로 가족의 목소리를 완벽하게 복제하고 있었습니다.

왜 나는 속았을까

박 씨는 자신이 속은 이유를 곰곰이 되짚어 보았습니다.

첫째, 목소리가 너무 진짜 같았습니다. AI 딥페이크 기술은 억양, 말버릇, 감정 톤까지 재현합니다. 30년간 들어온 아들의 목소리와 구별할 수 없었습니다.

둘째, 급박한 상황이 판단력을 마비시켰습니다. "사고", "형사 처리", "지금 당장"이라는 단어들이 냉정하게 생각할 시간을 빼앗았습니다.

셋째, 보험사 직원이라는 제3자가 등장해 신뢰감을 더했습니다. 전문적인 말투와 절차 설명이 의심을 누그러뜨렸습니다.

경찰청 통계에 따르면 2025년 AI 음성 사칭 보이스피싱 피해는 전년 대비 442% 급증했으며, 피해자의 다수가 50~60대 중장년층이었습니다. 단 3초의 음성 샘플만으로 원래 화자와 85% 일치하는 복제 음성을 생성할 수 있어, 가족조차 구별하기 어렵습니다.

이런 수법을 조심하세요

박OO 씨를 속인 사기범들의 핵심 수법입니다.

  1. AI 음성 복제: SNS 영상, 통화 녹음 등에서 추출한 짧은 음성으로 가족 목소리를 합성
  2. 긴급 상황 연출: 교통사고, 납치, 폭행 등 즉각적 감정 반응을 유발하는 시나리오 사용
  3. 발신번호 조작: 실제 가족의 전화번호와 동일하게 표시되도록 번호 스푸핑
  4. 제3자 투입: 보험사 직원, 경찰관, 병원 관계자 등 전문가를 사칭한 공범 투입
  5. 시간 압박: "지금 당장", "오늘 안에" 등 즉시 송금을 유도하는 압박
  6. 고립 유도: "다른 가족에게는 말하지 마" 등으로 확인 기회 차단
  7. 소액 시작: 처음에는 소액을 요구한 뒤 추가 송금을 유도하는 경우도 있음

피해 예방 체크리스트

  • [ ] 가족이 급하게 돈을 요구하면, 반드시 전화를 끊고 직접 다시 전화하세요
  • [ ] 가족만 아는 "비밀 암호"를 미리 정해두세요 (예: 어릴 때 별명, 반려동물 이름 등)
  • [ ] "지금 당장 보내야 한다"는 말에 절대 흔들리지 마세요. 10분만 기다려도 사기를 막을 수 있습니다
  • [ ] 발신번호가 가족 번호여도 100% 신뢰하지 마세요. 번호는 조작될 수 있습니다
  • [ ] SNS에 음성이 포함된 영상 게시를 최소화하세요. AI 학습 소재가 됩니다
  • [ ] 제3자(보험사, 경찰 등)가 전화를 바꿔 받으면 의심하세요. 직접 해당 기관에 확인하세요
  • [ ] 가족 단체 채팅방에서 상황을 공유하세요. 고립되면 사기에 취약해집니다
  • [ ] 고액 송금 전 반드시 가족 2명 이상에게 확인하는 규칙을 만드세요

피해를 당했다면

사기 피해를 당했다면, 즉시 다음 조치를 취하세요.

  1. 경찰 신고: 112 또는 가까운 경찰서 방문
  2. 금융감독원 신고: 1332 (24시간 운영)
  3. 은행 계좌 지급정지: 송금한 은행 고객센터로 즉시 연락 (골든타임 30분)
  4. 증거 보존: 통화 내역, 문자, 송금 내역을 모두 캡처
  5. 사이버수사대 신고: 경찰청 사이버범죄 신고 시스템(ecrm.police.go.kr) 활용
  6. 가족에게 알리기: 혼자 짊어지지 말고, 가족과 즉시 상황을 공유하세요

이 사연은 실제 피해 사례를 바탕으로 각색되었습니다. 피해자의 개인정보 보호를 위해 가명을 사용했습니다.

verified_user 예방 수칙

  • 가족이 갑자기 전화로 급한 돈을 요구하면 반드시 끊고 직접 전화하세요
  • AI 기술로 가족 목소리를 완벽하게 복제할 수 있습니다. 목소리만으로 신뢰하지 마세요
  • 교통사고 합의금, 보석금 등을 즉시 송금하라는 요구는 사기입니다
  • 보험사 직원이나 경찰관이 전화를 바꿔 받으면 해당 기관 대표번호로 직접 확인하세요
  • 다른 가족에게 알리지 말라고 하면 100% 사기입니다
  • SNS에 음성이 포함된 영상을 올리면 AI 음성 복제의 소재가 됩니다
  • 발신번호는 조작이 가능합니다. 가족 번호여도 맹신하지 마세요
  • 가족만 아는 비밀 암호를 미리 정해두면 사칭 사기를 막을 수 있습니다