접근 쉬운 '딥페이크' 악용 우려…탐지 기술도 진화

  • 2개월 전
접근 쉬운 '딥페이크' 악용 우려…탐지 기술도 진화

[앵커]

이제는 인공지능으로 사람의 얼굴이나 목소리를 정교하게 만들어낼 수 있는 시대입니다.

문제는 누구나 기술에 쉽게 접근할 수 있어 범죄에 악용될 수 있다는 건데요.

이에 따라 '가짜'를 구별해낼 수 있는 경찰의 탐지 기술도 진화하고 있습니다.

문승욱 기자입니다.

[기자]

지난 1월 뉴햄프셔주 민주당 프라이머리 예비선거를 앞두고 유권자들에게 전화가 걸려왔습니다.

"이번 화요일에 투표하는 건 공화당이 도널드 트럼프를 다시 선출할 수 있도록 돕는 것입니다."

언뜻 조 바이든 미국 대통령의 목소리와 똑같지만, 사실 AI로 만든 가짜 목소립니다.

지난해엔 힐러리 클린턴 전 국무장관이 특정 후보를 지지한다는 내용의 가짜 영상이 SNS에 확산되며 논란이 불거졌습니다.

직접 인공지능을 이용해 가짜 목소리를 만들어보겠습니다.

약 1분간 아무 말이나 녹음해 시스템에 입력하면 인공지능이 제 목소리를 자동으로 학습합니다.

학습이 끝나면 원하는 문장을 쓰고 생성 버튼을 누르면 됩니다.

"인공지능이 발달하면서 목소리도 만들어낼 수 있게 됐습니다."

"인공지능이 발달하면서 목소리도 만들어낼 수 있게 됐습니다."

목소리 톤이 매우 유사해 자세히 듣지 않으면 차이를 느끼기 어렵습니다.

하지만 누구나 쉽게 만들 수 있기 때문에 선거운동 방해나 피싱 범죄에 쉽게 악용될 수 있다는 우려가 나옵니다.

이에 경찰은 '딥페이크 탐지 소프트웨어' 등 탐지 기술을 개발해 범죄 단속에 본격적으로 활용하기 시작했습니다.

"이번에 개발한 소프트웨어는 한국인과 관련한 다양한 데이터 학습이 이뤄져 한국인에 대한 탐지율을 크게 제고했습니다."

소프트웨어의 진위 여부 탐지율은 약 80%에 달하지만, 100%가 아닌 점을 감안해 증거보다는 수사 방향을 설정하는 자료로 활용할 예정입니다.

연합뉴스TV 문승욱입니다. (winnerwook@yna.co.kr)

[영상취재 기자 문영식]

#딥페이크 #딥보이스 #탐지기술

연합뉴스TV 기사문의 및 제보 : 카톡/라인 jebo23

(끝)

추천