AI 기반 딥페이크에 대한 방어 전략

AI의 지속적인 발전으로 인해 인간이 딥페이크를 신뢰성 있게 식별하기가 점점 어려워지고 있습니다. 이는, 신뢰할 수 있는 개인의 이미지에 의존하는 모든 형태의 인증에 심각한 문제를 제기합니다. 그러나 딥페이크 위협에 대응하기 위한 몇 가지 접근 방식이 유망한 결과를 보여주고 있습니다.

딥페이크는 "딥 러닝(deep learning)"과 "가짜(fake)"의 합성어로, 속이는 방식으로 편집된 사진, 비디오 또는 오디오를 의미합니다. 최초의 딥페이크는 1997년 "비디오 리라이트(Video Rewrite)" 프로젝트로 거슬러 올라갈 수 있으며, 이 프로젝트는 누군가의 얼굴 영상을 재생성하여 실제로 말하지 않은 단어를 삽입할 수 있음을 보여주었습니다.

초기 딥페이크는 사용자의 상당한 기술적 정교함을 요구했지만, 2025년 현재는 더 이상 그렇지 않습니다. 이미지를 생성하는 확산 모델과 더 그럴듯하게 만드는 생성적 적대 신경망(GAN)과 같은 생성형 AI 기술과 기법 덕분에, 이제는 누구나 오픈소스 도구를 사용하여 딥페이크를 만들 수 있게 되었습니다.

정교한 딥페이크 도구의 쉬운 접근성은 개인정보 보호와 보안에 심각한 영향을 미칩니다. 가짜 뉴스, 사기, 아동 성폭력 자료, 리벤지 포르노와 같은 것들을 만드는 데 딥페이크 기술이 사용될 때 사회는 피해를 입습니다.

금융 세계에 미치는 영향도 상당히 중요한데, 이는 은행 계좌 개설이나 돈 인출과 같은 중요한 서비스에 인증을 크게 의존하기 때문입니다. 얼굴 인식과 같은 생체 인증 메커니즘의 사용이 비밀번호나 다중 인증(MFA) 접근 방식보다 더 큰 보증을 제공할 수 있지만, 현실은 개인의 신원을 증명하기 위해 부분적으로 이미지나 비디오에 의존하는 모든 인증 메커니즘이 딥페이크로 속임수를 당할 가능성이 있다는 것입니다.

사기꾼들은 기회주의자로서 딥페이크 도구를 쉽게 채택했습니다. Signicat의 최근 연구에 따르면 2024년 사기 시도의 6.5%에서 딥페이크가 사용되었으며, 이는 2021년 1% 미만의 시도에서 증가한 것으로, 명목상으로 2,100% 이상 증가한 것을 나타냅니다. 같은 기간 사기는 일반적으로 80% 증가했고, 신원 사기는 74% 증가했습니다.

"AI는 이전에 볼 수 없었던 규모로 더 정교한 사기를 가능케 할 것입니다,"라고 Consult Hyperion CEO Steve Pannifer와 Global Ambassador David Birch가 "AI 주도 신원 사기와의 전쟁"이라는 제목의 Signicat 보고서에 썼습니다. "사기는 더 성공적일 가능성이 있지만, 성공률이 꾸준히 유지되더라도 시도의 엄청난 양으로 인해 사기 수준이 폭발적으로 증가할 것입니다."

딥페이크가 제기하는 위협은 이론적인 것이 아니며, 사기꾼들은 현재 대형 금융 기관을 노리고 있습니다. 금융 서비스 정보 공유 및 분석 센터(Financial Services Information Sharing and Analysis Center)의 185페이지 보고서에는 수많은 사기가 기록되어 있습니다.

예를 들어, 2023년 5월 펜타곤 폭발 가짜 동영상은 4분 만에 다우존스 지수를 85포인트 하락시켰습니다. 또한 2024년 7월에 북한인이 가짜 신분 문서를 만들어 해커 Kevin Mitnick이 공동 설립한 보안 인식 회사인 KnowBe4를 속여 채용된 흥미로운 사례도 있습니다. "우리에게 이런 일이 일어날 수 있다면, 거의 모든 사람에게 일어날 수 있습니다,"라고 KnowBe4는 블로그 게시물에서 썼습니다. "당신에게 일어나지 않게 하세요."

그러나 아마도 가장 유명한 딥페이크 사건은 2024년 2월에 일어났을 것입니다. 홍콩 대기업의 재무 직원이 자금 이체에 대해 논의하기 위해 가짜 화상 통화를 연출했을 때 사기꾼들에게 속았습니다. 딥페이크 비디오가 너무 믿을 만했기 때문에 직원은 그들에게 2,500만 달러를 송금했습니다.

매일 수백 건의 딥페이크 공격이 있다고 iProov의 최고 과학 책임자인 Andrew Newell이 말합니다. "거기 있는 위협 행위자들이 다양한 도구를 채택하는 속도는 실제로 매우 빠릅니다."

iProov가 지난 2년 동안 목격한 큰 변화는 딥페이크 공격의 정교함입니다. 이전에는 딥페이크를 활용하는 것이 "시작하기 위해 꽤 높은 수준의 전문 지식이 필요했기 때문에 일부 사람들이 할 수 있었지만 상당히 드물었습니다,"라고 Newell은 BigDATAwire에 말했습니다. "일을 믿을 수 없을 정도로 쉽게 만드는 도구의 전혀 새로운 부류가 있습니다. 한 시간 안에 시작할 수 있습니다."

iProov는 원격 온라인 환경에서 딥페이크의 증가하는 효과성에 대응하도록 설계된 생체 인증 소프트웨어를 개발합니다. 가장 위험도가 높은 사용자와 환경을 위해 iProov는 로그인 중에 독점적인 플래시마크 기술을 사용합니다. 사용자의 장치에서 얼굴에 다른 색상의 불빛을 비추어 iProov는 개인의 "생동감"을 결정하여 얼굴이 실제인지, 딥페이크인지, 얼굴 스왑인지 감지할 수 있습니다.

이는 모두 잠재적인 딥페이크 사기꾼들 앞에 장애물을 놓는 것에 관한 것이라고 Newell은 말합니다.

"당신이 하고자 하는 것은 최종 사용자의 작업을 가능한 한 간단하게 만들면서 가능한 한 복잡한 신호를 가지고 있는지 확인하는 것입니다," 그는 말합니다. "빛이 얼굴에서 튀어나오는 방식은 매우 복잡합니다. 그리고 색상 시퀀스가 매번 실제로 변하기 때문에, 가짜로 만들려고 시도한다면 거의 실시간으로 가짜를 만들어야 한다는 의미입니다."

인증 회사 AuthID는 딥페이크 프레젠테이션 공격을 물리치기 위해 인증 과정 동안 개인의 생동감을 감지하기 위해 다양한 기술을 사용합니다.

"우리는 수동적 생동감 감지부터 시작하여 카메라 앞의 ID와 사람이 실제로 실시간으로 존재하는지 확인합니다. 우리는 인쇄물, 화면 재생, 비디오를 감지합니다,"라고 회사는 "딥페이크 대응 조치 2025"라는 백서에 썼습니다. "가장 중요한 것은, 우리의 시장 선도 기술이 딥페이크에 존재하는 가시적 및 비가시적 아티팩트를 모두 검사한다는 것입니다."

카메라가 우회되고 가짜 이미지가 컴퓨터에 직접 삽입되는 주입 공격을 물리치는 것은 더 어렵습니다. AuthID는 장치 무결성 확인, 조작 흔적이 있는 이미지 분석, 서버에 도착하는 이미지 검증과 같은 비정상적인 활동 탐색 등 여러 기술을 사용합니다.

"[이미지]가 적절한 자격 증명 없이 나타나면, 그것은 유효하지 않습니다," 백서에서 회사는 썼습니다. "이것은 프론트엔드와 백엔드 간의 일종의 조정을 의미합니다. 서버 측은 프론트엔드가 어떤 유형의 서명과 함께 무엇을 보내는지 알아야 합니다. 이런 방식으로, 최종 페이로드는 합법적인 출처를 나타내는 승인 별표와 함께 제공됩니다."

딥페이크 공격을 가능하게 하는 AI 기술은 앞으로 개선될 가능성이 있습니다. 이는 기업들이 지금 인증 과정을 강화하기 위한 조치를 취하거나 잘못된 사람들이 운영에 접근하도록 허용할 위험을 감수해야 한다는 압박을 가하고 있습니다.

카테고리:

AI/ML/DL, 금융 서비스, 분야, 보안, 소프트웨어

태그:

인증, 딥페이크, 사기