Skip to the content

조작된 증거, 나의 알리바이를 증명해주세요.

딥페이크, deepfake

어느 날 당신은 낯선 사람이 보낸 이메일을 한 통 받게 됩니다. 메일에는 15초짜리 짧은 동영상과 함께 ‘돈을 내놓지 않으면 당신의 범죄 사실을 경찰에 신고하겠다’라는 짧은 메시지가 적혀 있습니다. 영상 속에는 끔찍한 범죄를 저지르고 있는 누군가, 아니 바로 당신의 모습이 선명하게 찍혀 있습니다. 하지만 당신은 결코 그런 범죄를 저지르지 않았습니다. 무엇보다 영상 속 범행 장소에 간 적도 없는데 말이죠. 하지만, 영상 속 범인의 얼굴은 틀림없이 당신입니다. 이러한 상황에서 여러분들은 어떻게 자신의 무죄를 입증하겠습니까?

진짜 같은 가짜, ‘딥페이크’의 공포

메일에 첨부된 영상은 딥페이크(Deep Fake)[관련기사] 영상입니다. 딥페이크란, AI 기계학습(Machine Learning)을 통해 얼굴이나 특정 부위를 합성하는 기술로 CG나 영화제작에 활용되고 있습니다. 최근 몇 년간 소프트웨어와 하드웨어의 발전으로 다양한 혁신이 이루어지고 있는데요. 하지만 빛이 있으면 그림자도 있는 법. 이 기술을 악용해 타인의 얼굴을 합성하여 범죄에 활용하는 등 피해가 발생하고 있습니다.

딥페이크, skt, sk텔레콤, deepfake

지금까지는 비교적 얼굴 사진을 쉽게 구할 수 있는 유명인이나 연예인이 주 피해자였습니다. 하지만 최근 사진 기반 SNS의 유행으로 누구도 딥페이크 영상의 피해에서 벗어날 수 없게 되었습니다. 특히, 딥 페이크 기술은 단순히 합성 영상을 만드는 데 그치지 않고, 가짜 범죄의 증거로 활용하려는 시도가 점차 증가하고 있어 이에 대한 각별한 주의가 필요한 상황입니다.

만약 여러분이 위와 같은 억울한 상황에 빠졌다면, 다음 중 한 가지 이상의 방법으로 여러분의 무고를 증명해야만 합니다.
첫째, 사건 시각, 현장에 없었음을 증명할 것
둘째, 사건 시각, 현장에 있었지만 사건과 무관함을 증명할 것
셋째, 동영상이 조작되었음을 증명할 것

증명 방법 1: 전자 신분증 이용하기

딥페이크, deepfake

▲ SKT의 블록체인 기반 모바일 전자 증명 서비스, initial(이니셜) 애플리케이션

블록체인 기반의 신원 증명 서비스인 전자 신분증은 사건 당시 그 현장에 없었음을 증명하는 좋은 방법입니다. 전자 신분증은 내 스마트폰에 신분증을 보관해두고, 신분 확인이 필요할 때마다 제출하는 방식인데요. 이것은 블록체인을 이용해 신분 증명뿐 아니라 제출 기록도 데이터로 남겨지기 때문에 누군가 임의로 기록을 조작할 수 없습니다. 만약, 범행 시각에 여러분이 편의점 등에서 신분증을 제출한 기록이 있다면 여러분의 알리바이는 증명할 수 있습니다. 우리나라는 올해부터 이동통신사, 카드사, 증권사 등이 참여한 ‘이니셜DID엽합’을 통해 전자 신원 증명 서비스를 본격적으로 시작할 예정입니다.

증명 방법 2: 클라우드 보안 영상 이용하기

deepfake, 딥페이크

당신이 사건 시각 범행 현장에 있었지만, 사건과는 무관한 행동을 했다면 그것은 어떻게 증명할 수 있을까요? 이때는 조작 영상이 아닌 사건 현장이 담긴 진짜 CCTV 영상을 찾으면 되겠죠. 과거 CCTV는 폐쇄회로(Closed Circuit) 방식으로 촬영 영상이 카메라 근처 레코더에 저장되었습니다. 이 방식은 편리하긴 했지만 레코더를 고의로 파손할 경우, 기록 영상은 영영 확인할 수 없습니다. 즉, 범인은 쉽게 증거를 훼손할 수 있으며 결정적인 증거는 사라지는 것이죠. 하지만 오늘날 CCTV 영상은 클라우드 기술 도입으로 네트워크를 통해 원격지에 있는 클라우드 데이터 센터에 저장됩니다. 따라서 범행 현장의 클라우드 영상 보안 서비스만 찾으면 원본 영상을 취득해 무고를 입증할 수 있습니다.

tview, 딥페이크, 클라우드영상보안, 영상보안, cctv

▲ 클라우드 영상 보안 서비스, T-view

증명 방법 3: 동영상 조작 증거 찾기

마지막으로, 동영상이 처음부터 조작되었다는 증거를 찾아 증명할 수 있습니다. 일반적으로 딥페이크 영상은 3단계 순서로 제작됩니다. (1단계) 원본 영상 속 얼굴 감지 → (2단계) 감지된 위치에 타인의 얼굴 합성 → (3단계) 합성한 얼굴 이미지를 원본 이미지와 혼합 하는 과정이 필요합니다. 그리고 딥페이크 영상임을 감지하는 기술은 2단계와 3단계에 초점을 맞추고 있습니다.

딥페이크, deepfake

▲ 출처 및 참고. Medium(https://bit.ly/2zv6CBQ), War on Deepfakes, Christopher Dossman

먼저, 합성을 감지하는 기술은 보통 얼굴 이미지가 어떻게 편집되는지 그 패턴을 학습해 유사한 형태로 합성된 이미지를 선별하는 방식입니다. 인터넷에 널리 퍼진 딥페이크 제작 프레임워크를 사용해 만든 영상은 높은 확률로 검출됩니다. 하지만, 새로운 형태의 합성 패턴이 출현하면 정확도가 떨어지는 단점을 가지고 있습니다.
3단계에는 이미지 혼합을 감지하는 기술이 활용됩니다. 이때는 합성된 이미지의 데이터에 초점을 맞춥니다. 원본 데이터와 합성 데이터는 촬영 장비나 이미지 처리 방식이 서로 다르므로 사람 눈에는 보이지 않는 미세한 데이터 차이를 가집니다. 이런 차이는 경계선 형태로 나타나기 때문에 합성 패턴이 바뀌어도 조작 증거를 찾아낼 수 있습니다. 이에, 매년 페이스북, MS, AWS 등을 중심으로 결성된 AI 파트너십에서는 딥페이크 감지 기술 발전을 위해 경진 대회를 개회하고, 검증 기술의 정확도를 높여가고 있습니다.

딥페이크 영상에 대한 법적·사회적 보호 요구

deepfake, 딥페이크

우리나라 법 제도에 따르면, 수사기관이 적법하게 취득한 영상 녹화물일 경우에 비진술증거로 취급해 증거능력 일부를 인정하고 있습니다. 물론, 인위적인 편집이나 조작된 영상이 아닌 원본 영상이라는 가정이 전제이죠. 하지만 증거로 제출된 영상이 이미 조작된 영상이라면, 이는 수사 과정에서 큰 혼란을 일으킬 수 있습니다. 뿐만 아니라, 누군가 저지르지도 않은 범죄에 대해 억울한 누명을 쓸 수도 있습니다.

이제는 점점 정교해지는 딥페이크 기술에 대한 법적, 기술적 보호 장치가 시급한 때입니다. 예를 들면, 원본 영상·이미지에 대해 공공성을 가진 기관의 디지털 인증제도를 도입하거나 기술적 보호 장치 등을 통해 큰 혼란을 막을 수 있을 것입니다. 하루빨리 가짜 영상 또는 조작된 영상으로 인한 피해가 일어나지 않도록 법적·사회적 영역에서 적극적인 논의가 필요한 시점입니다.

글. SKT 블록체인플랫폼개발팀 김성택

콘텐츠 사용 안내
콘텐츠 사용 시에는 SK텔레콤 뉴스룸 출처 표기를 부탁드립니다.
카카오 채널 안내
SK텔레콤 뉴스룸 채널을 추가해 보세요.
추가하기