광고 닫기

딥페이크(Deepfake) - 사진이나 동영상 속 사람의 얼굴을 다른 사람의 얼굴로 대체할 수 있게 하는 기술은 최근 몇 년간 실제 영상과 가짜 데이터의 차이가 점점 더 복잡해지는 형태로 발전했습니다. 예를 들어 포르노 콘텐츠가 포함된 사이트에서는 딥페이크를 사용하여 유명 배우의 모습을 담은 흥미진진한 동영상을 제작합니다. 물론 이 모든 일은 공격받는 인물의 동의 없이 이루어지며, 머신러닝을 활용한 기술이 점점 정교해짐에 따라 다른 형태의 남용에 대한 두려움도 확산되고 있습니다. 딥페이크가 법정 증거로서 디지털 기록의 신뢰성을 완전히 떨어뜨릴 수 있다는 위협은 현실이며 다모클레스의 검처럼 사법 부문에 걸려 있습니다. 이제 좋은 소식은 목록의 진위 여부를 확인할 수 있는 간단한 방법을 제시한 Truepic에서 나왔습니다.

제작자는 이 새로운 기술을 Foresight라고 불렀으며 추가 비디오 분석 및 딥페이크 여부를 판단하는 대신 개별 녹음을 해당 녹음이 생성된 하드웨어에 연결하여 진위 여부를 확인합니다. Foresight는 암호화된 메타데이터의 특별한 세트를 사용하여 생성된 모든 기록에 태그를 지정합니다. 데이터는 일반적인 형식으로 저장되며, 페이지 미리보기에서 Android 경찰 회사는 이렇게 확보한 이미지를 JPEG 형식으로 저장할 수 있음을 시연했다. 따라서 호환되지 않는 데이터 형식에 대한 두려움이 없습니다.

그러나 이 기술은 작은 파리의 줄로 인해 어려움을 겪고 있습니다. 가장 큰 문제는 아마도 파일에 적용된 변경 사항이 아직 기록되지 않았다는 사실일 것입니다. 해결책은 이 보안 방법을 지원할 더 많은 회사를 참여시키는 것입니다. 따라서 이 기술의 성공 여부는 주로 삼성전자와 Applem. 누군가가 당신의 외모를 남용할까봐 두렵나요? 기사 아래 토론에서 여러분의 의견을 공유해 주세요.

오늘 가장 많이 읽은 책

.