보이스피싱보다 무서운 '딥페이크'
"엄마, 나 폰 고장 났어. 급하게 돈 좀 보내줘." 이 문자 한 줄에 가슴이 철렁했던 기억, 한 번쯤은 있을 것이다. 그런데 이제는 문자가 아니다. 진짜 손주의 얼굴로, 진짜 손주의 목소리로 영상통화가 걸려온다. 화면 속 그 아이가 내 아이가 맞는지, 사람은 어떻게 판단해야 하는가.
딥페이크(Deepfake) 기술은 이미 일상 속으로 깊숙이 들어와 있다.
전문가들은 2026년이면 인터넷에 유통되는 콘텐츠의 90퍼센트가 인공지능이 생성한 것이 될 것이라고 경고한다. 타인의 얼굴을 무단으로 합성하고, 발화를 조작하는 범죄는 이미 한국 사회에서도 현실이 됐다. 우리가 당연하게 믿어왔던 '눈으로 본 것', '귀로 들은 것'이라는 감각적 신뢰의 근거가 무너지고 있다.
이러한 딥페이크(Deepfake) 기술의 악용을 막기 위해서 유튜브를 제작하는 Creator에 대해서 엄격한 정책을 구글이 시행하고 있는데, 그중에 하나가 유튜브를 제작하는 영상물이 AI를 이용해서 만들고, 이것이 일반 사람들이 진짜로 믿어지게 하는 경우에 자진해서 영상은 AI로 만든 것임을 알리는 정책을 만들어 놓았고, 이를 어길시에 영상의 Upload를 막고, 관련채널을 정지시키는 정책을 시행하고 있다.
기술의 발전 자체를 막을 수는 없다. 그러나 기술이 사람을 해치는 수단으로 전락하는 것은 막아야 한다. '설계에 의한 안전(Safety by Design)'이라는 개념이 있다. 제품과 서비스를 만들 때부터 피해 예방 장치를 의무적으로 내재화하자는 원칙이다. AI 생성 콘텐츠에 워터마크를 의무화하고, 딥페이크 피해를 빠르게 구제할 수 있는 법적 경로를 마련하는 일이 더는 미룰 수 없는 과제가 됐다.
기술은 이미 달리고 있다. 법과 제도가 그 속도를 따라가야 할 때다.
등록된 댓글이 없습니다.