2024.11.22 (금)

  • 맑음동두천 7.4℃
  • 구름조금강릉 10.0℃
  • 맑음서울 7.7℃
  • 맑음대전 9.7℃
  • 맑음대구 11.2℃
  • 맑음울산 12.0℃
  • 맑음광주 11.9℃
  • 맑음부산 12.3℃
  • 구름조금고창 11.2℃
  • 구름조금제주 16.3℃
  • 맑음강화 7.4℃
  • 맑음보은 9.0℃
  • 맑음금산 9.9℃
  • 구름조금강진군 13.1℃
  • 맑음경주시 10.9℃
  • 맑음거제 12.4℃
기상청 제공

[이아아의 MZ세대 찍어 먹기] 아니 땐 굴뚝에 연기 날 수 있음: 초실재의 시대, 딥페이크에 맞서려면

 

딥페이크(Deepfake) 기술은 인공지능의 딥러닝(Deep learning)을 이용해 영상과 음성을 조작해 실제와 구분하기 어려운 가짜(fake) 콘텐츠를 만들어내는 기술이다. 이 기술은 2017년 외국의 한 인터넷 사이트의 이용자가 유명인의 얼굴을 성적인 영상에 합성한 사건으로 처음 대중의 주목을 받았고, 이후 정치적 인물의 조작 영상 등이 등장하며 더 큰 논란을 일으켰다. 특히, 여성에 대한 성적 범죄에 악용되는 경우가 늘어나면서 윤리적 문제가 대두되고 있다. 이러한 딥페이크 기술을 이해하는 데 있어 프랑스 철학자 장 보드리야르의 시뮬라크르(Simulacrum) 개념은 중요한 통찰을 제공한다.

 

보드리야르는 시뮬라크르를 통해 현대 사회에서 현실과 복제물의 경계가 어떻게 사라지는지를 설명했다. 전통적으로 복제물은 원본을 모방하거나 재현하는 것이지만, 시뮬라크르는 원본이 무엇인지조차 흐릿하게 만들며 복제물이 독립된 의미를 갖게 되는 현상을 나타낸다. 쉽게 말해, 복제물이 원본을 대신하거나 아예 대체해 버리는 상황이다. 예를 들어, 광고 속 완벽한 이미지들은 실제 사람보다 더 아름답고 이상화된 모습으로 소비자에게 다가간다. 이런 이미지가 반복되면서 사람들은 그 완벽한 모습을 실제로 존재하는 것처럼 받아들이고, 이를 통해 만들어진 이상이 현실을 왜곡한다. 결국 사람들은 실제보다 더 진짜 같은 가상의 이미지를 현실로 인식하게 되는 것이다.

 

딥페이크 기술도 시뮬라크르의 극단적인 사례다. 딥페이크 영상 속 인물은 실제 사람의 얼굴과 목소리를 기반으로 하지만, 그 사람이 하지 않은 말이나 행동을 보여준다. 가짜 영상은 너무나도 정교하게 만들어져 실제와 구별하기 어렵고 사람들은 이 가짜를 진짜처럼 믿게 된다. 이로써 보드리야르가 말한 초실재(hyperreality), 즉 가짜가 진짜보다 더 진짜처럼 느껴지는 현상이 나타난다. 딥페이크는 바로 이러한 초실재를 만들어내며, 현실과 허구의 경계를 무너뜨리며, 나아가 가짜가 진짜를 위협하고 있다.

 

슬로베니아의 철학자 슬라보예 지젝은 딥페이크가 만들어내는 이 초실재가 사회정치적 문제를 야기할 수 있다고 경고한다. 딥페이크 기술이 정치적 목적으로 사용될 경우, 대중은 조작된 정보를 진짜로 믿고 잘못된 판단을 할 위험이 크다. 예를 들어, 선거 기간 중 특정 정치인을 비방하거나 미화하는 딥페이크 영상이 유포되면, 대중은 그 영상을 실제 상황으로 받아들일 수 있다. 지젝은 이러한 정치적 조작과 여론 왜곡의 위험을 막기 위해 강력한 법적 규제가 필요하다고 주장한다. 가짜 영상을 제작하고 유포하는 행위에 대한 엄격한 처벌과 함께, 사람들이 가짜 정보를 비판적으로 인식할 수 있는 디지털 문해력 교육이 필수적이라는 것이다. 이를 통해 딥페이크가 만들어내는 초실재에 사람들이 쉽게 휘둘리지 않도록 해야 한다.

 

딥페이크 기술은 특히 여성에 대한 성적 범죄에 악용되면서 더욱 심각한 사회적 문제를 야기한다. 영국의 커뮤니케이션 학자 앤젤라 필립스는 딥페이크를 통해 여성의 얼굴을 성인 영상에 합성하거나, 성적 대상으로 만들어 유포하는 사례가 급증하고 있음을 지적했다. 영상 유포와 같은 디지털 성적 범죄는 피해 여성에게 심각한 심리적 고통과 사회적 낙인을 남기며, 이는 곧 여성 인권의 심각한 침해로 이어진다. 필립스는 딥페이크가 여성에게 미치는 해악을 막기 위해서는 법적 대응이 필수적이라고 강조한다. 피해자의 동의 없이 조작된 성적 콘텐츠를 제작하고 유포하는 행위에 대한 강력한 처벌이 이루어져야 하며, 피해자 보호를 위한 사회적 안전망과 심리적 지원 시스템도 강화되어야 한다고 주장한다. 또한 이러한 문제를 해결하기 위해서는 기술적 투명성이 중요하다고 본다. 딥페이크 영상이 가짜임을 명확하게 알 수 있도록, 영상의 출처와 진위를 파악할 수 있는 시스템이 필요하다는 것이다. 동시에 대중이 딥페이크의 위험성을 이해하고 이를 비판적으로 받아들일 수 있는 교육이 이루어져야 한다는 점 또한 잊지 않고 지적한다.

 

다른 AI 기술과 마찬가지로, 딥페이크 기술은 현실과 가상의 경계를 무너뜨리며 정치적 조작과 여성 성적 범죄 등 다양한 문제를 일으키고 있다. 가상이 현실을 위협하고 있는 오늘날의 사태에 대해 위험성을 충분히 인식하고, 이를 규제하며 예방하는 노력이 시급하다. 딥페이크 기술이 영화, 음악 등의 콘텐츠 제작 분야에서 창의적이고 긍정적인 용도로 사용될 가능성도 있지만, 현실에서 누군가의 삶을 위협하고 있다는 사실을 어느 때보다 심각하게 받아들이고 이에 대한 법적, 윤리적, 교육적 대응이 필요하다.









COVER STORY