2025년에는 실제와 AI가 생성한 동영상 사이의 명확한 구분이 사라질 수 있습니다

Photo by ActionVance on Unsplash

2025년에는 실제와 AI가 생성한 동영상 사이의 명확한 구분이 사라질 수 있습니다

읽는 시간: 5 분

AI가 생성한 콘텐츠는 여기에 머무르게 될 것입니다. 그것은 점점 더 발전하고 있으며, 우리는 2024년에 AI 기술에서 상당한 개선을 보았습니다. 우리는 2025년에 무엇이 진짜이고 무엇이 아닌지를 구분할 수 있을까요?

저는 최근에 인스타그램에 게시된 게시물을 보고 약간 눈을 찡그리며 “그것이 진짜 여성인가?”라고 물었습니다. 잠시 후에 “아니, 그것은 반드시 AI가 생성한 것이다”라고 결론 내렸습니다. 그런 다음 저는 즉시 궁금해했습니다: 내년에도 우리는 몇 초 안에 차이를 알 수 있을까요? 특히 소셜 미디어에서는 최근 AI 기술 개발의 큰 진전이 그렇게 나타내고 있습니다.

몇 일 전, 인스타그램의 수장인 아담 모세리가 스레드에서 이 문제에 대한 메시지를 공유하였습니다. “생성형 AI는 현실의 기록과 구별하기 어려운 콘텐츠를 확실히 생성하며, 빠르게 발전하고 있다”고 그는 썼습니다. 모세리는 메타가 AI가 생성한 콘텐츠를 태깅하는데 어려움을 겪고 있으며, 그들의 소셜 미디어 플랫폼에서 매초 공유되는 대량의 미디어를 관리하고 모니터링하는 것이 어렵다는 것을 공개적으로 인정했습니다.

모세리는 메타의 책임에서 손을 뗐고 사용자들에게 게시물이 실제인지 아닌지 판별하는 것은 그들에게 달렸다고 경고했습니다. “현실의 계정이나 기록이라고 주장하는 콘텐츠를 소비할 때 관찰자나 독자가 신중한 판단력을 가지고 있어야 한다는 것이 점점 중요해질 것입니다”라고 그는 덧붙였습니다.

몇 일 후, OpenAI가 Sora Turbo를 출시했습니다. 이는 강력한 AI 비디오 생성기로, Pro와 Plus 사용자들이 텍스트 프롬프트로부터 현실적인 비디오를 생성할 수 있게 해주었습니다. 사용자들은 단 몇 분 만에 매혹적인 현실감 있는 비디오를 만들기 시작하고 소셜 미디어에 공유하기 시작했습니다.

마치 비디오 제작의 새로운 수준에 도달한 것처럼 보였던 순간, Google은 최신 AI 비디오 도구, Veo 2를 발표했습니다. 이는 Sora보다 해상도가 높고 클립이 더 길었습니다. 물론, 고급 기술에 접근할 수 있었던 사람들이 공유한 결과는 더욱 인상적이었습니다.

“이제는 이게 AI라는 걸 아무도 못 말하겠어,”라는 한 사용자의 글입니다.

이미 일어나고 있는 현상

2024년 동안, 우리는 AI가 생성한 콘텐츠가 인구, 선거, 그리고 소셜 미디어 사용자들에게 어떤 영향을 미쳤는지 목격했습니다.

1월에는 뉴햄프셔 주민들이 “조 바이든으로부터” 전화를 받아 기본 선거에 투표하지 말라는 메시지를 받았습니다. 이 사기 행위의 배후에는 정치 컨설턴트 스티브 크레이머가 있었으며, 그는 AI 딥페이크 로보콜을 이용한 벌금 600만 달러를 부과받았습니다. 정부는 AI가 미치는 영향을 이해하고 있으며, 싱가포르와 같은 나라들은 딥페이크 콘텐츠를 식별하도록 도와주는 법률과 전략을 개발하고 있습니다.

베네수엘라에서는 AI가 생성한 비디오가 오해를 불러일으키는 정보를 퍼뜨리고 있지만, AI 아바타를 통해 검열을 우회하여 기자들이 정보를 전달하는 데에도 도움을 주고 있습니다.

사람들이 무엇이 진짜이고 무엇이 가짜인지 구별하는 데 어려움을 겪고 있는데, 그건 그들의 잘못이 아닙니다: AI가 생성한 콘텐츠는 점점 더 진화하고 있기 때문입니다.

고품질의 AI가 생성한 콘텐츠는 모든 형태로; 텍스트, 오디오, 비디오 등에서 성장하는 사업입니다. 많은 OnlyFans 창작자들이 현재 챗봇에 의존하여 팬들과 대화를 나누고 있습니다, 이것은 이전에는 저소득 국가의 임시직 노동자들에게 맡겨졌던 일입니다. 새롭게 등장한 AI 모델들은 미련한 기술에 특화되어 팔로워들로부터 $1,000의 팁을 얻기도 했습니다.

4월에는 Nvidia가 지원하는 스타트업 Synthesia가 인간의 감정을 표현할 수 있는 AI 아바타를 출시하였으며, 이 아바타는 130개 언어로 말할 수 있습니다. TikTok은 회사들이 Getty Images 콘텐츠를 사용하여 AI로 생성된 광고를 만들 수 있게 허용하고 있고, 이제 YouTube 크리에이터들은 새로운 AI 자동 더빙 기능을 사용하여 그들의 콘텐츠를 9개 언어로 번역할 수 있습니다. 또한 앞으로의 업데이트에서는 원래의 목소리를 복제할 것입니다.

Zoom은 사용자들이 메시지를 녹음하거나 회의에 참여할 수 있도록 사용자를 닮은 AI 아바타를 만드는 작업을 진행하고 있습니다. 이 도구는 내년에 출시될 예정이지만, 이미 여러 도구들이 테스트되어 왔고, 회사들은 이미 사진과 같이 사실적인 AI 클론을 만들 수 있습니다.

당신이 마지막으로 Zoom 통화를 할 때, 진짜 사람과 대화를 한 것이 확실한가요?

AI에 의해 생성된 것인지 어떻게 알 수 있을까요? 지금까지는

우리는 이 디지털 시대에 혼란스러운 시기를 보내고 있습니다. 필터는 누구든지 피부 결점이 없는 모델처럼 보이게 할 수 있고, Instagram이나 Snapchat에서는 Photoshop 수준의 보정을 클릭 한 번만으로 할 수 있습니다- “자연스러운” 이미지, 모든 결점을 공유하고 싶을 사람이 얼마나 될까요? 특히 그것이 몇 초 만에 향상될 수 있다면요. 우리는 점점 더 많은 광고에서 인공지능이 생성한 사진같이 현실적인 이미지를 보면서, 그것들이 점차 익숙해지고 “정상적”으로 느껴지게 만듭니다. 그리고 매일, 세계 곳곳에서 놀라운 사건들이 우리에게 질문을 던지게 합니다: 무엇이 진짜이고, 무엇이 더 이상 진짜가 아닌지는 무엇일까요?

대형 AI 회사들은 AI가 생성한 콘텐츠를 쉽게 인식하고 발견할 수 있도록 워터마크에 대한 작업을 진행하고 있습니다. Google DeepMind는 지난 10월 AI 비디오, 텍스트, 오디오에 태그를 붙이는 오픈소스 워터마크 시스템을 출시하였으며, Meta 역시 AI 비디오 도구에 워터마크를 포함시켰습니다.

그러나 이러한 시스템의 효과는 의문스럽습니다. 먼저 Meta가 모든 AI 생성 콘텐츠에 태그를 붙일 수 없다는 사실을 인정한 것부터 시작입니다. 악의적인 행위자들은 여전히 워터마크를 제거하는 방법을 찾아낼 수 있으며, 더욱 효과적인 시스템을 구축하기 위해서는 소셜 미디어 회사와 정부 간에 더 많은 법률, 협력, 합의가 필요합니다.

지금 당장은, 본능을 믿는 것 외에도, 우리는 소셜 미디어에 공유하거나 본 것을 믿기 전에 몇 가지 질문을 해볼 수 있습니다:

  • 모세리가 권장한 것처럼, 다음을 생각해보세요: 누가 이 정보를 공유하고 있나요? 이 출처는 믿을 만한 곳인가요?
  • 그 사람의 표정이나 움직임이 로봇처럼 느껴지나요? AI 아바타는 상당히 현실적으로 보일 수 있지만, 조금은 이상하게 딱딱하거나 감정이 없어 보이는 것을 인식하는 것이 여전히 가능합니다. 비록 Synthesia와 같은 몇몇 회사들이 이 부분을 개선하고 있지만요.
  • 내용이 강한 감정 반응을 유발하도록 설계되었나요? 악의적인 행위자들은 우리가 얼마나 쉽게 부정적인 뉴스를 공유하고 소셜 미디어에서 감정적으로 충전된 자료와 상호작용하는지 알고 있으며, 연구 결과도 이를 확인하고 있습니다. 당신을 분노하게 한 그런 내용을 다른 사람들도 분노하게 하려고 공유하기 전에, 그것이 논란을 일으키기 위해 설계된 것인지, 아니면 실제 뉴스나 실제 사건인지 생각해 보세요.
  • 다른 출처로 내용을 확인할 수 있나요? 신뢰할 수 있는 출처로 다시 확인하는 것은 결코 나쁘지 않습니다.

그리고 마지막으로, 여러분 스스로에게 또는 선호하는 챗봇에게 어떻게 비판적 사고를 개선할 수 있는지 물어본 적이 있나요? 비판적인 마음을 개발하는 것은 분명히 모두의 새해 다짐 항목에 포함되어야 합니다.

이 기사가 마음에 드셨나요? 평가해 주세요!
정말 싫습니다 별로 좋아하지 않습니다 괜찮습니다 꽤 좋습니다! 정말 좋습니다!

마음에 드셨다니 기쁩니다!

Trustpilot에 여러분의 의견을 남겨 주실 수 있으실까요? 리뷰는 WizCase에게 큰 힘이 됩니다. 감사합니다!

Trustpilot에 리뷰 남기기
0 0명의 사용자가 투표
제목
코멘트
피드백을 주셔서 감사합니다
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

댓글 달기

Loader
Loader 더 보기