
Image by Freepik
연구 결과, 청소년들이 AI가 생성한 콘텐츠에 더욱 속아 넘어가고 있다고 밝혀져
점점 더 많은 청소년들이 진짜와 조작된 온라인 콘텐츠를 구별하는 데 어려움을 겪고 있으며, AI가 생성한 미디어는 이 혼란을 가중시키고 있습니다.
서두르세요? 여기에 핵심 사실들이 있습니다!
- 많은 청소년들이 나중에 가짜라는 것을 알게 된 콘텐츠를 공유한 적이 있습니다.
- 많은 청소년들이 기술 회사들이 그들의 정신 건강을 우선시할 것이라고 믿지 않습니다.
- 대부분의 청소년들은 투명성을 위해 AI가 생성한 콘텐츠에 워터마크를 붙이는 것을 지지합니다.
최근의 보고서에 따르면 35%의 청소년이 가짜 컨텐츠에 속았으며, 22%는 나중에 거짓이라는 사실을 알게 된 컨텐츠를 공유했다고 인정했습니다. 또한 28%는 자신이 사람과 대화를 나누고 있는지, 아니면 챗봇과 대화를 나누고 있는지 의심했습니다.
이러한 경험들은 청소년들이 온라인 정보에 대한 신뢰를 크게 재구성하게 만들었습니다. 이 보고서에서는 72%의 청소년들이 기만적인 자료를 접한 후 디지털 콘텐츠를 평가하는 방식을 변경하였다고 밝혔습니다.
또한, 35% 이상이 생성 인공지능이 온라인 정보에 대한 신뢰를 더욱 약화시킬 것이라고 믿습니다. 거짓 내용에 속아본 사람들은 더욱 더 회의적이며, 40%가 AI가 정확성을 검증하는 것을 더 어렵게 만들 것이라고 말하고 있습니다. 이와 비교하여, 비슷한 경험이 없는 사람들 중 27%만이 이렇게 생각하고 있습니다.
창조적 AI는 특히 학교 환경에서 청소년들 사이에서 심각한 신뢰성 문제에 직면하고 있습니다. 학교 과제를 위해 AI를 사용한 학생들 중 거의 2/5(39%)가 AI가 생성한 콘텐츠에서 부정확성을 발견했다고 보고했습니다. 한편, 36%는 문제를 발견하지 못했고, 25%는 확신이 없었습니다.
이는 교육적 맥락에서 AI의 신뢰성에 대한 우려를 불러일으키며, 청소년들이 AI가 생성한 콘텐츠를 평가하는 데 도움이 될 더 나은 도구와 비판적 사고 능력의 필요성을 강조합니다.
AI를 넘어서, 주요 기술 회사에 대한 신뢰는 여전히 낮습니다. 약 64%의 청소년들은 대형 기술 회사들이 그들의 정신 건강을 우선시하지 않는다고 생각하고, 62%는 이러한 회사들이 이익에 해가 될 경우 사용자의 안전을 보호하지 않을 것이라고 생각합니다.
또한 절반 이상이 기술 거인들이 윤리적인 디자인 결정을 내릴 것이라는 확신이 없으며(53%), 개인 데이터를 안전하게 보호하거나(52%), 다양한 사용자의 요구를 공정하게 고려할 것이라는 확신이 없습니다(51%). AI와 관련해서는, 47%가 기술 회사들이 그 사용에 대해 책임감 있는 결정을 내릴 것이라는 확신이 적습니다.
이러한 우려에도 불구하고, 청소년들은 생성적 AI를 위한 보호 조치를 강력히 지지합니다. 거의 4명 중 3명(74%)이 개인정보 보호와 투명성을 주장하며, 73%는 AI가 생성한 콘텐츠에는 라벨 또는 워터마크가 있어야 한다고 믿습니다. 또한, 61%는 AI 모델이 그들의 작업을 훈련에 사용할 때 콘텐츠 제작자들이 보상받아야 한다고 원합니다.
CNN은 청소년들의 빅테크에 대한 불신이 미국 주요 기술 기업에 대한 더 넓은 불만을 반영한다고 지적합니다. 미국 성인들 역시 디지털 보호 조치의 약화로 인해 오해를 불러일으키거나 가짜 콘텐츠의 수준이 상승하고 있습니다.
창조적 AI가 디지털 풍경을 재구성함에 따라, 잘못된 정보를 처리하고 신뢰를 회복하기 위해서는 기술 회사, 교육자, 정책 입안자, 그리고 청소년들 자신들 사이의 협력이 필요합니다.
디지털 리터러시를 강화하고 명확한 AI 거버넌스 표준을 시행하는 것이 훨씬 투명하고 신뢰할 수 있는 온라인 환경을 보장하는 데 필수적일 것입니다.
댓글 달기
취소