
Image by memyselfaneye, from Pixabay
킬 대학교 연구진들이 발표한 99% 정확도를 가진 가짜 뉴스 탐지기
킬 대학교의 연구자들이 99%의 정확도로 가짜 뉴스를 탐지하는 도구를 개발했습니다. 이를 통해 온라인에서 빠르게 확산되는 잘못된 정보 문제에 대한 해결책을 제시할 수 있을 것입니다. 이 개발은 어제 대학에서 발표되었습니다.
급하신가요? 여기 빠른 요약이 있습니다!
- 킬 대학교의 연구자들이 99%의 정확도로 가짜 뉴스를 탐지하는 도구를 개발하였습니다.
- 이 도구는 여러 기계 학습 모델을 결합한 “앙상블 투표” 시스템을 사용합니다.
- 이 도구는 뉴스 내용을 평가하여 출처의 신뢰성을 판단합니다.
컴퓨터 과학과 수학 학부의 Dr. Uchenna Ani, Dr. Sangeeta Sangeeta, 그리고 Dr. Patricia Asowo-Ayobode로 구성된 팀은 다양한 기계 학습 기술을 활용하여 뉴스 콘텐츠의 신뢰성을 평가할 수 있는 모델을 개발하였습니다.
이 도구는 “앙상블 투표” 방식을 사용하여, 여러 기계 학습 모델의 예측을 결합해 뉴스 출처가 신뢰할 수 있는지에 대한 전반적인 판단을 내립니다. 초기 테스트에서는 이 방법이 기대를 초월하여 99%의 경우에 가짜 뉴스를 판별해냈다는 결과가 나왔습니다.
Keele 대학의 사이버 보안 강사인 Ani 박사는 오보가 초래하는 도전과제를 강조하였습니다. 그는 거짓 정보의 널리 퍼진 전파가 공론을 저해하며, 태도와 행동에 영향을 미치는 것을 지적하였으며, 이는 지역 및 국가 안보에 위험을 초래할 수 있다고 말하였습니다.
연구자들은 AI와 머신 러닝 기술이 발전함에 따라 모델을 더욱 세밀하게 개선하고자 하며, 신뢰할 수 없는 컨텐츠를 식별하는 데 더욱 정밀한 결과를 얻기를 바라고 있다. 아니 박사는 특히 소셜 미디어와 같이 오해가 가장 많이 퍼져 있는 온라인 플랫폼의 신뢰성을 보호하기 위한 해결책 개발의 시급성을 강조하였다.
민주주의를 촉진하는 베를린에 기반을 둔 조직인 Democracy Reporting International (DRI)의 초기 연구는 AI 시스템, 특히 오픈소스 대형 언어 모델(Large Language Models, LLMs)이 오해를 퍼뜨리는 데 상당한 위험을 초래할 수 있다고 경고하였다.
DRI는 이러한 위험이 Dolly, Zephyr, Falcon과 같은 모델들이 강력한 보호 조치 없이 종종 출시되기 때문에 발생한다고 말합니다. 이로 인해 이 모델들은 악용되기 쉬운 취약점을 가지게 됩니다.
이들의 접근성은 최소한의 기술적 기술만을 필요로 하므로, 악의적인 행위자들이 거짓 이야기나 혐오 발언을 생성하기 위해 이들을 조작하는 것을 가능하게 합니다. 이런 낮은 진입 장벽은 디스인포메이션 확산의 위험을 더욱 심화시킵니다.
게다가, DRI는 Zephyr과 같은 오픈 소스 LLM들이 놀랄 만한 능력을 보여주고 있다고 말합니다. 즉, 직접적이거나 암시적인 제시에 따라 구조화된 설득력 있는 악성 콘텐츠를 생성할 수 있다는 것입니다.
이러한 결과물들은 종종 일관성이 있고 문맥상 적절하므로, 거짓된 서술을 형성하는데 특히 위험하다고 할 수 있습니다. 게다가, 이러한 모델에 내재된 편향성은 종종 사회적 편견을 반영하여, 유해한 스테레오타입을 퍼뜨리는 위험을 더욱 가중시킵니다.
개발 중인 이 도구는 키일 대학에서 개발되었으며, 디지털 커뮤니케이션에서의 잘못된 정보 문제를 해결하기 위한 한 걸음을 나타냅니다.
댓글 달기
취소