OpenAI, 내부 불화로 인해 ChatGPT 워터마킹 시스템 출시를 연기
월스트리트 저널에 따르면, OpenAI는 자신들의 ChatGPT AI가 생성한 텍스트를 감지하기 위해 설계된 워터마킹 시스템의 공개 여부를 두고 논의 중입니다. 이 기술은 약 1년 동안 준비되어 왔지만, 내부의 불일치 때문에 출시가 지연되고 있습니다.
OpenAI는 최근에 업데이트된 글에서, 그들의 텍스트 워터마킹 방법이 지역적인 변조에 대해 정확하다고 밝혔습니다. 그러나 이 방법은 전반적인 변조에 취약합니다. 이에는 번역 시스템을 사용하거나, 다른 생성 모델로 재구성하거나, 각 단어 사이에 특수 문자를 삽입한 후 제거하는 등의 방법이 포함됩니다.
OpenAI의 또 다른 주요 우려사항은 그들의 연구가 텍스트 워터마킹 방법이 일부 그룹에게 다른 그룹보다 더 큰 영향을 미칠 수 있다는 것을 제시한다는 점입니다. 예를 들어, 이것은 비영어권 사용자들이 AI를 글쓰기 도구로 사용하는 것에 대한 부정적인 인식을 키울 수 있습니다.
Wall Street Journal에 보도된 바와 같이, 현재의 AI 모델과 관련된 높은 위험 수준으로 인해 OpenAI는 오디오비주얼 콘텐츠 출처 확인 솔루션의 출시를 우선시하고 있습니다. 특히 미국 선거 연도 동안에는 더욱 그렇습니다. 이 회사는 분류기, 워터마킹, 메타데이터와 같은 솔루션을 탐구하며 텍스트 출처에 대해 광범위하게 연구하였습니다.
OpenAI의 대변인은 TechCrunch에게 “우리가 개발 중인 텍스트 워터마킹 방법은 기술적으로 매우 유망하지만, 나쁜 행위자들에 의한 회피 가능성과 영어를 모국어로 사용하지 않는 그룹에 불균형하게 영향을 미칠 가능성 등을 고려해야 하는 중요한 위험성들을 고려하면서 대안을 연구하고 있습니다.”라고 말했습니다.
TechCrunch는 또한 OpenAI의 텍스트 워터마킹이 다른 모델들의 콘텐츠보다는 ChatGPT가 생성한 텍스트를 특정 대상으로 하게 될 것이라고 보도했습니다. 이는 ChatGPT가 단어를 선택하는 방식에 미묘한 조정을 가하는 것을 포함하며, 이로써 별도의 도구로 감지할 수 있는 보이지 않는 워터마크를 생성합니다.
월스트리트 저널에 보도된 한 회사 조사에 따르면, 충성스러운 ChatGPT 사용자들의 거의 3분의 1 정도가 반부정 기술에 의해 기분이 상할 것이라고 밝혔습니다. 이로 인해 OpenAI는 까다로운 상황에 처하게 되었습니다. 직원들은 투명성을 유지하면서도 사용자를 유치하고 유지하고자 하는 데에서 갈등하고 있습니다.
OpenAI 블로그 게시글에서는 생성된 텍스트의 양이 계속해서 늘어나는 만큼, 텍스트 기반 콘텐츠에 대한 신뢰할 수 있는 출처 파악 방법의 중요성이 점점 더 중요해지고 있다고 강조하고 있습니다.
댓글 달기
취소