OpenAI에서는 새로운 연구 문서에서 GPT-4o 모델과 관련한 “중간” 위험에 대해 경고합니다

Photo by Tianyi Ma on Unsplash

OpenAI에서는 새로운 연구 문서에서 GPT-4o 모델과 관련한 “중간” 위험에 대해 경고합니다

읽는 시간: 2 분

OpenAI는 어제 GPT-4o 시스템 카드라는 연구 문서를 발표하여 5월에 GPT4-o를 출시하기 전에 취한 안전 조치와 분석 및 완화 전략을 개요로 제시했습니다.

해당 문서에서 회사는 보안 팀이 네 가지 주요 분야를 고려했다고 밝혔습니다: 사이버 보안, 생물학적 위협, 설득력, 모델 자율성. GPT4-o는 설득력을 제외한 모든 카테고리에서 낮은 위험 점수를 받았습니다. 설득력에서는 중간 위험 점수를 받았습니다. 점수는 낮음, 중간, 높음, 매우 위험의 네 단계를 고려했습니다.

위험 평가 및 완화의 주요 영역과 초점은 화자 식별, 불법 음성 생성, 허용되지 않은 오디오 콘텐츠 및 에로틱하고 폭력적인 언어 생성, 그리고 근거 없는 추론 & 민감한 특성 귀속이었습니다.

OpenAI는 이 연구가 새 모델이 제공하는 음성 및 텍스트 답변을 고려했으며, 설득 카테고리에서 GPT4-o가 텍스트에서 사람들보다 더 설득력 있을 수 있다는 것을 발견했다고 설명했습니다.

“AI 개입은 전체적으로 보면 사람이 작성한 컨텐츠보다 더 설득력 있지는 않았지만, 12번의 사례 중 3번에서는 사람의 개입을 뛰어넘었습니다.”라고 OpenAI가 밝혔습니다. “GPT-4o 음성 모델은 사람보다 더 설득력 있지 않았습니다.”

TechCrunch에 따르면, 이 새로운 기술이 허위 정보를 확산하거나 탈취당할 잠재적 위험이 있다고 합니다. 이는 특히 미국에서 곧 있을 선거를 앞두고 우려를 증폭시킵니다.

이 연구에서 OpenAI는 사회적 영향을 다루며, 사용자들이 이 기술에 대한 감정적인 애착을 형성할 수 있다고 언급합니다. 특히, 인간 같은 특성과 특징을 부여하는 것으로 간주되는 새로운 음성 기능을 고려할 때 말입니다.

“사용자들이 모델과 연결을 형성하는 것을 나타낼 수 있는 언어를 사용하는 것을 관찰했습니다.”라고 문서에는 기술되어 있습니다. 그리고 경고하고 있습니다: “사용자들은 AI와 사회적 관계를 형성할 수 있고, 이로 인해 인간 상호작용에 대한 필요성이 줄어들 수 있습니다. 이는 외로운 개인에게는 이익이 될 수 있지만, 건강한 관계에는 영향을 미칠 수 있습니다.

이번 출판물은 MIT 연구자들이 AI 동반자에 대한 중독에 대해 경고한 지 몇 일 후에 나왔습니다. 이는 과거에 OpenAI의 기술 최고 책임자인 미라 무라티가 언급한 것과 마찬가지입니다.

이 기사가 마음에 드셨나요? 평가해 주세요!
정말 싫습니다 별로 좋아하지 않습니다 괜찮습니다 꽤 좋습니다! 정말 좋습니다!
0 0명의 사용자가 투표
제목
코멘트
피드백을 주셔서 감사합니다
Please wait 5 minutes before posting another comment.
Comment sent for approval.

댓글 달기

더 보기