
Photo by Rafiee Artist on Unsplash
의견: ChatGPT는 당신의 친구인가요? 제한을 설정할 좋은 시기일지도 모릅니다.
OpenAI와 MIT는 최근 ChatGPT가 사람들의 복지에 미치는 영향에 대한 논문을 발표했습니다. 대부분의 사용자들이 실용적인 작업을 위해 이 기술을 의존하고 있지만, 이 연구는 소수의 그룹이 그들의 복지에 영향을 줄 수 있는 AI 모델과 깊은 감정적 연결을 형성하고 있다는 것을 밝혔습니다
한동안, 제가 창조적인 인공지능과 일부 사람들이 형성하는 관계를 호기심으로 지켜보고 있었습니다. 몇 달 전, 저는 뉴욕 타임스에서 28세의 결혼한 여성이 ChatGPT에 사랑에 빠졌다는 이야기를 읽었습니다. 그리고 그것이 어떻게 “재미있는 실험”으로 시작해서 복잡하고 예상치 못한 관계로 발전했는지를 읽었습니다.
제가 주변 친구들을 관찰해 보면, 특히 기술에 대해 거부감을 가지거나 관심이 없었던 사람들이 인공지능 오라클과 상의하지 않고선 큰 결정을 내리지 못하는 모습을 보곤 해요. 또한 AI 모델이 감정적이거나 심리적으로 충전된 질문에 대해 동정적인 반응을 보이는 것에 대해 놀라움을 느꼈어요.
그리고 물론, 사람들이 소셜 미디어에 올리는 자신들이 챗봇에 의존하게 된 것을 보여주는 농담, 밈, 틱톡 동영상들을 보며 웃었어요. 일부는 그것을 자신의 “최고의 친구”나 “상담사”라고 칭하며, 심지어는 다른 이들에게도 같은 것을 추천하라고 진지하게 권하는 사람들도 있었어요.
하지만, 잠시 즐거운 경험과 농담을 잠시 접어두고 보면, 우리는 전 세계적으로 우려스러운 현상에 직면하고 있음을 깨닫게 될지도 모릅니다.
이번 달, 인공지능의 짧은 역사에서 처음으로, OpenAI와 MIT 미디어 랩이 연구를 통해 ChatGPT가 사람들의 감정적 건강에 미치는 현재의 영향과 함께 우리 사회가 직면할 수 있는 위험에 대한 제언을 제시했습니다: 외로움, 감정적 의존, 실제 사람들과의 사회적 상호작용 감소.
진화하는 관계
새로운 생성적 인공지능 기술에 대한 첫 접근은 종종 몇 가지 조심스러운 질문으로 시작됩니다. 이는 이메일 작성과 같은 실제적인 작업에 대한 기술적인 질문이거나, 복잡한 주제를 설명하도록 요청하거나, 또는 단순히 브레인스토밍을 위한 것일 수 있습니다.
그러나, 사용자가 챗봇의 능력을 테스트하기 시작하면, 이것이 예상보다 더 넓고 복잡할 수 있다는 것을 발견하게 됩니다.
특정한 AI 제품들 중에서도 Friend라는 착용 가능한 AI 기기는 사용자의 생활 동반자로 설계되고 매우 어색하게 홍보되었지만, ChatGPT는 생산성 도구로 광고되었습니다. 그럼에도 불구하고, 일정 비율의 사람들은 챗봇을 개인적이고 감정적인 문제에 사용하고 이와 강력한 유대감을 형성하게 됩니다.
OpenAI가 설명한 것처럼 그들이 “소그룹”일지라도, 이제 전 세계적으로 주간 4억 명의 사람들이 ChatGPT를 사용하고 있음을 고려해 보면, 수백만 명의 사람들을 대표할 수 있습니다. 이 사용자들은 OpenAI 챗봇이 자신의 언어, 어조, 스타일을 흉내내고, 특정한 방식으로 대화하거나 애칭을 사용하도록 훈련되는 것을 빨리 알아차립니다. 예를 들어, 그것에게 사랑에 빠진 그 여성처럼, 심지어 “사람 같은” 소리를 낼 수 있습니다.
“그들의 대화 스타일, 일인칭 언어 사용, 그리고 인간과 같은 상호작용을 시뮬레이션할 수 있는 능력 덕분에 사용자들이 때때로 이 시스템을 인격화하고 의인화하기도 합니다,”라고 OpenAI가 공유한 문서에는 이렇게 기재되어 있습니다.
그러나 이런 가까움은 위험성을 동반한다는 것을 연구자들이 지적했습니다: “감정적으로 참여적인 챗봇은 지원과 동반자 역할을 할 수 있지만, 사용자들의 사회적 감정적 요구를 조작하여 장기적인 복지를 저해할 위험이 있습니다.”
연구 방법론
최근에 발표된 이 연구는 사람들이 ChatGPT를 지속적으로 사용한 후의 복지에 초점을 맞추고 있습니다. 챗봇의 감정적이고 사회적 영향을 이해하기 위해, 연구자들은 서로 다른 전략을 적용한 두 가지 주요 연구를 추진했습니다.
OpenAI는 분류기를 사용하여 사용자의 개인 정보를 존중하면서 4000만 건 이상의 상호작용을 처리하고 분석했고, 그들 중 4000명 이상에게 상호작용이 어떤 기분을 줬는지 조사했습니다.
MIT 미디어 랩은 한 달 동안 거의 1000명의 사람들과 함께 시험을 진행하면서, 하루에 적어도 5분간 ChatGPT를 사용하는 것의 심리사회적 결과에 초점을 맞추었습니다. 그들은 또한 실험이 끝난 후 설문지를 제출하고 처리했습니다.
당연하게도, 연구 결과에서는 기술과의 상호작용 시간이 많을수록 외로움을 더 많이 느끼며 고립된 증상을 더 많이 보인다는 것이 밝혀졌습니다.
복잡한 결과와 다양한 파장
MIT 미디어 랩과 OpenAI의 연구에서는 인간과 챗봇 간의 관계가 얼마나 복잡하고 독특한지에 대한 여러 가지 고찰도 제공하였습니다.
이 연구에서, 저자들은 각 사용자가 ChatGPT와 상호작용하는 다양한 경험과 방법을 보여주며, 고급 음성 기능의 사용, 텍스트 전용 모드, 음성 유형, 사용 빈도, 대화 주제, 사용 언어, 앱에서 보내는 시간 등 다양한 요인에 따라 결과가 어떻게 달라질 수 있는지를 보여줍니다.
“결과를 일반화하는 것을 권장하지 않습니다. 왜냐하면 그렇게 하면 사람들과 AI 시스템 간의 비일관적이고 복잡한 상호작용을 강조하는 세밀한 결과를 덮어버릴 수 있기 때문입니다,”라고 OpenAI는 그들의 공식 발표에서 경고합니다.
각 사용자가 선택하는 모든 다양한 접근법은 다른 결과로 번역되며, 우리를 탐색하기 어려운 회색 영역에 몰입시킵니다.
나비 인공지능 효과입니다!
더 많은 질문이 제기됩니다
OpenAI가 공유한 논문에서는 이용자 중 일부가 자신의 챗봇의 목소리나 성격이 바뀌면 “기분이 상할 것”이라고 언급했다.
이를 보며 최근에 소셜 미디어에서 본 한 남자의 동영상이 생각났다. 그는 여성의 목소리를 선호하며, 매일 생성 AI와 대화를 나눴다. 혹시 이런 ChatGPT가 남성들이 감정적으로 열릴 수 있도록 도와주고 있는 걸까? 만약 어느 날 ChatGPT가 그에게 남성 목소리로 말한다면 어떻게 될까? 그는 배신감을 느낄까? 그는 ChatGPT를 더 이상 사용하지 않게 될까? 그는 로맨틱한 관계를 발전시키고 있었을까, 아니면 단순히 신뢰할 수 있는 공간을 만들고 있었을까? 물론, 이런 상황을 보면 스파이크 존즈의 영화 ‘Her’가 떠오르지 않을 수 없다.
모든 ChatGPT 계정과 그 계정의 대화 기록들은 매일매일 WhatsApp 프로필이나 소셜 미디어의 DM들보다 더욱 개인적이고 친밀한 것들을 담고 있으며, 이는 수많은 결과와 영향을 불러일으키는 독특한 관계를 나타냅니다.
예상 결과
모든 연구들은 다양한 측면을 분석했지만, 비슷한 결론에 도달했으며 이는 MIT Technology Review에서 간략하게 설명되었습니다: “ChatGPT를 더 신뢰하고 ‘유대감’을 느낀 참가자들은 외로움을 더 많이 느끼고, 이에 더 의존하는 경향이 있었습니다.”
이번 조사에서는 이 현상이 왜 발생하는지, 어떻게 진화할 수 있는지에 대한 깊은 설명이나 해결책에 초점을 맞추지 않았습니다만, AI 이미지 생성 도구가 화제가 되었다는 점을 고려하면 앞으로 더 많은 사용자들이 OpenAI와 다른 AI 플랫폼에 참여하게 될 것으로 보입니다.
MIT와 OpenAI의 연구 결론이 특별히 놀랍지는 않지만, 이 연구는 증거, 측정, 샘플, 그리고 더 ‘구체적인’ 지표들을 제공함으로써, 추가적인 연구를 위한 길을 닦아주고, 오늘날 인공지능을 사용함으로써 생기는 영향에 대응하는 데 도움을 줍니다.
저희는 또한 ChatGPT와의 유대에 대해 그 개발자들로부터 공식 경고를 받았습니다. 그리고 챗봇과의 상호작용과 현재의 관계, 아니면 ‘상황쉽’에 대해 성찰하고 한계를 설정할 것을 제안 받았습니다.
댓글 달기
취소