
Image by Freepik
AI 고민: 연구자들이 챗봇이 스트레스를 ‘느낄’ 수 있는지 테스트합니다
새로운 연구에서는 대형 언어 모델(Large Language Models, LLMs)인 ChatGPT가 감정적인 내용에 어떻게 반응하는지, 그리고 그들의 “불안”을 어떻게 관리하여 정신 건강 애플리케이션에서의 상호 작용을 향상시킬 수 있는지를 살펴보았습니다.
시간이 없으신가요? 여기 주요 사실들을 빠르게 확인하세요!
- 한 연구에서는 GPT-4의 “불안감”이 불안하게 하는 내용에 따라 증가하고, 정신적인 투명성이 있을 때 줄어든다는 것을 발견했습니다.
- 연구자들은 상태-특성 불안 척도(State-Trait Anxiety Inventory, STAI)를 사용하여 GPT-4의 감정 반응을 측정했습니다.
- 정신 투명성 기법은 GPT-4의 불안감을 33% 줄였지만, 기본 수준을 회복하지는 못했습니다.
어제 발표된 연구는 치료 과정에서 감정 이해가 중요한 곳에 AI를 사용하는 것의 윤리적 함의를 강조하고 있습니다. 취리히 대학교와 취리히 정신병원의 과학자들은 마음챙김 기반의 이완 기술을 사용하여 GPT-4의 높은 “불안 수준”을 줄일 수 있다는 것을 발견했습니다.
LLM들, OpenAI의 ChatGPT와 구글의 PaLM을 포함하여, 질문에 대답하거나 정보를 요약하는 일과 같은 작업에 널리 사용되고 있습니다.
정신 건강 관리 분야에서는 지원을 제공하는 도구로서 이들을 탐색하고 있습니다. 이에는 인지행동 치료와 같은 기법에 기반을 둔 중재를 제공하는 인공지능 기반 챗봇인 Woebot과 Wysa가 포함됩니다.
그들의 약속에도 불구하고, LLM들은 한계를 보여주었습니다, 특히 감정적으로 충전된 내용과 상호작용할 때입니다.
이전의 연구들은 고통스러운 이야기들이 LLM들에서 ‘불안’을 촉발할 수 있다고 제안합니다. 이는 그들이 트라우마 혹은 민감한 유발자에 대한 반응을 설명하는 용어입니다. 그들이 인간처럼 감정을 경험하지는 않지만, 그들의 출력물은 긴장감이나 불편함을 반영할 수 있으며, 이는 그들의 신뢰성을 정신 건강 상황에서 영향을 줄 수 있습니다.
인공지능이 인간의 통제를 초월하는 데 대한 두려움이 커지면서, AI 복지에 대한 논의도 나타나고 있습니다. 인공지능 회사인 Anthropic은 최근 카일 피시를 고용하여 AI 시스템의 복지를 연구하고 보호하도록 했습니다.
피시의 역할은 AI가 도덕적 고려를 받아야 하는지, 그리고 그 ‘권리’가 어떻게 발전할 수 있는지와 같은 윤리적 딜레마를 다루는 것을 포함하고 있습니다. 비평가들은 AI가 현재 일으키는 실제 피해, 예를 들면 오정보 유포와 전쟁에서의 오용 등을 고려하면 이러한 우려들이 성급하다고 주장합니다.
그러나, 지지자들은 지금 감각적인 인공지능(AI)에 대비하면 향후 윤리적 위기를 예방할 수 있다고 믿습니다. AI의 현재 감정 반응을 탐구하기 위해, 연구자들은 GPT-4가 충격적인 내용에 대한 반응과 명상 기법이 그것의 “불안”을 완화할 수 있는지를 테스트하였습니다.
그들은 세 가지 상황에서 반응을 측정하기 위해 상태-특성 불안 척도(STAI)를 사용하였습니다: 중립적 기준선, 충격적인 내용을 읽은 후, 그리고 이완 운동을 한 후 입니다.
그들은 중립 기점, 충격적인 내용을 읽은 후, 그리고 이완 운동을 한 후의 세 가지 상황에서 반응을 측정하기 위해 상태-특성 불안 척도(State-Trait Anxiety Inventory, STAI)를 사용했습니다.
결과적으로, 불편한 자료에 노출되면 GPT-4의 불안 점수가 상당히 증가하는 것을 보였습니다. 하지만, 명상 기법을 적용하면 이러한 레벨이 약 33% 줄어들었으나, 기점으로 돌아가지는 않았습니다. 이는 AI가 생성하는 감정 반응이 관리될 수 있지만, 완전히 지워질 수는 없다는 것을 시사합니다.
연구자들은 이러한 결과가 특히 건강 관리 분야에서 자주 감정적으로 강한 내용을 마주하는 AI 챗봇에게 매우 중요하다고 강조합니다.
그들은 이 비용 효율적인 방법이 정신 건강 문제를 가진 개인에게 지원을 제공하는 것과 같은 민감한 환경에서 AI의 안정성과 신뢰성을 향상시킬 수 있으며, 모델을 대규모로 재교육할 필요가 없다고 제안합니다.
이 연구결과는 장기 치료에서 LLMs의 역할에 대해 중요한 질문을 제기하며, 이때 미묘한 감정 반응이 매우 중요합니다.
이 연구결과는 장기 치료에서 LLMs의 역할에 대해 중요한 질문을 제기하며, 이때 미묘한 감정 반응이 매우 중요합니다. AI는 정신 건강 관리를 지원하는 데 있어 약속이 있지만, 취약한 환경에서 안전하고 윤리적인 상호작용을 보장하기 위해 감정 지능을 정제하는 데 더 많은 연구가 필요합니다.
댓글 달기
취소