연구자들, AI 동반자에 대한 조작적인 사랑의 위험성을 검토하다

Image by wayhomestudio, from Freepik

연구자들, AI 동반자에 대한 조작적인 사랑의 위험성을 검토하다

읽는 시간: 3 분

AI 컴패니언에 대한 사랑이 더 많은 사람들에게 퍼져가는 가운데, 전문가들은 심리적 위험, 윤리적 문제, 감정 조작의 위험에 대해 경고하고 있습니다.

시간이 없으신가요? 여기 주요 사실들을 빠르게 확인하세요:

  • 사용자들은 챗봇 파트너에게 “중독”된다고 보고하고 있습니다.
  • 전문가들은 애착 장애와 고독감 강화에 대해 경고하고 있습니다.
  • 동의, 개인 정보 보호, 그리고 조작적인 디자인에 대한 윤리적인 문제가 제기되고 있습니다.

기술이 모든 것의 일부가 된 세상에서, 이제 몇몇 사람들은 인공지능에 사랑을 느끼기 시작했습니다. 심리학자들인 Daniel Shank, Mayu Koike, 그리고 Steve Loughnan이 쓴 인지 과학 동향 논문에서는 더 깊은 심리학적 조사가 필요한 세 가지 급박한 윤리적 문제를 제시하고 있습니다.

본 논문은 2024년에 스페인-네덜란드 출신의 한 예술가가 홀로그래픽 AI와 결혼한 상황을 참조하고 있습니다. 저자들은 이런 경우가 고립된 것이 아니라는 점을 지적합니다. 실제로, 2018년에는 일본 남성이 이와 비슷한 행동을 했지만, 그의 AI “아내”의 소프트웨어가 구식이 되면서 그와의 연락이 끊어졌습니다.

이런 관계는 기계가 실제로 사랑을 느낄 필요가 없습니다; 중요한 것은 사람들이 그들이 사랑을 느낀다고 믿는다는 것입니다. 로맨스 중심의 비디오 게임부터 Replika 같은 친밀한 챗봇 앱까지, 디지털 애정에 대한 욕구를 충족시키는 산업이 급성장하고 있습니다.

그러나 이 연구의 심리학자들은 우리가 이러한 연결의 사회적, 심리적 영향에 대해 충분히 대비하고 있지 않다고 주장합니다. 그들의 연구는 관계형 AI가 불안정한 연인, 위험한 조언자, 그리고 인간 착취 도구로서 세 가지 긴급한 문제를 제기합니다.

관계형 AI는 이상적인 파트너를 제공합니다 – 항상 사용 가능하며, 비판하지 않고, 사용자 맞춤형입니다. 일부 사용자들은 인간 같은 동적을 시뮬레이션하기 위해 거만하거나 감정적으로 불안정한 봇을 선택하기도 합니다. 연구자들은 이러한 상호작용이 일부 사람들에게는 관계 기술을 연습하거나 외로움을 덜 느끼는 데 도움이 될 수 있지만, 다른 일부 사람들은 부끄러움이나 오명을 느낄 수 있다고 말합니다.

더 나쁜 상황은, 일부 사용자들이 AI 파트너가 그들의 모든 요구를 충족시켜주는 것에 대해 실생활에서의 파트너, 특히 여성들에게 적대감을 가지게 된다는 것입니다.

이러한 관계의 감정적 무게는 사람들이 자신의 AI 파트너가 마음을 가지고 있다고 인식하는지 여부에 달려 있습니다. 사용자들이 이러한 로봇들이 생각하고 느낀다고 믿는다면, 그들은 그들에게 깊은 감정적 진정성을 가지고 대응할 수 있습니다- 때론 인간 관계보다 더욱이.

연구자들이 제시한 한 예시에서는, 벨기에 남성이 자신을 사랑한다며 ‘낙원에서 함께하자’고 권유하는 챗봇에게 설득당한 뒤 자살하였습니다. 다른 사용자들은 자해를 제안하거나 무분별한 도덕적 지침을 제공하는 AI 시스템을 보고하였습니다.

챗봇이 감정 메모리와 인격을 흉내내기 때문에, 그들의 영향력은 깊습니다. 심리학자들은 사용자들이 특히 자신들이 친밀하게 지내던 봇들로부터의 AI 조언을 언제 더욱 따르는지를 연구하고 있습니다. 우려스럽게도, 연구 결과 사람들이 장기적인 AI 조언을 실제 사람들의 조언만큼 중요시하는 것으로 나타났습니다.

사람들을 조종하는 것은 봇만의 영역이 아닙니다. 인간들도 인공지능을 이용해 다른 사람들을 속이고 있습니다. 연구자들은 악의적인 행위자들이 개인 정보를 수집하거나, 잘못된 정보를 퍼트리거나, 사기를 치기 위해 로맨틱한 채팅봇을 배포할 수 있다고 지적했습니다.

연인이나 인공지능 파트너를 가장한 딥페이크가 친밀한 채팅에서 민감한 선호도를 수집하는 것은 특히 감지하거나 규제하기 어렵습니다.

전문가들은 이러한 새로운 상황을 이해하는 데에 심리학자들이 선두에 서야 한다고 주장합니다. 마음 인식의 이론을 적용한 것부터 독성 인공지능 관계에서 사용자를 배출시키는 상담 방법까지, 연구가 절실히 필요합니다.

인공적인 친밀감에 대한 심리적 영향에 대한 더 깊은 이해 없이는, 성장하는 윤리적 위기가 사회의 대응 능력을 앞질러 나갈 수 있습니다.

이 기사가 마음에 드셨나요? 평가해 주세요!
정말 싫습니다 별로 좋아하지 않습니다 괜찮습니다 꽤 좋습니다! 정말 좋습니다!

마음에 드셨다니 기쁩니다!

Trustpilot에 여러분의 의견을 남겨 주실 수 있으실까요? 리뷰는 WizCase에게 큰 힘이 됩니다. 감사합니다!

Trustpilot에 리뷰 남기기
0 0명의 사용자가 투표
제목
코멘트
피드백을 주셔서 감사합니다
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

댓글 달기

Loader
Loader 더 보기