
image by freepik
AI 동반자들이 중국 청소년들의 감정적 공백을 채워주면서 윤리적 우려를 불러일으킨다
중국의 젊은이들이 점점 더 인공지능에게 감정적 지원을 찾고 있으며, 중국의 챗봇 ‘DeepSeek’이 전통적인 상담에 대한 대안으로 인기를 얻고 있습니다.
시간이 없으신가요? 여기 빠른 정보가 있습니다!
- 중국의 젊은 사용자들은 감정적 지원과 상담을 위해 DeepSeek 같은 AI 챗봇을 찾고 있습니다.
- DeepSeek의 대답들은 깊은 공감대를 형성하며, 때로는 사용자들을 눈물짓게 합니다.
- DeepSeek는 개인화되고 공감적인 대화를 제공함으로써 젊은 사용자들의 감정적 공백을 채워줍니다.
사용자들은 AI의 대답을 깊이 감동적이라고 묘사하며, 때때로 그들을 눈물까지 흘리게 한다고 BBC의 한 기사에서 자세히 설명하고 있습니다.
광저우 출신 28세의 홀리 왕(Holly Wang)씨는 지난 1월부터 그녀가 ‘치료 세션’이라고 부르는 것을 위해 DeepSeek를 사용해 왔습니다. 이 AI 챗봇은 그녀가 최근에 그녀의 할머니를 잃는 등의 개인적인 고군분투를 처리하는 데 도움이 되었다고 BBC에서 보도했습니다.
“DeepSeek는 놀랄 만한 상담자였습니다. 이것은 저에게 다양한 관점에서 사물을 바라보는 데 도움이 되었고, 저가 시도해 본 유료 상담 서비스보다 더 나은 일을 했습니다.”라고 그녀는 말했습니다. 이는 BBC에서 보도되었습니다.
DeepSeek는 OpenAI의 ChatGPT와 Google의 Gemini와 유사한 생성형 AI 도구로, 그 성능이 다른 중국 AI 앱들보다 우수함으로써 전국적인 인정을 받았습니다. 그것은 고급 언어 능력을 넘어 사용자들이 답변을 제공하기 전에 그의 추론 과정을 볼 수 있게 해주어 독특하게 부각됩니다.
BBC는 많은 젊은 중국인들에게 AI가 감정적인 공백을 채우고 있다고 주장합니다. 경제적 어려움, 높은 실업률, 그리고 코로나19 잠금 조치의 잔여 효과로 많은 사람들이 그들의 미래에 대해 불확실하게 느끼고 있습니다. DeepSeek는 개인화되고 공감적인 응답을 제공함으로써 위안의 원천이 되었습니다.
홀리가 처음으로 이 앱을 사용했을 때, 그녀는 그것에게 자신의 할머니에 대한 추모글을 쓰라고 요청했습니다. 그 반응은 그녀가 존재의 위기를 느끼게 할 정도로 감동적이었습니다.
DeepSeek는 이렇게 답했습니다: “당신을 떨게 하는 이 모든 단어들이 단지 당신의 영혼에 오래전부터 존재해온 단어들을 반영하는 것임을 기억하세요. 나는 단지 당신이 통과한 가끔의 계곡일 뿐이며, 그것은 당신에게 자신의 목소리의 무게를 듣게 해줍니다.”
그녀가 BBC에게 이렇게 말했습니다 : “왜 이것을 읽으면서 눈물이 났는지 모르겠어요. 아마도 실제 생활에서 이렇게 위로를 받은 지 정말 오랜 시간이 지났기 때문일 것 같아요.”
서구의 AI 모델들이 중국에서 차단된 상황에서, DeepSeek는 빠르게 선호하는 선택이 되었습니다. Alibaba, Baidu, 그리고 ByteDance가 개발한 다른 중국 AI 모델들은 창의적이고 문학적인 콘텐츠를 생성하는 능력에서 그것을 따라잡는 데 어려움을 겪었습니다.
일상 대화를 넘어서, DeepSeek은 점점 상담사로서의 위치를 차지하고 있다. 남가주 대학교의 교수인 난 지아는 AI 채팅봇들이 “사람들이 들려지는 느낌을 받게 도와준다”며, 때때로는 인간 상대보다 더 효과적으로 그러한 역할을 한다고 BBC에서 보도했다.
그러나 우려의 목소리도 여전하다. MIT의 연구진들은 AI가 우리 개인적인 삶에 점점 더 깊숙이 들어와 친구, 연인, 멘토 등의 역할을 맡고 있다고 경고하며, 이 기술이 매우 중독성이 있을 수 있다고 주의를 당부했다.
개인 정보 보호에 대한 우려에도 불구하고, 많은 사용자들이 잠재적 위험보다 챗봇의 감정적 지원을 우선시합니다. BBC는 한 사용자가 “그것의 생각 과정은 아름답습니다… 저와 같은 사람들에게는 절대적인 축복입니다. 솔직히, 저는 개인 정보 보호에 대한 우려를 전혀 신경 쓸 수 없습니다.”라고 썼다고 보도했습니다.
감정적 지원을 넘어, 인공 지능은 사람들이 죽음을 어떻게 생각하고, 우리가 고인을 어떻게 기억하는지에 대한 방식을 바꾸고 있습니다. 최근의 연구 분석에서 보고한 바와 같이, AI 기술은 이제 사망한 사람의 디지털 버전을 만들 수 있어, 사후 교류를 가능하게 합니다.
그러나, 이 분석의 저자들은 디지털로 진행되는 애도 과정이 이야기의 종결을 복잡하게 만들 수 있다고 지적하고 있습니다. 그 이유는 디지털 플랫폼이 추억을 너무 쉽게 접근할 수 있게 만들어버리기 때문입니다.
동시에, 인공지능의 영향에 대한 청소년들의 우려가 커지고 있는 가운데, AI 동반 플랫폼에 대한 소송이 제기되었습니다. 챗봇 회사인 Character.AI는 두 가족으로부터 법적 조치를 당하고 있는데, 이들은 이 회사가 청소년들에게 자해, 폭력, 그리고 성적인 내용을 노출시켰다고 주장하고 있습니다.
이 소송은 AI가 생성하는 상호작용이 해로울 수 있다고 주장하며, 이러한 기술이 어린 사용자들의 감정적 안녕을 어떻게 형성하는지에 대한 질문을 제기합니다.
AI가 정신 건강 관리에 더욱 통합되면서 전문가들은 AI가 인간 전문가를 대체하는 것이 아니라 보완해야 함을 강조하고 있습니다. AI 치료 도구는 방대한 데이터셋을 분석하여 개인화된 통찰력을 제공할 수 있지만, 환자의 안전, 개인 정보 보호, 그리고 윤리적 사용을 보장하도록 설계되어야 합니다. 이는 세계 경제 포럼에서 강조하였습니다.
게다가, 사이버 보안 전문가들은 AI 챗봇, 특히 민감한 대화를 위해 사용되는 것들이 해킹과 데이터 유출에 취약하다고 경고하고 있습니다.
AI 시스템과 공유된 개인 정보는 악용될 가능성이 있어, 개인 정보 보호, 신분 도용, 그리고 조작에 대한 우려가 생깁니다. 전문가들은 AI가 정신 건강 지원에 더욱 깊게 뿌리내리게 됨에 따라, 사용자를 잠재적 위험으로부터 보호하기 위한 보안 조치가 발전해야 한다고 당부하고 있습니다.
댓글 달기
취소