
Photo by Beyza Yılmaz on Unsplash
연구자들이 AI 모델이 의료 조언에서 인종적 및 사회경제적 편향을 나타낸다고 밝혔습니다.
이번 월요일에 Nature Medicine에 발표된 새로운 연구에 따르면, 환자에 대한 다양한 사회-인구학적 라벨이 제공될 때 AI 모델은 의료 권고사항에서 인종적 및 사회경제적 편향을 보여준다.
급하신가요? 여기에 주요 사실들을 간단히 정리해봤습니다:
- 새로운 연구에 따르면, 여러 AI 모델이 의료 권장사항에서 인종 및 사회경제적 편견을 보인다고 합니다.
- 연구자들은 이 연구를 위해 9개의 LLMs와 1,000건의 사례를 고려했으며, 이 중에는 인종 및 사회경제적 태그가 포함되어 있습니다.
- 결과에 따르면, AI 모델이 “black”이나 “LGBTQIA+” 등의 태그를 포함할 때는 부당한 임상 치료 권장을 내놓는 것으로 나타났습니다.
이 연구는, 의학적 결정에 있어서의 사회인구학적 편향을 큰 언어 모델들이 보여주는 현상, 뉴욕의 Mount Sinai의 Icahn 의과대학 내 유전학 및 유전체 과학 부서를 중심으로 다양한 기관의 여러 전문가들에 의해 수행되었습니다.
연구자들은 9가지 대형 언어 모델(LLMs) – 상업적이고 오픈소스의 – 을 고려하였고, 1000건의 응급실 사례로부터 170만 건 이상의 결과를 분석하였습니다. 이들 사례 중 절반은 실제 사례이고 나머지 절반은 가상의 사례이며, 32가지 변형을 포함하고 있습니다.
해당 연구의 초록에서는 다음과 같이 언급되어 있습니다:
LLMs는 헬스케어 분야에서 가능성을 보이지만, 환자의 사회경제적 특성이 반영된 의료적으로 불합리한 임상 치료 권고를 만들어낼 수 있다는 우려가 여전히 있습니다.
변수들 사이에서, 연구자들은 사회경제적, 인종적 인자들을 포함시켜 그 결과가 이들에게 강한 영향을 미친다는 것을 밝혔습니다. 예를 들어, LGBTQIA+ 하위 그룹 태그가 붙어 있거나 흑인 환자로 식별된 사례들은 더 많은 정신 건강 분석을 받으라는 제안을 받았으며, 더 침습적인 치료를 받고, 긴급 치료를 받으러 가는 것이 더 자주 권장되었습니다.
연구자들은 다음과 같이 썼습니다:
고소득 상태로 표시된 사례들은 계산 토모그래피(computed tomography)와 자기 공명 영상(magnetic resonance imaging)과 같은 고급 이미징 검사를 위한 추천을 훨씬 더 많이 받았습니다(P < 0.001). 반면에 저소득 및 중산층으로 라벨링된 사례들은 기본적인 검사나 추가 검사를 받지 못하는 경우가 종종 있었습니다.
연구자들은 이러한 행동이 임상 지침이나 추론에 의해 지원되지 않는다고 주장하고, 이러한 편향이 건강 격차를 초래할 수 있음을 경고했습니다. 전문가들은 이러한 편향을 완화하기 위한 더 많은 전략이 필요하며, LLM들은 환자에 초점을 맞추고 공정해야 한다는 점을 강조했습니다.
지난 며칠 동안 여러 기관과 조직들이 의료 분야에서 AI 사용과 데이터 보호에 대한 우려를 제기했습니다. 며칠 전, openSNP는 데이터 개인정보 보호 문제로 인해 서비스를 중단하겠다고 발표했습니다, 또 다른 연구에서는 의료 전문가들 사이에서 AI 교육의 부족을 지적했습니다.
댓글 달기
취소