영국 정부의 AI 도구, 인종차별 및 편향에 대한 우려로 심사 대상에

Image by Wesley Fryer, from Flickr

영국 정부의 AI 도구, 인종차별 및 편향에 대한 우려로 심사 대상에

읽는 시간: 2 분

가디언은 오늘, 영국 정부가 곧 다양한 부서에서 사용된 AI 도구의 세부 사항을 공개할 예정이라고 보도했습니다. 이러한 기술에 내재된 잠재적인 인종차별 및 편향에 대한 우려에 따른 것입니다.

이 AI 도구들을 공개하기로 한 결정은 투명성 캠페이너들로부터의 압력 이후에 이루어졌습니다. 이들은 이러한 시스템 내의 비밀스러움과 가능한 차별적인 행동들에 대해 경고하였습니다. 이 AI 도구들은 가짜 결혼을 탐지하고, 복지 청구에서의 사기를 식별하는 등의 작업에 사용되었습니다.

공공법률 프로젝트(PLP), 곧 접근 가능한 법률 복지를 위한 자선단체는, 이 문제에 선두로 나서 이러한 기술의 배포에 있어 더욱 투명성과 공정성을 주장해왔습니다.

2020년 8월, 영국 내무부는 인종 차별과 편향성에 대한 의혹이 제기된 이민 신청을 분류하는 컴퓨터 알고리즘을 중단하기로 합의했습니다. 가디언에서 보도한 바와 같이, 이주민 복지를 위한 공동위원회와 디지털 권리 그룹인 폭스글러브의 법적 도전에 이어 공무원들이 이 알고리즘을 중단시켰습니다.

가디언은 폭스글러브가 특정 국적에 자동으로 “빨간색” 위험 점수가 부여되어, 비자 거절 확률이 높아진다고 주장했다고 보도했습니다. 그들은 이 과정이 인종 차별에 해당한다고 주장했습니다.

정부의 데이터 윤리와 혁신 센터는 보고서에서 AI가 종종 편견을 확대시킨다고 경고했습니다. 이 센터는 공공 기관이 AI와 알고리즘 도구를 배포하기 위한 알고리즘 투명성 기록 표준을 개발하는 데 도움을 주었으며, 공공과 상호 작용하거나 결정에 영향을 미치는 모델이 등록부에 공개되도록 제안했습니다.

가디언에 보도된 바와 같이, 과학 혁신 기술부(DSIT)는 이번 주말에 각 부서들이 이 기준에 따라 기술의 사용을 보고하게 될 것임을 확인했습니다.

DSIT 대변인은 가디언에게 다음과 같이 말했습니다: “기술은 공공 서비스를 향상시키는 데 엄청난 잠재력을 가지고 있지만, 필요한 경우 인간 감독과 다른 형태의 거버넌스를 포함하여 적절한 보호 조치를 유지하는 것이 중요하다는 것을 우리는 알고 있습니다.”

“알고리즘 투명성 기록 표준은 지금 모든 부서에서 의무적으로 적용되고 있으며, 곧 여러 기록이 공개될 예정입니다. 우리는 이를 어떻게 공공 부문 전반에 확대할 수 있을지 계속 탐구하고 있습니다. 모든 조직에게 AI와 데이터를 도구, 지침, 표준을 통해 공공의 신뢰를 쌓는 방식으로 사용하도록 권장합니다.”

이 기사가 마음에 드셨나요? 평가해 주세요!
정말 싫습니다 별로 좋아하지 않습니다 괜찮습니다 꽤 좋습니다! 정말 좋습니다!

마음에 드셨다니 기쁩니다!

Trustpilot에 여러분의 의견을 남겨 주실 수 있으실까요? 리뷰는 WizCase에게 큰 힘이 됩니다. 감사합니다!

Trustpilot에 리뷰 남기기
0 0명의 사용자가 투표
제목
코멘트
피드백을 주셔서 감사합니다
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

댓글 달기

Loader
Loader 더 보기