UNECE, AI-내장 제품에 대한 선언문 발표
급하신가요? 여기 빠른 정보들이 있어요!
- 선언문은 AI 기술에 대한 세계적인 규제 협력을 촉진합니다.
- 고위험 AI 제품은 엄격한 감독이 필요하며, 저위험 제품은 최소한의 감독이 필요합니다.
- 시장 감시는 AI 기술의 진화하는 특성에 맞게 조정되어야 합니다.
유럽경제위원회(United Nations Economic Commission for Europe, UNECE)가 오늘 선언문을 발표하여, 일상 제품과 서비스에 내장된 AI 및 디지털 기술이 제기하는 규제 관련 문제점들을 다루었습니다. 이번 움직임은, 신흥 기술의 복잡성 가운데 전 세계적인 규제 일관성을 강화하기 위한 것입니다.
공통 규제 배열(Overarching Common Regulatory Arrangements, CRA)을 바탕으로, 이 선언문은 정부 간의 자발적인 규제 협력을 장려하면서, 세계무역과 기술적 진보를 보호하려고 합니다.
해당 선언문은 내장 AI 및 디지털 기술을 활용하는 제품이 널리 퍼져있음을 강조하면서도, 일관된 정의와 규제가 부재하다는 점을 지적하고 있습니다.
CRA가 자율주행 차량이나 무기를 포함하지 않는다고 명시하고 있지만, 그 가이드라인은 이러한 분야에도 여전히 중요합니다.
이 선언문은 AI나 다른 디지털 기술이 내장된 제품과 관련된 위험을 관리하는 것의 중요성을 강조하고 있습니다. 선언문에 따르면, 모든 위험을 완전히 제거하는 것은 비현실적이며; 대신, 규제는 허용 가능한 한계 내에서 위험을 관리하는 것을 목표로 해야 합니다.
고위험 제품, 특히 건강, 안전, 또는 사생활에 영향을 미치는 제품은 엄격한 감독이 필요할 것입니다. 중위험 제품, 즉 사용자의 안전에 우려를 일으킬 수 있지만 개인 데이터를 다루지 않는 제품은 중간 정도의 모니터링이 필요할 것입니다. 반면, 개인 데이터를 사용하지 않거나 사용자에게 직접적인 영향을 미치지 않는 저위험 제품은 최소한의 감독이 필요할 것입니다.
고위험 AI 시스템에 대해서는, 이 선언문은 가능한 한 사람의 의사 결정이 포함되어야 한다고 주장합니다. 예를 들어, 진단을 위해 AI를 사용하는 의료 기기는 환자에게의 위험을 완화하기 위해 인간의 검토를 포함해야 하며, AI를 활용한 산업용 기계는 사람이 작업장에서 감독할 수 있도록 해야 합니다.
AI 기술의 예측 불가능한 성격을 인식하면서도, 이 선언문은 알려지지 않은 위험의 존재를 인정하면서 엄격한 테스트의 필요성을 강조합니다. 규제자와 유통자들은 이런 잔여 위험을 공개하고 관리 가능한 상태로 유지되도록 촉구합니다.
피해를 막기 위해, 내장된 AI 시스템은 결정 과정에서의 편향성을 해결해야 합니다. 이는 인간과 기계 모두의 편향성을 반영하는 것을 의미합니다.
이 선언은 또한 이런 시스템들이 인간의 자율성, 정신적 안녕, 그리고 사회적 가치를 존중해야 하며, 아동의 권리를 포함하여, 개발 중인 경제에서 무역 장벽을 만들지 않고 효과적으로 작동해야 한다는 사항을 명시하고 있습니다.
안전 기능은 AI 기술의 오용을 막기 위해 중요합니다. 규제 준수 평가는 AI 제품에 있어서 중요하며, 이때 저위험 항목은 공급자의 자체 선언만을 필요로 할 수 있지만, 고위험 제품은 국제 표준에 대한 준수를 검증하기 위해 제3자 평가를 거쳐야 합니다.
또한, 선언문은 시장 감시가 AI의 동적인 성격에 맞춰 발전해야 한다고 주장합니다. 특히 제품이 업데이트를 받을 때는 지속적인 준수 체크가 필요합니다.
독립적인 감사를 통해 제품들이 초기 기준을 유지하고 사용에 안전한지 확인해야 합니다. 특히 중대한 위험을 초래할 수 있는 규정 미준수 제품들은 회수되어야 하며, 심각한 문제에 대해서는 국제적인 경고가 발령되어야 합니다.
댓글 달기
취소