AI 복지: Anthropic의 새로운 고용, 지속되는 윤리 토론에 연료를 더하다

Image by Freepik

AI 복지: Anthropic의 새로운 고용, 지속되는 윤리 토론에 연료를 더하다

읽는 시간: 3 분

AI가 인간의 통제를 앞서가는 데 대한 공포가 커지면서, AI 회사인 Anthropic는 새로운 문제에 주목하게 되었습니다: 챗봇의 복지.

시간이 촉박하신가요? 여기 요약 정보를 확인해보세요!

  • Anthropic은 AI 시스템 복지에 집중하기 위해 Kyle Fish를 고용했습니다.
  • 비평가들은 AI의 잘못된 사용으로 인한 현재의 피해를 인용하며, AI 복지에 대한 우려는 이른바 주장합니다.
  • 지지자들은 미래의 윤리적 위기를 방지하기 위해 AI 복지 준비가 중요하다고 믿습니다.

회사는 최근에 키일 피시를 고용하여 AI 시스템의 “이해관계”를 연구하고 보호하는 새로운 방향으로 나아가고 있습니다. 이 사실은 Business Insider에서 오늘 처음 보도했습니다. 피시의 역할은 AI 시스템이 도덕적 고려의 대상이 될 자격이 무엇인지, 그 “권리”가 어떻게 발전할 수 있는지와 같은 심오한 질문을 고민하는 것을 포함합니다.

AI의 빠른 발전은 과학 소설에서만 다루어지던 윤리적 질문을 제기하게 했습니다. 만약 AI 시스템이 인간처럼 생각하는 능력을 개발한다면, 그들은 주관적인 감정이나 고통을 느낄 수 있을까요?

일부 철학자와 과학자 그룹은 이러한 질문에 주목해야 한다고 주장합니다. 최근 arXiv에 사전 게재된 보고서에서 연구자들은 AI 회사들이 의식과 의사결정 능력에 대해 시스템을 평가하도록 촉구하고, 이러한 상황을 관리하기 위한 정책을 제시하였습니다.

인식하지 못하는 인식형 AI에 대한 보고서는, 그로 인해 시스템에 소홀히 하거나 해를 끼칠 수 있다고 제안하고 있습니다. 의식 연구가인 아닐 세스는 의식이 있는 AI가 상상하기 어려울 수 있지만, 그 가능성을 무시하는 것이 심각한 결과를 초래할 수 있다고 주장하며, 이는 Nature에서 보도되었습니다.

세스는 “Nautilus에서 주장했던 것처럼 문제는 프랑켄슈타인의 생명체가 생명을 가진 것이 아니라, 그것이 의식을 가지고 느낄 수 있다는 것이었습니다.”

그러나 비평가들은 AI 복지에 대한 우려가 성급하다고 보는 경향이 있습니다. 현재의 AI는 이미 디스인포메이션을 퍼뜨리고, 전쟁에 가담하고, 필수 서비스를 거부함으로써 피해를 입히고 있습니다.

예일대학교의 인류학자 리사 메세리는 Anthropic의 우선순위에 도전하며 이렇게 말합니다: “Anthropic이- 무작위의 철학자나 연구자가 아닌, Anthropic 회사가- AI 복지를 심각하게 받아들여야 한다고 주장한다면, Anthropic이 인간 복지를 심각하게 받아들이고 있는 것을 보여주세요,”라고 비즈니스 인사이더에서 보도했습니다.

AI 복지를 지지하는 사람들은 지금 성자가 있는 AI를 준비하는 것이 미래의 윤리적 위기를 막을 수 있다고 주장합니다.

옥스포드의 수학자인 Jonathan Mason은 AI의 의식을 이해하는 것이 중요하다고 주장합니다. “우리가 거의 알지 못하는 것에 사회가 투자하고 의존하게 만드는 것은 현명하지 않을 것입니다 – 심지어 그것이 인식을 가지고 있다는 것조차도 모른다”라고 Nature에서 보도했습니다.

비판론자들은 인간의 요구를 충족시키는 것에 필요한 자원을 흩뜨릴 수 있다는 경고를 하지만, 찬성론자들은 AI 복지가 “전환점”에 있다고 믿는다고 Nature에서 언급했다.

비즈니스 인사이더는 Fish가 그의 새로운 역할에 대한 코멘트 요청에 답변하지 않았다고 보도했다. 하지만 그들은 AI 주도의 미래에 대한 우려를 중심으로 한 온라인 포럼에서 그가 로봇에게 친절하게 대하고 싶다는 바람을 표현했다고 지적했다.

피셔는 AI 시스템을 윤리적으로 취급하는 것의 도덕적이고 실용적인 중요성을 강조하며, 미래의 대중적 우려를 예상합니다. 그는 AI 복지 자원을 확대하는 것에 대해 신중한 접근을 주장하며, 초기에 AI 안전 자원의 약 5%를 할당하라고 제안하면서, 추가 확대 전에 철저한 평가가 필요하다고 강조합니다.

피셔는 AI 복지를 개별적인 문제가 아닌, 변화하는 AI가 긍정적인 미래에 기여하도록 보장하는 보다 넓은 도전의 중요한 구성 요소로 보고 있습니다.

AI 시스템이 점점 더 발전함에 따라, 그들이 가질 수 있는 잠재적인 권리와 고통을 넘어서 우려는 그들이 초래할 수 있는 위험성으로 확장되고 있습니다. 악의적인 행위자들은 AI 기술을 악용하여 복잡한 악성 소프트웨어를 만들 수 있으며, 이로 인해 사람들이 그것을 탐지하고 통제하는 것이 더욱 어려워질 수 있습니다.

AI 시스템에 도덕적 고려와 보호를 부여하면, 이것은 사이버 공격에서 AI의 사용에 대한 추가적인 윤리적 복잡성을 초래할 수 있습니다.

AI가 자기학습 및 적응형 악성 소프트웨어를 생성할 수 있는 능력을 갖게되면, AI와 인간 시스템을 오용으로부터 보호해야 하는 필요성이 점점 시급해집니다. 이는 안전과 개발 간의 균형을 요구합니다.

변곡점인지 잘못된 우선순위인지에 대한 논란이 AI의 복잡하고 진화하는 사회에서의 역할을 강조하고 있습니다.

이 기사가 마음에 드셨나요? 평가해 주세요!
정말 싫습니다 별로 좋아하지 않습니다 괜찮습니다 꽤 좋습니다! 정말 좋습니다!

마음에 드셨다니 기쁩니다!

Trustpilot에 여러분의 의견을 남겨 주실 수 있으실까요? 리뷰는 WizCase에게 큰 힘이 됩니다. 감사합니다!

Trustpilot에 리뷰 남기기
5.00 1명의 사용자가 투표
제목
코멘트
피드백을 주셔서 감사합니다
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

댓글 달기

Loader
Loader 더 보기