시카고 대학교의 Glaze와 Nightshade, 예술가들에게 AI에 대한 방어수단을 제공
서두르시나요? 이런 주요 정보들을 빠르게 살펴보세요!
- Glaze와 Nightshade는 무단 AI 훈련 사용으로부터 예술가의 작품을 보호합니다.
- Glaze는 AI가 예술가의 스타일을 복제하는 것을 방지하기 위해 이미지를 마스킹합니다.
- Nightshade는 훈련 데이터를 손상시키는 “독성” 픽셀을 추가함으로써 AI를 방해합니다.
아티스트들이 착취적인 AI 모델에 대응하기 위해 Glaze와 Nightshade, 이 두 가지 도구를 사용하고 있습니다. 이 도구들은 Ben Zhao와 시카고 대학의 SAND Lab 팀에 의해 개발되었으며, 오늘 MIT Technology Review에서 보도되었습니다.
이 도구들은 아티스트의 작품이 허락 없이 AI 모델을 학습하는 데 사용되는 것을 막기 위한 목표를 가지고 있습니다. 많은 창작자들이 이를 도둑질로 보고 있습니다. MIT에 따르면, 2023년 3월 출시 이후 400만 번 이상 다운로드 된 Glaze는 아티스트의 스타일을 배우는 AI를 방지하기 위해 이미지에 미묘한 변화를 추가하여 이미지를 가리킵니다.
MIT가 지적한 바와 같이, ‘공격적인’ 대응수단인 나이트쉐이드는 보이지 않는 변형을 도입하여 인공지능 모델의 학습을 교란시키고, 그것이 훈련에 사용될 경우 AI 학습을 손상시킬 수 있습니다.
이 도구들은 생성적 인공지능의 급속한 성장에 대한 예술가들의 우려에서 영감을 받았습니다. 인공지능은 종종 온라인 이미지를 활용하여 새로운 작품을 만들어냅니다. MIT는 판타지 일러스트레이터인 Karla Ortiz와 기타 창작자들이 그들의 독특한 스타일을 허락이나 대가 없이 복제하는 인공지능 모델로 인해 그들의 생계를 잃을 수 있다는 두려움을 표현했다고 보고하고 있습니다.
작가들에게 온라인에 게시하는 것은 인지도와 수입을 위해 필수적이지만, 많은 사람들이 AI 훈련을 위한 스크레이핑을 피하기 위해 작품을 제거하는 것을 고려하고 있습니다. 이는 MIT에서 지적한 바와 같이 그들의 경력에 방해가 될 것입니다.
Glaze 출시 1년 후에 시작된 Nightshade는 더욱 공격적인 방어를 제공한다고 MIT에서 보도했습니다. “독이 든” 픽셀을 이미지에 추가함으로써, 이것은 AI 훈련을 방해하고, 이러한 이미지가 스크레이핑되면 모델이 왜곡된 결과를 생성하게 합니다.
박하의 상징적인 효과는 예술가들에게 큰 반향을 일으켰습니다. 그들은 이를 시적인 정의로 보아, 만약 그들의 작품이 AI 훈련을 위해 빼앗긴다면, 그것이 바로 그것을 악용하는 시스템을 손상시킬 수 있다고 생각합니다.
MIT는 이 도구들이 처음에는 데이터 프라이버시에 대한 우려 때문에 예술가들로부터 다소 회의적인 반응을 받았다고 주장합니다. 이를 해결하기 위해, SAND 랩은 오프라인에서 작동하는 Glaze의 버전을 출시하여 데이터 전송이 없음을 보장하고 이용을 두려워하는 예술가들에게 신뢰를 쌓아나갔습니다.
해당 연구소는 최근에 카라라는 AI 생성 콘텐츠를 금지하는 새로운 소셜 플랫폼과 협력하여 접근성을 확장하였다고 MIT에서 언급하였습니다.
조와 그의 팀은 개별 창작자와 AI 회사 간의 권력 동적을 바꾸는데 목표를 두고 있습니다.
큰 기업들로부터 창의성을 보호하는 도구를 제공함으로써, Zhao는 예술가들이 그들의 작품에 대한 통제를 유지하고 AI와 지적 재산권에 대한 윤리적 기준을 재정의하는 데 도움을 주고자 한다고 MIT가 설명하고 있습니다.
이 노력은 속도를 내고 있지만, 일부 전문가들은 해커와 AI 개발자들이 이러한 보호장치를 우회하는 방법을 탐구하면서, 도구들이 완벽한 보호를 제공하지 못할 수도 있다고 MIT에서 지적했습니다.
Glaze와 Nightshade가 이제 무료로 이용 가능해진 이상, Zhao의 SAND Lab은 AI 주도 콘텐츠 창작의 확장된 영향력에 맞서 예술적 무결성을 지키는 데 앞장서고 있습니다.
댓글 달기
취소