의견: 메타의 안전 규제 체계는 고장난 것일까?

Image generated with DALL·E through ChatGPT

의견: 메타의 안전 규제 체계는 고장난 것일까?

읽는 시간: 4 분

거의 모든 콘텐츠 제작자나 활동적인 소셜 미디어 관리자들이 최근에 페이스북이나 인스타그램에 게시물을 올릴 때 동일한 문제에 직면한 적이 있습니다: 게시물이나 계정이 잘못된 이유로 차단되는 것입니다.

이번 불편한 상황은 메타의 콘텐츠 규제 시스템과 관련된 복잡한 문제의 일부에 불과합니다. 메타가 많은 제어 조치를 가지고 있는 것처럼 보이지만-때때로 무리한 것도 있지만-문제의 근본적인 해결은 이루어지지 않는 것 같습니다.

지난 몇 달 동안, 메타는 수많은 콘텐츠 가이드라인 업데이트를 도입하고, 더욱 건강한 온라인 환경을 만드는 것을 목표로 한 더 엄격한 규칙을 실행해왔습니다. 그 결과로 많은 기업, 출판사, 사용자 계정들이 차단되어서 포럼, 채팅 플랫폼, 소셜 미디어 채널에 수백 건의 불만이 제기되었습니다. 올해 메타의 플랫폼에서 몇몇 지역에서는 여러 뉴스 출판사와 브랜드가 제거되면서, 기업주, 기자, 콘텐츠 제작자들 사이에서 우려가 커졌습니다.

메타의 최근 업데이트에도 불구하고, 그것이 플랫폼에서 공유되는 콘텐츠에 대한 더 엄격한 관리와 철저한 검토를 암시하고 있는 것처럼 보이지만, 마약, 자살, 성희롱, 괴롭힘, 혐오 발언, 학대, 가짜 뉴스와 관련된 게시물들이 여전히 알고리즘을 피해 취약한 커뮤니티에 도달하고 있습니다.

저는 어쩔 수 없이 궁금해집니다: 메타의 안전 규제 시스템에 무슨 일이 일어나고 있는 걸까요?

잘못된 이유로 계정이 차단되다

모든 것은 비슷한 메시지로 시작됩니다: “당신의 메타 계정이 우리의 규칙을 따르지 않습니다.” 많은 페이스북과 인스타그램 사용자들이 메타의 규칙을 준수하지 않았다는 이유로 계정이 차단되거나 임시로 퇴출당했습니다. 심지어 그들이 규칙을 준수했다고 믿을 때에도 말이죠.

우리 Wizcase에서도 이런 상황을 경험해 본 적이 있습니다. 메타의 시스템이 관련 항목을 부적절하게 인식하여, 커뮤니티 관리자가 항의 과정을 거치고 정부 발급 신분증을 제출해야 했습니다.

수백명의 사용자, 커뮤니티 관리자, 계정 관리자들이 Reddit을 비롯한 다른 포럼, 채팅, 소셜 미디어 채널에서 유사한 상황에 대해 불만을 제기했습니다. 불행한 시나리오 중 여러 경우에서 사용자들은 자신의 계정을 잃게 되고, 그에 대해 어떤 조치도 취할 수 없으며, 심지어는 그 이유에 대한 설명조차 받지 못합니다.

“페이스북의 지원팀은 정말 최악입니다. 우리가 얼마나 많은 설명을 해도 그들은 간단하게 이해하지 못하더군요,”라고 레딧의 한 사용자가 계정이 정지된 것에 대한 글에서 말했습니다. “당장 말할 수 있는 것은 당신이 하루에 수십만 달러를 쓰지 않았다면 계정을 복구받지 못할 것이라는 것입니다,” 라고 또 다른 사람이 덧붙였습니다.

이 문제는 콘텐츠 제작자들에게만 영향을 미치는 것처럼 보일 수 있지만, 사실 더 큰 도전의 일부일 뿐입니다.

Meta와 법적 분쟁

수년 동안, 메타는 콘텐츠 관리에 투자하고, 사용자를 위한 더 안전한 플랫폼을 구축하고 더 많은 소송으로부터 스스로를 보호하기 위한 새로운 전략을 수립해왔습니다. 가장 최근의 소송은 케냐의 콘텐츠 관리자들로부터 제기되었는데, 이들은 대량 해고와 페이스북의 콘텐츠를 분석하면서 노출된 불안정한 자료로 인한 보상으로 16억 달러를 요구하고 있습니다.

이 기술 회사는 콘텐츠 규정을 도와주는 제3자에 의존하고, 콘텐츠가 플랫폼 규칙을 위반할 때 이를 인식하는 도구를 개발합니다. 그러나 이런 조치들이 충분하지 않았고, 상황은 특히 미성년 사용자들 사이에서 통제 불능 상태로 번져나갔습니다.

2021년에 메타는 새로운 보호 기능을 도입했지만, 이는 상원이 지난해 Instagram과 Facebook을 아이들에게 해로운 플랫폼으로 분류하는 데 결정적인 영향을 미치지 못했습니다. 이 기술 거인은 그 해동안 미국 33개 주에서 제기한 공동 소송에 직면하게 되었는데, 이는 그들의 조작적이고 해로운 알고리즘 때문이었습니다.

1월 이후로 메타는 새로운 안전 통제 도구에 대한 업데이트를 공유하고 있습니다. 6월에는 회사가 애니하라스먼트 도구를 개선해 Instagram의 청소년 사용자를 보호하기 위해 “Close Friends”를 기본으로 “Limits” 기능을 도입하여 실제 친구와 가족만이 젊은 사용자가 게시한 콘텐츠와 상호 작용할 수 있게 했습니다.

몇 일 전, 해당 회사가 청소년 보호와 “부모님들이 청소년들이 안전한 경험을 갖고 있다는 것에 안심할 수 있도록” 하기 위해 새로운 Teen Accounts를 발표했습니다. 이것이 아이들을 보호하는 데 충분할까요? 그럼 더 나이가 많은 사용자들은 어떨까요?

안전하지 않은 생태계

페이스북, 인스타그램, 와츠앱은 여전히 모든 연령, 직업, 사회 집단의 사용자들에게 영향을 미치는 유해한 콘텐츠로 가득 차 있으며, 이 문제는 곧바로 해결될 것 같지 않습니다.

연구에서 디지털 혐오 반격센터(CCDH)는 미국의 10명 여성 정치인들의 인스타그램 계정에 올라온 5억 건 이상의 댓글을 분석하였고, 결과적으로 메타가 이러한 댓글 중 93%에 대해 제거하거나 조치를 취하지 못했다는 사실을 밝혔습니다.

메타에 대한 수많은 소송들은 이 회사가 사용자를 해로운 콘텐츠로부터 보호하는데 어려움을 겪고 있음을 명확히 증명하였습니다. 또한, 부당한 필터와 부실하게 구현된 안전도구로 인해 창작자, 출판사, 브랜드들에게도 피해를 주고 있습니다.

물론, 이는 깊이 있게 다뤄져야 할 복잡하고 깊은 문제입니다. 하지만 메타가 이 상황을 처리하지 못하고 있다는 사실을 받아들일 시간일지도 모른다는 생각이 듭니다. 기본적으로 결함이 있는 시스템을 그저 반창고로 flick하는 것이 문제를 해결하지 못할 것입니다. 이제 진짜 문제는, 진정한 변화가 일어나기 전에 얼마나 많은 사용자들이 불공정하게 차단되거나, 오해를 받거나, 조작당해야 하는지에 대한 것입니다.

이 기사가 마음에 드셨나요? 평가해 주세요!
정말 싫습니다 별로 좋아하지 않습니다 괜찮습니다 꽤 좋습니다! 정말 좋습니다!

마음에 드셨다니 기쁩니다!

Trustpilot에 여러분의 의견을 남겨 주실 수 있으실까요? 리뷰는 WizCase에게 큰 힘이 됩니다. 감사합니다!

Trustpilot에 리뷰 남기기
0 0명의 사용자가 투표
제목
코멘트
피드백을 주셔서 감사합니다
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

댓글 달기

Loader
Loader 더 보기