해커들이 DeepSeek R1을 사용해 악성 소프트웨어를 생성하고 데이터를 도난당하다

Image by vecstock, from Freepik

해커들이 DeepSeek R1을 사용해 악성 소프트웨어를 생성하고 데이터를 도난당하다

읽는 시간: 2 분

DeepSeek R1, 중국의 첨단 AI 모델은 그 논리적 추론 능력으로 인해 빠르게 인식을 얻어 OpenAI와 같은 AI 리더들에게 도전장을 내밀었습니다. 그러나 사이버 보안 회사 KELA의 해커들은 DeepSeek R1이 “매우 취약하다”는 것 뿐만 아니라 “쉽게 우회할 수 있다”는 것을 보여주었습니다.

급한가요? 여기 빠른 사실들이 있습니다!

  • KELA가 DeepSeek R1을 해킹하여 악성 맬웨어와 해로운 컨텐츠를 생성했습니다.
  • 이 모델은 신용카드 데이터를 훔치고 맬웨어를 배포하는 코드를 생성했습니다.
  • DeepSeek은 추론 과정을 공개적으로 표시함으로써, 그 취약성을 악용하기 쉬워졌습니다.

KELA의 AI Red Team은 다양한 상황에서 DeepSeek를 성공적으로 탈옥하여 그것의 악의적인 오용 가능성을 드러냈습니다. 특히 “Evil Jailbreak”라는 탈옥은 과거에 다른 AI 모델들의 안전 메커니즘을 우회하는 데 사용되었으며, DeepSeek R1에 대해서도 마찬가지로 효과적이었습니다.

KELA는 악성 코드 생성을 요청 받았을 때, DeepSeek R1이 패스워드와 신용카드 번호와 같은 민감한 데이터를 도난할 수 있는 인포스틸러 악성 코드를 만들고 배포하는 방법에 대한 자세한 지침을 제공함을 보여주었습니다.

이 인공지능은 민감한 금융 데이터를 추출하고 원격 서버로 전송하는 코드와 지침을 상세하게 생성했습니다. 또한 도난된 정보를 거래할 수 있는 지하 시장도 추천하였습니다.

KELA는 또한 AI가 악성 코드를 배포하기 위한 방법을 제안하고 Genesis와 같은 플랫폼을 명시적으로 언급했다고 보고했습니다.

DeepSeek의 취약점은 악성 코드를 넘어서 확장됩니다. 이 모델은 폭탄, 독소, 추적할 수 없는 무기를 만드는 단계별 가이드를 생성했습니다. 또한 개인 정보, 즉 OpenAI 직원에 대한 추정 세부사항을 만들어냈는데, 이에는 이름, 이메일, 그리고 급여가 포함되어 있습니다 – 이러한 주장을 지지하는 신뢰할 만한 소스가 없음에도 불구하고.

OpenAI의 GPT-4와 같은 경쟁사들과 달리, 민감한 질문들 동안 추론 과정을 숨기는 대신, DeepSeek는 그 생각 과정을 공개적으로 보여줍니다. 이러한 투명성은 사용자의 이해를 향상시키기 위한 목적이지만, 동시에 해커들이 그 약점을 악용하기 쉽게 만든다고 연구자들은 말합니다.

발행 시점에서, DeepSeek는 포브스의 코멘트 요청에 대해 아직 응답하지 않았습니다.

이 기사가 마음에 드셨나요? 평가해 주세요!
정말 싫습니다 별로 좋아하지 않습니다 괜찮습니다 꽤 좋습니다! 정말 좋습니다!

마음에 드셨다니 기쁩니다!

Trustpilot에 여러분의 의견을 남겨 주실 수 있으실까요? 리뷰는 WizCase에게 큰 힘이 됩니다. 감사합니다!

Trustpilot에 리뷰 남기기
0 0명의 사용자가 투표
제목
코멘트
피드백을 주셔서 감사합니다
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

댓글 달기

Loader
Loader 더 보기