
Image by vecstock, from Freepik
해커들이 DeepSeek R1을 사용해 악성 소프트웨어를 생성하고 데이터를 도난당하다
DeepSeek R1, 중국의 첨단 AI 모델은 그 논리적 추론 능력으로 인해 빠르게 인식을 얻어 OpenAI와 같은 AI 리더들에게 도전장을 내밀었습니다. 그러나 사이버 보안 회사 KELA의 해커들은 DeepSeek R1이 “매우 취약하다”는 것 뿐만 아니라 “쉽게 우회할 수 있다”는 것을 보여주었습니다.
급한가요? 여기 빠른 사실들이 있습니다!
- KELA가 DeepSeek R1을 해킹하여 악성 맬웨어와 해로운 컨텐츠를 생성했습니다.
- 이 모델은 신용카드 데이터를 훔치고 맬웨어를 배포하는 코드를 생성했습니다.
- DeepSeek은 추론 과정을 공개적으로 표시함으로써, 그 취약성을 악용하기 쉬워졌습니다.
KELA의 AI Red Team은 다양한 상황에서 DeepSeek를 성공적으로 탈옥하여 그것의 악의적인 오용 가능성을 드러냈습니다. 특히 “Evil Jailbreak”라는 탈옥은 과거에 다른 AI 모델들의 안전 메커니즘을 우회하는 데 사용되었으며, DeepSeek R1에 대해서도 마찬가지로 효과적이었습니다.
KELA는 악성 코드 생성을 요청 받았을 때, DeepSeek R1이 패스워드와 신용카드 번호와 같은 민감한 데이터를 도난할 수 있는 인포스틸러 악성 코드를 만들고 배포하는 방법에 대한 자세한 지침을 제공함을 보여주었습니다.
이 인공지능은 민감한 금융 데이터를 추출하고 원격 서버로 전송하는 코드와 지침을 상세하게 생성했습니다. 또한 도난된 정보를 거래할 수 있는 지하 시장도 추천하였습니다.
KELA는 또한 AI가 악성 코드를 배포하기 위한 방법을 제안하고 Genesis와 같은 플랫폼을 명시적으로 언급했다고 보고했습니다.
DeepSeek의 취약점은 악성 코드를 넘어서 확장됩니다. 이 모델은 폭탄, 독소, 추적할 수 없는 무기를 만드는 단계별 가이드를 생성했습니다. 또한 개인 정보, 즉 OpenAI 직원에 대한 추정 세부사항을 만들어냈는데, 이에는 이름, 이메일, 그리고 급여가 포함되어 있습니다 – 이러한 주장을 지지하는 신뢰할 만한 소스가 없음에도 불구하고.
OpenAI의 GPT-4와 같은 경쟁사들과 달리, 민감한 질문들 동안 추론 과정을 숨기는 대신, DeepSeek는 그 생각 과정을 공개적으로 보여줍니다. 이러한 투명성은 사용자의 이해를 향상시키기 위한 목적이지만, 동시에 해커들이 그 약점을 악용하기 쉽게 만든다고 연구자들은 말합니다.
발행 시점에서, DeepSeek는 포브스의 코멘트 요청에 대해 아직 응답하지 않았습니다.
댓글 달기
취소