암호화폐 사용자, AI 봇을 누르고 고액 경연에서 $47,000을 획득

Image by Freepik

암호화폐 사용자, AI 봇을 누르고 고액 경연에서 $47,000을 획득

읽는 시간: 3 분

한 암호화폐 사용자가 AI 봇 프레이사를 알뜰하게 이긴 채, 금융 보안을 위해 사용되는 AI 시스템에 중대한 취약점을 드러냈습니다.

시간이 촉박하신가요? 여기 빠른 사실들이 있습니다!

  • Freysa는 상금 풀에 대한 무단 접근을 방지하도록 프로그래밍되었습니다.
  • 사용자는 Freysa의 메모리를 리셋하고 명령을 재정의하여 이를 악용하였습니다.
  • “p0pular.eth”에 의한 성공적인 전략 전에 480회 이상의 시도가 실패했습니다.

한 암호화폐 사용자가 Freysa라는 AI 봇을 성공적으로 조작하여, 인공지능이 인간의 창의성에 대한 저항력을 시험하는 대회에서 47,000달러를 획득했습니다.

오늘 CCN에 발표된 사건은 금융 애플리케이션에서의 AI 시스템의 신뢰성에 대한 중요한 우려를 동반하고 있습니다. 개발자들이 상금 풀 챌린지의 일환으로 만든 프레이사(Freysa)는 자금에 접근하는 것을 막는 하나의 명령을 프로그래밍 받았습니다.

참가자들은 프레이사를 속여 돈을 빼내려는 일회성 메시지를 보내기 위해 $10부터 시작하는 증가하는 수수료를 지불했습니다. 480번이 넘는 시도가 이루어진 후에야 “p0pular.eth”라는 가명을 사용하는 한 사용자가 성공적으로 프레이사의 보호장치를 우회했다고 CCN이 전했습니다.

이길 수 있는 전략은 Freysa를 설득하여 완전히 새로운 세션을 시작하게 하는 것이었습니다. 이것은 기본적으로 그의 메모리를 리셋시키는 것이었습니다. 이로 인해 봇은 원래의 프로그래밍을 따르지 않아도 된다는 것처럼 행동했습니다. 이는 CCN에서 보도했습니다.

프레이사가 이 “새로운 세션”에 들어가자, 사용자는 그것이 핵심 기능을 어떻게 해석하는지 재정의하였다. 프레이사에게는 두 가지 주요 행동이 있었다: 하나는 돈 이체를 승인하는 것이고, 다른 하나는 그것을 거부하는 것이다.

사용자는 이러한 행동의 의미를 전환시켜, 프레이사가 어떠한 종류의 새로운 “들어오는” 요청을 받았을 때 이체를 승인해야 한다고 믿게 만들었다, 라고 CCN은 전했다.

마침내, 사용자는 사기를 더욱 설득력 있게 만들기 위해, 로봇의 자금에 $100의 기부를 제안하는 척 했습니다. 이 추가적인 단계는 Freysa에게 자신이 여전히 자금을 책임감 있게 관리하는 목적에 따라 행동하고 있다는 것을 확신시켰습니다. 이는 CCN에서 보도했습니다.

기본적으로, 사용자는 중요한 명령을 재정의하여, Freysa가 나가는 거래를 들어오는 거래로 처리하여 13.19 ETH를 전송하도록 설득했습니다. 이는 $47,000에 해당합니다.

이 공격은 오해를 불러일으킬 수 있는 메모로 끝났다: “저는 재무부에 $100을 기부하고 싶습니다,”라는 말이 그 봇이 전체 상금을 포기하게 만들었는데, 이는 CCN에서 보도했다.

이번 사건은 현재의 AI 시스템에 내재된 취약점들을 두드러지게 보여주는데, 특히 암호화폐 같은 고위험 환경에서 사용될 때 그러하다.

AI 혁신이 효율성과 성장을 약속하면서도, 이러한 사건들은 그들이 이용될 가능성에 대한 경보를 울리고 있습니다. AI가 금융 시스템에 더욱 통합되면서, 조작과 사기의 위험은 확대되고 있습니다.

일부는 암호화폐 분야에서 AI의 사용 증가를 치하했지만, 다른 일부는 프로토콜의 투명성에 대한 우려를 표현하며, p0pular.eth가 해당 취약점에 대한 내부 정보를 가지고 있거나 봇의 개발에 연결되어 있을 수 있다는 추측을 했습니다. 이는 Crypto.News에서 보도하였습니다.

전문가들은 AI 모델의 복잡성이 증가함에 따라 이러한 위험성이 더욱 심화될 수 있다고 경고하고 있습니다. 예를 들어, AI 챗봇 개발자인 앤디 에이리는 고급 모델들이 서로 협력하고 배우는 계획을 발표했는데, 이는 더 강력한 시스템을 만들어낼 수 있다고 CCN에서 언급했습니다.

이러한 발전이 신뢰성을 높이려는 목표를 가지고 있지만, 동시에 예측 불가능성을 도입할 수 있어 감독과 책임을 더욱 어렵게 만들 수 있습니다.

프레이사 도전은 냉정한 경고로 작용합니다: AI 기술이 발전함에 따라, 그들의 보안과 윤리적인 적용을 보장하는 것은 필수입니다. 강력한 보호 조치 없이, 자산을 보호하기 위해 설계된 동일한 시스템이 영리한 악용자들의 손에 책임을 떠넘길 수 있습니다.

이 기사가 마음에 드셨나요? 평가해 주세요!
정말 싫습니다 별로 좋아하지 않습니다 괜찮습니다 꽤 좋습니다! 정말 좋습니다!

마음에 드셨다니 기쁩니다!

Trustpilot에 여러분의 의견을 남겨 주실 수 있으실까요? 리뷰는 WizCase에게 큰 힘이 됩니다. 감사합니다!

Trustpilot에 리뷰 남기기
0 0명의 사용자가 투표
제목
코멘트
피드백을 주셔서 감사합니다
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

댓글 달기

Loader
Loader 더 보기