MIT 연구결과, LLM들이 자체적으로 현실 인식을 형성할 수 있다고 밝혀져

Image created with Openart.ai

MIT 연구결과, LLM들이 자체적으로 현실 인식을 형성할 수 있다고 밝혀져

읽는 시간: 2 분

MIT의 연구자들은 대형 언어 모델(LLM)이 현실의 내부 표현을 스스로 생성할 수 있다는 사실을 발견했습니다. 퍼즐에 대해 LLM을 훈련시키는 과정에서 모델이 스스로 퍼즐의 환경을 이해하게 되는 것을 확인했는데, 이는 명시적인 지시 없이 이루어진 것이었습니다. 이 연구 결과는 어제 MIT 뉴스에 보고되었습니다.

이를 테스트하기 위해, 연구자들은 Karel 퍼즐을 사용했습니다. 이는 시뮬레이션된 환경에서 로봇에게 지시를 내리는 작업을 포함하고 있습니다. 100만 개 이상의 이러한 퍼즐에 모델을 훈련시킨 결과, LLM은 올바른 지시를 생성하는 능력이 향상되는 것은 물론, 퍼즐 환경에 대한 내부 시뮬레이션을 개발하는 것으로 나타났습니다.

이 연구의 주 저자인 찰스 진(Charles Jin)은 “이 실험을 시작할 때, 언어 모델은 작동하지 않는 임의의 지시를 생성했습니다. 우리가 훈련을 완료하게 되면, 언어 모델은 92.4 퍼센트의 비율로 올바른 지시를 생성했습니다.”라고 설명했습니다.

이 내부 모델은 “프로빙(probing)”이라는 기계 학습 기법을 사용하여 발견되었는데, 이것은 로봇이 지시에 어떻게 반응하는지의 내부 모델을 나타내며, 문법 이상의 이해를 제안합니다.

탐사 장치는 단지 “LLM의 뇌를 들여다보기 위해” 설계되었다고 진이 말하지만, 그것이 모델의 사고에 영향을 미칠 수 있었을 가능성이 있습니다.

진은 이렇게 설명합니다. “탐사 장치는 범죄 현장 분석가와 같습니다. 이 데이터 더미를 분석가에게 건네며, ‘로봇이 어떻게 움직이는지 보세요, 이 데이터 더미에서 로봇의 움직임을 찾아보세요.’라고 말합니다. 그 후 분석가는 ‘데이터 더미에서 로봇이 무슨 일을 하는지 알았다’고 당신에게 말해줍니다.”

진은 이렇게 덧붙였습니다. “하지만 만약 데이터 더미가 실제로 원시 명령어를 인코딩하고 있고, 분석가가 그 명령어를 교묘하게 추출하고 그대로 따르는 방법을 찾아냈다면 어떨까요? 그럼 언어 모델은 실제로 명령어가 무슨 뜻인지 전혀 배우지 못한 셈이죠.”

이를 검증하기 위해 연구자들은 “비자로 월드”라는 실험을 수행했습니다. 이 실험에서는 명령어의 의미가 반대로 바뀌는 상황을 설정했는데, 이렇게 변경된 명령어를 프로브가 해석하는 데 어려움을 겪었습니다. 이는 LLM이 원래 명령어에 대한 자체적인 의미 이해를 개발했음을 나타냅니다.

이 결과들은 LLM이 단지 세련된 패턴 매칭 기계일 뿐이라는 일반적인 견해에 도전하며, 이러한 모델들이 언어와 그것이 대표하는 세계에 대해 더 깊고, 더욱 세밀한 이해를 개발하고 있음을 제안합니다.

이번 주에 배스 대학에서 발표한 연구에 따르면, LLM은 언어 처리에서 탁월하지만 독립적 기술 획득에서는 어려움을 겪는다고 합니다. 이는 LLM의 예측 가능성이라는 개념을 강화시켰습니다. 그러나, MIT의 연구는 이와 대조적인 관점을 제공합니다.

MIT의 결과가 유망해 보이지만, 연구자들은 몇 가지 한계점을 지적하고 있습니다. 특히 진(Jin)은 그들이 인사이트를 얻기 위해 매우 간단한 프로그래밍 언어와 상대적으로 작은 모델을 사용했다는 점을 인정합니다.

결론적으로, MIT의 결과가 격려적이지만, 연구자들은 그 의미를 완전히 이해하기 위해서는 더 많은 연구가 필요하다고 주의를 당부합니다.

이 기사가 마음에 드셨나요? 평가해 주세요!
정말 싫습니다 별로 좋아하지 않습니다 괜찮습니다 꽤 좋습니다! 정말 좋습니다!
0 0명의 사용자가 투표
제목
코멘트
피드백을 주셔서 감사합니다
Please wait 5 minutes before posting another comment.
Comment sent for approval.

댓글 달기

더 보기