
Image generated with OpenAI
의견: AI 모델은 신비로운 ‘생명체’이며, 그들을 창조한 사람조차도 완전히 이해하지 못한다
Anthropic이 최근에 발표한 Claude 3.5 Haiku 모델 동작 방식에 대한 연구는 혁신적인 통찰과 고급 AI 기술 작동 방식에 대한 이해를 제공하는 것을 약속합니다. 그러나 그들이 LLMs(대형 언어 모델)를 “생명체”라고 하고 “생각”한다고 말할 때 그들이 무엇을 의미하는지는 무엇일까요?
몇 일 전에, Anthropic은 대형 언어 모델(LLMs)이 어떻게 작동하는지에 대한 혁신적인 연구 두 편을 발표했습니다. 기술적 발전은 흥미롭고 관련성이 있었지만, 가장 내 눈길을 끈 것은 AI 전문가들이 사용한 어휘였습니다.
연구 ‘대형 언어 모델의 생물학에 관하여’에서, 연구자들은 수십억 년 동안 진화한 복잡한 ‘생명체’를 연구하는 생물학자들과 자신들을 비교했습니다.
“마찬가지로, 언어 모델은 간단하고 인간이 설계한 훈련 알고리즘에 의해 생성되지만, 이 알고리즘으로부터 탄생한 메커니즘은 상당히 복잡해 보인다”고 과학자들은 적었습니다.
지난 몇 년 동안, AI 모델은 상당히 발전했습니다. 그리고 우리는 지난 몇 달 동안 그것의 빠른 진화를 목격하고 있습니다. 우리는 ChatGPT가 텍스트만의 모델에서 말하는 동반자로, 이제는 멋진 스튜디오 지브리 스타일의 이미지를 생성할 수 있는 다차원 에이전트가 되어 가는 것을 보았습니다.
그런데, 현재의 최전선 AI 모델들이 과학 공상 소설 수준의 고도로 발전된 추론을 개발하고 있는데, 그 과정과 시스템을 그 창조자조차 이해할 수 없다면 어떨까요? AI 기술을 둘러싼 여러 가지 미스터리가 있으며, 이것들은 2025년에 재검토하거나 탐색해볼 만한 주제일지도 모릅니다.
AI 모델의 무서운 블랙박스 역설
AI 채택과 AI 리터러시에 대한 여러 논의들이 있고, 생성적 AI 모델이 어떻게 작동하는지 이해하는 사람들이 챗봇을 그들의 “친구”나 “마법 같은” 앱으로 간주하는 것이 덜 하다는 것입니다. 그러나, 전문가들과 기술에 더 익숙한 사람들 사이에는 LLM을 독립적인 창작물로 비교하거나 간주해야 하는지에 대한 다른 논의도 있습니다. 후자에 대해, “AI 블랙박스 패러독스”라는 특별한 요소가 논의에서 중요한 역할을 합니다.
딥러닝 시스템은 사람들이 하는 것과 비슷한 방식으로 요소와 추세를 인식하도록 훈련되었습니다. 우리가 어린이들에게 패턴을 인식하고 다른 객체에 특정한 단어를 할당하는 방법을 가르치는 것처럼, LLM은 독특한 연결을 만들고 “성장”함에 따라 점점 더 복잡해지는 네트워크를 구축하도록 훈련되었습니다.
전기 및 컴퓨터 공학 부교수인 사미르 라와시데는 인공지능에 특화되어 있으며, 설명하길, 우리가 인간의 지능을 연구할 때처럼, 심층 학습 시스템이 어떻게 결정을 내리고 결론을 도출하는지를 실제로 보는 것은 거의 불가능하다. 이것이 전문가들이 “블랙 박스 문제”라고 부르는 것이다.
AI 모델은 인간의 이해력에 도전한다
Anthropic의 최근 연구는 이전에는 흐릿하거나 심지어 완전히 잘못된 특정 상황에서 그 모델이 어떻게 “생각”하는지 설명함으로써 AI 블랙 박스 상황에 대한 이해를 넓혔다. 이 연구는 Claude 3.5 Haiku 모델에 기반을 두고 있지만, 전문가들이 다른 AI 모델에서 비슷한 특성을 개발하고 분석하는 데 도움이 된다.
“이 지능의 본질을 이해하는 것은 깊이 있는 과학적 도전이며, ‘생각한다’는 것이 무엇을 의미하는지에 대한 우리의 인식을 바꿀 잠재력을 가지고 있다”라고 Anthropic의 연구자들이 공유한 논문에서 주장합니다.
그러나 ‘생각한다’라는 용어는 AI 기술에 부여되어 산업의 일부 전문가들을 불편하게 하며, 이것은 조사의 비판의 일부입니다. 한 Reddit 사용자는 왜 이것이 일부 사람들을 짜증나게 하는지 설명했습니다: “이 글 전반에 걸쳐 인간화하는 경향이 많아 작업을 애매하게 만듭니다. 예를 들어, ‘생각한다’라는 단어를 계속 사용하고 있지만, ‘계산한다’라고 말해야 합니다. 우리는 생물학적 뇌가 아니라 컴퓨터 소프트웨어에 대해 이야기하고 있는 것입니다.”
“인간화된” 용어들이 비전문가들이 AI 모델을 더 잘 이해하게 돕고 커뮤니티에서 논의를 이끌어내지만, 사실은 우리가 “계산”이라고 하든 “생각”이라고 하든, 동일한 어려움이 계속되는 것입니다: 우리는 언어 모델(LMMs)이 어떻게 작동하는지에 대해 완전히 이해하거나 투명하게 알지 못한다는 것입니다.
가까운 미래에 진보된 AI 모델들로부터 기대할 것은 무엇인가
ChatGPT, DeepSeek, Perplexity, Claude와 같은 고급 AI 기술의 존재를 무시하는 것을 상상해 보셨나요—지금이나 가까운 미래에? 모든 징후들은 점점 뒤로 돌아갈 수 없을 것이라는 사실을 가리키고 있습니다. 생성 및 추론 AI는 이미 우리의 일상 생활을 변화시켰고, 그들은 계속해서 발전할 것입니다.
WizCase에서는 거의 매일 새로운 AI 모델, 도구, 회사가 등장하여 우리 사회에 큰 영향을 미칠 가능성이 있는 산업의 새로운 동향을 보도합니다. 이 고급 모델들이 어떻게 작동하는지 더 잘 이해하기 위해 잠시 쉬거나, 심지어 조금이라도 속도를 줄이는 것은 AI 경쟁의 빠른 속도와 정부와 세계에서 가장 강력한 회사들의 참여를 고려하면 불가능해 보입니다.
Anthropic의 논문에는 “AI 모델들이 우리의 삶과 일에 점점 더 큰 영향을 미치므로, 그들의 영향이 긍정적이라는 것을 확신하기 위해 우리는 그들을 충분히 이해해야 합니다.”라고 명시되어 있습니다. 비록 조금 비현실적으로 들릴지 모르지만, 연구자들은 여전히 긍정적입니다: “우리는 여기에 담긴 우리의 결과와 그것들이 기반으로 하는 발전의 궤도가, 이 도전을 극복할 수 있다는 흥미진진한 증거라고 믿습니다.”
그러나 이러한 발견들이 얼마나 빠르게 진행될 수 있는가? 이 논문에서는 결과들이 몇몇 특정 영역과 특별한 경우들만을 다루고 있으며, 더 일반적인 결론을 도출하는 것이 불가능하다는 점도 지적하고 있다. 그러니, 아마도 충분히 빠르지 않을 것이다.
규제기관들이 EU AI Act와 같은 조치를 도입하며, 더 많은 투명성을 요구하는 한편, 주요 기술 회사들로부터 진보를 저해한다는 비난과 불만을 듣고 있다. 그럼에도 불구하고, 강력한 AI 모델들은 계속해서 발전하고 있다.
우리 사회는 이러한 기술들이 어떻게 작동하는지에 대한 이해를 깊게 하면서, 또한 그것들을 우리 커뮤니티에 의미있는 이익과 발전을 가져다주는 방식으로 채택하는 것 사이의 균형을 찾아야 합니다. 이것이 가능할까요? 이 ‘생명체들’이 ‘윤리적’이고 ‘선하게’ 유지되도록 단지 기도하거나 희망하는 것이 지금은 그다지 비현실적이지 않게 보입니다.
댓글 달기
취소