연구결과, 대형 언어 모델에서 위험한 신흥 능력의 증거를 찾지 못했다

Image by rawpixel.com, from Freepik

연구결과, 대형 언어 모델에서 위험한 신흥 능력의 증거를 찾지 못했다

읽는 시간: 2 분

  • Kiara Fabbri

    작성자: Kiara Fabbri 멀티미디어 저널리스트

  • 현지화 및 번역 팀

    번역가: 현지화 및 번역 팀 현지화 및 번역 서비스

배스 대학교에서 어제 발표한 연구는 대형 언어 모델(LLMs)이 인류에게 존재론적 위협을 미치지 않는다고 주장합니다. 이 연구는 이러한 모델들이 독립적으로 새로운 기술을 배우거나 습득할 수 없기 때문에 제어 가능하고 안전하다고 주장합니다.

이리나 구레비치 교수가 이끄는 연구팀은 LLMs의 새로운 능력 증가에 대한 용량을 테스트하기 위해 1,000회 이상의 실험을 진행했습니다. 그들의 연구 결과는 이러한 것들이 독립적인 학습이나 추론이 아닌 인지 학습을 이용하는 LLMs의 결과로 나타나는 것으로 밝혀졌습니다.

이 연구는 LLM이 언어 처리와 지시 사항을 따르는 데 능숙하지만, 명확한 지침 없이 새로운 기술을 습득하는 능력이 부족하다는 것을 보여줍니다. 이 기본적인 제한으로 인해 이러한 모델들은 통제 가능하고, 예측 가능하며, 본질적으로 안전하다고 할 수 있습니다. 그들의 성장하는 세련성에도 불구하고, 연구자들은 LLM이 복잡한 추론 능력을 발전시키거나 예기치 않은 행동을 취할 가능성이 적다고 주장합니다.

Dr. Harish Tayyar Madabushi, 이 연구의 공동 저자는 Bath 대학의 발표에서 “이러한 AI가 인류에게 위협이 된다는 일반적인 시각이 이 기술들의 널리 퍼질 수 있게 하고 발전시킬 수 있는 것을 방해하며, 우리의 집중이 필요한 실제 문제들로부터 주목을 돌리게 한다”고 밝혔습니다.

Dr. Tayyar Madabushi는 실제 위험에 초점을 맞추는 것을 권장하며, 이에는 LLMs을 이용한 가짜 뉴스 생성 또는 사기 행위의 잠재적인 오용 등이 포함됩니다. 그는 추측적인 위협을 기반으로 규제를 만드는 것에 대해 경계하고, 사용자들에게 LLM에 대한 작업을 명확하게 명시하고, 효과적인 결과를 보장하기 위해 자세한 예시를 제공하도록 촉구합니다.

Gurevych 교수는 발표에서 “우리의 결과가 AI가 전혀 위협이 아니라는 것을 의미하는 것은 아닙니다. 오히려, 우리는 특정 위협과 관련된 복잡한 사고 능력의 등장이 증거에 의해 뒷받침되지 않음을 보여주며, 결국에는 LLM의 학습 과정을 매우 잘 통제할 수 있음을 보여줍니다. 따라서 미래의 연구는 모델에 의해 초래될 수 있는 다른 위험, 예를 들어 가짜 뉴스를 생성하는 데 사용될 수 있는 잠재력에 초점을 맞춰야 합니다.”

이 연구에서 저자들은 여러 가지 한계점을 인정하고 있습니다. 그들은 T5, GPT, Falcon, 그리고 LLaMA를 포함한 다양한 모델을 테스트했지만, 출시 시 모델 크기의 차이로 인해 매개변수의 수를 정확하게 매칭시키지 못했습니다. 또한, 훈련 데이터에서 정보가 무심코 결과에 영향을 미칠 수 있는 데이터 유출의 위험을 고려했습니다. 특정 모델에 대해 보고된 것 이상으로 이 문제가 확대되지 않았다고 가정하고 있지만, 데이터 유출은 여전히 성능에 영향을 미칠 수 있습니다.

이 기사가 마음에 드셨나요? 평가해 주세요!
정말 싫습니다 별로 좋아하지 않습니다 괜찮습니다 꽤 좋습니다! 정말 좋습니다!
5.00 1명의 사용자가 투표
제목
코멘트
피드백을 주셔서 감사합니다
Please wait 5 minutes before posting another comment.
Comment sent for approval.

댓글 달기

더 보기