인공지능

가중치 수정 없이 AI 리더보드 1위 달성한 'LLM 신경해부학' 연구 공개...레이어 복제만으로 성능 향상

2026년 3월 11일
3분
thumbnail.webp
개발자 데이비드 노엘 응, 72B 모델 중간 레이어 7개 복제만으로 벤치마크 1위 등극
[한국정보기술신문] 인공지능 개발자 데이비드 노엘 응(David Noel Ng)이 모델 가중치를 단 한 번도 수정하지 않고, 기존 대형언어모델(LLM)의 중간 레이어 7개를 복제하는 방식만으로 허깅페이스 오픈 LLM 리더보드 1위를 달성한 연구를 공개했다. 이 연구는 2024년 중반에 이루어졌으나 2026년 3월에야 블로그를 통해 공개됐으며, 트랜스포머 모델이 내부적으로 기능적 해부학 구조를 갖추고 있다는 주장을 담고 있어 AI 연구계의 주목을 받고 있다.
응 개발자는 두 가지 관찰에서 이번 연구의 단초를 찾았다. 첫 번째는 2023년 말의 Base64 실험이다. 질문을 Base64로 인코딩해 LLM에 전송하더라도 모델이 올바른 답변을 같은 형식으로 반환한다는 점을 확인했다. 토크나이저가 전혀 다른 방식으로 문자열을 분리함에도 불구하고 모델이 이를 이해하고 응답할 수 있다는 사실은, 초기 레이어가 입력을 추상적 내부 표현으로 변환하는 '번역기' 역할을 한다는 가설을 촉발시켰다.
두 번째 단서는 2023년 11월 공개된 'Goliath-120B' 모델이었다. 이 모델은 서로 다른 두 개의 70B 모델 레이어를 교차 배치한 구조였는데, 학습 중 한 번도 보지 못했을 레이어 출력 분포를 입력으로 받으면서도 정상 작동했다. 이는 트랜스포머의 내부 표현이 예상보다 훨씬 균질하고 재배열에 강건하다는 것을 시사했다.

'Brain Scanner' 구축과 체계적 탐색

응 개발자는 지하실의 RTX 4090 두 장으로 72B 규모 모델을 양자화하여 구동하면서, 레이어 복제 실험을 위한 체계적인 탐색 시스템을 구축했다. 핵심 아이디어는 N개의 레이어를 가진 모델에서 i번 레이어부터 j번 레이어까지의 구간을 한 번 더 반복 실행하는 구성 (i, j)를 정의하는 것이다. Qwen2-72B의 경우 80개 레이어에서 가능한 구성이 3,241가지에 달해, 전체 탐색에는 막대한 시간이 필요했다.
이를 효율화하기 위해 두 가지 대리 평가 지표를 개발했다. 하나는 73조 곱하기 88조와 같이 계산기 없이는 풀기 어려운 수학 문제에 대한 직관적 추정 능력이고, 다른 하나는 복잡한 사회적 상황에서 특정 감정의 강도를 예측하는 감성지능(EQ) 벤치마크다. 두 지표 모두 출력 토큰이 수 개에 불과해 신속한 평가가 가능하며, 서로 인지적으로 독립적인 영역을 측정한다는 점에서 선택됐다.

최적 구성 발견과 리더보드 1위 달성

수일에 걸친 GPU 탐색 끝에 최적 구성은 (45, 52)로 확인됐다. 80개 레이어 중 45번부터 51번까지 7개 레이어를 한 번 더 통과시키는 방식으로, 총 파라미터 수는 72B에서 78B로 증가하되 새로운 가중치 학습은 전혀 없다. 이 구성을 Qwen2-72B의 파인튜닝 버전인 calme-2.1에 적용한 모델 'RYS-XLarge'를 허깅페이스에 공개하고 리더보드에 제출했다.
결과는 놀라웠다. 수학 추론 벤치마크(MATH Lvl 5)에서 기존 대비 8.16%, 다단계 추론 벤치마크(MuSR)에서 17.72% 향상됐으며, 6개 벤치마크 중 5개에서 성능이 개선돼 평균 44.75점으로 리더보드 1위를 차지했다. 탐색 과정에서 한 번도 참조하지 않았던 벤치마크들에서 모두 향상을 보였다는 점이 이 방법의 범용성을 입증한다.

LLM 신경해부학의 함의

이 연구에서 더욱 주목할 부분은 히트맵 분석을 통해 드러난 트랜스포머의 내부 구조다. 단일 레이어를 여러 번 반복하면 성능이 오히려 저하되는 반면, 연속된 레이어 블록 전체를 복제할 때만 성능이 향상되는 현상은 중간 레이어들이 독립적으로 작동하는 것이 아니라 완결된 인지 회로를 형성한다는 것을 시사한다. 마치 레시피의 한 단계만 반복해서는 요리가 나아지지 않지만, 전체 과정을 두 번 거치면 결과물이 개선되는 것과 같은 원리다.
응 개발자는 초기 레이어는 입력 인코딩, 후기 레이어는 출력 디코딩, 중간 레이어는 언어나 형식에 독립적인 추상적 추론을 담당하는 기능적 해부학 구조가 트랜스포머 훈련 과정에서 자연스럽게 출현한다고 주장했다. 또한 모델 규모가 클수록 이 기능적 분화가 더 명확하게 나타나며, 72B급 이상에서 방법의 효과가 두드러지는 이유도 이로 설명된다고 밝혔다.

이후 영향과 전망

RYS-XLarge를 기반으로 한 파인튜닝 모델들이 이어지면서 2026년 초 기준으로 오픈 LLM 리더보드 상위 4개 모델이 모두 RYS-XLarge의 후속작이 됐다. 응 개발자는 현재 새로운 오픈소스 모델군을 대상으로 동일한 분석을 확장하고 있으며, 관련 코드와 새 RYS 모델 공개를 예고했다. 레이어 복제가 파인튜닝과 독립적인 방법론이라는 점에서, 두 기법을 결합한 추가적인 성능 향상 가능성도 열려 있다.
한국정보기술신문 인공지능분과 권지현 기자 news@kitpa.org