가중치 수정 없이 AI 리더보드 1위 달성한 'LLM 신경해부학' 연구 공개...레이어 복제만으로 성능 향상
2026년 3월 11일
3분

[한국정보기술신문] 인공지능 개발자 데이비드 노엘 응(David Noel Ng)이 모델 가중치를 단 한 번도 수정하지 않고, 기존 대형언어모델(LLM)의 중간 레이어 7개를 복제하는 방식만으로 허깅페이스 오픈 LLM 리더보드 1위를 달성한 연구를 공개했다. 이 연구는 2024년 중반에 이루어졌으나 2026년 3월에야 블로그를 통해 공개됐으며, 트랜스포머 모델이 내부적으로 기능적 해부학 구조를 갖추고 있다는 주장을 담고 있어 AI 연구계의 주목을 받고 있다.
응 개발자는 두 가지 관찰에서 이번 연구의 단초를 찾았다. 첫 번째는 2023년 말의 Base64 실험이다. 질문을 Base64로 인코딩해 LLM에 전송하더라도 모델이 올바른 답변을 같은 형식으로 반환한다는 점을 확인했다. 토크나이저가 전혀 다른 방식으로 문자열을 분리함에도 불구하고 모델이 이를 이해하고 응답할 수 있다는 사실은, 초기 레이어가 입력을 추상적 내부 표현으로 변환하는 '번역기' 역할을 한다는 가설을 촉발시켰다.
두 번째 단서는 2023년 11월 공개된 'Goliath-120B' 모델이었다. 이 모델은 서로 다른 두 개의 70B 모델 레이어를 교차 배치한 구조였는데, 학습 중 한 번도 보지 못했을 레이어 출력 분포를 입력으로 받으면서도 정상 작동했다. 이는 트랜스포머의 내부 표현이 예상보다 훨씬 균질하고 재배열에 강건하다는 것을 시사했다.
'Brain Scanner' 구축과 체계적 탐색
응 개발자는 지하실의 RTX 4090 두 장으로 72B 규모 모델을 양자화하여 구동하면서, 레이어 복제 실험을 위한 체계적인 탐색 시스템을 구축했다. 핵심 아이디어는 N개의 레이어를 가진 모델에서 i번 레이어부터 j번 레이어까지의 구간을 한 번 더 반복 실행하는 구성 (i, j)를 정의하는 것이다. Qwen2-72B의 경우 80개 레이어에서 가능한 구성이 3,241가지에 달해, 전체 탐색에는 막대한 시간이 필요했다.
이를 효율화하기 위해 두 가지 대리 평가 지표를 개발했다. 하나는 73조 곱하기 88조와 같이 계산기 없이는 풀기 어려운 수학 문제에 대한 직관적 추정 능력이고, 다른 하나는 복잡한 사회적 상황에서 특정 감정의 강도를 예측하는 감성지능(EQ) 벤치마크다. 두 지표 모두 출력 토큰이 수 개에 불과해 신속한 평가가 가능하며, 서로 인지적으로 독립적인 영역을 측정한다는 점에서 선택됐다.
최적 구성 발견과 리더보드 1위 달성
수일에 걸친 GPU 탐색 끝에 최적 구성은 (45, 52)로 확인됐다. 80개 레이어 중 45번부터 51번까지 7개 레이어를 한 번 더 통과시키는 방식으로, 총 파라미터 수는 72B에서 78B로 증가하되 새로운 가중치 학습은 전혀 없다. 이 구성을 Qwen2-72B의 파인튜닝 버전인 calme-2.1에 적용한 모델 'RYS-XLarge'를 허깅페이스에 공개하고 리더보드에 제출했다.
결과는 놀라웠다. 수학 추론 벤치마크(MATH Lvl 5)에서 기존 대비 8.16%, 다단계 추론 벤치마크(MuSR)에서 17.72% 향상됐으며, 6개 벤치마크 중 5개에서 성능이 개선돼 평균 44.75점으로 리더보드 1위를 차지했다. 탐색 과정에서 한 번도 참조하지 않았던 벤치마크들에서 모두 향상을 보였다는 점이 이 방법의 범용성을 입증한다.
LLM 신경해부학의 함의
이 연구에서 더욱 주목할 부분은 히트맵 분석을 통해 드러난 트랜스포머의 내부 구조다. 단일 레이어를 여러 번 반복하면 성능이 오히려 저하되는 반면, 연속된 레이어 블록 전체를 복제할 때만 성능이 향상되는 현상은 중간 레이어들이 독립적으로 작동하는 것이 아니라 완결된 인지 회로를 형성한다는 것을 시사한다. 마치 레시피의 한 단계만 반복해서는 요리가 나아지지 않지만, 전체 과정을 두 번 거치면 결과물이 개선되는 것과 같은 원리다.
응 개발자는 초기 레이어는 입력 인코딩, 후기 레이어는 출력 디코딩, 중간 레이어는 언어나 형식에 독립적인 추상적 추론을 담당하는 기능적 해부학 구조가 트랜스포머 훈련 과정에서 자연스럽게 출현한다고 주장했다. 또한 모델 규모가 클수록 이 기능적 분화가 더 명확하게 나타나며, 72B급 이상에서 방법의 효과가 두드러지는 이유도 이로 설명된다고 밝혔다.
이후 영향과 전망
RYS-XLarge를 기반으로 한 파인튜닝 모델들이 이어지면서 2026년 초 기준으로 오픈 LLM 리더보드 상위 4개 모델이 모두 RYS-XLarge의 후속작이 됐다. 응 개발자는 현재 새로운 오픈소스 모델군을 대상으로 동일한 분석을 확장하고 있으며, 관련 코드와 새 RYS 모델 공개를 예고했다. 레이어 복제가 파인튜닝과 독립적인 방법론이라는 점에서, 두 기법을 결합한 추가적인 성능 향상 가능성도 열려 있다.
한국정보기술신문 인공지능분과 권지현 기자 news@kitpa.org
![[백준 서비스 종료 ⑧] 백준 이후 어디로 가나...이용자들 대체 플랫폼 찾기 분주](/_next/image?url=https%3A%2F%2Fkitpa.org%2Fstorage%2F41892086-06f3-4c10-99af-4152bdbdff39.webp%23w%3D1920%26h%3D710&w=384&q=75)


