한국정보기술진흥원
한국정보기술신문
thumbnail

인공지능 · 정보통신 ·

ggml.ai, 허깅페이스와 합류… 로컬 AI 오픈소스 생태계 지속성 확보...llama.cpp 커뮤니티는 그대로 유지, 장기 지속 가능성 강화

발행일
읽는 시간1분 55초

ggml.ai 창립팀이 허깅페이스에 합류해 로컬 AI 오픈소스의 미래를 함께 만든다.

[한국정보기술신문] llama.cpp의 창립팀이 속한 ggml.ai가 글로벌 AI 플랫폼 기업 허깅페이스에 합류한다고 2026년 2월 20일 공식 발표했다. 이번 발표는 llama.cpp 깃허브 저장소의 공식 토론 게시판을 통해 프로젝트 메인테이너 게오르기 게르가노프(Georgi Gerganov)가 직접 공개했으며, 로컬 AI 커뮤니티 내에서 즉각적인 반응을 이끌어냈다.

합류 배경과 목적

ggml.ai는 2023년 설립 이래 머신러닝 라이브러리 ggml의 개발 및 보급을 핵심 목표로 삼아왔다. 지난 3년간 소규모 팀이 오픈소스 개발자 커뮤니티를 성장시키고, 소비자용 하드웨어에서 효율적인 로컬 AI 추론을 가능하게 하는 표준으로 ggml을 자리매김시켰다. 그 결과 llama.cpp는 수많은 프로젝트와 제품의 핵심 구성 요소로 채택됐다.

게르가노프는 이번 합류의 배경으로 허깅페이스와의 오랜 협력 관계를 꼽았다. 허깅페이스 엔지니어들은 그간 ggml과 llama.cpp에 멀티모달 지원 도입, GGUF 파일 포맷과 허깅페이스 플랫폼 간의 호환성 개선, 허깅페이스 추론 엔드포인트에 llama.cpp를 통합하는 작업 등 핵심 기능 여러 가지를 기여해왔다. 이처럼 두 팀 사이의 협력이 원활하게 이어져 왔기에, 이를 공식화하고 더욱 강화하는 것이 자연스러운 수순이라는 설명이다.

오픈소스 프로젝트와 커뮤니티에 미치는 영향

이번 합류로 llama.cpp와 ggml 프로젝트 자체에는 큰 변화가 없다는 점이 강조됐다. ggml-org 산하 프로젝트들은 기존과 동일하게 오픈소스로 유지되며, 커뮤니티 중심으로 운영된다. 게르가노프와 팀원들은 계속해서 100% 시간을 ggml과 llama.cpp 유지 보수에 헌신할 예정이다. 허깅페이스는 프로젝트에 장기적인 지속 가능한 자원을 제공함으로써 프로젝트의 성장과 발전 가능성을 높이는 역할을 맡게 된다.

향후 기술 방향

양 팀의 향후 공동 기술 목표는 크게 두 가지다. 첫째는 허깅페이스의 transformers 라이브러리와의 원클릭 통합이다. transformers 프레임워크는 AI 모델 정의의 기준점으로 자리 잡고 있으며, 이와 ggml 생태계 간의 호환성을 높이는 것이 더 넓은 모델 지원과 품질 관리에 필수적이라는 판단이다. 둘째는 ggml 기반 소프트웨어의 패키징 개선과 사용자 경험 향상이다. 로컬 추론이 클라우드 추론의 실질적 대안으로 부상하는 시점에, 일반 사용자들이 로컬 모델을 더욱 쉽게 배포하고 사용할 수 있는 환경을 만드는 것이 목표다.

커뮤니티의 반응

이번 발표에 대해 오픈소스 AI 커뮤니티는 전반적으로 긍정적인 반응을 보이고 있다. 다수의 기여자와 사용자들은 프로젝트의 지속 가능성이 확보된 것을 환영하며, 특히 허깅페이스가 파트너 기업으로 선택된 점에 대해 신뢰감을 표했다. 한 기여자는 "llama.cpp는 오늘날 오픈소스 로컬 AI를 있게 한 근간"이라며 기대감을 드러냈다. 공식 기여자 요하네스 게슬러는 프로젝트의 지속 가능성을 위한 파트너십이 확보된 것에 만족감을 표하며, 공식 조직의 일원이 아니더라도 공동의 목표를 위해 계속 협력할 것이라고 밝혔다.

게르가노프는 "우리의 공동 목표는 앞으로 오픈소스 초지능을 전 세계에서 누구나 접근 가능하도록 만드는 데 필요한 기반을 제공하는 것"이라며 "로컬 AI 커뮤니티와 함께 디바이스 위에서 가장 효율적으로 동작하는 궁극의 추론 스택을 계속 만들어 나가겠다"고 밝혔다.

한국정보기술신문 클라우드분과 양인석 기자 news@kitpa.org