인공지능 · 클라우드

GPU 공유 기반 LLM 서비스 'sllm' 출시...월 10~40달러로 대형 언어모델 이용

2026년 4월 5일

1

thumbnail.webp
코호트 구독 방식으로 GPU 인프라 비용 절감
[한국정보기술신문] GPU 자원을 여러 사용자가 공유해 대형 언어모델에 저렴하게 접근할 수 있는 서비스 'sllm'이 출시됐다. '코호트 구독' 방식을 통해 기존 서비스보다 합리적인 가격에 LLM을 이용할 수 있다.
sllm은 Llama-4-Scout-109B, Qwen-3.5-122B, GLM-5-754B, Kimi-K2.5-1T, DeepSeek-V3.2-685B 등 다양한 대규모 언어모델을 제공한다. 사용자는 필요에 따라 적합한 모델을 선택할 수 있다.
서비스는 초당 15~35 토큰의 처리 속도를 제공하며, 가용성은 모델과 구독 플랜에 따라 차이가 있다. 월간 또는 분기 약정 옵션을 통해 더욱 유연한 이용이 가능하다.
기존의 개별 GPU 임대나 API 서비스와 달리, sllm은 여러 사용자가 GPU 인프라를 공유하는 방식으로 비용을 대폭 절감했다. 월 10달러부터 40달러까지의 합리적인 요금으로 고성능 LLM에 접근할 수 있다.
이러한 공유 경제 모델은 개인 개발자나 소규모 스타트업이 대형 언어모델을 활용한 서비스를 개발하는 데 큰 도움이 될 것으로 전망된다.
한국정보기술신문 클라우드분과 이준호 기자 news@kitpa.org