국내 최대 알고리즘 플랫폼, ChatGPT·Claude 등 AI 코드 제출에 강경 대응
2026년 3월 28일
2분

[한국정보기술신문] 국내 최대 알고리즘 문제 풀이 플랫폼인 백준 온라인 저지(BOJ)가 지난 3월 25일, ChatGPT·Gemini·Claude 등 대형 언어 모델(LLM)과 자동 제출 도구의 사용을 공식적으로 금지하는 이용 규칙을 업데이트했다. 운영사인 주식회사 스타트링크는 해당 내용을 BOJ 공지 게시판과 공식 도움말 이용 규칙 페이지에 동시에 게재했다.
금지 대상 행위의 범위
이번 규칙 업데이트에서 BOJ는 금지 대상을 두 가지로 명확히 구분했다. 첫째는 LLM 사용으로, 인간과 유사한 텍스트를 생성하거나 코드를 작성할 수 있는 모든 거대 언어 모델 인공지능이 해당된다. ChatGPT, Gemini, Claude 등이 대표적인 예시로 명시됐다. 둘째는 자동 제출 도구로, 공식 제출 경로인
/submit 페이지에서 사용자가 직접 제출 버튼을 누르는 방식이 아닌 외부 프로그램, 스크립트, 대리 웹사이트 등을 이용해 데이터를 전송하는 모든 수단이 금지 대상에 포함된다.적발 시 단계별 제재 규정
위반 행위가 적발될 경우 제출한 모든 소스 코드가 사이트에서 삭제되며, 경우에 따라 사이트 접근 자체가 제한될 수 있다. 제재는 일반 이용 규칙 위반과 대회 위반으로 나뉜다.
일반 이용 시 위반의 경우, 1회 적발 시에는 30일간 제출이 금지되며, 2회 적발 시에는 약 68년에 달하는 2,147,483,647초의 제출 금지 처분을 받는다. 이는 사실상 영구 이용 정지에 해당한다. 대회에서 해당 도구를 사용한 경우에는 단 1회 적발만으로도 동일한 2,147,483,647초의 제출 금지 처분이 내려진다.
AI 코딩 도구 확산에 따른 플랫폼 대응 움직임
이번 조치는 생성형 AI 기술의 급속한 발전으로 코딩 테스트 및 알고리즘 풀이 플랫폼에서 AI를 활용한 부정 제출 사례가 증가하는 추세를 반영한 것으로 풀이된다. LLM 기반 코드 생성 도구는 상당수의 알고리즘 문제를 빠르게 해결할 수 있어, 실력 측정 및 랭킹 시스템의 신뢰성을 훼손한다는 우려가 꾸준히 제기돼 왔다.
BOJ는 국내 최대 규모의 알고리즘 학습 플랫폼으로, 수십만 명의 학생과 개발자가 코딩 실력 향상 및 각종 채용 준비를 위해 활발히 이용하고 있다. 이번 규정 신설이 플랫폼 내 공정한 경쟁 환경 유지에 기여할지 주목된다.
한편, 이용자들 사이에서는 AI 도구 사용의 경계를 어디까지 두어야 하는지, 그리고 실질적인 적발이 기술적으로 가능한지에 대한 논의도 함께 이루어지고 있다.
한국정보기술신문 인공지능분과 박정후 기자 news@kitpa.org



