AI 생성 비밀번호 보안 허점 심각, 엔트로피 72% 부족...LLM 구조적 한계로 예측 가능한 패턴 반복 생성
2026년 4월 10일
2분

[한국정보기술신문] AI가 생성한 비밀번호의 보안 취약점이 심각한 수준으로 드러나면서 기업들의 긴급 대응이 필요하다는 경고가 나왔다. AI 보안 기업 이레귤러와 카스퍼스키의 독립 연구 결과 대규모 언어모델이 구조적으로 예측 가능한 비밀번호를 생성한다는 사실이 확인됐다.
클로드 오퍼스 4.6 분석 결과
클로드 오퍼스 4.6을 대상으로 한 실험에서 50회 독립 세션을 통해 생성된 비밀번호 중 고유 문자열은 30개에 불과했다. 특정 문자열이 18번 반복되어 36%의 반복률을 보였으며 이는 무작위성의 심각한 결여를 의미한다.
더 심각한 문제는 엔트로피 수준이다. 클로드 오퍼스 4.6이 생성한 16자 비밀번호는 약 27비트의 엔트로피만 제공한다. 이는 암호화 기준인 98비트보다 72% 부족한 수준이다. 기존 비밀번호 강도 측정 도구들은 이를 98~100비트로 오평가하며 실제 위험을 은폐하고 있다.
LLM 아키텍처의 근본적 한계
문제의 핵심은 LLM과 암호학적 보안 의사난수 생성기의 구조적 차이에 있다. CSPRNG는 모든 문자가 독립적이고 균등 분포를 갖지만 LLM은 학습 패턴에 기반한 예측 가능한 분포를 생성한다.
온도 설정을 최대치인 1.0으로 조정해도 엔트로피가 통계적으로 유의미하게 개선되지 않았다. 문자 위치 편향이 모델 가중치에 인코딩되어 있기 때문이다. 이는 단순한 설정 변경으로는 해결할 수 없는 구조적 문제임을 시사한다.
자동 주입으로 확산되는 위험
깃허브 코파일럿 같은 AI 코딩 도구가 개발자의 명시적 지시 없이도 자동으로 취약한 비밀번호를 생성해 도커나 쿠버네티스 같은 배포 환경에 삽입하고 있다. 기존 비밀정보 스캐너인 Gitleaks나 Trufflehog는 이를 탐지하지 못해 문제가 더욱 심각하다.
AI 도구들이 생성한 취약한 자격증명이 프로덕션 환경으로 유입되면서 기업 보안에 직접적인 위협이 되고 있다. 개발자들이 AI 생성 코드를 검토 없이 사용하는 관행이 이러한 위험을 가중시킨다.
기업 대응 방안
보안 전문가들은 다섯 가지 우선 대응 방안을 제시했다. 먼저 2023년 이후 AI 지원 저장소에 대한 소급 감사가 필요하다. 추적 불가능한 출처의 모든 비밀번호를 교체하고 AI 도구가 CSPRNG 함수를 호출하도록 시스템 프롬프트를 수정해야 한다.
엔트로피 분석 기반 정적 검사 도입으로 스캐닝을 강화하고 벤더에 아키텍처 수정을 공식 요청하는 것도 중요하다. 특히 개발팀들은 AI 생성 코드에 대한 보안 검토 프로세스를 강화해야 한다.
업계 패러다임 전환 필요
이번 연구 결과는 AI 도구의 편의성과 보안성 사이의 근본적 딜레마를 드러냈다. 보안 전문가들은 AI 도구 개발사들이 보안 기능에 대해서는 전통적인 암호학적 방법을 의무적으로 사용하도록 하는 업계 표준 마련이 시급하다고 강조한다.
현재의 AI 도구들이 편의성을 위해 보안을 희생하고 있다는 비판이 제기되는 가운데 기업들의 신속한 대응과 함께 AI 보안 표준의 재정립이 불가피해 보인다.
한국정보기술신문 정보보안분과 오상진 기자 news@kitpa.org
![[백준 서비스 종료 ⑧] 백준 이후 어디로 가나...이용자들 대체 플랫폼 찾기 분주](/_next/image?url=https%3A%2F%2Fkitpa.org%2Fstorage%2F41892086-06f3-4c10-99af-4152bdbdff39.webp%23w%3D1920%26h%3D710&w=384&q=75)


