인공지능 ·
생성형 AI 붐이 초래한 새로운 환경 딜레마
[한국정보기술신문] 최근 몇 년간 인공지능 열풍이 거세다. 특히 OpenAI의 챗GPT 출시 두 달 만에 1억 명의 사용자가 몰릴 정도로1, 생성형 AI 기술은 순식간에 대중의 일상 도구로 자리 잡았다. 인터넷 혁명이나 전기화에 비견될 만큼 거대한 변화로 평가받는 생성형 AI의 확산은 우리 삶에 편리함과 혁신을 안겨주고 있다. 그러나 이 폭발적인 성장 뒤에는 간과하기 어려운 문제가 도사리고 있다. 바로 막대한 에너지 소비와 탄소 배출 등 환경적 비용이다. 전문가들은 "AI 혁신의 다음 세대 발전이 지구의 건강을 희생시켜서는 안 된다" 고 경고하며, AI의 환경 발자국에 대한 우려의 목소리를 높이고 있다. 실로 생성형 AI의 편리함 이면에는 어떤 환경 부담이 숨겨져 있는지, 그리고 이를 완화하기 위한 노력은 무엇인지 살펴볼 필요가 있다.
데이터센터 폭증과 에너지 소비의 현주소
생성형 AI 모델을 작동시키는 "두뇌"는 거대한 데이터센터에 있다. 사용자가 편리하게 AI 챗봇에게 질문을 할 때마다, 보이지 않는 곳에서 방대한 서버들이 쉬지 않고 연산을 수행한다. 이 때문에 데이터센터 전력 소비는 해마다 급증하고 있다. MIT 연구진에 따르면 북미 지역 데이터센터의 전력 수요는 2022년 말 2,688MW에서 2023년 말 5,341MW로 1년 새 두 배로 뛰었다고 한다. 2022년 전 세계 데이터센터가 소비한 전력량은 약 460테라와트시(TWh)로, 이를 하나의 국가로 환산하면 사우디아라비아와 프랑스 사이에 해당하는 세계 11위 규모에 달한다. 이러한 소비량은 불과 몇 년 내 1,000TWh를 넘어 세계 5위 수준(일본과 러시아 사이)에 도달할 전망이다. 그 배경에는 클라우드 컴퓨팅과 더불어 생성형 AI의 폭발적인 수요 증가가 큰 몫을 차지하고 있다. 실제로 "데이터센터의 신규 수요는 지속 가능한 방식으로 감당하기 어려운 수준"이라는 지적까지 나오고 있다.
데이터센터의 에너지 사용량 증가는 단지 추상적인 숫자에 그치지 않는다. 우리 주변에서도 그 실체를 확인할 수 있다. 한때 허허벌판이던 부지에 들어선 거대한 데이터센터 건물은 주변 주택가와 나란히 모습을 드러낼 정도로 규모가 커졌다. 이처럼 늘어나는 데이터센터는 생성형 AI 모델의 학습과 서비스에 필수적인 인프라가 되었지만, 동시에 지역 사회와 환경에 적지 않은 부담을 주고 있다. 냉각을 위해 인근 하천이나 지하수에서 막대한 깨끗한 물을 끌어다 쓰고, 열을 식힌 뒤 상당량의 온수가 배출되기도 한다. 예를 들어 2022년 구글의 데이터센터들은 냉각용으로 약 190억 리터의 담수를 사용했는데, 이는 전년 대비 20%나 증가한 수치이다. 같은 기간 마이크로소프트 데이터센터의 물 소비도 34% 늘었다. 물 사용을 둘러싸고 지역 사회의 우려도 커져, 미국 오리건주 더달레스시에서는 구글 데이터센터의 물 소비 정보를 두고 소송과 항의가 벌어졌고, 남미 칠레와 우루과이에서는 주민들이 신규 데이터센터가 식수원을 고갈시킬 것을 우려해 시위를 벌이는 일도 있었다. 데이터센터의 증가는 이처럼 전력뿐 아니라 물과 지역 환경까지 압박하며, 그 영향력은 점차 생활권으로까지 확장되고 있다.
일각에서는 이러한 데이터센터 증설과 그로 인한 전력 소비를 두고 "21세기형 전력 먹는 하마"라는 우려도 나온다. 실제로 생성형 AI 서비스의 사용량이 기하급수적으로 늘면서 AI 관련 에너지 소비는 향후 3년간 연평균 45%씩 증가할 것이라는 전망이 있다. 한 분석에 따르면 오픈AI의 챗GPT는 연간 약 2억 2,700만 킬로와트시(kWh)의 전력을 쓰는 것으로 추정되는데, 이는 미국 일반 가정 2만여 가구의 1년 치 전력량에 맞먹는다. 또 다른 보고서는 "만약 구글 검색에 생성형 AI를 전면 도입하면 연간 전력 소비가 290억 kWh에 달해 케냐, 크로아티아 같은 국가의 전체 전력 소모량을 뛰어넘을 것"이라고 지적한다. 현재는 데이터센터 전력 소모가 전 세계 전력 수요의 약 2.5% 수준이지만, 이러한 추세라면 2030년경 미국에서만 데이터센터가 전력의 5~9%를 소비하게 될 것이란 관측도 있다. 생성형 AI 붐과 함께 전력 인프라에 가해지는 부담이 급증하고 있는 셈이다.
그렇다면 사용자인 우리가 체감할 수 있는 수준으로 이 문제를 이해해보자. 챗GPT에게 질문을 한 번 할 때 얼마나 전기를 쓸까? MIT의 분석에 따르면 챗GPT에 간단한 요청을 보낼 때 소모되는 전력은 일반적인 웹 검색의 약 5배 수준이라고 한다. 전력연구원(EPRI)은 이를 좀 더 구체화하여, 챗GPT 한 번 응답에 약 2.9Wh의 전기가 들며 이는 구글 검색 질의 한 건당 약 0.3Wh와 견줘 10배에 달한다고 추산했다. 사용자는 느낄 수 없지만, AI가 답변을 내놓는 그 순간 보이지 않는 데이터센터에서 전구 여러 개를 동시에 밝히는 전력이 소비되는 셈이다. 수백만, 수억 회에 달하는 이러한 AI 질의응답이 모이면 그 전력량 역시 누적되어 막대한 수준이 된다. "평범한 이용자는 이것을 실감하기 어렵고, 손쉽게 AI를 쓰다보니 줄여야 할 동기도 없다"는 지적처럼, 우리 일상 속 편리한 AI 한 줄 답변 뒤에는 생각보다 많은 전기가 쓰이고 있다.
혁신의 두 얼굴: 편의와 환경 비용
AI를 비롯한 과학기술 발전에는 언제나 양면성이 존재한다. 생성형 AI의 등장은 인간에게 새로운 혁신과 편익을 주는 동시에, 그 이면에 에너지 소비 증가라는 부담을 함께 안고 있다. 한국환경정책·평가연구원(KEI)은 이러한 현상을 가리켜 "AI 발전은 자체 전력수요 증가에 따른 에너지소비 증가의 도전으로 작용하는 동시에, 산업 전반의 효율 향상을 통해 에너지 소비 증가를 완화시킬 수 있는 기회로 작용하는 에너지 역설(paradox)이 공존한다"고 분석했다. 즉 AI는 에너지 소비 주범이자 절감 도구라는 상반된 얼굴을 모두 지닌다는 뜻이다.
한편으로, AI 기술은 분명 우리의 삶과 사회를 개선하는 데 크게 기여하고 있다. 의료, 교육, 제조, 교통 등 여러 분야에서 AI 활용이 확대되며 생산성을 높이고 새로운 해결책을 제시하는 중이다. 예컨대 구글의 딥마인드(DeepMind)는 데이터센터 냉각 시스템에 AI 알고리즘을 도입해 냉각 에너지 소비를 40% 절감시키는 데 성공했다. 이를 통해 데이터센터 전체 에너지 사용량도 15% 줄이는 효과를 거두었는데, AI 기술이 역으로 AI 인프라의 효율을 높인 흥미로운 사례라 할 수 있다. 이외에도 AI는 전력망 관리, 건물 온도 최적화, 산업 공정 개선 등을 통해 에너지 절약과 탄소 감축을 돕는 도구로 활용될 수 있다. 실제로 보고서에 따르면 제조 공정에 AI를 도입해 에너지 소비를 최대 60%까지 절감한 사례들도 있으며, 여러 산업 전반에 AI 솔루션을 적용하면 자원 소비를 줄여 탈탄소화에 기여할 수 있다고 한다. 이러한 긍정적 효과 때문에 많은 전문가들이 AI를 탄소중립과 기후 대응의 조력자로 활용하려는 노력을 기울이고 있다.
그러나 동전의 뒷면, 즉 간과되어온 대가도 분명하다. 최근 AI 기술 발전 경쟁이 가열되면서 연구자들은 앞다투어 더 큰 모델, 더 뛰어난 성능을 추구해왔다. 그 결과 AI 업계에서는 몇 년마다 모델 크기와 학습 데이터량이 기하급수적으로 증가했고, 이에 따라 연산 자원과 전력 소모도 폭증했다. 2012년부터 2018년까지 딥러닝 분야의 최첨단 모델들을 학습시키는 데 필요한 계산량은 30만 배나 늘었다는 분석도 있다. 한 마디로 너무 많은 연산, 너무 많은 에너지가 최고의 AI를 만들기 위해 투입되고 있다는 뜻이다. 2019년 한 연구는 거대한 자연어처리 모델을 한 번 훈련시키는 데 비행기 한 사람이 왕복 대서양 횡단하는 것과 맞먹는 에너지가 든다고 지적했다. 실제 사례를 보자. 일론 머스크 등이 투자한 OpenAI의 대형 언어모델 GPT-3(약 1,750억 매개변수)는 개발 단계에서 1,287MWh의 전력을 사용했고, 이산화탄소 552톤에 해당하는 탄소를 배출한 것으로 추산된다. 이는 가솔린 차 123대가 1년 내내 내뿜는 탄소량과 맞먹는 수치다. 더욱이 GPT-3의 후속인 GPT-4 모델(약 1조 개 매개변수)은 단 한 번의 훈련에 6,230만 kWh(62.3GWh)의 전력이 들었는데, 이는 GPT-3 훈련 시 추정치보다 약 48배나 많은 에너지다. 모델이 거대해질수록 요구되는 전력과 자원 역시 기하급수적으로 커지고 있음을 보여준다.
이러한 희생을 치르며 얻은 AI 기술의 진보가 과연 충분한 가치가 있는가에 대한 성찰도 필요하다. AI가 가져올 사회적 혜택과 그를 유지하는 데 드는 비용을 종합적으로 저울질해야 한다는 주장이다. MIT 올리베티 교수 등 연구진은 "우리는 새 기술이 빠르게 발전하는 속도에 비해, 그로 인한 사회·환경적 대가를 측정하고 이해하는 능력은 따라가지 못하고 있다"며 기술 영향에 대한 맥락적이고 포괄적인 이해의 중요성을 강조한다. 과도한 에너지 소비를 전제로 한 AI 발전 전략은 환경적으로 지속가능하지 않으며 사회적으로도 포용적이지 못한 방향일 수 있다. 이 때문에 최근 학계에서는 "그린 AI(Green AI)"를 추구하자는 제언도 나온다. 그린 AI란 연구 성과 평가 기준에 효율성을 포함시켜, 단순히 정확도만이 아니라 동일 성능을 달성하는 데 소요되는 자원까지 고려하자는 움직임이다. 즉, 에너지 효율을 끌어올리고 낭비를 줄이는 쪽으로 AI 개발 방향을 전환하자는 것이다. 이러한 문화적 변화가 이루어진다면 AI 연구의 환경 발자국을 줄이는 동시에, 막대한 자원이 없어도 누구나 참여할 수 있는 포용적 혁신이 가능해질 것이라는 기대가 있다.
연구와 보고서로 본 AI의 환경 영향
생성형 AI가 환경에 미치는 영향을 수치로 살펴보면 그 심각성이 더욱 분명해진다. 앞서 언급한 GPT-3의 552톤 CO₂ 배출 사례는 연구자들이 AI의 탄소 발자국을 처음으로 공론화한 계기가 되었다. 이후 AI 모델 하나를 개발·배포하는 전 과정에서 발생하는 탄소를 계량화하려는 노력이 이어졌다. 프랑스 등 국제 공동으로 개발된 대형 언어모델 BLOOM의 경우 GPT-3와 비슷한 규모이지만 개발 과정에서 433MWh의 전력을 사용하고 탄소 30톤을 배출하여 GPT-3 대비 훨씬 낮은 탄소 발자국을 달성했다. 이는 재생에너지 전력 사용, 효율적인 모델 설계 등의 노력이 반영된 결과로, 구글 연구는 동일한 규모의 모델이라도 최적화된 알고리즘·하드웨어와 청정 에너지 사용 시 탄소 배출량을 100배에서 최대 1,000배까지 줄일 수 있다고 보고했다. 다시 말해, 현재의 AI 기술이 반드시 환경에 큰 부담을 줘야 하는 것은 아니며 정책과 기술 선택에 따라 탄소 배출을 크게 낮출 여지가 있다는 의미다.
한편, AI로 인한 탄소 배출량 증가를 지구적 기후 목표와 연결해 보면 문제가 더욱 선명해진다. 기후변화에 관한 정부간협의체(IPCC)는 지구 온난화 1.5℃ 이내 억제를 위해 "2025년 전후로 온실가스 배출 정점을 찍고, 2030년까지 전 세계 배출량을 2019년 대비 43% 감축해야 한다"고 강조한다. 이는 각국이 산업 전반에서 대대적인 탈탄소화를 추진해야 달성 가능한 매우 도전적인 목표다. 하지만 현실에서는 데이터센터와 AI로 인한 신규 전력 수요와 탄소 배출원이 급부상하고 있다. 예컨대 2022년 미국에서 AI 관련 데이터센터들이 사용한 전력만 23TWh에 이를 것으로 추정되는데, 이러한 AI 데이터센터 전력소비가 2027년에는 146TWh로 5년간 6배 이상 늘어 전체 데이터센터 소비량의 18%를 차지할 전망이다. 빠른 속도로 등장한 생성형 AI 기술이 오히려 기후위기 대응을 위한 노력에 역행하는 새로운 변수로 떠오른 셈이다. 일부 전문가들은 "이 추세라면 2025년쯤 AI 발전을 뒷받침할 에너지가 부족해지는 사태가 올 수 있다"는 극단적 경고까지 내놓고 있다. 지금처럼 별다른 제약 없이 에너지 집약적 AI 개발이 이어진다면, 기후위기 해결을 위한 국제적 감축 노력에도 차질이 불가피할 것이다.
이렇듯 다양한 연구와 보고서에서 한 목소리로 지적하는 바는 분명하다. 생성형 AI의 환경 영향은 "커다란 그림에서 보면 결코 사소하지 않으며, 갈수록 커지는 문제"라는 점이다. 전력 소비, 탄소 배출, 수자원 사용, 전자폐기물 발생 등 여러 측면에서 AI는 환경에 직·간접 부담을 준다. 하지만 동시에 이러한 문제를 인식하고 해결책을 모색하려는 움직임도 곳곳에서 나타나고 있다. 과학기술의 이익을 포기하지 않으면서도 그 그늘을 최소화하기 위한 노력, 바로 "그린 AI"로의 전환을 뒷받침할 연구와 정책이 절실한 시점이다.
친환경 AI를 향한 사회적·정책적 해법
생성형 AI로 인한 환경 문제에 대응하기 위해 정책적·사회적 노력이 서서히 구체화되고 있다. 우선 몇몇 국가에서는 AI의 환경 영향을 공개하고 관리하기 위한 법·제도적 장치를 논의 중이다. 미국에서는 올해 초 연방 차원에서 AI로 인한 현재 환경 영향을 평가하고 향후 영향 보고를 표준화하도록 요구하는 법안이 발의되었다. 이 법안은 "차세대 AI 개발이 지구의 건강을 희생시켜서는 안 된다"는 문제의식에서 출발했으며, 정부가 주도해 AI의 탄소 배출, 전력 소모, 자원 사용량 등을 체계적으로 파악하자는 취지다. 한편 유럽연합(EU)은 세계 최초의 포괄적 AI 규제법인 ‘AI법(AI Act)’ 최종 협의에 환경 부문의 투명성 조항을 포함시켰다. 이 법은 "고위험 AI 시스템"에 속하는 거대 기반모델(ChatGPT와 같은 초거대 AI 포함)에 대해 개발부터 폐기까지 전체 라이프사이클에 걸친 에너지 소비와 자원 사용량 공개를 의무화할 예정이다. 내년부터 시행될 이 규정에 따라, 기업들은 AI 모델을 출시할 때 얼마나 많은 전력과 물, 소재가 투입되었는지 보고해야 하며 이에 대한 책임 있는 관리 방안을 갖추도록 요구받게 된다. 이처럼 법과 제도를 통해 AI의 환경 발자국에 투명성을 높이고 책임성을 강화하려는 움직임이 시작되고 있다.
국제표준화 기구(ISO) 등도 팔을 걷어붙였다. ISO는 올해 "지속가능한 AI"를 위한 표준 기준을 발표할 계획인데, 여기에는 AI 시스템의 에너지 효율, 원자재 사용, 수송, 수자원 소비 등을 측정하는 지표와 더불어 하드웨어 제조부터 운영까지 전 과정에서 영향을 줄이는 모범 관행이 포함될 전망이다. 이러한 표준이 마련되면 각국 정부와 기업들이 공통된 기준 아래 AI 서비스의 친환경 성과를 비교·관리할 수 있게 된다. 뿐만 아니라 각계의 사회적 압력도 AI 기업들의 변화를 촉구하고 있다. 환경단체와 연구자들은 주요 AI 개발사들에게 모델 훈련시 탄소 배출량과 전력 사용량을 공개할 것을 요구하고 있으며, 실제로 몇몇 기업들은 자발적으로 자사 AI 모델의 탄소 발자국을 발표하기 시작했다. 이는 소비자들도 "더 친환경적인 챗봇"을 선택할 수 있게 해달라는 요구와 맞물려 있다. 아직 걸음마 단계지만, 향후 AI 서비스에도 에너지 효율 등급표처럼 환경 부하 정보를 표시하는 날이 올지 모른다.
물론 정책이나 규제가 마련되기 전이라도 업계 자체적인 노력이 중요하다는 지적이 많다. 다행히 주요 IT 기업들은 데이터센터의 친환경 전환에 투자를 늘리고 있다. 구글, 마이크로소프트 등의 빅테크 기업은 자사 데이터센터에 재생에너지 전력을 조달하고 효율적인 냉각 기술을 도입하는 등 탄소중립 운영을 목표로 내걸고 있다. 예를 들어 구글은 2030년까지 전 세계 데이터센터와 캠퍼스를 24시간 완전 탄소무배출 전력으로 가동하겠다는 계획을 추진 중이며, 마이크로소프트는 2025년까지 사용전력의 100%를 재생에너지로 조달하겠다고 공언했다. 또한 데이터센터를 짓는 입지와 시간대를 재생에너지 가용성과 연계하는 시도도 이루어지고 있다. 태양광·풍력이 충분한 지역에 AI 서버 인프라를 구축하거나, 전력이 남는 시간대에 집중적으로 연산 작업을 수행하는 방식이다. 한 연구에 따르면 전력이 화석연료 위주인 일반 전력망 대신, 재생에너지 중심 전력으로 AI 연산을 처리하면 탄소 배출을 30~40배까지 줄일 수 있다고 한다. 즉 전력원만 친환경적으로 바꾸어도 AI의 탄소 발자국을 획기적으로 낮출 수 있다는 뜻이다.
AI 자체를 더 효율적으로 만드는 기술 연구도 빼놓을 수 없다. 모델 경량화, 알고리즘 최적화, 저전력 AI 반도체 개발 등 다양한 분야에서 에너지 효율 대폭 개선을 목표로 한 R&D가 활발하다. OpenAI, DeepMind 등 선도 기업들은 매개변수 대비 성능 효율이 높은 모델 구조를 찾는 데 주력하고 있고, 학계에서도 적은 데이터와 연산으로 학습하는 방법을 모색 중이다. 요즘에는 모델 성능 비교 시 처리 속도, 연산량, 전력 소모지수 등 효율 지표를 함께 제시하는 사례도 늘고 있다. 이러한 변화는 앞서 언급한 그린 AI의 취지와도 맞닿아 있다. "AI 업계가 더 이상 정확도 0.1%p 향상을 위해 환경 비용을 무시하지 말아야 한다"는 목소리가 힘을 얻으면서, 성능과 효율을 균형시키려는 흐름이 확산되고 있다. 궁극적으로는 "고효율=고성능"이라는 인식 전환이 이루어져야 지속가능한 AI 시대를 열 수 있을 것이다.
개인 차원의 노력: AI 시대의 친환경 실천
이 거대한 문제 앞에서 일반 개인은 어떤 역할을 할 수 있을까? 많은 전문가들은 개인 소비자의 역할에는 한계가 있다고 지적한다. AI 서비스 이용 시 발생하는 탄소나 물 소비량을 현재로선 사용자가 파악하기 어려운 구조이기 때문이다. 어떤 질문 하나가 얼마나 전기를 쓰고, 서버를 얼마나 돌렸는지 실시간으로 알 수 없다 보니, 일반인이 체감하여 행동을 바꾸기가 쉽지 않다는 뜻이다. "지금으로서는 개개인이 할 수 있는 일이 많지 않다. 다만 이 서비스를 신중하게 사용하는 수밖에 없다"는 연구자의 말처럼, 당장 우리 손에 쥔 뾰족한 대책은 많지 않은 것이 현실이다. 그러나 일상 속 작은 실천과 인식 변화로 기여할 수 있는 부분도 분명 존재한다.
우선 생성형 AI의 환경 비용을 인지하고 현명하게 이용하는 태도가 필요하다. 예를 들어, AI에게 같은 질문을 불필요하게 반복하거나 장시간 켜두고 잊어버리는 행동은 피하는 것이 좋다. 마치 방을 비울 때 불을 끄듯, AI도 쓰지 않을 때는 세션을 종료하고, 꼭 필요한 경우에만 활용하는 절제된 사용 습관이 중요하다. 한 번 AI에게 부탁하면 수백 페이지 분량의 답변을 얻어내는 등 과도한 요청을 자제하고, 원하는 정보의 범위를 명확히 하여 불필요한 연산 낭비를 줄이는 습관도 도움이 된다. 또한 가능하다면 경량형 모델이나 로컬 AI를 활용하는 것도 방법이다. 클라우드의 초거대 모델이 아니어도 충분한 작업에는 소형 AI 어시스턴트나 오픈소스 경량 모델을 사용하는 식이다. 이는 데이터 전송 및 대규모 연산을 줄여 결과적으로 에너지 소비를 낮출 수 있다.
디지털 탄소 발자국을 줄이는 생활 수칙을 AI 이용에도 적용할 수 있다. 예를 들어, 고화질 스트리밍이 더 많은 전력을 쓰듯, 복잡한 AI 이미지 생성 역시 더 큰 연산을 요구한다. 꼭 필요하지 않은 한 너무 높은 해상도나 많은 수의 시도를 요구하지 않고, 적정 수준의 서비스만 활용하는 지혜가 필요하다. 기업들이 추후 AI 서비스의 에너지 옵션을 제공한다면, 약간 더 느리더라도 에너지 절약 모드를 선택하는 식의 친환경 모드 사용도 생각해볼 수 있다. 그리고 무엇보다 AI 기업과 정책 입안자들에게 지속적인 관심과 목소리를 내는 것이 중요하다. 소비자의 요구는 기업의 변화를 이끄는 큰 힘이다. "AI 모델의 탄소 정보 공개", "데이터센터 재생에너지 사용 확대" 등 친환경 정책에 대한 지지 여론을 형성하고, 이를 고려한 서비스에 긍정적인 평가를 보내는 문화가 확산된다면 기업들도 움직일 것이다. 앞으로 소비자들이 "탄소발자국 낮은 AI"를 선택할 수 있는 정보가 제공된다면, 우리도 전기차를 고르듯 친환경 AI를 골라 쓰는 선택권을 행사할 수 있게 될 것이다.
궁극적으로, 생성형 AI의 지속가능한 발전을 위해서는 개인·기업·정부 모든 차원의 노력이 조화를 이루어야 한다. 인류는 과학기술 발전으로 엄청난 이익을 얻어왔지만 동시에 환경이라는 숨은 비용을 지불해왔다. AI 시대에도 이 양면성을 직시하고 지혜롭게 균형을 맞춰나가는 것이 우리의 과제다. 기후위기 대응이 절박한 시점에서, AI가 문제 해결의 열쇠가 될지 새로운 부담이 될지는 우리의 선택과 행동에 달려 있다. 편리함 뒤에 가려진 전력 한 단위, 물 한 방울의 소중함을 기억하며, 모두가 함께 노력한다면 친환경 그린 AI도 결코 꿈만은 아닐 것이다.
대외협력본부 한국정보기술신문 news@kitpa.org