한국정보기술진흥원
한국정보기술신문
thumbnail

인공지능 ·

AGI 환상이 실제 엔지니어링을 가로막는다...실리콘밸리 AI 개발 접근법에 비판 제기

발행일
읽는 시간2분 13초

기술 전문가 톰 필립스, OpenAI의 AGI 신념과 환경 비용 문제 지적

[한국정보기술신문] 인공일반지능 개발 경쟁이 과열되면서 실리콘밸리의 AI 개발 방향성에 대한 비판이 제기됐다. 기술 전문가 톰 필립스는 최근 자신의 블로그를 통해 AGI에 대한 맹목적 신념이 효율적이고 지속가능한 엔지니어링을 방해하고 있다고 주장했다.

필립스는 카렌 하오의 저서 '제국 AI'를 인용하며, OpenAI 관계자들이 AGI 개발 가능성을 진심으로 믿고 있으며 이것이 인류의 번영이나 파멸을 가져올 것이라 확신한다고 설명했다. 일론 머스크는 구글 딥마인드의 데미스 하사비스가 먼저 AGI를 개발할 것을 우려해 OpenAI를 설립했으며, 하사비스를 악당으로 묘사하기도 했다.

OpenAI 내부의 AGI 신념

OpenAI의 공동 창업자이자 수석 과학자인 일리야 서츠케버는 직원들과 청중에게 정기적으로 AGI를 느껴보라고 말했다. 2022년 9월 요세미티에서 열린 회사 워크숍에서 서츠케버는 현지 예술가에게 주문한 나무 인형을 불태우는 퍼포먼스를 진행했다. 그는 이 인형이 OpenAI가 만들었으나 실제로는 거짓말을 하고 기만적인 것으로 밝혀진 정렬된 AGI를 상징한다며, 이를 파괴하는 것이 OpenAI의 의무라고 설명했다.

필립스는 최근까지 공상과학 소설 속 환상이었던 것이 실리콘밸리에서 주류 견해가 된 것이 놀랍다고 지적했다. GPT-2는 언어를 통해 소통하므로 언어만으로 훈련된 모델에서 AGI가 출현할 것이라는 순수 언어 가설에 대한 베팅이었다. GPT-2의 성공은 OpenAI 내 충분한 인원을 설득시켰고, 그들은 더 많은 데이터와 모델 매개변수, 컴퓨팅 파워만 있으면 된다고 믿게 됐다.

환경적 비용과 윤리적 문제

AGI에 대한 신념과 대형 언어모델의 최근 성과는 대규모 확장을 정당화했다. 이는 초당 수백 리터의 물을 소비하는 데이터센터 건설, 전력망이 공급할 수 없는 전력 때문에 오염을 유발하는 가스 발전기 가동, 도시 전체만큼의 전력을 사용할 수 있는 시설 등으로 이어졌다. 새로운 하드웨어의 제조와 운영으로 인한 이산화탄소 배출도 증가하고 있다.

또한 ChatGPT가 아동 성적 학대물이나 혐오 발언을 생성하지 않도록 하기 위해 데이터 노동자들을 착취하고 트라우마를 주는 문제도 발생했다. 데이터에 대한 욕구가 너무 커서 훈련 데이터 선별을 중단하고 인터넷 전체를 문제점까지 포함해 소비한 뒤, 인간 피드백을 통한 강화학습으로 모델 출력을 관리하고 있다.

기대값 논리의 허점

이 모든 것은 AGI를 만들 것이고 그것의 기대값이 엄청날 것이기 때문에 괜찮다는 논리로 정당화된다. 기대값 논리는 AGI가 매우 큰 가치를 제공할 확률이 0.001퍼센트이고 훨씬 적거나 제로의 가치를 제공할 확률이 99.999퍼센트라도, 기대값은 여전히 매우 크다는 주장이다.

그러나 필립스는 기대값에 기반한 AGI 논쟁이 터무니없다고 비판했다. 가치와 확률이 만들어진 것이고 반증 불가능하기 때문이다. 또한 이러한 논쟁은 환경 피해 같은 외부효과를 무시한다. AGI와 달리 환경 비용은 알려진 부정적 가치와 확실한 확률을 가지고 있으며, 지금 당장 모든 사람이 부담하는 비용이다.

실용적 엔지니어링으로의 전환 필요

필립스는 기술자로서 문제를 효과적으로, 낭비를 최소화하며, 사람이나 환경에 해를 끼치지 않고 해결하고 싶다고 밝혔다. AGI로서의 대형 언어모델은 이 세 가지 모두에서 실패한다. 대형 언어모델의 계산 낭비는 불만족스럽고, 데이터 노동자와 환경에 대한 착취는 용납할 수 없다.

대신 AGI 환상을 버리면 대형 언어모델과 다른 생성 모델을 모든 문제가 아닌 특정 문제의 해결책으로 평가할 수 있다고 제안했다. 적절한 비용 편익 분석을 통해 더 작은 목적별 생성 모델이나 비생성 판별 모델을 사용하는 것이다. 다시 말해, 절충안을 만들고 실제로 엔지니어링을 하는 것이다.

한국정보기술신문 인공지능분과 김주호 기자 news@kitpa.org