한국정보기술진흥원
한국정보기술신문
thumbnail

태그 없음

AI 알고리즘의 그림자, '편향성'의 현실

발행일
읽는 시간2분 38초

[한국정보기술신문] 최근 인공지능(AI)의 활용이 급증하면서 일상에서 AI의 의사결정을 마주하는 사례가 늘고 있다. 그러나 이러한 편리함 이면에는 AI 알고리즘이 지닌 편향성 문제가 심각하게 부상하고 있다.

AI의 편향성은 주로 알고리즘 학습 과정에서 사용된 데이터가 특정 집단이나 관점을 과도하게 반영하면서 발생한다. 이로 인해 사회적 차별과 불공정이 강화될 우려가 있다.

지난해 미국의 한 채용 플랫폼이 AI를 활용해 채용을 진행하다 성별 편향성을 드러낸 사례가 대표적이다. 알고리즘이 과거의 데이터를 바탕으로 남성 지원자를 더 선호하도록 학습해 여성 지원자들의 기회가 줄어든 것이다.

대표적인 사례로는 Amazon의 AI 채용 시스템이 있다. 2018년 Amazon은 지원자의 이력서를 평가하는 AI 시스템을 폐기했는데, 이 시스템이 남성 중심의 이력서 데이터를 기반으로 학습해 여성 지원자에게 부정적 평가를 내리는 성별 편향성을 보였기 때문이다.

이에 따라 전문가들은 AI 개발 시 데이터의 다양성과 대표성을 확보하는 것이 매우 중요하다고 지적한다.

얼굴 인식 기술의 심각한 인종 편향

AI 얼굴 인식 기술 역시 편향성 논란에서 자유롭지 않다. 2020년 미국에서는 흑인 남성이 AI의 잘못된 얼굴 인식으로 인해 잘못된 체포를 당한 사건이 발생했다.

이 사건을 조사한 결과 얼굴 인식 AI가 백인 얼굴 데이터 중심으로 훈련돼 흑인이나 유색인종에 대한 정확도가 현저히 낮은 것으로 드러났다.

특히 여성과 흑인에 대한 얼굴 인식 정확도는 상대적으로 낮아, 이들이 부당한 처우를 받을 가능성이 높아지고 있다는 보고서도 여러 차례 발표된 바 있다.

결국 미국 일부 지역에서는 공공기관에서의 얼굴 인식 기술 사용을 제한하거나 금지하는 법안까지 추진되고 있다.

형사 사법 체계의 AI 편향 논란

형사 사법 체계에서도 AI 알고리즘의 편향성이 심각한 문제로 부상하고 있다. 대표적인 예로 COMPAS(Correctional Offender Management Profiling for Alternative Sanctions) 시스템이 있다. 이 시스템은 범죄자의 재범 가능성을 예측하는 데 활용되지만, 흑인의 재범 가능성을 과대평가하고 백인의 가능성을 과소평가하는 인종적 편향성을 보였다는 연구 결과가 공개돼 큰 논란을 일으켰다.

이 사례는 형사 사법 제도에서 AI의 사용이 오히려 기존의 사회적 편견과 불평등을 강화할 수 있다는 점을 잘 보여준다.

AI가 불러온 금융 차별 논란

금융권에서도 AI 알고리즘의 편향성 문제는 크게 부각되고 있다. 최근 미국의 한 대형 은행이 신용 평가에 AI를 도입하면서 특정 인종과 성별에 따라 대출 승인률이 크게 차이 나는 사례가 발견됐다.

예컨대 흑인과 히스패닉 고객들이 유사한 경제적 조건에도 불구하고 백인 고객보다 낮은 신용 평가를 받은 것으로 나타났다.

이러한 문제가 지속되자 미국 금융 당국은 AI 기반의 신용 평가 시스템에 대한 투명성 강화를 요구하고 있으며, 알고리즘 감사제 도입까지 검토하고 있다.

AI가 초래하는 금융 차별은 단순히 경제적 손실뿐 아니라 사회적 불신과 갈등을 야기할 수 있다는 점에서 더욱 심각한 문제로 지적된다.

Google 이미지 분류 시스템의 편향 사례

Google의 이미지 분류 시스템 역시 논란을 일으킨 바 있다. 2015년 Google 포토의 이미지 자동 분류 시스템이 흑인 사용자의 사진을 '고릴라'로 잘못 분류한 사건이 발생했다. 이 사건은 AI가 편향된 데이터로 훈련될 경우, 심각한 윤리적 문제와 사회적 갈등을 초래할 수 있음을 드러냈다.

이 사건 이후 Google은 이미지 인식 시스템에서 편향성을 제거하고 공정성을 높이기 위한 노력을 강화하고 있다.

AI 알고리즘, 문제 해결의 열쇠는?

AI 알고리즘의 편향성 문제를 해결하기 위해 데이터 투명성과 알고리즘 책임성이 강조되고 있다. 미국과 유럽을 중심으로 AI 윤리 가이드라인과 법적 규제 논의가 활발히 진행 중이다.

전문가들은 알고리즘이 공정성을 유지하도록 정기적인 감사와 평가를 실시하고, 알고리즘 개발 과정에서 편향성을 최소화하는 기술 개발이 필요하다고 제언한다.

무엇보다 중요한 것은 AI를 도입하고 운영하는 기업과 기관이 사회적 책임감을 갖고, 지속적으로 편향성 문제를 점검하고 개선하려는 노력을 기울이는 것이다.

결국 AI 기술이 인간의 삶을 더 윤택하게 만들기 위해서는 알고리즘의 투명성과 공정성을 확보하는 것이 필수적이다. 이는 AI 기술의 지속 가능한 발전과 사회적 신뢰를 유지하기 위한 필수 조건이 될 것이다.

대외협력본부 한국정보기술신문 news@kitpa.org