한국정보기술진흥원
한국정보기술신문
thumbnail

인공지능 ·

주목과 숫자의 언어, 그리고 편향된 알고리즘

발행일
읽는 시간3분 33초

[한국정보기술신문] 스마트폰 길찾기, 자동 번역, 음성 비서는 눈에 보이지 않는 계산으로 문장 속 핵심 단어를 집어내고 비슷한 뜻의 단어를 스스로 찾는다. 이 마술의 주역은 어텐션 메커니즘과 벡터 임베딩이다.

어텐션은 문장을 읽다가 중요한 단어에 더 높은 점수를 주어 컴퓨터가 집중할 지점을 정한다. 임베딩은 단어를 수백 차원의 좌표로 바꿔 의미를 숫자로 표현한다.

두 기술 덕분에 번역 품질은 사람 수준에 근접했고, 질문에 맞는 검색 결과를 찾는 속도도 빨라졌다. 하지만 데이터가 한쪽으로 치우치면 알고리즘 역시 편향된 결정을 내리게 된다.

2016년 COMPAS 재범 예측 모델, 2018년 얼굴 인식 오류 논란은 이런 위험을 보여줬고, 2024년 유럽연합 AI 법은 편향 탐지·수정을 의무화하며 대응에 나섰다.

어텐션 메커니즘: 집중력을 코딩하다

2014년 바흐다노우·조 연구팀은 기계번역 모델 안에 ‘주의 집중’을 넣는 아이디어를 발표했다. 번역기가 단어를 출력할 때마다 원문에서 어떤 위치를 참고했는지 스스로 표시하도록 한 것이다.

image.png
Attention Is All You Need 논문

2017년 발표된 논문 Attention Is All You Need는 복잡한 순환·합성곱 구조를 없애고 어텐션만으로 작동하는 트랜스포머를 제안했다. 동일한 데이터에서 더 빠르게 학습하고 정확도도 높였다.

트랜스포머는 문장 전체를 동시에 보고 단어 쌍마다 연관도를 계산한다. 중요도가 높은 단어에는 큰 가중치를, 덜 중요한 단어에는 작은 가중치를 주어 번역이나 요약 품질을 향상시킨다.

이후 음성 합성, 단백질 예측, 이미지 설명까지 어텐션 기반 모델이 표준으로 자리 잡았다. 연구자들은 이를 디지털 집중력이라고 부른다.

벡터 임베딩: 의미를 좌표로 나타내다

컴퓨터가 언어를 다루려면 단어를 숫자로 바꿔야 한다. 2013년 구글 워드투벡은 주변 단어를 예측하는 방식으로 300차원 벡터를 만들었고, 비슷한 의미일수록 거리가 가까워졌다.

2014년 글로브(GloVe)는 말뭉치 전체의 공동 등장 확률을 이용해 단어 간 관계를 더 안정적으로 포착했다. king − man + woman = queen 같은 연산이 가능해 화제가 됐다.

2018년 BERT는 트랜스포머 구조와 임베딩을 결합해 문맥을 양방향으로 학습했다. 앞뒤 단어를 동시에 참고해 의미 파악 능력이 비약적으로 높아졌다.

오늘날 임베딩은 검색, 추천, 챗봇, 음성 비서 등 대부분의 언어 기반 서비스에서 기본 재료로 쓰인다. 컴퓨터가 '언어 지도'를 갖게 됐다는 비유가 따라붙는다.

연구자들은 임베딩 공간을 언어의 지도로 바라본다. 단어가 얼마나 가깝고 어떤 방향에 있는지가 의미적 유사성으로 이어지기 때문이다.

어텐션과 임베딩의 시너지

트랜스포머는 먼저 단어를 임베딩으로 바꿔 다차원 공간에 배치하고, 어텐션으로 그중 핵심 좌표를 골라낸다. 두 기술이 상호 보완적으로 작동한다.

데이터와 계산량을 늘릴수록 성능이 선형 이상의 속도로 올라가기 때문에 대형 언어 모델 붐이 일어났다.

임베딩이 제공한 거리 정보 덕분에 어텐션은 연관 단어를 빠르게 찾고, 어텐션이 계산한 가중치는 다시 임베딩을 미세 조정해 학습을 가속한다.

결과적으로 번역, 코드 자동완성, 의료 기록 요약 등에서 인간 수준 또는 그 이상 정확도를 달성하는 사례가 늘었다.

알고리즘 편향: 코드가 기울어지는 이유

image.png
MIT News, Study finds gender and skin-type bias in commercial artificial-intelligence systems 기사 캡처, news.mit.edu 제공

기술이 대단해도 입력 데이터가 불공정하면 결과 역시 불공정하다. 2018년 MIT Gender Shades 연구는 상업용 얼굴 인식이 밝은 피부 남성보다 어두운 피부 여성에서 오류율이 40배 높다고 밝혔다.

2016년 ProPublica가 분석한 재범 예측 시스템 COMPAS도 흑인 피고인을 과대 평가했다고 보도됐다. 두 사례는 데이터를 어떻게 고르느냐가 결과를 좌우함을 보여준다.

편향은 불균형 데이터, 설계자의 가정, 잘못된 피드백 루프에서 시작된다. 한번 잘못된 예측이 더 많은 잘못된 데이터를 낳아 악순환을 만든다.

2017년 발표된 Counterfactual Fairness는 인과 추론을 도입해 "인종이나 성별이 달라도 같은 상황이면 같은 결과"가 나와야 공정하다고 정의했다.

규제 기관은 알고리즘 감사와 설명 책임을 요구하며 개발자에게 편향 탐지 의무를 부과하고 있다.

2024년 편향 논의와 규제 동향

image.png
EU AI Act 웹사이트, artificialintelligenceact.eu 제공

2024년 7월 유럽연합은 AI Act 최종본을 공표했다. 고위험 시스템은 데이터 편향 분석, 외부 감사, 영향 평가를 의무적으로 거쳐야 한다. 미이행 시 매출의 최대 7퍼센트가 벌금으로 부과된다.

유럽 기본권청은 같은 해 보고서에서 예측 경찰 시스템이 특정 지역을 과잉 순찰하도록 학습된 사례를 지적하며 전처리 공정성의 중요성을 강조했다.

글로벌 클라우드 사업자는 자사 언어 모델의 학습 데이터 구성과 편향 완화 절차를 담은 투명성 보고서를 공개하기 시작했다. 시민단체는 외부 검증이 병행돼야 한다고 주장한다.

규제와 산업 자율이 혼합되는 흐름 속에서 편향 완화 기술은 필수 과제가 됐다.

2025년 대비 전략

데이터 단계에서 샘플 균형 맞추기, 민감 속성 제거, 합성 데이터 보강이 가장 저비용 편향 완화 방안으로 꼽힌다.

모델 학습 단계에서는 Equalized Odds 같은 공정성 제약이나 Counterfactual Fairness를 적용해 편향을 직접 제한할 수 있다.

결과 단계에서는 차별 지표를 모니터링해 필요하면 출력을 재조정(post-processing)한다. 일부 금융기관은 신용 점수 모델을 월 단위로 재평가해 편향을 교정한다.

독립 감사와 반사실 설명은 블랙박스 모델의 불투명성을 해결할 열쇠다. 사용자가 왜 떨어졌는지 이해할 수 있어야 신뢰가 생긴다.

2025년 EU AI Act 시행, 미국 연방 지침, 싱가포르 모델 AI 거버넌스 프레임워크 확장 등이 예고돼 있다. 규제는 기술과 같은 속도로 진화하고 있다.

어텐션과 임베딩은 혁신적이지만, 이들을 움직이는 데이터와 규칙이 공정해야 AI가 모두에게 이로운 도우미로 남을 수 있다. 2025년에도 인간의 기준과 기술의 계산은 함께 진화해야 한다.

한국정보기술신문 인공지능분과 김주호 기자 news@kitpa.org