2026 동계 청소년 IT학술대회 개최 안내바로가기

한국정보기술진흥원

증명서발급신문

Hu 모멘트와 HOG 특징을 이용한 실시간 한국수어 인식 시스템 개발 - 이도헌

게시판한국정보기술진흥원 학술지 Vol.2 No.2

작성일2025년 9월 30일

Hu 모멘트와 HOG 특징을 이용한 실시간 한국수어 인식 시스템 개발

Real-Time Korean Sign Language Recognition System Using Hu Moments and HOG Features

참고문헌 표기 Citation

저자 Author

이도헌*
* 단국대학교부속소프트웨어고등학교

Lee Dohun*
* Dankook University Software High School

초록 Abstract

청각장애인과 비장애인 사이의 의사소통 격차를 해소하기 위한 방안으로, 본 연구에서는 실시간 수어 인식 시스템을 개발하였다. 일반 웹캠을 통해 입력되는 한국수어 영상을 OpenCV 기반 영상처리와 전처리 기법으로 분석하고, Hu 모멘트와 HOG(histogram of oriented gradients) 특징을 추출하여 SVM 분류기로 세 가지 수어 단어인 “안녕”, “감사”, “사랑”을 인식하였다. 개발된 시스템은 PyQt5를 활용한 GUI 환경에서 동작하며, 카메라 영상에서 실시간으로 수어를 인식하여 대응되는 한글 자막을 화면에 표시한다. 제한된 단어에 대한 실험 결과, 제안한 시스템은 높은 정확도로 수어 동작을 인식하여 실시간 자막을 제공하였으며, 이를 통해 공공 커뮤니케이션에서 청각장애인의 행정 서비스 접근성 향상에 기여할 가능성을 확인하였다. 본 연구는 소규모 수어 데이터셋과 전통적인 머신러닝 기법으로도 실시간 수어 인식이 가능함을 보였으며, 향후 공공빅데이터로의 활용과 딥러닝 모델 확장을 통해 더 많은 수어 단어와 문장을 인식하도록 발전시킬 수 있다.

As a solution to bridge the communication gap between deaf people and non-deaf people, this study developed a real-time sign language recognition system. Korean sign language videos captured by a standard webcam were analyzed using OpenCV-based image processing and preprocessing techniques, and Hu moments and HOG (histogram of oriented gradients) features were extracted to recognize three sign language words, “hello,” “thank you,” and “love,” using an SVM classifier. The developed system operates in a GUI environment utilizing PyQt5, recognizing sign language in real time from camera footage and displaying corresponding Korean subtitles on the screen. Experimental results for a limited set of words showed that the proposed system accurately recognized sign language gestures and provided real-time subtitles, confirming its potential to enhance administrative service accessibility for the hearing impaired in public communication. This study demonstrated that real-time sign language recognition is possible even with a small sign language dataset and traditional machine learning techniques. In the future, the system can be further developed to recognize more sign language words and sentences through the use of public big data and the expansion of deep learning models.

키워드 Keyword

수어 인식, Hu 모멘트, HOG, SVM, 실시간 영상처리, 공공 데이터

Sign Language Recognition, Hu Moment, HOG, SVM, Real-Time Image Processing, Public Data

페이지: /

다음 글슈퍼스타 알고리즘: 미디어 노출이 엘리트 축구선수의 경기 퍼포먼스에 영향을 미치는가? - 정서윤·차동윤·박재은 이전 글게임 그래픽 품질 인식이 이용자의 몰입도, 만족도, 플랫폼 및 장르 선택에 미치는 영향 분석 - 조민재·강준우·김도율