Hu 모멘트와 HOG 특징을 이용한 실시간 한국수어 인식 시스템 개발 - 이도헌
작성일2025년 9월 30일
Hu 모멘트와 HOG 특징을 이용한 실시간 한국수어 인식 시스템 개발
Real-Time Korean Sign Language Recognition System Using Hu Moments and HOG Features
참고문헌 표기 Citation
- KITPA Style:
이도헌, "Hu 모멘트와 HOG 특징을 이용한 실시간 한국수어 인식 시스템 개발", 한국정보기술진흥원 학술지, Vol. 2, No. 2, pp. 91-96, 2025. - APA 7th Style:
Dohun, L. (2025). Real-Time Korean Sign Language Recognition System Using Hu Moments and HOG Features. Korea Information Technology Promotion Agency Journal, 2(2), 91-96. - APA 7th Style (KR):
이도헌. (2025). Hu 모멘트와 HOG 특징을 이용한 실시간 한국수어 인식 시스템 개발. 한국정보기술진흥원 학술지, 2(2), 91-96.
저자 Author
이도헌*
* 단국대학교부속소프트웨어고등학교
Lee Dohun*
* Dankook University Software High School
초록 Abstract
청각장애인과 비장애인 사이의 의사소통 격차를 해소하기 위한 방안으로, 본 연구에서는 실시간 수어 인식 시스템을 개발하였다. 일반 웹캠을 통해 입력되는 한국수어 영상을 OpenCV 기반 영상처리와 전처리 기법으로 분석하고, Hu 모멘트와 HOG(histogram of oriented gradients) 특징을 추출하여 SVM 분류기로 세 가지 수어 단어인 “안녕”, “감사”, “사랑”을 인식하였다. 개발된 시스템은 PyQt5를 활용한 GUI 환경에서 동작하며, 카메라 영상에서 실시간으로 수어를 인식하여 대응되는 한글 자막을 화면에 표시한다. 제한된 단어에 대한 실험 결과, 제안한 시스템은 높은 정확도로 수어 동작을 인식하여 실시간 자막을 제공하였으며, 이를 통해 공공 커뮤니케이션에서 청각장애인의 행정 서비스 접근성 향상에 기여할 가능성을 확인하였다. 본 연구는 소규모 수어 데이터셋과 전통적인 머신러닝 기법으로도 실시간 수어 인식이 가능함을 보였으며, 향후 공공빅데이터로의 활용과 딥러닝 모델 확장을 통해 더 많은 수어 단어와 문장을 인식하도록 발전시킬 수 있다.
As a solution to bridge the communication gap between deaf people and non-deaf people, this study developed a real-time sign language recognition system. Korean sign language videos captured by a standard webcam were analyzed using OpenCV-based image processing and preprocessing techniques, and Hu moments and HOG (histogram of oriented gradients) features were extracted to recognize three sign language words, “hello,” “thank you,” and “love,” using an SVM classifier. The developed system operates in a GUI environment utilizing PyQt5, recognizing sign language in real time from camera footage and displaying corresponding Korean subtitles on the screen. Experimental results for a limited set of words showed that the proposed system accurately recognized sign language gestures and provided real-time subtitles, confirming its potential to enhance administrative service accessibility for the hearing impaired in public communication. This study demonstrated that real-time sign language recognition is possible even with a small sign language dataset and traditional machine learning techniques. In the future, the system can be further developed to recognize more sign language words and sentences through the use of public big data and the expansion of deep learning models.
키워드 Keyword
수어 인식, Hu 모멘트, HOG, SVM, 실시간 영상처리, 공공 데이터
Sign Language Recognition, Hu Moment, HOG, SVM, Real-Time Image Processing, Public Data