한국과학기술원(KAIST)은 박용화 교수 연구팀이 에스엠인스트루먼트와 공동으로 실시간 기침 소리를 인식해 기침하는 사람을 이미지로 표시해 주는 개발했다고 3일 밝혔다.

기침 인식 카메라 시연 장면 [제공=KAIST]
기침 인식 카메라 시연 장면 [제공=KAIST]

코로나19 사태로 비접촉 방식으로 전염병을 감지하는 기술에 대한 수요가 늘고 있다.

열화상 카메라를 이용한 발열 감지 기술이 대표적인데, 코로나19의 다른 증상인 기침은 탐지하기 어렵다.

연구팀은 기침 소리를 실시간으로 인식하는 딥러닝 기반 기침 인식 모델을 음향 카메라에 적용, 기침 소리와 기침하는 사람의 위치를 시각화할 수 있는 카메라를 개발했다.

기침 인식 모델에는 시각적 이미지를 분석하는 데 사용되는 인공신경망의 한 종류인 '합성곱 신경망'(Convolutional Neural Network, CNN) 기술이 적용됐다.

1초 길이 음향신호의 특징을 입력 신호로 해 기침은 1, 그 외는 0으로 하는 2진 신호를 출력하도록 학습시켰다.

공개 음성데이터 세트인 '오디오 세트'를 사용해 기침 인식 모델의 훈련하고, 다른 데이터 세트를 데이터 증강을 위한 배경 소음으로 사용했다.

배경 소음을 15∼75%의 비율로 오디오 세트에 섞은 뒤 다양한 거리에 적응할 수 있도록 음량을 0.25∼1.0배로 조정해 데이터 세트의 성능을 측정한 결과 87.4%의 정확도를 보였다.

이렇게 학습한 기침 인식 모델을 소리를 수집하는 마이크로폰 어레이와 카메라 모듈로 구성된 음향 카메라에 적용하면 기침 소리가 나는 위치에서 등고선과 라벨이 표시된다.

잡음이 심한 환경에서도 기침 소리를 구분해낼 수 있으며, 기침하는 사람의 위치뿐만 아니라 기침 횟수도 파악할 수 있다.

박용화 교수는 "사람이 밀집한 공공장소에서 전염병의 유행을 감지하는데 활용할 수 있다"며 "병원에 적용해 환자의 상태를 모니터링하는 연구를 추진 중"이라고 말했다.

저작권자 © 중소기업뉴스 무단전재 및 재배포 금지