이건 뭐... 황당한 기사가 떴다. 나름 음성인식팀과 같이 일한 경험이 있는 사람으로서 일단 심정적으로 이해는 가지만, 그래도 이러면 안 되는 거 아닌가? 음성인식이 드디어 막다른 골목에 다다른 건가 싶기도 하고.
“로봇과 대화하려면 로봇식 액센트부터 배워야 한다.”
지능형 로봇제품에 대한 소비자 불만의 상당부분을 차지하는 음성인식 문제의 절반은 고객의 발음문제 때문인 것으로 나타났다. 가령 가정용 로봇에게 “뉴스”라고 지시를 내릴 때 또박또박 발음하지 않아서 “날씨”라고 인식하는 오작동 문제를 마치 로봇자체의 기능상 결함처럼 사용자들이 오해한 경우가 많았다는 것.
정통부가 지난해 URC로봇 시범사업의 소비자 불만을 분석한 결과 연구실에서 테스트할 때는 90%대의 높은 음성인식률을 자랑하던 로봇제품이 막상 현장에 배치되면 말귀가 안통하는 사례가 주요 불만사항으로 지적됐다. 지능형 로봇의 낮은 음성인식률은 제품보급에 중대한 걸림돌이다.
정통부가 시급히 원인파악에 나선 결과 전체 음성인식에러의 절반은 고객들의 부정확한 발음에서 비롯됐다. 너무 빠른 억양 또는 사투리로 명령을 내려서 로봇이 말귀를 이해하지 못하는 경우가 태반이라는 것.
오상록 정통부 로봇PM은 “각 로봇마다 녹음된 음성인식에러 사례를 들어보니 발음이 불분명하거나 목소리가 작아서 실제 사람도 이해하기 힘들었다.”면서 “로봇의 음성인식률을 높이려면 먼저 사용자가 또박또박 표준억양으로 발음하는 요령을 배워야 한다”고 지적했다.
음성인식에러의 나머지 주된 원인은 로봇의 내부소음과 마이크 오배치 등 로봇설계상의 문제로 나타났다. 이는 중소 로봇업체들이 자체 음성전문가가 부족해 로봇개발시 음향특성을 고려한 설계능력이 부족한 때문으로 분석된다.
따라서 로봇업체들이 현재 가용한 음성인식기술을 제대로 활용하고 사용자가 로봇에게 음성명령을 내리는 요령을 제대로 익힌다면 로봇제품의 음성인식률은 크게 개선될 것으로 기대된다.