본문 바로가기
Voice UI

Mobile VUI Booms Up with Crowdsourcing?

by Stan1ey 2008. 4. 15.

... 그럴 가능성이 보인다. Voice UI는 다른 GUI나 특히 Web UI와 달리 개인이 직접 입출력 기능을 구현할 수 있는 방법이 없다는 점 때문에 많이 개발되지도 확산되지도 않고 있었는데, 얼마 전에 Tellme에서 iPhone용 SDK를 개발하고 있다는 뉴스가 떴다. iPhone의 경우엔 마이크/스피커 달려있고, Wifi나 다른 데이터 통신도 되고, 무엇보다 많은 개인 개발자들이 이미 온갖 application을 만들어서 대부분 어둠의 경로로, 일부는 iTunes를 통해서 유료 혹은 무료로 배포하고 있는 상황이니만큼 이 SDK가 미칠 영향은 적지 않을 것이다.

이미 iPhone (혹은 iPod Touch)에 달려있는 수많은 센서들을 기발한 방법으로 사용한 많은 사례들이 나오고 있는데, 여기에 음성입출력 기능을 포함시키면 또 어떤 활용이 가능할까? (닌텐도 DS에서 마이크를 이용해서 어떤 기특한 짓을 했는지 생각해봐라!)

일단 기본적인 어플리케이션은 전에 Voice Signal이 보여준 것과 다르지 않겠다.

하지만... 이를테면 (내가 좋아라 하는) 음성대화가 가능한 에이전트 Human Interface Agent (HIA)가 들어간다면, 그 놈은 하루 중의 시간에 따라 눕혔을 때와 들고 있을 때의 반응이 달라질 수 있을꺼다. 심지어 주변 환경에 밝으면 눈부시다고 할 수도 있을테고, iPhone이라면 부르르 떨어서 싫다는 표현을 할 수도 있다! 흔들면 어지러워할테고, 스피커에 손바닥을 가까이 대면 움츠러 들거나 뜀뛰기를 할 수도 있겠다. 무엇보다 iPhone/iPod의 수많은 기능들 - 각종 PIMS application은 물론 인터넷 브라우저, 지도 상에서 내 위치 찾기를 포함한다!! - 과 동조하면서 이런 기능을 할 수 있을 것이다.

iGoldfish - possible agent on iPhone/iPod Touch

이미 화면 상에 에이전트를 띄우는 것은 장난스런 개발자에 의해서 다양하게 개발되어 있다. (사실 파일 시스템에서 보안에 이르기까지 구조가 훤히 드러난 UNIX 기기인만큼 안 되는 게 뭐 있으랴)


문제는 누군가 수고스러운 과정을 거쳐 온갖 센서 입력와 데이터베이스 분석을 하나의 서비스로 엮어야 한다는 것 뿐이다. 이 대목에서는 그저 crowdsourcing (혹은 open source) 의 힘을 믿는 수밖에.

이럴 땐 정말 프로그래밍 공부 제대로 안 한게 한스럽다니까. =_=

반응형