휴대폰용 음성 사용자 인터페이스를 해보겠노라고 동분서주할 때다. 아직 휴대폰에 터치스크린을 붙인다는 생각은 "대표적인 실패사례"로 꼽히고 있었고, "그게 단가가 얼만지 아느냐"며 이미 십여개 붙어있는 버튼에 하나를 더 추가하는 것도 위아래로 줄줄이 윤허를 받자와야 하던 무렵. 당시 나에게 소원이 하나 있다면 음성인식 전용의 버튼을 하나 넣는 거 였다.


(1) EPD Techniques
음성인식의 적확율을 좌우하는 것 중 가장 큰 것이 음성명령의 맨앞과 맨뒤를 찾아내는 작업, 즉 EPD(End-Point Dectection)이다. 아무리 좋은 음성인식 엔진도 앞뒤로 요상한 음운이 들어가 버리면 엉뚱한 결과를 낼 수밖에 없기 때문이다.

(1-1) Pause Detection
EPD를 기술적으로 해결하는 대표적인 방식은 역시 말이 없는 순간(pause)을 잡아내는 거다. 아무래도 사람은 무슨 말이 "명령"이라고 생각할 때 앞뒤로 pause를 넣게 되니까. 하지만 주변이 시끄럽다든가 하면 이 pause가 인식되지 않을 수도 있고, 무엇보다 굳이 명령을 하지 않더라도 말하다보면 수시로 발생하는 게 pause다. (노홍철씨는 예외적인 경우로 치자 -_- )

(1-2) Magic Word Detection
그래서 나온 것이 소위 magic word 방식. 무식하게 철저하지만 오직 한 단어만을 인식하는 인식기를 한켠에 돌리고 있다가, 그 단어가 인식되면 그 이후 일정기간 동안 입력된 음성을 명령으로 보고 검증하는 것이다. 최근 Microsoft Kinect에서 음성인식을 플랫폼 범위로 적용하면서 "엑스박스"를 매직워드로 설정한 게 이 경우에 해당한다. 음성명령을 내릴 때마다 같은 단어를 말해야 한다는 사실이, 안 그래도 (의외로) 수고스러운 음성인식 작업에 짜증을 가중시키기는 한다.

(1-3) Prompt Sound
조금 더 수동적인 해결안으로는 prompt 방식이 있다. 음성명령을 받아야 할 때마다 "삐ㅡ" 소리를 넣어서 사용자가 발화를 시작해야 하는 시점을 알려주는 것이다. 초기의 음성인식 ARS 시스템(혹은, IVR 시스템)이 이런 방식을 많이 썼다. 사용자 입장에서도 오랫동안 익숙해진 자동응답기와의 대화("삐 소리가 나면 녹음하세요.")와 유사한 멘탈모델을 제공해 주었기 때문에 큰 거부감 없이 받아들였지만, 사실 말하고 싶은 것이 머릿속에 빙빙 도는 데 허가(프롬프트)가 떨어질 때까지 말하지 못하는 것은 나름 상당히 괴로운 일이다. (여기에 사용되는 sound prompt를 어떻게 만드느냐도 이 음성대화 시스템의 사용성에 큰 영향을 미치는데, 이 글은 버튼에 대한 내용이니 일단 넘어가기로 하자.)

(1-4) Others
정확한 EPD를 위해서 시도된 방법들 중에는, 사용자 관점에서 지켜봐야 하는 사람에게는 참 당혹스러운 게 많았다. 심지어 음성명령 직전에 박수를 친다든가, 매직워드를 앞뒤로 넣는다든가 하는 방식도 정확한 인식에 도움은 됐을지 몰라도, 사람을 기술에 끼워 맞추는 전형적인 방법이고 일종의 '고문'에 가까왔다.


(2) "Voice" Button
그런 온갖 기법들을 한편으론 직접 시도해보거나 어깨너머로 보면서, 개인적으로 내린 최적의 EPD 기법은 어이없게도 그냥 누르는 버튼이다. 정확히는 Push-to-talk 버튼. 예전 워키토키처럼, 말하고 싶은 동안 누르고 있다가 말이 끝나면 떼면 되는 방식이다. 앞에서 말한 자동응답기보다 오래된 멘탈모델이고, 큰 회의실에서 발언권을 얻을 때 아직도 사용되고 있으며, 또 실제로 적용해봐도 꽤 자연스러운 방식이다.

그냥 버튼이 눌린 동안만 음성을 받으면 되는 것이니 EPD라고 논할 건 없어 보이는 게 사실이다. 하지만 실제 사용자들의 행동에서는 버튼이 눌리고 음성인식 엔진이 구동되는 그 짧은 순간을 앞질러 말하거나, 마지막 말의 음운이 마무리되기 전에 버튼에서 손을 떼는 경우가 많기 때문에 앞뒤로 약간의 buffer를 주고 여기에 기존의 EPD 기술(1-1)을 적용하는 게 좋다. 이 방식을 주장했을 때 가장 큰 장애물은 그 기술적 난이도가 아니라, 오히려 "그건 내노라할 기술이 아니다"는 거였다. 물론 조직의 목적에 따르자면 어쩔 수 없는 반응이었지만.

이렇게 음성버튼을 채용할 때 가질 수 있는 최대의 장점은, 기존의 GUI나 다른 조작과 병렬적으로 사용할 수 있다는 것이다. 이를테면 일상적인 전화번호부 화면을 띄워놓고 작업하다가, 음성검색이 필요할 때에 별도의 GUI 조작을 하지 않고 바로 버튼을 눌러 음성을 입력할 수 있다.

또한, 버튼을 누르고 "있어야" 한다는 것은 Jef Raskin이 주창한 바 있는 일명 quasimode로, 모드 분리에 따른 사용자의 인식오류 문제를 대부분 해결할 수 있는 장점도 있다.

... 그렇게 Graphical UI와 Voice UI를 자유자재로 오가면서 사용할 수 있는 multi-modal interaction을 입에 달고 지냈던 때가 있었다.


(3) Voice Button FAIL
하지만 앞에서 말한 바와 같이, 버튼 하나 더 우겨넣기 힘든 게 현실이었기 때문에 결국 기존에 있는 버튼을 길게 누르는 것으로 음성인식 "모드"를 넣는 것으로 되었고, 결국 사용성 문제를 발생시키는 대표주자인 이 "모드" 덕택에 음성버튼 컨셉은 안그래도 천덕꾸러기 신세였던 음성UI와 함께 그냥 사그라져 버렸다. 달랑 하나의 모델에만 적용되는가 싶더니 그대로 소리소문없이 사장되어 버렸으니까.


(4) Voice Button on Motorola Droid Pro
모토롤라에서 미국과 유럽에 Droid Pro, 혹은 Motorola Pro라는 모델을 출시한다고 한다. 업무용 휴대폰이면서도 개인용도의 사용을 동시에 고려했다고 하는데, 화면이 크면서도 블랙베리에서 보던 방식의 키보드를 채용했다. ... 아니, 정확히 말하자면 블랙베리 키보드에 버튼을 하나 더 추가했다.

Voice Button on Motorola Pro

저 위치의 마이크 버튼은 분명 이전에 안드로이드 폰들에서 발견된 터치스크린용 가상키보드의 음성인식 아이콘을 따라한 것이다. 그러니 십중팔구 그 기능도 앞에서 상상한 것처럼 아무때나 음성인식을 할 수 있기보다는 그냥 특정한 음성인식 모듈을 띄워주는 형태가 되리라 생각한다. 아무래도 안드로이드 기본 UI와의 충돌도 고려해야 할테고.

혹시 물리적인 QWERTY 키보드가 달린 안드로이드 휴대폰들에는 원래 음성인식 키가 들어가 있었던 건가 싶어서 이전 모델들을 닥치는대로 찾아봤지만, 화면상의 버튼이 아닌 물리적인 음성버튼을 채용한 것은 아마도 이 휴대폰이 최초인 것같다. Voice UI에 관심을 가진 입장에서는 나름 고무적인 사건이 아닐 수 없다! :)


어쨋든 이 버튼을 보자마자, 이제 휴대기기에서의 음성인식 버튼이 이런 식으로 "통화"나 "홈" 버튼만큼 일반화되고, 기기를 사용하는 중에 음성 UI를 사용할 수 있는 순간이 오면 저 마이크 모양에 불이 들어오고, 그럴 때는 버튼을 누른채로 말 한마디해서 쉽게 주소록 검색이나 일정 입력을 할 수 있으면 좋겠다... 뭐 그런 생각이 들어서 반가운 마음에 예전 기억을 주절주절 늘어놔 봤다.


이건 뭐 뒷방노인네도 아니고... 비맞은 중도 아니고... ㅡ_ㅡa;;;
저작자 표시 비영리 변경 금지
신고
Posted by Stan1ey

Voice Search in Korean

2010.06.20 01:46
지지난 주에 다음 커뮤니케이션에서 아이폰용 Daum 앱에 음성검색 기능을 포함시켰다기에 이게 웬일이냐..하고 있는데, 지난 주에는 구글 코리아에서도 모바일 음성검색의 한국어 버전이 안드로이드 앱으로 (아이폰용도 업데이트할 예정) 발표되고, NHN에서도 올해 안에 음성검색 모바일앱을 내놓겠다고 한다.

Daum Voice Search on iPhone AppGoogle Voice Search in Korean on Android App

누가 먼저 시작했는지는 모르겠지만, 이 일련의 음성검색 발표 러쉬에는 업계의 경쟁심리가 작용했을 것이다. 그렇지만 다음도 일찌감치 음성인식 앱을 준비하고 있음을 홍보한 적이 있고, 구글 음성검색이야 진작에 출시되어 있었던 만큼 준비들은 오래전부터 해왔을 테고, 그래선지 음성인식의 적확률에 대해서도 다음의 앱이나 구글의 앱이나 기대 이상이라는 반응이다. 특히 안드로이드 OS는 초창기부터 음성인식을 위한 고려가 포함되어 있을 정도였으니까.

일전에도 구글 음성검색의 두번째 언어가 중국어가 됐다는 소식을 전하면서 한국어는 몇번째로 구현이 될지 궁금해 한 적이 있는데, 결국 예상한 대로 프랑스어가 사용자가 상대적으로 많은 한국어보다 먼저 구현이 되었고, 한국어는 8번째로 구현된 언어라고 한다. 뭐 솔직히 생각보다는 빨리 구현해 줬다. -_-a;;

다음과 구글의 음성검색 기능에서 Voice UI를 비교해 보려고 했지만, 우리나라 앱을 설치할 수 있는 안드로이드 폰을 구할 방법이 없어서 통과. 그리고 나름대로의 방법으로 이미 이 둘을 비교한 기사는 이미 올라와 있다.

Speech Recognition Result 1, Daum Voice SearchSpeech Recognition Result 2, Daum Voice SearchSpeech Recognition Result 2, Daum Voice Search

아이폰용으로 우선 출시된 Daum 앱의 경우, 음성인식 결과는 기본 설정에서는 바로 검색결과를 보여주며, 그와 함께 "음성인식결과 더보기" 기능을 통해서 N-Best 결과를 추가로 볼 수 있게 되어 있다. 보다 일반적인 방식으로 음성인식 결과의 대안들을 먼저 보고나서 그 중에서 인터넷을 검색할 어휘를 선택하려면, "설정" 메뉴에서 "음성인식 결과보기" 옵션을 켜면 위의 오른쪽 그림과 같이 다섯가지 대안결과가 팝업창으로 나타나고 원하는 결과가 없을 경우 바로 재시도할 수 있다.

음성인식의 오인식 확률을 생각하면 보다 전통적인 후자의 방식이 기본으로 제공돼야 한다고 해야 하겠다. 배경잡음이 없는 상태에서의 인식률은 상당한 편일지 몰라도, 인식이 잘 되던 구절을 몇가지 소음환경(화이트 노이즈, 배경음성 등)에서 똑같이 시도했을 때에는 여전히 인식이 거의 되지 않았고, 그런 상황에서 바로 음성입력을 다시 할 수 있도록 해주는 것은 중요한 기능이기 때문이다. 하지만 사실 그러면 또 음성인식의 가장 큰 문제를 부각시키는 모양새가 될테니 어쩔 수 없다고 할까.



이래저래 다루기 쉽지 않은 음성인식 서비스를 출시하려니 고심이 많았다는 건 그렇다고 해도, 역시 Voice UI 관점에선 아쉬운 점이 눈에 띄지 않을 수 없다.

No Network Error in Daum Voice Search
우선 두 회사 모두 모바일 기기에서는 입력된 음성 데이터에서 비교를 위한 특징만을 찾아 보내고 음성인식 기능 자체는 고성능/대용량/실시간 서버에 맡기는, 분산 인식 방식을 채용하고 있다. 일전에 구글의 음성인식을 써봤을 때도, 또 이번 다음 앱의 경우에도 인터넷 연결이 안 될 경우엔 기능 자체가 실행되지 않는다. 비록 사용에 제한이 따르고 경우에 따라 통신요금까지 부과되는 형식이긴 하지만, 음성인식의 성능을 위해서는 어쩔 수 없는 선택이라고 생각한다. 그렇지만 분산인식을 선택한 경우에는 또 그 나름의 장점이 있을 수 있는데, 그걸 제대로 살리고 있는지는 잘 모르겠다.

Input Too Loud Error in Daum Voice Search
Daum 음성검색을 사용해 보다가 발견한 왼쪽 오류창은, 음성입력이 너무 클 경우 서버에 데이터를 보내기 이전에 나오는 장면이다. 이렇게 전처리 과정이 모바일 모듈 안에 있다면, 사실 할 수 있는 일이 좀 더 많을 것이다. 잘못된 음성인식 결과를 단순히 출력하거나 실제로는 별 의미 없는 "검색어를 말할 때 정확히 발음하여 주세요" 같은 안내문을 보여주기 보다, 음성 명령어 구간을 판정하는 EPD 작업 후에 배경소음과 음성명령어를 비교해서 "조용한 곳에서 인식이 더 잘 됩니다"라든가, "주변 사람들의 이야기하지 않을 때 더 잘 됩니다"라든가, "조금 더 큰 소리로 말씀해 주세요" 등의 안내문을 '상황에 맞게' 보여줄 수 있기 때문이다.

실제로 이런 방식을 적용했을 때, 이런 오류가 비록 정확하게 선택될 수는 없더라도 어느 정도 임의로 출력했을 경우 최종 인식률과 사용자의 만족도에는 큰 차이가 있었다. 인간과 같이 말을 알아들으면서도 사실은 스위치만큼이나 멍청해 보이는 장치가 아니라, 음성인식이라는 범주 안에서는 어느 정도 의사소통이 되는 상대방으로 인정받게 되는 것이다. 음성인식이라고 하면 그 인식엔진 안에서 일어나는 UI 디자인과 관련없는 일로서만 여기게 되지만, Voice UI 설계의 관점에서 주변 데이터에도 좀더 관심을 갖고 해당 기능을 사용하는 정황을 좀더 고민했다면 좋지 않았을까 하는 아쉬움이 든다.


또 하나 언급해둘 만한 것은, 음성인식 기능을 여전히 다른 GUI기반 기능과 동떨어진, 그냥 장식적인 feature로만 생각하고 있는 것 같다는 점이다. 음성인식은 제대로 동작할 경우, 키보드 입력을 대체하거나 최소한 보완할 수 있는 도구이다. 위에 링크한 기사들에서도 하나같이 비슷한 이야기들은 하고 있지만, 사실 판에 박힌 음성인식기술의 홍보문구 이상도 이하도 아니다. 그 관점을 실제로 UI 디자인에 적용한다면 어떻게 될까.



이를테면, 위 HTC의 Voice UI에서처럼 키보드와 음성인식을 대등하게 다루고, 키보드 입력을 하려다가 음성인식을 하거나, 음성인식이 실패할 경우 바로 키보드를 통해 보완할 수 있도록 하면 될 것이다. 아이폰이나 안드로이드나 앱에서 OS의 기본 키보드 위에 버튼을 추가할 수 있게 되어 있는데, 이미 좋은 선례가 있음에도 불구하고 이러한 관점을 살리지 못한 부분은 아쉬운 일이다.

... 그나저나 위 동영상에서는 단순히 검색어 몇 음절을 인식하는 수준이 아니라 받아쓰기 dictation 수준의 음성인식 기술을 보여주고 있는데, 이 놀라운(!) 기술수준의 차이에 대해서는 일단 넘어가기로 하자. UFO라도 주웠나보지 뭐.



뭐 어쨋든 간에, 몇차례의 뼈저린 실패에도 불구하고 슬금슬금 다시 고개를 들기 시작한 음성인식 기술이 이번에는 제법 주목을 받고 있다. 이 기회에 제대로 된 Voice UI 디자인에 대한 관심도 좀 생겼으면 좋겠는데, 적어도 결과물만으로 판단하기에는 아직 쉽지 않은 모양. 하지만 언제나 그렇듯이 또 이러다가 눈 깜박하는 순간에 주류가 되어 당연시되거나, 아니면 흔적도 없이 사라져 버리겠지.

외유 중인 인간은 굿이나 보고 떡이나 먹기로 하겠다. 이기는 편 우리 편! =8-P
저작자 표시 비영리 변경 금지
신고
Posted by Stan1ey
가상현실(VR)/증강현실(AR)/혼합현실(MR) 분야에 종사하는 사람들에게 요즘처럼 흥분되는 시기가 또 있었나 싶다. 한때 꿈같은 이야기로 치부되던 '현실공간과 가상정보의 유기적인 연결'이 지난 몇주동안에는 그야말로 쏟아져 나오고 있는 것이다. 한참을 미뤄두었다가, 오늘 일본발 뉴스도 추가되고 해서 그냥 스크랩이라도 해두기로 했다.

(1) Nearest Tube
Nearest Tube
영국에 있으니 영국이야기부터. -_-;; 가까운 지하철역을 찾아주는 이 어플리케이션은, 잘 디자인되어 있는 것으로 유명한 런던 지하철 시스템 덕택에 가장 완성도가 높아 보인다.

iPhone 기반으로 만들어진 이 어플리케이션은 일반적인 AR UI(?)가 적용되어 있고, 손떨림에 대해서는 그닥 강인하지 못한 듯. 차라리 refresh를 좀 덜 하거나 일정구간에 대한 평균값을 대입하는 게 좋겠다는 생각이 들기는 한다. 홍보 동영상도 올라와 있다.



Nearest Tube
세상에, 드디어 아이폰을 통한 AR 어플리케이션이 출시된 것이다! 꿈에 그리던 그 모습과 크게 다르지 않다니!!!

하지만 역시 현실의 벽이라는 건 조금 느껴진다. 런던 지하철역 관련해서는 많은 모바일 어플리케이션들이 나와있는데, 사실 이 Nearest Tube는 그걸 대체한다기 보다 그냥 부가기능 정도로 적당할 것 같다. 쩝.


(2) Layar
Layar
다음으로 가까운 네델란드에서는, 구글의 안드로이드를 기반으로 한 AR 어플리케이션이 나와있다. 카메라를 통해서 보이는 방향의 부동산 매물 -_-;;; 을 보여주는 Layar 라는 물건인데, 현실적으로 쓸모가 좀 더 있어보이긴 한다. 웹사이트에 따르면 앞으로는 여기에 layer를 추가할 예정이라고 한다.



Layar
실제적인 쓸모라든가 확장 가능성 등을 생각한다면 좀더 고민을 많이 한 프로젝트같지만, 실제로 안드로이드 마켓에서 얼마나 팔릴지 아직은 모르겠다. 앞으로 어떤 레이어를 추가할런지, 그리고 그 레이어들을 인터넷 접속을 통해서 공개할 수 있도록 할지 자기들이 만들 레이어만 보게 할지에 따라서 사업의 내용과 범위가 크게 달라질 수 있겠다. (개인적으로는 당연히 전자를 기대하지만...)

이 회사에서는 또 자신들이 최초로 AR 브라우저를 만들었노라고 공언하고 있다. 뭐 누가 최초인지는 관심없고, 그냥 열심히들 치고받으면서 다른 것들도 많이 만들어주면 좋겠다. ㅎㅎ


(3) NTT Docomo, KDDI
급기야 일본에서도 Wireless Japan 행사와 함께 비슷한 소식이 들린다.

AR application by NTT Docomo
NTT 도코모에서 역시 안드로이드 기반으로 개발한 이 AR 어플리케이션은 주변의 식당이나 관광명소 등을 알려주는 모양인데, 일본스러운 UI는 귀엽지만 현실의 복잡함 속에서 정보를 전달하기는 조금 어수선한 감이 없잖아 있다.

어쩌면 우리나라에서는 기껏 떠오른 3D UI의 이슈가 정작 3D라고 할 수 있는 AR 환경에서는 가시성을 이유로 어울리지 않는 유행이 될 수도 있겠다. ㅡ_ㅡa;;;

사용자 삽입 이미지
KDDI에서 개발했다는 다른 AR 어플리케이션은 사람들이 촬영한 사진에 붙어있는 geo tag를 검색하는 물건으로, 사실 상용화를 목적으로 했는지 연구실에서 바로 집어들고 나왔는지는 모르겠다. ^^; 그래도 다른 사람들이 다른 시야, 다른 시간대에 찍은 사진들을 본다는 것은 재미있을지도 모르겠다. (재미만 있고 쓸모가 없으면 안 되는데, 우씨 -_- )

한가지 재미있는 것은, 도코모에서 전시하고 있는 장면을 보면 받침대에 "직감검색"이라고 적혀있다는 거다. "눈으로 보고, 몸으로 조작한다"는 설명도 그렇지만, AR이라는 jargon을 재미있게 풀어놓았다는 생각이 든다.



일부 폰이나 iPhone에 지자기 센서가 들어간다기에 AR 어플이 나올지도..? 라는 생각이야 하고 있었지만, 이렇게 또 주구장창 쏟아져 나와주시니 좀 당혹스럽다. 아직은 그냥 위치(GPS)와 방향(digital compass)만 갖고 정보를 표시하는 정도지만, 이미 OpenCV를 이용해서 AR tag를 처리하는 어플도 나온 적이 있으니 (실시간은 아니지만) 영상인식을 추가하는 건 시간문제가 아닐까 싶다.

X-Mas Camera 2X-Mas Camera 2

앞으로 수시로 초기화해야 하는 지자기 센서의 안정성 문제라든가 GPS 위치정보의 오차라든가 영상정보의 처리속도라든가 뭐 넘어야 할 산은 많겠지만, 그래도 AR을 이용한 어플리케이션이 말그대로 "하루가 다르게" 생활 속으로 들어오는 것 같은 요즘이다.


다음날 추가.
Nearest Tube를 만든 회사에서 추가로 동영상을 발표했다. 얼굴을 이용한 인증에 얼굴의 움직임에 따라 그 '사람'에 대한 관련 tag가 따라다니는 엄청난 설정.



물론 아침에 얼굴을 업데이트한다는 내용이 포함되어 있기는 하지만, 이건 아직 요원한 이야기라고 생각한다. 얼굴을 인식(detection; 유무를 파악)하고 따라다닌(tracking; 거리/방향을 측정) 것과 인증(verification; 누구인지 확인)하는 것은 완전히 차원이 다른 기술인데, AR에 얼굴인식을 넣은 경우는 수년 전에 발표된 적이 있지만 거기에 인증까지 덧붙인 경우는 없다. (뭐, 당연한 전제는 '내가 알기로는' 이겠지만) 특히 얼굴인증은 변수가 많은 영상처리의 한계 때문에 여러가지 제약 - 이를테면, 설정된 조명과 배경 하의 정면얼굴 - 이 따르는데, 그러자면 AR의 장점과 여러가지로 상충되는 것이다.

뭐 VR이든 AR이든, MR하는 사람들이 괜히 tag기반의 영상처리에 매달려 있는 게 아니라는 거다. 그나저나 이 회사에서 이렇게까지 구라영상을 뿌리면서 매달리는 걸 보면 모바일과 AR의 접목이 이제 점차 현실의 업계에 자리잡고 있다는 생각은 들어 기대는 된다.

왜 글을 쓰면 며칠 내로 업데이트를 해야만 하는 상황이 되는 걸까? -_-;;




Metal Detecting using iPhone digital compass
... 아 그리고 지자기 센서 이야기가 나와서 말인데, 지자기 센서를 금속탐지기로 이용할 생각을 한 사람도 여럿 등장한 모양이다. 정말 기발하다. 심지어 그걸 이용해서 iPhone을 마술도구("동전이 어느 쪽에 있는지 맞춥니다!")로 탈바꿈 시킨 사람도 있다. =_=;; 이런 게 가능하다는 것 자체가 지자기 센서의 단점을 드러내는 사실이지만, 그래도 훌륭한 발상의 전환이다. 짝짝짝.

... 처음부터 스크랩만 한다고 했잖아요... ㅠ_ㅠ


신고
Posted by Stan1ey

Google Voice

2009.03.20 22:25
Google Voice

얼마 전에 Google Voice라는, 무시무시한 이름(개인적인 느낌 ;ㅁ; )의 서비스가 소리소문없이 서비스를 개시했다. 뭐 사실 그동안에도 Google 411같은 전화망 대응 서비스도 있었고 iPhone 어플로 음성검색 기능을 넣기도 했지만, 우주정복을 꿈꾸는 구글의 Google Voice라는 서비스라니!!! z(T^T)s

이 서비스는 전화 사용자를 온라인과 연결시켜 주는 걸 목표로 하는 것 같은데, 사실은 우리나라에서는 벌써 각 통신사 웹사이트(및 고객센터나 연결된 700 서비스 등등)를 통해서 가능했던 벨소리 기능, 문자 관리 기능, 스팸 차단 기능, 114(411) 문의 기능 등등을 웹사이트에 통합해 놓은 것이다. 요컨대 우리나라 전화망의 사업구조라면 꽤 짭짤한 대목이기 때문에, 구글에게 내어줄 일이 없는 채널을 차지하겠다는 거다.

아직은 일부 휴대폰(안드로이드 폰과 몇 모델이 더 있는 듯?)에 대해서만 가능하다고 하는데, 이게 앞으로 얼마나 더 파급이 될런지는 잘 모르겠다. 아무래도 개인적인 내용들이다보니 다른 구글 검색과 연동되기도 어려워 보이고...

Google Voice: Features

그럼에도 불구하고 이 서비스에서 눈에 띄는 부분은, 음성사서함에 녹음된 내용을 웹에서 조회할 수 있게 해주면서 무려 음성인식 transcript 를 제공한다는 거다! 10년전쯤에 음성기술을 웹에 연결시키면서 "음성게시판"이라는 것을 구현하는 팀과 일해본 적이 있는데, 음성게시판의 황당한 점은 웹에 게시물 목록이 나오지만 게시시간과 게시자 외에는 도대체 그 내용을 짐작할 수 있는 방법이 없다는 거였다. 녹음시간은 지나치게 짧아서 다 똑같았고, 휴대폰으로부터 위치정보를 받는 것도 현실적으로 어려운 일이었고, 파형으로 짐작하게 하자는 것도 당시 구현했던 용도에는 맞지 않았고...

그 당시+우리말 인식 수준으로는 "음성인식해서 보여주면 안 될까요?"라는 건 단박에 "기술적으로 불가능"하다고 판정받는 아이디어였건만, 어느 새 이 정도까지 가능해진 모양이다. 그때나 지금이나 음성인식이 완벽한 건 아니지만, 그래도 최대한 열심히 해서 오류가 있더라도 보여준다면, 어느 정도 사용성 향상은 기대할 수 있을 듯 하다. ... 물론 그 다음부터 나올 사용자들의 "잘못 인식하네" 반응을 생각하면 조심스러울 수 밖에 없겠지만.

이제 우리말 음성게시판도 구글한테 기대할 수 밖에 없는 건가... -_-a
신고
Posted by Stan1ey
미국 T-Mobile에서 출시한 G1폰에, 온라인 업데이트를 통해서 음성인식 기능이 포함된다고 한다. 이 소식은 포털에만 올라와 있고 T-Mobile 공식 웹사이트에서는 찾아볼 수가 없는데, 그래서 구체적으로 어떤 종류의 음성명령이 가능한 건지는 알아볼 수가 없다. 일전에 나왔던 아이폰에서의 구글 음성인식 - 음성검색, 주소록검색, 주소검색 정도 - 이 그대로 안드로이드 버전으로 포팅되었을 가능성이 가장 높겠지만.

안드로이드는 초기부터 음성인식에 대한 준비는 다 되어있는 듯한 루머(?)가 많이 돌았는데, 만일 OS 수준에서 음성인식을 제대로 지원해준다면 이상적인 VUI를 실현할 가능성은 별도의 어플을 구매해야 하는 아이폰보다 훨씬 높다고 생각한다. 무엇보다 어플이기 때문에 접근할 수 없는 기반기능까지도 접근할 수 있을테니까. 이름을 부르면 화면에 전원이 들어오는 폰이 나온다면 얼마나 멋질까. :)

뭐 어쨋든, 사진도 뭣도 하나 없으니 그건 나중에 출시되면 어떻게든 알아보도록 하고, 일단 모처럼 음성 UI 소식이 올라와서 반가운 마음에 끄적.
신고
Posted by Stan1ey
본의 아니게 시리즈물이 되어 버렸다. ㅡ_ㅡa;;

PC World에서, 며칠 전에 언급했던 G1 폰에서의 15개 주요 어플리케이션에 대해서 소개했다. 알고보니 구글에도 소프트웨어를 구입할 수 있는 서비스(Android Market)가 있어서 현재 50개의 어플을 다운로드 받을 수 있고, 1년간은 공짜라고 하니 어쩌면 전에 지적했던 것과 iPhone에 비한 단점은 좀더 적을지도 모르겠다. 게다가 공짜 어플이라고 해도, 이 어플들이 예전에 Android 어플개발 컨테스트를 위해서 전세계 개발자들이 열심히 만들어 제출한 거라는 걸 생각해 보면 그 품질도 Apple AppStore의 공짜 어플과는 격차가 있을지도.

링크된 기사에서 소개하고 있는 어플 중에도 HTI 어플이라고 할 수 있는 게 꽤 있는데, 이를테면 홍채인식으로 주인을 확인한다던가 (근데 이게 모바일 폰 카메라의 해상도로 제대로 가능한 건가? -_-a;; ), 바코드를 영상인식해서 비교쇼핑과 연결한다든가 (clever.. 가게에선 싫어하겠다 -_- ) 하는 서비스가 그렇다. 자신의 GPS 위치정보나 심지어 친구/주변사람들의 정보를 이용한 LBS 서비스들은 당연히 다양하게 제공되고 있고. (왠지 LBS가 벌써 유행 지난 것처럼 말하고 있잖아 -_-a;; )

Google Android Apps - BioWallet with Iris Verification

BioWallet (홍채인증)

Google Android Apps - ShopSavvy with Barcode Recognition

ShopSavvy (바코드인식)


여전히 멀티터치나 가속도센서를 잘 쓰고 있지 않은 건 좀 의아하기도 한 부분이지만, 어쨌든 구글이 Android Market을 애플의 AppStore 만큼 활성화시킬 수 있을지 기대가 된다. OS를 낱낱이 공개한만큼 더 강력한 어플이 나타나줄 것 같기도 하고, 반대로 너무 공개해 버려서 인터넷 그 자체처럼 그냥 그대로의 쓰레기장이 될까봐 걱정되기도 하고. 자세한 건 Android Market을 좀더 자세히 보고 moderation 방식을 좀 알아봐야 하겠으나... 쉽게 알아볼 수 있는 방법도 없으니 그냥 접기로 했다. ㅋㅎㅎ
신고
Posted by Stan1ey
HTC G1, powered by Google Android
얼마 전 Google의 휴대폰 OS인 Android를 탑재한 첫번째 휴대폰이 공개됐다. 이 휴대폰 - G1 이라는 모델 - 을 만든 HTC 라는 회사에선 그만그만한 풀터치 폰을 만들어서 홍보를 좀 하는가 했더니, 이번에 발빠르게 Android를 도입함으로써 위험을 감수할 수 있는 작은 회사의 장점을 살리고 브랜드 가치가 떨어지는 단점을 보완하는 모범적인 사례를 보여주고 있다.

이 휴대폰을 출시하는 T Mobile 회사의 웹사이트에서는 이 새로운 휴대폰을 미리 체험해 볼 수 있는 플래시 페이지가 있는데, 독특하게 열리는 하드웨어 구조도 눈을 끌지만 "Emulator" 코너에서 직접 써볼 수 있는 Android UI의 첫 모습이 무엇보다 인상 깊었다. 무엇보다 구글에서 만든 휴대폰 UI 아닌가! (구글 빠돌이 -_-a; )

HTC G1 Emulator, powered by Google Android OSHTC G1 Emulator, powered by Google Android OSHTC G1 Emulator, powered by Google Android OS

모두가 기대했던 대로, 이 폰은 구글의 온갖 온라인 어플리케이션들과 멋지게 어울린다. 주소록을 포함해서 Gmail 서비스를 모두 사용하고, 캘린더도 실시간 공유하고, 구글 맵과도 연동이 된다. Apple의 iPhone을 이용해도 회사의 Exchange Server에 연결하거나 Mobile Me 서비스를 이용해서 같은 경험을 할 수 있지만, 애플이 비싼 폰을 사고 비싼 서비스(Exchange Server도 비싸고, Mobile Me도 다른 무료 서비스와 비교하면 성능대비 비싸다)에 연결되어 있어야 한다는 불편함이 있다. 그에 비해서 구글은 내내 무료로 제공하던 서비스를 역시 많은 부분이 공개되어 있는 OS를 통해서 제공하는 거다. 물론 그 속셈이야 더 많은, 게다가 모바일 장치로부터의 정보를 수집함으로써 좀더 많은 개인정보를 바탕으로 광고수입을 올릴 수 있다는 것이겠지만, 그게 "더 많은 광고"가 아닌 "더 필요함직한 광고"라면 사실 소비자 입장에서도 나쁠 게 없다.

구글 블로그에는 Android를 만든 사람들이 Android의 기능을 짤막하게 나눠서 설명하는 인터뷰 형식의 동영상이 올라와 있다. 예전부터 담당 엔지니어가 기능을 소개하는 방식을 쓰더니만, 지난 번 Chrome 웹브라우저 때부터는 아예 떼로 나와서 맡은 분야를 설명하는 데에 맛을 들인 모양이다.



구글 블로그에는 이 외에도 많은 동영상이 올라와 있어서, 혹시 아직 작동모습을 안 봤다면 한번 가볼만하다. 유독 눈에 띄는 것은 문자를 복사하고 붙여넣는 Copy & Paste 기능이 있어서, 이 휴대폰을 소개하는 블로그마다 "아이폰에서 안 되는 기능이 들어갔다"고 부각시키고 있다는 거다. 흠... 물론 아이폰이 멀티터치를 비롯해서 탄탄하고 다양한 UI scheme을 가지고 있으면서도 복사기능을 왜 안 넣는지가 답답하긴 하지만 (그냥 문자입력 영역에서 두 손가락으로 앞뒤 정하면 복사되게 한다거나, Microsoft Windows Mobile에서 사용하는 것처럼 좀 오래 누르고 있으면 옵션을 띄우거나 하면 되지 않냔 말이다), 이번에 Android에 들어간 것을 보면 사실 그것도 간단하긴 않았구나 싶은 생각이 든다.

구글에서 채택한 방법은 바로 이 '오래 누르기' 인데, 문제는 설명에서만 빠진 건지는 모르겠지만 눌려진 입력칸에 들어간 모든 문자열을 한꺼번에 복사하거나 잘라내서 다른 입력칸에 (역시 오래 눌러서) 복사할 수 있게 되어 있는 듯 하다. 결국 같은 내용을 여기 저기에 복사할 때에 유용할 것 같기는 한데, 사실 복사/붙여넣기 작업이 유용한 건 이게 아니지 않나? 사실은 메모장에서 문장의 앞뒤 순서를 바꾼다든가 하고 싶을 때 가장 아쉬운 기능이지, 아이디나 이메일 주소를 여기저기 복사해 넣거나 할 일은 없지 않나 싶은데 말이지. -_-a;;;

아무래도 범용의 소프트웨어로서 만들어진 물건이니만큼 멀티터치를 전제한다든가 하는 건 어려웠던 것 같다. 그래도 구글 맵을 사용하면서 화면을 가리고 있는 확대/축소 아이콘을 눌러 단계적으로 확대/축소 하는 모습은 좀 안습이라는 생각이다. 그래도, 위 동영상을 봐서는 잘 드러나지 않지만, 개발자 대상의 컨퍼런스에서 소개되었다는 발표내용을 보면 가속도 센서는 적용되는 것 같다.
 


그런데 맨 위에 링크한 에뮬레이터를 봐도 그 다음의 일련의 동영상 소개를 봐도, 이 가속도 센서를 이용해서 자동으로 화면을 돌려주는 기능은 보이지 않는다. 멀티터치  "pinch" 기능은 물론이고 화면 돌리기도 워낙 여기저기에서 했던 연구가 있으니 특허권의 문제는 아닐텐데, 급하게 새로운 OS를 완성하는 데 급해서 첫번째 폰부터 그런 '부가 기능'을 넣을 시간은 없었던 걸까.

어떤 이유였던 간에, Google Apps와의 강력한 연결과 Copy & Paste 지원에도 불구하고 훨씬 전에 발표된 iPhone에 비교해서도 더 나아보이지는 않는 물건에 조금 실망하는 중이다. 무엇보다 iPhone에는 그런 부족한 부분을 AppStore에서 구입할 수 있는 소프트웨어로 보완할 수 있다는, 구글에 (아직) 없는 강력한 장점이 있기도 하고.



계속 미루다가 얼마 만에 쓴거냐... 이제 일이 점점 손에 (혹은 귀에) 익는지 처음 만큼 여유가 없다. 그러면서도 갈 길은 점점 멀어져 가는 것 같으니 희한한 노릇이라고 할 수 밖에. ;ㅁ;
신고
Posted by Stan1ey

BLOG main image
by Stan1ey

카테고리

분류 전체보기 (347)
HTI in General (45)
User eXperience (11)
Voice UI (50)
Vision UI (14)
Gesture UI (25)
Tangible UI (28)
Robot UI (14)
Public UI (9)
Virtuality & Fun (56)
Visual Language (15)
sCRAP (70)

글 보관함



www.flickr.com
This is a Flickr badge showing public photos and videos from Stan1ey. Make your own badge here.