휴대폰용 음성 사용자 인터페이스를 해보겠노라고 동분서주할 때다. 아직 휴대폰에 터치스크린을 붙인다는 생각은 "대표적인 실패사례"로 꼽히고 있었고, "그게 단가가 얼만지 아느냐"며 이미 십여개 붙어있는 버튼에 하나를 더 추가하는 것도 위아래로 줄줄이 윤허를 받자와야 하던 무렵. 당시 나에게 소원이 하나 있다면 음성인식 전용의 버튼을 하나 넣는 거 였다.


(1) EPD Techniques
음성인식의 적확율을 좌우하는 것 중 가장 큰 것이 음성명령의 맨앞과 맨뒤를 찾아내는 작업, 즉 EPD(End-Point Dectection)이다. 아무리 좋은 음성인식 엔진도 앞뒤로 요상한 음운이 들어가 버리면 엉뚱한 결과를 낼 수밖에 없기 때문이다.

(1-1) Pause Detection
EPD를 기술적으로 해결하는 대표적인 방식은 역시 말이 없는 순간(pause)을 잡아내는 거다. 아무래도 사람은 무슨 말이 "명령"이라고 생각할 때 앞뒤로 pause를 넣게 되니까. 하지만 주변이 시끄럽다든가 하면 이 pause가 인식되지 않을 수도 있고, 무엇보다 굳이 명령을 하지 않더라도 말하다보면 수시로 발생하는 게 pause다. (노홍철씨는 예외적인 경우로 치자 -_- )

(1-2) Magic Word Detection
그래서 나온 것이 소위 magic word 방식. 무식하게 철저하지만 오직 한 단어만을 인식하는 인식기를 한켠에 돌리고 있다가, 그 단어가 인식되면 그 이후 일정기간 동안 입력된 음성을 명령으로 보고 검증하는 것이다. 최근 Microsoft Kinect에서 음성인식을 플랫폼 범위로 적용하면서 "엑스박스"를 매직워드로 설정한 게 이 경우에 해당한다. 음성명령을 내릴 때마다 같은 단어를 말해야 한다는 사실이, 안 그래도 (의외로) 수고스러운 음성인식 작업에 짜증을 가중시키기는 한다.

(1-3) Prompt Sound
조금 더 수동적인 해결안으로는 prompt 방식이 있다. 음성명령을 받아야 할 때마다 "삐ㅡ" 소리를 넣어서 사용자가 발화를 시작해야 하는 시점을 알려주는 것이다. 초기의 음성인식 ARS 시스템(혹은, IVR 시스템)이 이런 방식을 많이 썼다. 사용자 입장에서도 오랫동안 익숙해진 자동응답기와의 대화("삐 소리가 나면 녹음하세요.")와 유사한 멘탈모델을 제공해 주었기 때문에 큰 거부감 없이 받아들였지만, 사실 말하고 싶은 것이 머릿속에 빙빙 도는 데 허가(프롬프트)가 떨어질 때까지 말하지 못하는 것은 나름 상당히 괴로운 일이다. (여기에 사용되는 sound prompt를 어떻게 만드느냐도 이 음성대화 시스템의 사용성에 큰 영향을 미치는데, 이 글은 버튼에 대한 내용이니 일단 넘어가기로 하자.)

(1-4) Others
정확한 EPD를 위해서 시도된 방법들 중에는, 사용자 관점에서 지켜봐야 하는 사람에게는 참 당혹스러운 게 많았다. 심지어 음성명령 직전에 박수를 친다든가, 매직워드를 앞뒤로 넣는다든가 하는 방식도 정확한 인식에 도움은 됐을지 몰라도, 사람을 기술에 끼워 맞추는 전형적인 방법이고 일종의 '고문'에 가까왔다.


(2) "Voice" Button
그런 온갖 기법들을 한편으론 직접 시도해보거나 어깨너머로 보면서, 개인적으로 내린 최적의 EPD 기법은 어이없게도 그냥 누르는 버튼이다. 정확히는 Push-to-talk 버튼. 예전 워키토키처럼, 말하고 싶은 동안 누르고 있다가 말이 끝나면 떼면 되는 방식이다. 앞에서 말한 자동응답기보다 오래된 멘탈모델이고, 큰 회의실에서 발언권을 얻을 때 아직도 사용되고 있으며, 또 실제로 적용해봐도 꽤 자연스러운 방식이다.

그냥 버튼이 눌린 동안만 음성을 받으면 되는 것이니 EPD라고 논할 건 없어 보이는 게 사실이다. 하지만 실제 사용자들의 행동에서는 버튼이 눌리고 음성인식 엔진이 구동되는 그 짧은 순간을 앞질러 말하거나, 마지막 말의 음운이 마무리되기 전에 버튼에서 손을 떼는 경우가 많기 때문에 앞뒤로 약간의 buffer를 주고 여기에 기존의 EPD 기술(1-1)을 적용하는 게 좋다. 이 방식을 주장했을 때 가장 큰 장애물은 그 기술적 난이도가 아니라, 오히려 "그건 내노라할 기술이 아니다"는 거였다. 물론 조직의 목적에 따르자면 어쩔 수 없는 반응이었지만.

이렇게 음성버튼을 채용할 때 가질 수 있는 최대의 장점은, 기존의 GUI나 다른 조작과 병렬적으로 사용할 수 있다는 것이다. 이를테면 일상적인 전화번호부 화면을 띄워놓고 작업하다가, 음성검색이 필요할 때에 별도의 GUI 조작을 하지 않고 바로 버튼을 눌러 음성을 입력할 수 있다.

또한, 버튼을 누르고 "있어야" 한다는 것은 Jef Raskin이 주창한 바 있는 일명 quasimode로, 모드 분리에 따른 사용자의 인식오류 문제를 대부분 해결할 수 있는 장점도 있다.

... 그렇게 Graphical UI와 Voice UI를 자유자재로 오가면서 사용할 수 있는 multi-modal interaction을 입에 달고 지냈던 때가 있었다.


(3) Voice Button FAIL
하지만 앞에서 말한 바와 같이, 버튼 하나 더 우겨넣기 힘든 게 현실이었기 때문에 결국 기존에 있는 버튼을 길게 누르는 것으로 음성인식 "모드"를 넣는 것으로 되었고, 결국 사용성 문제를 발생시키는 대표주자인 이 "모드" 덕택에 음성버튼 컨셉은 안그래도 천덕꾸러기 신세였던 음성UI와 함께 그냥 사그라져 버렸다. 달랑 하나의 모델에만 적용되는가 싶더니 그대로 소리소문없이 사장되어 버렸으니까.


(4) Voice Button on Motorola Droid Pro
모토롤라에서 미국과 유럽에 Droid Pro, 혹은 Motorola Pro라는 모델을 출시한다고 한다. 업무용 휴대폰이면서도 개인용도의 사용을 동시에 고려했다고 하는데, 화면이 크면서도 블랙베리에서 보던 방식의 키보드를 채용했다. ... 아니, 정확히 말하자면 블랙베리 키보드에 버튼을 하나 더 추가했다.

Voice Button on Motorola Pro

저 위치의 마이크 버튼은 분명 이전에 안드로이드 폰들에서 발견된 터치스크린용 가상키보드의 음성인식 아이콘을 따라한 것이다. 그러니 십중팔구 그 기능도 앞에서 상상한 것처럼 아무때나 음성인식을 할 수 있기보다는 그냥 특정한 음성인식 모듈을 띄워주는 형태가 되리라 생각한다. 아무래도 안드로이드 기본 UI와의 충돌도 고려해야 할테고.

혹시 물리적인 QWERTY 키보드가 달린 안드로이드 휴대폰들에는 원래 음성인식 키가 들어가 있었던 건가 싶어서 이전 모델들을 닥치는대로 찾아봤지만, 화면상의 버튼이 아닌 물리적인 음성버튼을 채용한 것은 아마도 이 휴대폰이 최초인 것같다. Voice UI에 관심을 가진 입장에서는 나름 고무적인 사건이 아닐 수 없다! :)


어쨋든 이 버튼을 보자마자, 이제 휴대기기에서의 음성인식 버튼이 이런 식으로 "통화"나 "홈" 버튼만큼 일반화되고, 기기를 사용하는 중에 음성 UI를 사용할 수 있는 순간이 오면 저 마이크 모양에 불이 들어오고, 그럴 때는 버튼을 누른채로 말 한마디해서 쉽게 주소록 검색이나 일정 입력을 할 수 있으면 좋겠다... 뭐 그런 생각이 들어서 반가운 마음에 예전 기억을 주절주절 늘어놔 봤다.


이건 뭐 뒷방노인네도 아니고... 비맞은 중도 아니고... ㅡ_ㅡa;;;
Posted by Stan1ey

댓글을 달아주세요:: 네티켓은 기본, 스팸은 사절

  1. 2011.02.15 16:45
    댓글 주소 수정/삭제 댓글
    하드키뿐 아니라 요즘 구글,네이버,다음 음성검색에 쓰이는 GUI 음성 버튼도 말씀하신것처럼 음식인식모드를 시작하는게 아니라 pushtotalk 방식으로 되어야 한다고 생각해요.

    안드로이드 키보드의 음성인식 버튼도 그렇게 바뀌어야하고요. 근데 굳이 새로운 방식을 바꾸지 않고도 tap(짧게 손을 떼면)인 경우는 현재처럼 음성인식 모드를 시작하고 hold 시는 바로 음성 인식을 하도록 하면 기존 방식을 학습한 고객도 불편은 없을 것 같습니다. 모드없는 pushtotalk방식이 편하니까 알면 잘 쓰겠고요.
  2. 2011.02.15 16:58
    댓글 주소 수정/삭제 댓글
    안드로이드폰의 활용도가 낮은 하단의 검색키를 quasimode 음성검색버튼으로 쓰도록 하면 쓸모가 있을 것 같아요.
  3. 2011.02.15 17:06
    댓글 주소 수정/삭제 댓글
    라고 쓰고 테스트해보니 검색키를 길게 누르면(딜레이가 있는 방식) 음성검색 모드로 바로 진입하는 군요. :)
    • 2011.02.15 18:07
      댓글 주소 수정/삭제
      기존 버튼을 길게 누르는 방식의 사용하면 바로 그 딜레이가 문제가 되더군요. 사람에 따라서 버튼을 누를 때 눌렀다가 떼는 시간이 차이가 많아서, 특히 모바일 제품처럼 일일히 사용자 설정을 넣을 수 없는 경우엔 결국 대다수 사용자가 수용할 수 있는 threshold를 설정하게 되거든요. 그 시간만큼이 Hold 라고 판단하기까지의 시간이 되는 거죠.

      이상적으로는 그렇게 시간지연이 있는 경우에는 버튼을 누르는 순간(물리버튼이든 터치든) 홀드 기능이 preview되어서 사용자가 확신을 갖고 기다리게 하면 좋겠는데(Key Down 이벤트를 Hold를 위한 roll-over처럼 쓴다는 느낌?), 그렇게 기존에 없는 이벤트를 만들기도 참 현실적인 장벽이 많습니다. ㅎㅎ

      그외에도 VUI 관점만 생각하면 인식기의 신호입력단만이라도 항시 띄워놓아서 로딩시간을 없애는 것도 주장해볼만 해요. 우리나라 포탈에서 제공하는 음성인식 서비스는 너무 구글을 벤치마킹한 것같습니다.

      역시 전 그냥 전용버튼 - 누르면 바로 말할 수 있는 - 이 좋아요. ^^* 하지만 버튼 하나에 별도의 이벤트 핸들링을 넣고, 심지어 즉각적인 음성입력을 위한 메모리를 할당하는 일은 현재 있는 회사 중에선 애플에서나 가능할 듯합니다.
    • 2011.02.15 18:10
      댓글 주소 수정/삭제
      참, 그리고 기존 Key를 쓸 경우에는 그 Key의 context를 검색대상과 연결시킬 수 있다는 점도 주요한 장점이긴 합니다. 통화버튼은 주소록 검색, 메뉴버튼은 네비게이션, 인터넷 버튼은 ... 뭐 그런 식으로요. 이런 것도 특허를 내놓은 사람이 있다는 게 문제라면 문제지만. (쿨럭 ;ㅁ; )
    • 2011.02.15 23:48
      댓글 주소 수정/삭제
      아. hold라는게 press시에 바로 음성 버퍼링을 시작하고 release하면 끝낸다는 의미로 사용했어요. tap(threshold 미만에 뗀경우)이면 버퍼링된걸 날리면 그만이니까요.

      중간에 설명하신 부분(얼마나 오래 눌러야하는지 사용자에게 cue를 주면 좋겠다)은 아이폰 네이버맵에 적용되어 있더라구요. 지도상에 아무데나 길게 누르면 출발지,도착지등을 지정할 수 있는 메뉴가 뜨는데 누르는동안 바가 차오르게 되어 있어요. 예전에 키패드를 사용하는 단말에서 제안했었는데 구현된걸 보니 썩 좋은지는 모르겠어요 :) 그냥 적당히 짧은게 좋은것 같아요.
    • 2011.02.16 04:12
      댓글 주소 수정/삭제
      정말 그렇게 할 수 있다면 좋겠는데요. 단순히 버튼 이벤트를 받아서 기능을 호출하는 수준을 넘어가면 아무래도 개발 단계의 어려움이라는 게 상당히 부각되더군요. (-_-;;)

      터치스크린 상에서의 hold indicator(?)는 Windows Pocket PC 시절에도 있었죠. 그때는 지금의 Windows Phone 7 같은 인터페이스를 뽑아줄 거라고는 상상도 못했네요. ^^;
  4. 2011.04.05 16:06
    댓글 주소 수정/삭제 댓글
    비밀댓글입니다
    • 2011.04.25 14:23 신고
      댓글 주소 수정/삭제
      ㅎㅎㅎ 그런 일이 있었구나. 글쎄, 그럴 날이 올지도 모르지.
  5. creep
    2011.04.13 19:19
    댓글 주소 수정/삭제 댓글
    잘 읽었어요.
    상당히 늦은 시점이긴 하지만 :-)
    • 2011.04.25 14:26 신고
      댓글 주소 수정/삭제
      http://youtu.be/-tyfxEl22Ac
      http://youtu.be/sEU83IiGTT4
      이 동영상? 결국 애플이 한 만큼은 적용이 됐네. 그 다음부터는 ROI 따지자면 안 나오는 작업일테니 뭐 삼성으로선 할 만큼 했다는 생각. 그런데 애플의 VUI 디자인은 매뉴얼에 써있는 것보다는 훨씬 깊이가 있는데, 갤럭시의 경우엔 어떻게 되어있으려나... :)

Voice Search in Korean

2010. 6. 20. 01:46
지지난 주에 다음 커뮤니케이션에서 아이폰용 Daum 앱에 음성검색 기능을 포함시켰다기에 이게 웬일이냐..하고 있는데, 지난 주에는 구글 코리아에서도 모바일 음성검색의 한국어 버전이 안드로이드 앱으로 (아이폰용도 업데이트할 예정) 발표되고, NHN에서도 올해 안에 음성검색 모바일앱을 내놓겠다고 한다.

Daum Voice Search on iPhone AppGoogle Voice Search in Korean on Android App

누가 먼저 시작했는지는 모르겠지만, 이 일련의 음성검색 발표 러쉬에는 업계의 경쟁심리가 작용했을 것이다. 그렇지만 다음도 일찌감치 음성인식 앱을 준비하고 있음을 홍보한 적이 있고, 구글 음성검색이야 진작에 출시되어 있었던 만큼 준비들은 오래전부터 해왔을 테고, 그래선지 음성인식의 적확률에 대해서도 다음의 앱이나 구글의 앱이나 기대 이상이라는 반응이다. 특히 안드로이드 OS는 초창기부터 음성인식을 위한 고려가 포함되어 있을 정도였으니까.

일전에도 구글 음성검색의 두번째 언어가 중국어가 됐다는 소식을 전하면서 한국어는 몇번째로 구현이 될지 궁금해 한 적이 있는데, 결국 예상한 대로 프랑스어가 사용자가 상대적으로 많은 한국어보다 먼저 구현이 되었고, 한국어는 8번째로 구현된 언어라고 한다. 뭐 솔직히 생각보다는 빨리 구현해 줬다. -_-a;;

다음과 구글의 음성검색 기능에서 Voice UI를 비교해 보려고 했지만, 우리나라 앱을 설치할 수 있는 안드로이드 폰을 구할 방법이 없어서 통과. 그리고 나름대로의 방법으로 이미 이 둘을 비교한 기사는 이미 올라와 있다.

Speech Recognition Result 1, Daum Voice SearchSpeech Recognition Result 2, Daum Voice SearchSpeech Recognition Result 2, Daum Voice Search

아이폰용으로 우선 출시된 Daum 앱의 경우, 음성인식 결과는 기본 설정에서는 바로 검색결과를 보여주며, 그와 함께 "음성인식결과 더보기" 기능을 통해서 N-Best 결과를 추가로 볼 수 있게 되어 있다. 보다 일반적인 방식으로 음성인식 결과의 대안들을 먼저 보고나서 그 중에서 인터넷을 검색할 어휘를 선택하려면, "설정" 메뉴에서 "음성인식 결과보기" 옵션을 켜면 위의 오른쪽 그림과 같이 다섯가지 대안결과가 팝업창으로 나타나고 원하는 결과가 없을 경우 바로 재시도할 수 있다.

음성인식의 오인식 확률을 생각하면 보다 전통적인 후자의 방식이 기본으로 제공돼야 한다고 해야 하겠다. 배경잡음이 없는 상태에서의 인식률은 상당한 편일지 몰라도, 인식이 잘 되던 구절을 몇가지 소음환경(화이트 노이즈, 배경음성 등)에서 똑같이 시도했을 때에는 여전히 인식이 거의 되지 않았고, 그런 상황에서 바로 음성입력을 다시 할 수 있도록 해주는 것은 중요한 기능이기 때문이다. 하지만 사실 그러면 또 음성인식의 가장 큰 문제를 부각시키는 모양새가 될테니 어쩔 수 없다고 할까.



이래저래 다루기 쉽지 않은 음성인식 서비스를 출시하려니 고심이 많았다는 건 그렇다고 해도, 역시 Voice UI 관점에선 아쉬운 점이 눈에 띄지 않을 수 없다.

No Network Error in Daum Voice Search
우선 두 회사 모두 모바일 기기에서는 입력된 음성 데이터에서 비교를 위한 특징만을 찾아 보내고 음성인식 기능 자체는 고성능/대용량/실시간 서버에 맡기는, 분산 인식 방식을 채용하고 있다. 일전에 구글의 음성인식을 써봤을 때도, 또 이번 다음 앱의 경우에도 인터넷 연결이 안 될 경우엔 기능 자체가 실행되지 않는다. 비록 사용에 제한이 따르고 경우에 따라 통신요금까지 부과되는 형식이긴 하지만, 음성인식의 성능을 위해서는 어쩔 수 없는 선택이라고 생각한다. 그렇지만 분산인식을 선택한 경우에는 또 그 나름의 장점이 있을 수 있는데, 그걸 제대로 살리고 있는지는 잘 모르겠다.

Input Too Loud Error in Daum Voice Search
Daum 음성검색을 사용해 보다가 발견한 왼쪽 오류창은, 음성입력이 너무 클 경우 서버에 데이터를 보내기 이전에 나오는 장면이다. 이렇게 전처리 과정이 모바일 모듈 안에 있다면, 사실 할 수 있는 일이 좀 더 많을 것이다. 잘못된 음성인식 결과를 단순히 출력하거나 실제로는 별 의미 없는 "검색어를 말할 때 정확히 발음하여 주세요" 같은 안내문을 보여주기 보다, 음성 명령어 구간을 판정하는 EPD 작업 후에 배경소음과 음성명령어를 비교해서 "조용한 곳에서 인식이 더 잘 됩니다"라든가, "주변 사람들의 이야기하지 않을 때 더 잘 됩니다"라든가, "조금 더 큰 소리로 말씀해 주세요" 등의 안내문을 '상황에 맞게' 보여줄 수 있기 때문이다.

실제로 이런 방식을 적용했을 때, 이런 오류가 비록 정확하게 선택될 수는 없더라도 어느 정도 임의로 출력했을 경우 최종 인식률과 사용자의 만족도에는 큰 차이가 있었다. 인간과 같이 말을 알아들으면서도 사실은 스위치만큼이나 멍청해 보이는 장치가 아니라, 음성인식이라는 범주 안에서는 어느 정도 의사소통이 되는 상대방으로 인정받게 되는 것이다. 음성인식이라고 하면 그 인식엔진 안에서 일어나는 UI 디자인과 관련없는 일로서만 여기게 되지만, Voice UI 설계의 관점에서 주변 데이터에도 좀더 관심을 갖고 해당 기능을 사용하는 정황을 좀더 고민했다면 좋지 않았을까 하는 아쉬움이 든다.


또 하나 언급해둘 만한 것은, 음성인식 기능을 여전히 다른 GUI기반 기능과 동떨어진, 그냥 장식적인 feature로만 생각하고 있는 것 같다는 점이다. 음성인식은 제대로 동작할 경우, 키보드 입력을 대체하거나 최소한 보완할 수 있는 도구이다. 위에 링크한 기사들에서도 하나같이 비슷한 이야기들은 하고 있지만, 사실 판에 박힌 음성인식기술의 홍보문구 이상도 이하도 아니다. 그 관점을 실제로 UI 디자인에 적용한다면 어떻게 될까.



이를테면, 위 HTC의 Voice UI에서처럼 키보드와 음성인식을 대등하게 다루고, 키보드 입력을 하려다가 음성인식을 하거나, 음성인식이 실패할 경우 바로 키보드를 통해 보완할 수 있도록 하면 될 것이다. 아이폰이나 안드로이드나 앱에서 OS의 기본 키보드 위에 버튼을 추가할 수 있게 되어 있는데, 이미 좋은 선례가 있음에도 불구하고 이러한 관점을 살리지 못한 부분은 아쉬운 일이다.

... 그나저나 위 동영상에서는 단순히 검색어 몇 음절을 인식하는 수준이 아니라 받아쓰기 dictation 수준의 음성인식 기술을 보여주고 있는데, 이 놀라운(!) 기술수준의 차이에 대해서는 일단 넘어가기로 하자. UFO라도 주웠나보지 뭐.



뭐 어쨋든 간에, 몇차례의 뼈저린 실패에도 불구하고 슬금슬금 다시 고개를 들기 시작한 음성인식 기술이 이번에는 제법 주목을 받고 있다. 이 기회에 제대로 된 Voice UI 디자인에 대한 관심도 좀 생겼으면 좋겠는데, 적어도 결과물만으로 판단하기에는 아직 쉽지 않은 모양. 하지만 언제나 그렇듯이 또 이러다가 눈 깜박하는 순간에 주류가 되어 당연시되거나, 아니면 흔적도 없이 사라져 버리겠지.

외유 중인 인간은 굿이나 보고 떡이나 먹기로 하겠다. 이기는 편 우리 편! =8-P
Posted by Stan1ey

댓글을 달아주세요:: 네티켓은 기본, 스팸은 사절

  1. 2010.06.21 13:53
    댓글 주소 수정/삭제 댓글
    위의 동영상은 HTC 자체의 키보드가 아니라 안드로이드 기본 키보드입니다. 기본 키보드에 음성입력키가 포함되어 있습니다.

    암튼 우리말 음성 인식은 매칭 용어집이 검색어 위주로 되어 있어서 검색외에 context free의 메모 용으로 사용할 수 있는 수준은 아닙니다.

    구글코리아 직원의 사용 동영상을 보면 귀에 대고 말하는 동작이 많은데 그 기능은 안드로이드에는 없고 아이폰용 앱에만 있더라구요.
    • 2010.06.22 09:17
      댓글 주소 수정/삭제
      저는 위의 구글코리아 데모나, 주변에 있는 2대의 안드로이드 폰(하나는 디자이어)이나, 인터넷에서 구할 수 있었던 안드로이드 키보드에서는 마이크가 없길래... HTC에서 넣었나보다 했습니다.

      어쨋든 그럼 Voice/Touch입력을 쉽게 선택/전환할 수 있게 한 것도 구글이라는 이야기가 되는군요. 일관성에 대해서는 좀 아쉽지만, 좋은 선례로 시장표준화가 되었으면 좋겠습니다. ^^*

가상현실(VR)/증강현실(AR)/혼합현실(MR) 분야에 종사하는 사람들에게 요즘처럼 흥분되는 시기가 또 있었나 싶다. 한때 꿈같은 이야기로 치부되던 '현실공간과 가상정보의 유기적인 연결'이 지난 몇주동안에는 그야말로 쏟아져 나오고 있는 것이다. 한참을 미뤄두었다가, 오늘 일본발 뉴스도 추가되고 해서 그냥 스크랩이라도 해두기로 했다.

(1) Nearest Tube
Nearest Tube
영국에 있으니 영국이야기부터. -_-;; 가까운 지하철역을 찾아주는 이 어플리케이션은, 잘 디자인되어 있는 것으로 유명한 런던 지하철 시스템 덕택에 가장 완성도가 높아 보인다.

iPhone 기반으로 만들어진 이 어플리케이션은 일반적인 AR UI(?)가 적용되어 있고, 손떨림에 대해서는 그닥 강인하지 못한 듯. 차라리 refresh를 좀 덜 하거나 일정구간에 대한 평균값을 대입하는 게 좋겠다는 생각이 들기는 한다. 홍보 동영상도 올라와 있다.



Nearest Tube
세상에, 드디어 아이폰을 통한 AR 어플리케이션이 출시된 것이다! 꿈에 그리던 그 모습과 크게 다르지 않다니!!!

하지만 역시 현실의 벽이라는 건 조금 느껴진다. 런던 지하철역 관련해서는 많은 모바일 어플리케이션들이 나와있는데, 사실 이 Nearest Tube는 그걸 대체한다기 보다 그냥 부가기능 정도로 적당할 것 같다. 쩝.


(2) Layar
Layar
다음으로 가까운 네델란드에서는, 구글의 안드로이드를 기반으로 한 AR 어플리케이션이 나와있다. 카메라를 통해서 보이는 방향의 부동산 매물 -_-;;; 을 보여주는 Layar 라는 물건인데, 현실적으로 쓸모가 좀 더 있어보이긴 한다. 웹사이트에 따르면 앞으로는 여기에 layer를 추가할 예정이라고 한다.



Layar
실제적인 쓸모라든가 확장 가능성 등을 생각한다면 좀더 고민을 많이 한 프로젝트같지만, 실제로 안드로이드 마켓에서 얼마나 팔릴지 아직은 모르겠다. 앞으로 어떤 레이어를 추가할런지, 그리고 그 레이어들을 인터넷 접속을 통해서 공개할 수 있도록 할지 자기들이 만들 레이어만 보게 할지에 따라서 사업의 내용과 범위가 크게 달라질 수 있겠다. (개인적으로는 당연히 전자를 기대하지만...)

이 회사에서는 또 자신들이 최초로 AR 브라우저를 만들었노라고 공언하고 있다. 뭐 누가 최초인지는 관심없고, 그냥 열심히들 치고받으면서 다른 것들도 많이 만들어주면 좋겠다. ㅎㅎ


(3) NTT Docomo, KDDI
급기야 일본에서도 Wireless Japan 행사와 함께 비슷한 소식이 들린다.

AR application by NTT Docomo
NTT 도코모에서 역시 안드로이드 기반으로 개발한 이 AR 어플리케이션은 주변의 식당이나 관광명소 등을 알려주는 모양인데, 일본스러운 UI는 귀엽지만 현실의 복잡함 속에서 정보를 전달하기는 조금 어수선한 감이 없잖아 있다.

어쩌면 우리나라에서는 기껏 떠오른 3D UI의 이슈가 정작 3D라고 할 수 있는 AR 환경에서는 가시성을 이유로 어울리지 않는 유행이 될 수도 있겠다. ㅡ_ㅡa;;;

사용자 삽입 이미지
KDDI에서 개발했다는 다른 AR 어플리케이션은 사람들이 촬영한 사진에 붙어있는 geo tag를 검색하는 물건으로, 사실 상용화를 목적으로 했는지 연구실에서 바로 집어들고 나왔는지는 모르겠다. ^^; 그래도 다른 사람들이 다른 시야, 다른 시간대에 찍은 사진들을 본다는 것은 재미있을지도 모르겠다. (재미만 있고 쓸모가 없으면 안 되는데, 우씨 -_- )

한가지 재미있는 것은, 도코모에서 전시하고 있는 장면을 보면 받침대에 "직감검색"이라고 적혀있다는 거다. "눈으로 보고, 몸으로 조작한다"는 설명도 그렇지만, AR이라는 jargon을 재미있게 풀어놓았다는 생각이 든다.



일부 폰이나 iPhone에 지자기 센서가 들어간다기에 AR 어플이 나올지도..? 라는 생각이야 하고 있었지만, 이렇게 또 주구장창 쏟아져 나와주시니 좀 당혹스럽다. 아직은 그냥 위치(GPS)와 방향(digital compass)만 갖고 정보를 표시하는 정도지만, 이미 OpenCV를 이용해서 AR tag를 처리하는 어플도 나온 적이 있으니 (실시간은 아니지만) 영상인식을 추가하는 건 시간문제가 아닐까 싶다.

X-Mas Camera 2X-Mas Camera 2

앞으로 수시로 초기화해야 하는 지자기 센서의 안정성 문제라든가 GPS 위치정보의 오차라든가 영상정보의 처리속도라든가 뭐 넘어야 할 산은 많겠지만, 그래도 AR을 이용한 어플리케이션이 말그대로 "하루가 다르게" 생활 속으로 들어오는 것 같은 요즘이다.


다음날 추가.
Nearest Tube를 만든 회사에서 추가로 동영상을 발표했다. 얼굴을 이용한 인증에 얼굴의 움직임에 따라 그 '사람'에 대한 관련 tag가 따라다니는 엄청난 설정.



물론 아침에 얼굴을 업데이트한다는 내용이 포함되어 있기는 하지만, 이건 아직 요원한 이야기라고 생각한다. 얼굴을 인식(detection; 유무를 파악)하고 따라다닌(tracking; 거리/방향을 측정) 것과 인증(verification; 누구인지 확인)하는 것은 완전히 차원이 다른 기술인데, AR에 얼굴인식을 넣은 경우는 수년 전에 발표된 적이 있지만 거기에 인증까지 덧붙인 경우는 없다. (뭐, 당연한 전제는 '내가 알기로는' 이겠지만) 특히 얼굴인증은 변수가 많은 영상처리의 한계 때문에 여러가지 제약 - 이를테면, 설정된 조명과 배경 하의 정면얼굴 - 이 따르는데, 그러자면 AR의 장점과 여러가지로 상충되는 것이다.

뭐 VR이든 AR이든, MR하는 사람들이 괜히 tag기반의 영상처리에 매달려 있는 게 아니라는 거다. 그나저나 이 회사에서 이렇게까지 구라영상을 뿌리면서 매달리는 걸 보면 모바일과 AR의 접목이 이제 점차 현실의 업계에 자리잡고 있다는 생각은 들어 기대는 된다.

왜 글을 쓰면 며칠 내로 업데이트를 해야만 하는 상황이 되는 걸까? -_-;;




Metal Detecting using iPhone digital compass
... 아 그리고 지자기 센서 이야기가 나와서 말인데, 지자기 센서를 금속탐지기로 이용할 생각을 한 사람도 여럿 등장한 모양이다. 정말 기발하다. 심지어 그걸 이용해서 iPhone을 마술도구("동전이 어느 쪽에 있는지 맞춥니다!")로 탈바꿈 시킨 사람도 있다. =_=;; 이런 게 가능하다는 것 자체가 지자기 센서의 단점을 드러내는 사실이지만, 그래도 훌륭한 발상의 전환이다. 짝짝짝.

... 처음부터 스크랩만 한다고 했잖아요... ㅠ_ㅠ


Posted by Stan1ey

댓글을 달아주세요:: 네티켓은 기본, 스팸은 사절

  1. 영현
    2009.07.26 09:59
    댓글 주소 수정/삭제 댓글
    네.네. 제 예상에 딱 맞는 타이밍에 포스팅을 해주셨어요 ^^
    (클량에서 새소식보고는 바로 달려왔습죠;;)
    • 2009.07.26 21:40 신고
      댓글 주소 수정/삭제
      거기 새소식란에 올라온 동영상 추가했습니다. 클리앙에서는 iPhone OS 3.1 나오면 출시한다고 하던데, 그게 가능할지는 잘 모르겠네요...
  2. SJ
    2009.08.18 10:39
    댓글 주소 수정/삭제 댓글
    재밌네요. AR 쉬운일이 아닌 줄 알지만, 저렇게 재미있게 사용된다면, 멋지겠는데요~
    • 2009.08.20 19:09
      댓글 주소 수정/삭제
      그렇죠? 이런 어플들이 실제로 상용화된 게 저도 잘 믿어지지 않고, 한편으로는 또 시장의 반응이 데면데면한 것이 좀 섭섭하고 그렇습니다. 한두번 겪는 일도 아닌데 말이죠. ^^;

Google Voice

2009. 3. 20. 22:25
Google Voice

얼마 전에 Google Voice라는, 무시무시한 이름(개인적인 느낌 ;ㅁ; )의 서비스가 소리소문없이 서비스를 개시했다. 뭐 사실 그동안에도 Google 411같은 전화망 대응 서비스도 있었고 iPhone 어플로 음성검색 기능을 넣기도 했지만, 우주정복을 꿈꾸는 구글의 Google Voice라는 서비스라니!!! z(T^T)s

이 서비스는 전화 사용자를 온라인과 연결시켜 주는 걸 목표로 하는 것 같은데, 사실은 우리나라에서는 벌써 각 통신사 웹사이트(및 고객센터나 연결된 700 서비스 등등)를 통해서 가능했던 벨소리 기능, 문자 관리 기능, 스팸 차단 기능, 114(411) 문의 기능 등등을 웹사이트에 통합해 놓은 것이다. 요컨대 우리나라 전화망의 사업구조라면 꽤 짭짤한 대목이기 때문에, 구글에게 내어줄 일이 없는 채널을 차지하겠다는 거다.

아직은 일부 휴대폰(안드로이드 폰과 몇 모델이 더 있는 듯?)에 대해서만 가능하다고 하는데, 이게 앞으로 얼마나 더 파급이 될런지는 잘 모르겠다. 아무래도 개인적인 내용들이다보니 다른 구글 검색과 연동되기도 어려워 보이고...

Google Voice: Features

그럼에도 불구하고 이 서비스에서 눈에 띄는 부분은, 음성사서함에 녹음된 내용을 웹에서 조회할 수 있게 해주면서 무려 음성인식 transcript 를 제공한다는 거다! 10년전쯤에 음성기술을 웹에 연결시키면서 "음성게시판"이라는 것을 구현하는 팀과 일해본 적이 있는데, 음성게시판의 황당한 점은 웹에 게시물 목록이 나오지만 게시시간과 게시자 외에는 도대체 그 내용을 짐작할 수 있는 방법이 없다는 거였다. 녹음시간은 지나치게 짧아서 다 똑같았고, 휴대폰으로부터 위치정보를 받는 것도 현실적으로 어려운 일이었고, 파형으로 짐작하게 하자는 것도 당시 구현했던 용도에는 맞지 않았고...

그 당시+우리말 인식 수준으로는 "음성인식해서 보여주면 안 될까요?"라는 건 단박에 "기술적으로 불가능"하다고 판정받는 아이디어였건만, 어느 새 이 정도까지 가능해진 모양이다. 그때나 지금이나 음성인식이 완벽한 건 아니지만, 그래도 최대한 열심히 해서 오류가 있더라도 보여준다면, 어느 정도 사용성 향상은 기대할 수 있을 듯 하다. ... 물론 그 다음부터 나올 사용자들의 "잘못 인식하네" 반응을 생각하면 조심스러울 수 밖에 없겠지만.

이제 우리말 음성게시판도 구글한테 기대할 수 밖에 없는 건가... -_-a
Posted by Stan1ey

댓글을 달아주세요:: 네티켓은 기본, 스팸은 사절

미국 T-Mobile에서 출시한 G1폰에, 온라인 업데이트를 통해서 음성인식 기능이 포함된다고 한다. 이 소식은 포털에만 올라와 있고 T-Mobile 공식 웹사이트에서는 찾아볼 수가 없는데, 그래서 구체적으로 어떤 종류의 음성명령이 가능한 건지는 알아볼 수가 없다. 일전에 나왔던 아이폰에서의 구글 음성인식 - 음성검색, 주소록검색, 주소검색 정도 - 이 그대로 안드로이드 버전으로 포팅되었을 가능성이 가장 높겠지만.

안드로이드는 초기부터 음성인식에 대한 준비는 다 되어있는 듯한 루머(?)가 많이 돌았는데, 만일 OS 수준에서 음성인식을 제대로 지원해준다면 이상적인 VUI를 실현할 가능성은 별도의 어플을 구매해야 하는 아이폰보다 훨씬 높다고 생각한다. 무엇보다 어플이기 때문에 접근할 수 없는 기반기능까지도 접근할 수 있을테니까. 이름을 부르면 화면에 전원이 들어오는 폰이 나온다면 얼마나 멋질까. :)

뭐 어쨋든, 사진도 뭣도 하나 없으니 그건 나중에 출시되면 어떻게든 알아보도록 하고, 일단 모처럼 음성 UI 소식이 올라와서 반가운 마음에 끄적.
Posted by Stan1ey

댓글을 달아주세요:: 네티켓은 기본, 스팸은 사절

  1. 2009.02.17 21:58 신고
    댓글 주소 수정/삭제 댓글
    혹시 오페라라는 웹 브라우저를 아시나요? 오페라에는 음성인식 명령 기능을 쓸 수 있어서 한 번 사용해봤는데, 이거 사람 많은 장소에서는 쓸만한 것이 아니더군요. ^^ 인식률도 좀 떨어져서 말도 잘 안듣고. 인식률도 인식률이지만 말하자면 좀 창피하달까요? 음성인식은 한 30년 전부터 된다고 했다고 하는데, 요근래 수준은 어떤지 궁금합니다.
    • 2009.02.17 22:59
      댓글 주소 수정/삭제
      인식률이나 환경소음은 이제 좋은 솔루션을 찾을 수 있는 수준이 된 것 같습니다. 대용량 DB와 빠른 처리속도가 필요한 화자독립형 인식기는 서버기반으로 전화서비스(IVR)로 많이 들어가고 있고요, PC에 설치되는 버전은 화자종속형으로 사전 학습과정은 필요하지만 인식율은 만족할만한 수준인 것 같아요. 모바일 기기에 포함된 내장형 버전들은 아직 좀 그렇지만, 그래도 모바일 기기의 제한적인 기능과 인식대상을 고려하면 못쓸 정도는 아니고요.

      단지 여전히 주변의 '음성 잡음'에는 취약하고, 무엇보다 음성의 특성상 (지적하셨다시피) 개인공간을 파괴한다는 태생적/근본적인 단점은 없어지지 않고 있습니다. 여러 개의 마이크를 이용해서 특정 지점의 음성만 잡아낸다든가, 접촉형 마이크를 이용해서 다른 사람이 들을 수 없는 속삭임을 인식한다든가 하는 사례가 나와있긴 하지만, 아직 대중적인 용도로 사용되는 상용화 사례는 나오지 않고 있네요. ^^*

      Voice UI 관점에서도, 아직 기존의 WIMP-GUI와 병용하는 것보다도 VUI에 맞는 GUI/AUI를 개발해서 성공사례를 만드는 게 시급하다고 봅니다. 너무 컴퓨터스럽지 않고, 동시에 이전의 Agent 기반 UI를 상기시키지 않을 수 있는 방법으로요.

      하지만 문제는... 역시 위의 사례는 영어에만 해당이 되고, 한국어 인식기는 '상대적으로' 갈 길이 좀 먼데다가, 그 길을 갈 사람도 그닥 없다는 점입니다. (한국어 시장은 좁아서 투자가치가 너무 적어요... ㅠ_ㅠ )
    • 2009.02.17 23:02
      댓글 주소 수정/삭제
      참, 오페라는 물론 알죠. :> 음성인식 플러그인은 안 써봤지만, 웹브라우저를 음성으로 조작하는 것은 해봤습니다. 사용후의 감상은 youngjr님과 같습니다. :-/
  2. htruth
    2009.02.18 08:35
    댓글 주소 수정/삭제 댓글
    음성인식은 보조적으로 특정 상황에 사용될때 매우 유용한듯 해요.(구태의연한 발언이네요.)
    요즘들어 드는 생각은 인식기의 성능이 100% 나오는것은 근본적으로 불가능한 것 아닐까 해요. 사람들과 이야기하는 세월이 길어질수록 내용이 예측불가능한 것들이 포함될 수록 저 자신의 인식기 성능도 떨어지네요.
    인식기는 이미 100% 성능인데 화자인 사람들의 입이 75% 정도의 성공율로 발언하는건 아닐까요?
    (녹음해서 같은 소스로 돌려보면 나오는 성능이 진정한 인식기의 성능?)
    두번째로는 역시.. 언어의 특성상 인터페이스 도구로 매우 잘 맞으면서도 매우 어렵다는 생각이 들고요. 회의하면서 아주 간단한 지시를 하고 듣고 수행하고.. 하는 일이 인식율이 떨어지는건 아닌데 서로 피곤하다는 생각이 부쩍 드네요. 기계야 피곤할 일이 없겠지만, 입으로 명령을 내리는 사람은 뇌의 작동 원리에 의해서 결국은 그냥 손으로 하는 편에 비해서 어느정도 부하가 걸리겠죠.
    언어는 지능의 가장 고도화된 표식이잖아요.
    당연하게 입밖으로 소리를 꺼내면 주변에 들린다는 문제도 있겠죠. 주변에 들려도 상관없는 명령보다 상관있는 명령들이 제법 많네요. 주소록, 사전, 검색어 입력과 관련해 생각해봐도 내가 그런 단어를 찾고 있다는것 자체가 그다지 자랑스럽지는 않은 경우가 많아서.. -.-
    궁극의 AUI 어플리케이션은 무엇일까요?
    • 2009.02.18 18:39
      댓글 주소 수정/삭제
      구구절절이 맞는 (그리고 왠지 익숙한?) 말씀입니다. :D

      아시다시피 인간의 인식성능이 70~80%인 걸 생각해 보면, 지금 기계는 인간대비 100% 이상의 성능을 보이고 있어요. 인간의 발화성공률을 이야기하는 건 뭔가 인식률 측정 자체를 무의미하게 만들 수 있지만, 분명히 인식기 성능 자체는 (토박이 영어 기준) 이미 더이상 올라갈 곳도 올라갈 필요도 없어 보입니다.

      음성언어가 기계에게로의 입력(혹은 심지어 출력)으로 적합한가..에 대해서는 아래 기사에서 비슷한 언급을 한 적이 있고요, 말씀하신 내용들을 고민하던 끝에 처한 상황이 "식상한 application 말고는 딱이 적용하기가 어렵다"는 거 였습니다. 물론 Speech UI와 Voice UI의 범위 차이를 생각해 보면 가능성은 조금 더 넓어지기는 하죠. ^_^*

      (기사: http://portal.acm.org/citation.cfm?id=348990 )

      혹시 필요하다면, 당시 팀장님(아시죠?)께 Hybrid VUI, STIC(VUI응용기준), 그리고 VUI Design Guideline 관련 파일을 요청해 보세요.
  3. htruth
    2009.02.19 08:17
    댓글 주소 수정/삭제 댓글
    이런 반응 그립습니다. 무지한 코멘트에 이런 레퍼런스와 정확한 이해를 가지고 대응해주는것.
    그래도 요즘은 늘 긴장감을 주는 후배가 팀원으로 들어와 살만은 합니다. ^^
    • 2009.02.19 22:49
      댓글 주소 수정/삭제
      아마 거기가 세계에서 가장 머리좋은 사람들이 많이 모여있는 기업(학교/연구소는 제외해야겠죠?)일텐데요. 잘 찾아보면 좋은 협력자를 구할 수 있을 겁니다.

      그리고 제 경험상으로도, 긴장감을 주는 후배가 있다는 건 정말 큰 도움이 되더군요. ;-> 그 후배한테도 안부 전해 주세요.

본의 아니게 시리즈물이 되어 버렸다. ㅡ_ㅡa;;

PC World에서, 며칠 전에 언급했던 G1 폰에서의 15개 주요 어플리케이션에 대해서 소개했다. 알고보니 구글에도 소프트웨어를 구입할 수 있는 서비스(Android Market)가 있어서 현재 50개의 어플을 다운로드 받을 수 있고, 1년간은 공짜라고 하니 어쩌면 전에 지적했던 것과 iPhone에 비한 단점은 좀더 적을지도 모르겠다. 게다가 공짜 어플이라고 해도, 이 어플들이 예전에 Android 어플개발 컨테스트를 위해서 전세계 개발자들이 열심히 만들어 제출한 거라는 걸 생각해 보면 그 품질도 Apple AppStore의 공짜 어플과는 격차가 있을지도.

링크된 기사에서 소개하고 있는 어플 중에도 HTI 어플이라고 할 수 있는 게 꽤 있는데, 이를테면 홍채인식으로 주인을 확인한다던가 (근데 이게 모바일 폰 카메라의 해상도로 제대로 가능한 건가? -_-a;; ), 바코드를 영상인식해서 비교쇼핑과 연결한다든가 (clever.. 가게에선 싫어하겠다 -_- ) 하는 서비스가 그렇다. 자신의 GPS 위치정보나 심지어 친구/주변사람들의 정보를 이용한 LBS 서비스들은 당연히 다양하게 제공되고 있고. (왠지 LBS가 벌써 유행 지난 것처럼 말하고 있잖아 -_-a;; )

Google Android Apps - BioWallet with Iris Verification

BioWallet (홍채인증)

Google Android Apps - ShopSavvy with Barcode Recognition

ShopSavvy (바코드인식)


여전히 멀티터치나 가속도센서를 잘 쓰고 있지 않은 건 좀 의아하기도 한 부분이지만, 어쨌든 구글이 Android Market을 애플의 AppStore 만큼 활성화시킬 수 있을지 기대가 된다. OS를 낱낱이 공개한만큼 더 강력한 어플이 나타나줄 것 같기도 하고, 반대로 너무 공개해 버려서 인터넷 그 자체처럼 그냥 그대로의 쓰레기장이 될까봐 걱정되기도 하고. 자세한 건 Android Market을 좀더 자세히 보고 moderation 방식을 좀 알아봐야 하겠으나... 쉽게 알아볼 수 있는 방법도 없으니 그냥 접기로 했다. ㅋㅎㅎ
Posted by Stan1ey

댓글을 달아주세요:: 네티켓은 기본, 스팸은 사절

  1. 2008.10.22 16:26
    댓글 주소 수정/삭제 댓글
    구글이 Android OS의 소스코드를 어제 공개했단다. 이제 그냥 리눅스 커널만 접근할 수 있는 게 아니라, 아예 모든 걸 바꿔서 재업로드할 수도 있을 듯. IBM Compatibles와 Customized Linux의 조합이 다시 떠오르는 건가... 이미 그 모델의 단점도 장점만큼이나 잘 알려져 있고, 이제 시대가 바뀌어 프로그램 좀 바꾸는 것 정도는 꽤 쉬워졌는데... 좀 불안하다. 자유도 좋고 권리도 좋지만 어느 정도 제한은 둬야 하는 거 아닌가 구글... Do not evil 한다고 하지만 착한 사람에게 만만한 세상은 또 아니라구.... ㅡ_ㅡ;;;
  2. 씨피
    2008.10.23 19:11
    댓글 주소 수정/삭제 댓글
    아이폰 vs 구글폰의 구도가 강해지네요...
    이미 한발 앞선 아이폰을 쫓아가는 구글폰의 입장에서 더이상 떨어지지 않겠어~ 라고 느껴지는군요 ^^
    이걸 보면서 스마트폰 시장이 VUI를 부흥시킬수 있을까? 하고 딴 생각을 하는 제 모습을 바라봅니다 ㅡ,ㅡ;
    서로 페어플레이(?)하면서 발전했으면 좋겠어요 ㅎㅎ
    • 2008.10.24 00:01
      댓글 주소 수정/삭제
      페어플레이고 뭐고 그냥 치고받고 싸울 정도의 가치가 있는 시장이 되면 더 좋을 것 같긴 해요. 솔직히.. ㅎㅎ

HTC G1, powered by Google Android
얼마 전 Google의 휴대폰 OS인 Android를 탑재한 첫번째 휴대폰이 공개됐다. 이 휴대폰 - G1 이라는 모델 - 을 만든 HTC 라는 회사에선 그만그만한 풀터치 폰을 만들어서 홍보를 좀 하는가 했더니, 이번에 발빠르게 Android를 도입함으로써 위험을 감수할 수 있는 작은 회사의 장점을 살리고 브랜드 가치가 떨어지는 단점을 보완하는 모범적인 사례를 보여주고 있다.

이 휴대폰을 출시하는 T Mobile 회사의 웹사이트에서는 이 새로운 휴대폰을 미리 체험해 볼 수 있는 플래시 페이지가 있는데, 독특하게 열리는 하드웨어 구조도 눈을 끌지만 "Emulator" 코너에서 직접 써볼 수 있는 Android UI의 첫 모습이 무엇보다 인상 깊었다. 무엇보다 구글에서 만든 휴대폰 UI 아닌가! (구글 빠돌이 -_-a; )

HTC G1 Emulator, powered by Google Android OSHTC G1 Emulator, powered by Google Android OSHTC G1 Emulator, powered by Google Android OS

모두가 기대했던 대로, 이 폰은 구글의 온갖 온라인 어플리케이션들과 멋지게 어울린다. 주소록을 포함해서 Gmail 서비스를 모두 사용하고, 캘린더도 실시간 공유하고, 구글 맵과도 연동이 된다. Apple의 iPhone을 이용해도 회사의 Exchange Server에 연결하거나 Mobile Me 서비스를 이용해서 같은 경험을 할 수 있지만, 애플이 비싼 폰을 사고 비싼 서비스(Exchange Server도 비싸고, Mobile Me도 다른 무료 서비스와 비교하면 성능대비 비싸다)에 연결되어 있어야 한다는 불편함이 있다. 그에 비해서 구글은 내내 무료로 제공하던 서비스를 역시 많은 부분이 공개되어 있는 OS를 통해서 제공하는 거다. 물론 그 속셈이야 더 많은, 게다가 모바일 장치로부터의 정보를 수집함으로써 좀더 많은 개인정보를 바탕으로 광고수입을 올릴 수 있다는 것이겠지만, 그게 "더 많은 광고"가 아닌 "더 필요함직한 광고"라면 사실 소비자 입장에서도 나쁠 게 없다.

구글 블로그에는 Android를 만든 사람들이 Android의 기능을 짤막하게 나눠서 설명하는 인터뷰 형식의 동영상이 올라와 있다. 예전부터 담당 엔지니어가 기능을 소개하는 방식을 쓰더니만, 지난 번 Chrome 웹브라우저 때부터는 아예 떼로 나와서 맡은 분야를 설명하는 데에 맛을 들인 모양이다.



구글 블로그에는 이 외에도 많은 동영상이 올라와 있어서, 혹시 아직 작동모습을 안 봤다면 한번 가볼만하다. 유독 눈에 띄는 것은 문자를 복사하고 붙여넣는 Copy & Paste 기능이 있어서, 이 휴대폰을 소개하는 블로그마다 "아이폰에서 안 되는 기능이 들어갔다"고 부각시키고 있다는 거다. 흠... 물론 아이폰이 멀티터치를 비롯해서 탄탄하고 다양한 UI scheme을 가지고 있으면서도 복사기능을 왜 안 넣는지가 답답하긴 하지만 (그냥 문자입력 영역에서 두 손가락으로 앞뒤 정하면 복사되게 한다거나, Microsoft Windows Mobile에서 사용하는 것처럼 좀 오래 누르고 있으면 옵션을 띄우거나 하면 되지 않냔 말이다), 이번에 Android에 들어간 것을 보면 사실 그것도 간단하긴 않았구나 싶은 생각이 든다.

구글에서 채택한 방법은 바로 이 '오래 누르기' 인데, 문제는 설명에서만 빠진 건지는 모르겠지만 눌려진 입력칸에 들어간 모든 문자열을 한꺼번에 복사하거나 잘라내서 다른 입력칸에 (역시 오래 눌러서) 복사할 수 있게 되어 있는 듯 하다. 결국 같은 내용을 여기 저기에 복사할 때에 유용할 것 같기는 한데, 사실 복사/붙여넣기 작업이 유용한 건 이게 아니지 않나? 사실은 메모장에서 문장의 앞뒤 순서를 바꾼다든가 하고 싶을 때 가장 아쉬운 기능이지, 아이디나 이메일 주소를 여기저기 복사해 넣거나 할 일은 없지 않나 싶은데 말이지. -_-a;;;

아무래도 범용의 소프트웨어로서 만들어진 물건이니만큼 멀티터치를 전제한다든가 하는 건 어려웠던 것 같다. 그래도 구글 맵을 사용하면서 화면을 가리고 있는 확대/축소 아이콘을 눌러 단계적으로 확대/축소 하는 모습은 좀 안습이라는 생각이다. 그래도, 위 동영상을 봐서는 잘 드러나지 않지만, 개발자 대상의 컨퍼런스에서 소개되었다는 발표내용을 보면 가속도 센서는 적용되는 것 같다.
 


그런데 맨 위에 링크한 에뮬레이터를 봐도 그 다음의 일련의 동영상 소개를 봐도, 이 가속도 센서를 이용해서 자동으로 화면을 돌려주는 기능은 보이지 않는다. 멀티터치  "pinch" 기능은 물론이고 화면 돌리기도 워낙 여기저기에서 했던 연구가 있으니 특허권의 문제는 아닐텐데, 급하게 새로운 OS를 완성하는 데 급해서 첫번째 폰부터 그런 '부가 기능'을 넣을 시간은 없었던 걸까.

어떤 이유였던 간에, Google Apps와의 강력한 연결과 Copy & Paste 지원에도 불구하고 훨씬 전에 발표된 iPhone에 비교해서도 더 나아보이지는 않는 물건에 조금 실망하는 중이다. 무엇보다 iPhone에는 그런 부족한 부분을 AppStore에서 구입할 수 있는 소프트웨어로 보완할 수 있다는, 구글에 (아직) 없는 강력한 장점이 있기도 하고.



계속 미루다가 얼마 만에 쓴거냐... 이제 일이 점점 손에 (혹은 귀에) 익는지 처음 만큼 여유가 없다. 그러면서도 갈 길은 점점 멀어져 가는 것 같으니 희한한 노릇이라고 할 수 밖에. ;ㅁ;
Posted by Stan1ey

댓글을 달아주세요:: 네티켓은 기본, 스팸은 사절

  1. 대곤
    2008.10.17 10:18
    댓글 주소 수정/삭제 댓글
    그게 "더 많은 광고"가 아닌 "더 필요함직한 광고"라면 사실 소비자 입장에서도 나쁠 게 없다. > 진정한 구글빠로 임명합니다.

    그 곳의 일과 생활에 잘 적응해 나가시는 것 같아서 저도 왠지 기분이 좋습니다.
    • 2008.10.17 17:04
      댓글 주소 수정/삭제
      이미 구글빠 외에 공인 애플빠 소니빠 엘지빠 자격증도 보유하고 있습니다. 쿠헐헐. (S사 출신 맞냐 ;ㅁ; )

      사실은 잘 지내는 척이라도 하려고 무지 애쓰는 중이랍니다. 그닥 쉽지는 않아요. -_ㅜ
  2. 2008.10.17 16:39
    댓글 주소 수정/삭제 댓글
    우리나라에선 언제쯤 볼까요.. sk,ktf,lgt를 폭파시키는 그날일까요?ㅠㅠ
    • 2008.10.17 17:07
      댓글 주소 수정/삭제
      이런이런... 통신사는 사실 크게 잘못하고 있는 게 없습니다. 자유경쟁이 불가능한 경직된 체제가 더 큰 문제지요. 아이폰 도입 건도 그렇고, 내부에선 무척 많은 노력을 하고 있다고 들었습니다. 언젠가는 장벽이 뚫리고 좋은 소식이 들리겠죠. (화이팅!)
  3. htruth
    2008.10.21 11:05
    댓글 주소 수정/삭제 댓글
    구글빠는 애플빠보다는 받아들일만 합니다. ㅎㅎㅎ
    • 2008.10.21 17:23
      댓글 주소 수정/삭제
      어째서 아이폰 글을 올리자마자 이런 댓글이 달리는 건데... OTL... ㅋㅋㅋ 오늘 갑자기 자주 등장해 주시고. 알찬 하루! :)


BLOG main image
by Stan1ey

카테고리

분류 전체보기 (347)
HTI in General (45)
User eXperience (11)
Voice UI (50)
Vision UI (14)
Gesture UI (25)
Tangible UI (28)
Robot UI (14)
Public UI (9)
Virtuality & Fun (56)
Visual Language (15)
sCRAP (70)

글 보관함



www.flickr.com
This is a Flickr badge showing public photos and videos from Stan1ey. Make your own badge here.