iPhone 5 Wishlist

2011.10.04 06:13
애플의 "Let's talk iPhone" 행사가 코앞으로 다가왔다. 매번 새로운 OS 버전이 발표될 때마다 내심 혁신에 대한 기대를 하게 하는 아이폰이지만, 이제 모바일 상황에서 쓸 수 있는 센서들은 대충 (2개 빼고) 다 들어갔고 MobileMe에서 환골탈태한 iCloud 서비스의 새로운 윤곽도 많이 알려진 터라 뭐 또 새로운 게 나올까 싶긴 하다. 요컨대 출시하기 전부터 새로운 기능들이 식상해지고 있는 희한한 형국인데, 주요 업데이트인 만큼 큰 변화들이 많아 그 와중에 별로 주목을 받지 못하고 있는 소소하지만(?) 재미있는 기능들이 많다.

실제 발표가 되기 직전이니만큼 조금 무모한 포스팅이지만, 그래도 그런 기능들에 개인적인 소망-_-을 담아보자면 이렇다.


Magic Home Button

iPhone 5 CAD Drawing - Wider Home Button
아이폰의 홈버튼이 커지고, 제스처 기능이 들어간다는 건 이제 기정사실화 되어있는 것같다. 이 이야기는 소문만 있는 게 아니라 이미 아이폰 케이스를 만드는 업체를 통해서 도면까지 나왔는데, 결국 어떤 동작이 사용되느냐에 대해서는 어째 그다지 구체적인 소리가 없다. 동작이라는 힌트를 바탕으로 멋대로 추측성 "소설"을 써보자면 (요새 이게 유행이라면서 -_- ), 아마도 애플은 이미 Mighty Mouse와 Magic Mouse에서 보여줬던 물리 버튼과 터치센서의 조합을 보여주지 않을까 싶다.

Touch Sensor Layout inside Apple's Mighty Mouse

처음 나왔던 "마이티마우스"는 멀티터치 동작을 지원하는 매직마우스와 달리 (저렴하고) 단순한 기술의 조합이었는데, 하나의 플라스틱 표면에서 어느 부위에 손가락이 닿아있는냐에 따라 왼쪽 클릭과 오른쪽 클릭을 구분하고, 몸통 전체가 통채로 버튼 역할을 함으로써 물리적인 입력을 가능하게 했다. (왼쪽 그림을 보면 좌우로 한쌍의 터치센서가 펼쳐져 있음을 볼 수 있다.)

그리고 유출된 아이폰5의 넓다란 홈버튼에도, 딱 손가락 3개 폭만큼의 터치센서를 올릴 수 있어 보인다. 3개의 영역만 구분되면 좌우로 쓸기(swipe) 동작은 인식할 수 있을테고, 그렇다면 이런 식의 활용이 가능하지 않을까? 내멋대로 이름하여 유치찬란한 "매직홈버튼"이다. ㅎㅎ


Magic Home Button for iPhone 5
요컨대 기본적으로 홈버튼 위의 세 영역 중 한 곳에 손가락을 얹고 누르면, 그 위치에 따라 다른 동작을 하는 조작이 가능할 것이다. 여기에 추가로 버튼을 누르기 전이나 후에는 좌우쓸기 동작을 이용해서 몇가지 변용을 추가할 수 있겠다.

  • 홈버튼을 눌러서 화면을 켜고 홈스크린이 나오면, 홈버튼 자체에서 "slide to unlock" 동작을 할 수 있다.
  • 멀티태스킹을 지원하는 상황에서 버튼에 손을 올리면, 오래전부터 소문만 많았던 Mac OS의 Expose 같은 화면을 보여주다가 좌우쓸기로 불러올 기능을 선택할 수 있다.
  • Springboard나 웹브라우저 등 여러 페이지를 앞뒤로 넘길 수 있는 상황에서는, 이 좌우쓸기 동작이 페이지 넘김과 연동될 것이다.
  • 홈버튼을 클릭해서 자주 쓰는 기능을 구동하는 기능은, 버튼의 어느 영역에 손가락을 올리고 눌렀느냐에 따라 다르게 수행될 수 있다. 한번 눌러 홈스크린을 띄우거나 첫페이지/검색페이지로 가는 기능은 어떨지 몰라도, 두번 혹은 세번 누르는 기능은 이로 인해서 몇 배로 다양한 기능을 할 수 있게 된다.
... 아님 말고.


Voice UI
Voice UI Setting for iOS5, partnered with Nuance
iOS5에서 음성 UI를 본격적으로 지원한다는 것 또한 사실상 확정된 것같다. 애플은 이미 MacOS와 iOS에 구현된 VoiceOver 기능을 통해서 검증된, 쓸만한 음성합성 엔진을 갖고 있다. 하지만 음성인식 분야에서는 그닥 눈에 띄는 활동이 없었는데, 지난 몇달간 그 분야의 일인자라고 할 수 있는 Nuance사와 온갖 소문이 다 났다. Apple와 Nuance는 이전에도 협력관계에 있기는 했지만, 한때는 애플이 아예 뉘앙스를 사버린다는 소문도 있다가, 결국은 그냥 어느 정도 선에서 합의한 모양이다. (사실 애플이 실제로 뉘앙스를 가져가 버렸다면, 뉘앙스 외에는 구글의 Android를 쓰는 것 말고 딱히 음성인식 대안이 없는 휴대폰 제조사들로선 청천벽력같은 상황이 될 수도 있었다. -- 뭐 VUI에 대해서 신경이나 쓴다면 말이지만.)

어쨋든 저 앞의 설정화면에 드러난 대로라면, 관련된 옵션이 새로 최소한 3개는 들어가는 것 같다. 우선 가장 흥미있는 것은, Android에서 구현되어 몇번 언급했던 가상 키보드의 "음성 버튼"이다. "Mic on space key"라고 묘사된 저 기능은 왠지 스페이스(공백) 키 자체에 마이크를 표시하고 이를 길게 누르거나, 심지어 누르고 있는 동안(push-to-talk; PTT) 음성인식을 할 수 있도록 할 것같다.

출시할 때 이름이 바뀌긴 할테지만, 그 외에 "Nuance Dictation"이나 "Nuance Long Endpoint Detection"이라는 옵션들은 감히 "받아쓰기(dictation)"를 언급했다는 게 특히나 놀랍다. 사실 이미 구글은 물론 우리나라의 인터넷 포털까지 자유발화를 통한 음성검색을 지원하고 있는 마당에, 사실 더이상 빼기도 뭐 했을게다. 남은 건 과연 이 음성인식을 어느 범위로 지원하냐는 건데, 과연 아이폰 내의 기능으로 제한될지, 음성을 통한 인터넷 검색까지 지원할지, 아니면 기왕 Dictation을 넣은 김에 새로 들어가는 iMessage나 이메일의 음성 받아쓰기를 포함시킬지, 혹은 심지어 모든 키보드 입력 상황에서 음성입력의 대안을 제공하는 소위 "Hybrid VUI"까지 구현할지 말이다. 아니 기왕 꿈을 꾸는 김에, 일전에 인수한 대화형 검색엔진 Siri의 기능을 몽땅 아이폰에 넣어서 제대로 된 대화(nested adjacent pair 등을 포함한) 로 대부분의 PIMS를 이용할 수 있도록 한다면? ㅎㅎ (물론 보통 이런 상황에서는, 애플은 보수적인 접근을 택해서 나를 실망시키곤 한다.)

끝으로 "Long EPD"라는 옵션도 아마 PTT 기능과 관련해서, 버튼을 누르고 떼는 순간과 음성발화에 공백이 있는 순간을 비교해서 음성인식에 유리한 발화를 선택하는 기능이 아닐까 싶다. 실제로 그렇게 된다면 '그런데 그 일이 정말 일어났습니다!' 라는 느낌일 듯 하지만.

한가지 확실한 것은, 만일 이 기능들이 출시되는 iPhone 5에 그대로 들어간다면 더이상 장애인 접근성에 포함되지 않을 거라는 거다. 그렇게 된다면 -- 안드로이드에 이어 아이폰에까지 주요 사용방식으로 음성이 적용된다면 -- Voice UI도 사용자 인터페이스의 주류에 들어갔다고 말할 수 있겠지.

... 하지만 역시, 그런 일이 일어날까나. -_-a;;


Assistive Touch
iOS에서의 장애인 접근성 기능 중에도 추가되는 기능이 있다. 이전 버전에서는 다이얼을 돌리는 동작을 하면 그 상대적인 회전 각도에 따라 다른 기능을 실행시키는 Rotor라는 기능이 있었는데, 이 방식은 상하좌우가 비슷하게 생긴 iPhone이나 iPad에서는 특히 전맹인(全盲人)을 고려할 때 꽤 괜찮은 접근이었다고 생각한다. 그런데, 이번 방식은 반대로 장치의 방향을 안다는 전제 하에, 특정 위치에 손가락을 댄 후에 화면 중앙에서 상하좌우의 미리 설정한 방향으로 손가락을 움직이면 해당 기능을 선택할 수 있다.

Assistive Touch in iOS5



위 동영상에서 볼 수 있듯이, 손가락을 움직여서 구동시킬 수 있는 기능 중에는 멀티터치 기능도 있어서 여러 손가락을 자유롭게 움직일 수 없는 지체장애인의 경우에도 멀티터치 동작명령을 쓸 수 있게 해준다.

Assistive Touch in iOS5 - Custom gesture
유출된 왼쪽의 설정화면에 따르면, 이 기능을 쓰기 위해서 처음 터치해야 하는 지점(adaptive accessory?)은 미리 설정된 터치 제스처(가로 지그재그)로 활성화시킬 수도 있는 것같다. 이 동작은 사용자가 바꿀 수도 있는데, 어쩌면 그 동작이 다음에 뜨는 pie menu의 방향성을 결정할 수도 있겠다. Pie menu는 최대 8개까지의 기능을 설정할 수 있는데, 이런 방향 버튼의 조합은 다양한 장애인 보조기술(assistive technology)에서 지원하고 있는 입력으로 접근가능한 웹사이트 UI 설계 지침에도 들어가는 대목이기도 하다.

사실 장애로 인한 니즈가 없는 일반 사용자의 경우에도, 이 방식은 주머니 속에 손을 넣은 채 주요 기능을 사용하게 해줄 수 있을 것같다. 어쩌면 Universal Design의 개념과 맞물려 좋은 사례가 되어줄지도...?


Deep touch
설마 하니 아닐 거라고 생각하긴 하지만 -_-, 어쩌면 이번 아이폰5에는 터치 이전에 손가락의 감지를 느낄 수 있거나, 터치 이후에 압력 혹은 클릭을 느낄 수 있는 방법이 들어가지 않을까. 화면 자체는 아니더라도, 앞서 말한 방식의 터치방식의 홈버튼이 구현된다면 터치와 클릭/압력을 조합해서 제한된 범위나마 딥터치가 구현될지도 모르겠다.

Deep Touch

Apple Mighty Mouse

앞에서 적었듯이 "마이티마우스"의 기술이 아이폰의 홈버튼에 들어간다면, 사실 누군가는 그 제품에서 별로 빛을 보지 못한, 하지만 사실은 꽤 중요한 기술을 재검토했을지 모른다. 바로 마이티마우스의 양쪽에 있는 압력센서. 아이폰5의 홈버튼이 단순한 물리 스위치가 아니라 압력센서를 겸하는 것이라면 그것도 재미있는 딥터치 사례가 되겠다. 실제로 그 마이티마우스의 사례처럼, Expose 화면들의 축소 정도가 압력에 따라서 결정된다면 사용자는 화면을 완전히 전환하지 않고도, 자신이 필요로 하는 만큼만 정보를 훔쳐볼 수 있을 것이다. ... 하지만 다른 버튼도 아니고 홈버튼에 그런 불안한 아날로그 센서를 넣으리라는 기대는 나로서도 좀 무리. =_=

... 이러나 저러나, 역시 이건 그냥 개인적인 소망일 뿐이다.


NFC/RFiD
이게 언제부터 나오던 이야긴데 아직도 안 넣냐. -_-;; 루머에 따르면 애플에서는 아직 그 상품화 필요성을 못 느끼고 안 넣으려고 하는 것같지만, 이미 안드로이드 스마트폰에서는 이를 이용한 어플리케이션을 이용해서 아이폰과 차별화가 이루어지고 있고, 얼마전에는 Google Wallet이라는 서비스가 나오면서 이 방식이 아예 주류 통신채널 중 하나로 급부상하고 있다.

즉 이 대목에서 애플이 iOS에 NFC를 포함시키지 않는다면 안드로이드 기기와 비교될 수 밖에 없을테고, 따라서 그런 결정은 내리지 않을꺼라고 기대하고 있다. 애플 입장에서는 소위 "iTunes 생태계(eco-system)"에 다른 결제 방식이 끼어드는 것을 싫어하는 게 당연하다. 그래서 In-App 결제니 뭐니 만들면서 앱에서 직접 결제하려고 할 때마다 어떻게든 막아왔는데, 이제 와서 전자지갑이니 앱을 통한 인증이니 결제니 하면서 통제할 수 없는 돈의 흐름이 생기는 게 내키지는 않겠지.

... 그래도 이것만큼은, 이번에도 안 들어간다면 애플이 너무 욕심이 많은 거다.



여기까지. 사실 이런 예측... 혹은 제목에 적었듯이 희망사항들(wishlist)이 얼마나 애플의 의사결정권자들의 생각과 맞을지는 모른다. 저번에 그랬듯이 대박 틀릴 수도 있겠지. 단지 정식으로 공개되기 전까지는, 내 생각을 한번 정리해 보고 싶었다.

이건 그저, 후견지명의 오류에 빠지지 않으려는 애플 빠돌이의 몸부림일 뿐이다.
저작자 표시 비영리 변경 금지
신고
Posted by Stan1ey
(앞의 글에서 계속...이라지만 사실 앞글과는 별 상관이 없을지도 모르겠다;;)


이 글은 벌써 세번째인가 쓰는 글이다. 야심차게 적었다가 다음에 읽어보면 너무 무모한 내용이라고 생각해서 지우고, 블로그를 몇개월 방치했다가 다시 열어보고 써내려 가다가 다음에 읽어보면 또 지우고... 아무래도 자신이 없었나보다. 글 번호 순서로 보면 지난 2007년말에 쓰기 시작한 모양인데, 뭐 워낙 우유부단한 걸로 악명높은 놈이라지만 이건 좀 심했다고 본다. ㅎㅎ

어쨋든, 이젠 더 미룰 수 없을 것같은 상황이 됐다. 삼성은 갤럭시 노트라는 걸 발표했고, 아이폰5의 발표가 임박한 것같고, 아마존의 새 이북리더도 곧 나올 예정이다. 더 늦으면 뒷북이 될 것 같아서, 빈약한 논리와 어거지 주장을 그냥 그대로 적어 올리기로 했다. (제목도 이제는 좀 민망해졌지만, 그래도 밀린 숙제니 어쩔 수 없이 그대로...) 몇년을 말그대로 "썩혀온" Deep Touch 이야기다.


그래서 대뜸.

터치스크린의 최대 약점은 그 조작의 순간성에 있다.

PC 중심의 UI를 하던 UI/HCI/HTI 연구자들은 터치스크린을 보고 무척이나 당혹스러웠다. 지금 인터넷 상에서는 도대체 찾을 수가 없는 누군가의 글(아마도 Ben Shneiderman 할아버지일텐데, 이 분의 논문을 다 뒤지기도 귀찮고... 해서 통과)에서는, 터치스크린이 전통적인 사용자 인터페이스의 기본 개념인 "Point-and-Click"을 지킬 수 없게 한다고 지적한 적이 있었다. 즉 물리적인 버튼을 누르는 상황에서는 손가락으로 그 버튼을 만지는 단계와 눌러 실행시키는 단계가 분리되어 있고, PC의 전통적인 GUI에서는 그것이 point 단계와 click 단계로 구분되어 있는데, Touch UI에서는 point 단계없이 바로 click(tap) 단계로 가버리게 되면서 사용성 오류가 발생하고 있다는 것이다.

Mouse Pointers, Hand-shaped
GUI에 이미 익숙한 사용자들은 이런 손모양 포인터를 통해서 사용에 많은 도움을 받는다. 이런 포인터들은 마우스의 저편 가상세계에서, 손을 대신해서 가상의 물체를 만지고 이해하며, 사용 이전과 사용 중에는 선택한 기능에 대한 확신을 준다. 추가설명이 필요한 영역에 포인터를 올렸을 때 활성화되는 툴팁(tooltip)이나, 포인터에 반응해서 클릭할 수 있는 영역을 시각적으로 강조하는 롤오버(roll-over; hover) 등의 기법도 이런 사례이다.

그런데, iOS의 기본 UI 디자인 방식을 중심으로 표준화되어 버린 Touch UI에서는 이런 도움을 받을 수가 없다. 물론 페이지, 토글버튼, 슬라이더 등의 즉물성(physicality)을 살린 -- 드래그할 때 손가락을 따라 움직인다든가 -- 움직임이 도움이 되긴 하지만, 기존에 손→마우스→포인터→GUI 설계에서 제공해주던 만큼 도움이 되지는 않는다. 요컨대 전통적인 GUI에서 "클릭"만을 빼서 "터치(혹은 탭)"으로 간단히 치환하는 것으로는 부족한 거다.

이 부족한 부분을 어떻게든 되살려서, 사용자가 고의든 아니든 어떤 기능을 실행시키기 전에 그 사실을 인지시킬 수 있는 방법을 주는 것. 그리고 실행을 시키는 중에확신을 줄 수 있고, 명령이 제대로 전달되었음을 따로 추론하지 않고도 조작도구(손가락) 끝에서 알 수 있게 하는 것. 아마 그게 터치UI의 다음 단계가 되지 않을까 한다. 버튼 입력이 들어올 때마다 휴대폰 몸통을 부르르 떤다든가 딕딕 소리를 내는 것 말고 말이다.

개인적으로 생각하고 있는 것은, 오래전부터 끼고 있는 아래 그림이다.

Deep Touch - Pre-touch detection, and Post-touch pressure/click


터치 이전. Pre-touch.

앞서 말한 (아마도 Ben 할배의) 연구 논문은 터치 이전에 부가적인 정보를 주기 위해서, 앞의 글에서도 말한 광선차단 방식의 터치스크린과 유사한 방식의 "벽"을 화면 주위에 3cm 정도 세워 사람이 화면 상의 무언가를 "가리키면" 이를 알 수 있게 한다..는 내용이었다. (혹시 이 논문 갖고 계신 분 좀 공유해주삼!) 말하자면 'MouseOver' 이벤트가 가능한 인터페이스를 만든 거 였는데, 불행히도 이 방식은 그다지 인기가 없었던 모양이다.

하지만 그 외에도 손가락이 접촉하기 전의 인터랙션을 활용하고자 하는 사례는 많았다. 지금은 Apple에 합병된 FingerWorks사의 기술은 표면에서 1cm 정도 떠있는 손가락의 방향이나 손바닥의 모양까지도 인식할 수 있었고, 이미 이런 센서 기술을 UI에 적용하기 위한 특허도 확보했다. 카메라를 이용한 사례로는 Tactiva의 TactaPad나 Microsoft Research의 Lucid Touch 프로토타입이 있고, 역시 Microsoft Research의 또 다른 터치 프로토타입에서도 터치 이전에 손가락을 추적할 수 있는 기술을 제시한 바 있다.

iGesture Pad, FingerWorks (Apple)Looking Glass, Microsoft ResearchLooking Glass, Microsoft Research


터치 이후. Post-touch.

일단 터치가 감지되면, 대부분의 시스템에서는 이것을 일반 마우스의 "KeyDown" 이벤트와 동일하게 처리한다. 즉 생각 없는 개발팀에서는 이를 바로 클릭(탭)으로 인식하고 기능을 수행하고, 좀 더 생각 있는 팀에서는 같은 영역에서 "KeyUp" 이벤트가 생기기를 기다리는 알고리듬을 준비할 것이다. 하지만 어느 쪽이든, 이미 터치 순간에 기능 수행을 활성화시켰기 때문에 사용자가 의도하지 않은 조작을 할 가능성은 생겨 버린다.

손가락이 화면에 닿은 후에, 추가적으로 사용자의 의도를 확인할 수 있게 해주는 것으로는 Drag와 Press의 두가지 동작을 생각할 수 있다.

이 중 Drag의 경우는 이제 터치 기반 제품에 명실상부한 표준으로 자리잡은 "Slide to Unlock"을 비롯해서 사용자의 의도를 오해 없이 전달받아야 하는 경우에 널리 쓰이고 있지만, 화면을 디자인해야 하는 입장에서 볼 때 어째 불필요하게 커다란 UI 요소를 넣어야 한다는 점이 부담으로 다가온다. 특수한 경우가 아니면 단순한 버튼을 클릭/탭하도록 하는 편이 사용자에게 더 친숙하기도 하고.

이에 비해서, 압력 혹은 물리적인 클릭을 통해 전달받을 수 있는 Press의 경우에는 화면 디자인 상의 제약은 덜하겠지만 이번엔 기술적인 제약이 있어서, 일반적인 터치 패널을 통해서는 구현에 어려움이 많다. (불가능하다..라고 할 수도 있겠지만, 클릭영역의 분포나 시간 변수를 활용해서 간접적으로 압력을 표현한 사례도 있었으니까.) 한때 우리나라의 많은 UI 쟁이들 가슴을 설레게 했던 아이리버의 D*Click 시스템은 제한된 범위에서나마 화면 가장자리를 눌러 기능을 실행시킬 수 있게 했었고, 화면과는 동떨어져 있지만 애플의 노트북 MacBook의 터치패드나 Magic Mouse에서도 터치패널 아래 물리적 버튼을 심어 터치에 이은 클릭을 실현시키고 있다. 몇차례 상품화된 소니의 PreSense 기술도 터치와 클릭을 조합시킨 좋은 사례였다고 생각한다.

이진적인 클릭이 아니라 아날로그 신호를 다루는 압력감지의 경우에도 여러 사례가 있었다. 일본 대학에서는 물컹물컹한 광학재료를 이용한 사례를 만들기도 했고, 앞서 언급한 소니의 PreSense 후속연구인 PreSense 2는 바로 터치패드 위에 다름아닌 압력센서를 부착시킨 물건이었다. 노키아에서 멀티터치로 동일한 구성을 특허화하려고 시도하고 있기도 하다. 하지만, 최근 가장 눈길을 끄는 것은 단연 TouchCo 라는 회사의 투명한 압력감지 터치스크린이다. 이 기술은 아무래도 압력감지를 내세우다보니 외부충격에 예민한 평판 디스플레이와는 맞지 않아서, 상대적으로 외부충격에 강한 전자종이와 같이 쓰이는 것으로 이야기 되다가 결국 Amazon에 합병되고 말았다. 사실 플라스틱 OLED 스크린도 나온다고 하고, 고릴라 글래스라든가 하는 좋은 소재도 많이 나왔으니 잘 하면 일반 화면에도 쓰일 수 있을텐데, 그건 이제 전적으로 아마존에서 Kindle다음 버전을 어떤 화면으로 내느냐에 달려있는 것같다.

D*Click, iRiverMagicMouse, AppleMagicMouse, Apple



Deep Touch

곧 iPhone 5를 발표할 (것으로 보이는) Apple은 Pre-touch에 해당하는 FingerWorks의 기술과 Post-touch에 해당하는 터치+클릭 제작 경험이 있고, 아마도 며칠 차이로 Kindle Tablet이라는 물건을 발표할 Amazon은 Post-touch 압력감지가 되는 터치스크린을 가지고 있다. 단순히 순간적인 터치가 아닌 그 전후의 입력을 통해서, Touch UI의 태생적인 단점을 개선할 수 있는 '가능성'이 열리고 있는 거다. 이렇게 확장된 터치 입력 방식이, 그동안 이 블로그에서 "딥터치(Deep Touch)"라고 했던 개념이다. (그렇다. 사실 별 거 아니라서 글 올리기가 부끄럽기도 했다.)

얼마전 발표된 삼성의 갤럭시 노트도, 압력감지를 이용한 입력을 보여주고 있다.

Galaxy Note, SamsungS-Pen with Galaxy Note, Samsung

압력감지가 가능한 스타일러스를 포함시켜 자유로운 메모와 낙서를 가능하게 함은 물론, 스타일러스의 버튼을 누른 채로 탭/홀드 했을 때 모드전환이 이루어지게 한 것 등은 정말 좋은 아이디어라고 생각한다. (사진을 보다가 버튼을 누른 채 두번 탭하면 메모를 할 수 있고, 버튼을 누른 채 펜을 누르고 있으면 화면을 캡춰해서 역시 메모할 수 있다.)

하지만 PDA 시절 절정을 이뤘던 스타일러스는 사실 가장 잃어버리기 쉬운 부속이기도 했다든가(게다가 이 경우에는 단순히 플라스틱 막대기도 아니니 추가 구매하기도 비쌀 것같다), 화면에서 멀쩡히 쓸 수 있던 펜을 본체의 터치버튼에서는 쓰지 못한다든가 하는 디자인 외적인 단점들이 이 제품의 발목을 잡을 수도 있다. 게다가 무엇보다도, 만일 앞으로 발표될 iPhone 5와 Kindle Tablet에서 스타일러스 없이 Deep Touch를 구현할 수 있는 방안이 제시된다면 갤럭시 노트의 발표에서 출시까지의 몇개월이 자칫 일장춘몽의 시기가 될 지도 모르겠다.

개인적으로는 출시 준비가 거의 되고나서 발표를 해도 좋지 않았을까 싶은 아쉬움과 함께, 아예 펜을 이용한 인터랙션(이 분야는 동작인식과 관련해서 많은 연구가 있던 주제이고, 검증된 아이디어도 꽤 많다.)을 좀 더 적극적으로 도입해서 손가락이 아닌 펜의 강점을 최대한 부각시키면 좀 더 robust한 경쟁력이 있는 상품이 되지 않을까 상상해 본다. 물론 남이 만든 OS를 쓰다보니 독자적인 인터랙션을 구현하는 데 한계가 많았다는 건 알겠지만, 무엇보다 홍보 문구대로 "와콤 방식"의 펜을 적용했다면 pre-touch pointing 이라든가 압력과 각도에 반응하는 UI도 구현할 수 있었을텐데 말이다. (특허 문제는 뭐 알아서 -_- )



Multi-touch든 Deep-touch든, 혹은 HTI가 적용된 다른 어떤 종류의 새로운 UI 방식이든, 우리는 그것이 모두 어떤 군중심리에 사로잡힌 설계자에 의해서 "임의로 정의된 입출력"임을 잊으면 안 된다. 사용자가 익숙하게 알고 있는 어떤 물리적 법칙도 적용되지 않고, 상식으로 알고 있는 공리가 반영되어 있는 것도 아니다. 새로운 UI 기술이 주목받게 되었을 때 그 기술을 충분히 이해하고 그 잠재력을 발휘하도록 해주는 최후의 보루는, 결국 사용자 중심의 관점를 프로젝트에 반영하는 전문성을 가진 UI 디자이너이다. (혹은 유행따라 UX.)

하나하나의 UI 기술이 상용화될 때마다, UI/UX 디자이너들 사이에는 그 완성본을 먼저 제시하기 위한 물밑 경쟁이 치열하게 이루어진다. 기술과 사용자의 입장을 모두 고려해서 최적화된 UI를 설계한 팀만이 그 경쟁에서 승자가 되고, 결국 다른 이들이 그 UI를 어쩔 수 없는 표준으로 받아들이는 모습을 흐뭇한 표정으로 볼 수 있을 것이다. 아마도.

한줄결론: Good luck out there.

신고
Posted by Stan1ey
가을에 출시된다는 iOS 5는 아마도 함께 출시되리라 생각되는 iPhone 5의 화면 크기나 외형 디자인에 대한 온갖 루머에 밀려 상대적으로 그닥 관심을 받지 못하는 듯하다. 그런 건 스티브 잡스의 말을 빌자면 소프트웨어를 담아내는 예쁘장한 상자(beautiful box)일 뿐인데.

그 중에서 개인적으로 주목하고 있는 것 두 가지.

Location-based To-do List

할일목록(To-do List)에 위치정보를 넣자는 기획은 내가 몸담은 회사들마다 한번씩은 다룬 내용이다. 전자제품을 만드는 회사는 물론이고, 게임 회사나 디자인 에이전시도 나름의 목적을 가진 알림 기능이 필요하기에 아이디어 회의를 하다보면 조금씩 다르지만 늘 등장하는 조합들 중 하나다. 안드로이드는 공개적인 개발환경 덕택에 이미 이런 아이디어가 실현되어 있지만 상대적으로 폐쇄적인 iOS의 경우에는 일반 앱이 위치정보에 접근하기가 쉽지 않았는데, 결국 Apple에서 이런 기능을 만들어 버림으로써 이제까지 iOS에 빈약했던 To-do List 기능을 보완하는 앱을 만들어온 회사들은 닭 좇던 개 신세가 되어 버렸다.

하지만 위 그림에서 볼 수 있듯이, 애플에서 만든 앱은 단순히 할일목록과 위치정보를 조합하는 것에서 조금 발전되어, 그 위치에 "도착했을 때" 혹은 그 위치에서 "벗어날 때" 라는 이벤트를 구분한 것을 볼 수 있다. 위치에 별명("Work")을 붙일 수 있는 기능도 있는 모양이고. GPS 신호를 내내 받을 경우 배터리 소모가 장난 아닐테니까 (실제로 앱 개발 가이드라인에도 GPS를 이용한 실시간 위치추적 기능은 구현이 상당히 제한되어 있다) 아마도 휴대폰 망이나 WiFi 위치정보를 활용하는 등 이런저런 방편을 썼을텐데, 그로 인해서 위치 이벤트가 불안정해지는 부분은 어떻게 해결했을지 기대가 된다.


두번째는 뭐, 이미 예전 FingerWorks에서 구현한 방식의 재탕이다.

Multi-finger Swipe on iPad

뒤늦게지만 그래도 드디어, 아이패드에서 네/다섯 손가락 swipe 동작을 이용해서 멀티태스킹 중인 앱들 간의 전환기능을 제공한다고 한다. 원래 핑거웍스에서 제시했던 동작명령과 차이점이 있다면 엄지손가락의 접촉을 따로 구분하지 않는다는 건데, 이건 뭐 기술의 차이로 인해서 손가락들을 명확하게 구분할 수 있는 가능성도 좀 줄었고 접근성 측면에서도 문제를 일으킬 수 있을테니 (오른손잡이/왼손잡이, 신체장애인 등등) 당연한 수순이라고 생각한다.



끝으로 관심이 있는 부분은 뭐 당연히 그 접근성 부분이다. 하지만 아직 여기에 대한 부분은 iOS 웹사이트에 언급이 되어 있지 않고, 뭔가 개선이 될 거라는 언급만 되어 있다. 하지만 최근 공개한 Mac OS X Lion의 Accessibility 항목을 보면 그 꾸준한 투자에 경건한 마음으로 기립박수를 치고 싶은데, 과연 모바일 OS에는 그런 기능들을 어떻게 조합해 넣었을지 벌써부터 두근두근하다.


끗.
저작자 표시 비영리 변경 금지
신고
Posted by Stan1ey
얼마전 정식 출시된 Mac OS X의 신버전에, 요상한 스크롤 방식이 도입된 모양이다. 며칠 전에 마침 옆자리 프로그래머가 갑자기 투덜투덜 거리고 있길래  물어봤더니, 스크롤링이 개판이야...라고 군시렁대고 있었다. 오늘 NY Times의 컬럼을 받아보고 그 이유를 상세히 알 수 있었다.

http://pogue.blogs.nytimes.com/2011/07/28/zen-and-the-art-of-scrolling/

재미있지만 상세하게 써 놨으므로 터치스크린 UI와 데스크탑 UI를 오가며 작업하시는 분들은 한번 읽어보고 고민해봄직 하리라 생각한다. 요새 마이크로소프트에서도 Natural UI를 열심히 밀고 있지만, 사용자 인터페이스라는 게 과연 본질적으로 "자연스러움"을 추구할 수 있는 건지, 혹은 그렇다고 하더라도 그걸 무슨 원칙처럼 적용해야 하는 건지에 대해서 좋은 사례가 되어줄게다.

How to Deselect Natural Scroll Direction, on Mac OS X Lion


위 그림을 훔친 C|net 기사에서는, 심지어 다른 OS를 쓰다가 이번 버전의 Mac OS X를 쓰게 됐을 때, 기존 UI들에 익숙한 사용자가 어떻게 설정을 바꾸면 되는지에 대해서 안내하면서 그 첫번째로 이 "natural" 스크롤 방향을 deselect 하라고 되어 있다. 재미있는 상황.

십년쯤 전에 NUI라는 용어를 들고 나왔던 분들, 그리고 요새 몇몇 회사에서 NUI를 슬슬 화두로 몰고가는 분들... 모두 너무 몰아붙이다가 주화입마에 빠지게 되는 일이 없기를.

뭐, 끗.
저작자 표시 비영리 변경 금지
신고
Posted by Stan1ey

UX Design on KINECT

2011.01.16 15:48
지난 몇 개월간 키넥트 플랫폼을 이용한 게임개발 프로젝트에 참여하면서 UI 설계를 담당했다. 인터넷 상의 리뷰를 보면 사용자들은 비교적 긍정적인 인상을 많이 받고 있는 것 같지만, 새로운 UI를 설계하려는 입장에서 마이크로소프트의 담당자들과 이메일을 주고받다보면 역시 새로 상용화된 기술답게 나름의 제약점이 많다.

홍보되는 것처럼 "사용자의 동작을 입체적으로 인식"한다고 하기에는 조금 기술적인 어폐가 있고, 일반적인 동작 UI 디자인 가이드라인 외에도 적외선 거리인식 센서의 입력값과 카메라를 통한 영상처리 결과가 키넥트 시스템을 통해서 어떻게 조합되는지를 이해하고 그에 맞춰 동작입력을 선택하는 게 중요하다고 하겠다. ... 쓰고보니 당연한 소리를. ;ㅁ; Kinect 센서의 구성이나 특성에 대해서는 예전의 블로그 글이나 인터넷 검색, 혹은 의외로 잘 퍼지지 않은 동영상 자료지만 유용한 정보가 상당히 많은 <Inside Xbox> 인터뷰들을 참고하시면 좋을 듯.

가장 중요한 점은, 사실 이 시스템에서 거리센서는 사용자의 몸 "영역"을 배경과 바닥으로부터 분리시키는 데에만 사용되고, 정작 팔다리를 인식하는 건 주로 카메라로부터의 영상처리에 의존하는 것 같더라는 것이다. 그러니 팔을 앞으로 뻗어 몸통을 시각적으로 가린다든가 하면 바로 자세인식에 문제가 생기고, 그러니 별도의 신호처리 없이 시스템에서 입력받을 수 있는 자세정보(각 부위의 위치와 각도)라는 것은, 카메라에서 봤을 때 큰대(大)자 자세에서 팔다리를 위아래로 휘젓는 정도다. (이보다 복잡한 동작이 아예 인식되지 않는 건 아니지만, UI는 고사하고 게임용으로 쓰기에도 오인식률이 높다.) 결국 제대로 3차원 인식이 아닌 2.5차원 인식방식이다보니 생기는 이상과 현실의 괴리랄까.

그렇다보니 그 멋져보이는 자세인식은 직접적으로 UI에 쓰이지 않고, 실제로는 인식된 특정부위(예: 손)의 위치를 커서위치에 대응시킨다든가, 특정부위까지의 거리변화를 입력으로 삼는다든가(예: 팔 휘둘러 내밀기) 하는 식으로만 매핑이 되고 있다. 사실 그것만으로도 기존에 없던 제법 재미있는 UI를 만들 수는 있지만, 실제로 브레인스토밍 중에 나왔던 수많은 멋진 동작 UI 아이디어들을 추려내다 보면 아쉬움이 이만저만이 아니다.

Gesture Command by SwipeGesture Command by Hand-Cursor

참여했던 프로젝트에서는 이런저런 제약점들을 피해서 나름대로 Wii Remote로 프로토타입도 만들어가며 최선의 UX 설계를 하려고 애썼는데, 실제로 제품이 출시되는 올 하반기가 되어야 이런저런 이야기를 풀어놓을 수 있을 듯. 그때쯤 되면 죄다 당연한 소리가 될지도 모르지만.

얼마 전 Jacob Nielsen도 <Kinect Gestural UI: First Impressions>라는 컬럼을 게재했는데, 키넥트 플랫폼에서 사용성을 고민하고 있다면 대체로 유용한 관점이라고 생각한다. 보아하니 나중에 유료 컨텐츠/세미나로 팔아먹기 위해서 말을 아낀 것 같기는 한데, 그렇다고 해도 게임 UX의 큰 목적(개인적으로, 재미와 탐사는 게임 뿐만 아니라 그 UI를 사용하면서도 느낄 수 있어야 한다고 생각하기에)이라든가 동작입력의 특성(중력장 안에서 상하움로 움직인다는 건 평면 상에서 마우스를 굴리는 것과는 또 다르다)을 고려하지 않은 지나치게 전통적인 (그리고 '웹'스러운) 발언들은 좀 아쉽다. 또한 현재 출시되어 있는 키넥트 기반 게임들 중에서 가장 나은 사용성을 보이고 있는 <Dance Central>의 경우는 상당한 시행착오와 고민 끝에 나온 나름의 최적안이라고 볼 수 있는데, 그 부분이 약간 평가절하되어 있는 부분은 너무 평가자의 시점에서만 이야기하고 있다고 느껴졌다. 그런 건 UI에 관심만 있고 실제로 책임지고 디자인하지는 않는 사람이 쉽게 취하는 입장인데.



어쨌든 사람들이 이 KINECT 플랫폼에 대해서 갖고있는 질문은 "키넥트 게임이 재미있나?" 라는 것과 "키넥트 기반의 동작 UI는 쓸만한가?"로 정리된다.

(1) 게임은 재미있나: 재미있다. 그런데 '어떤' 게임이 재미있는가에 대해서는 아직 장르를 많이 타고, 그 장르에서 어떤 방식으로 KINECT 플랫폼을 활용하는지는 현재 시행착오가 진행 중이다. 관련 리뷰들을 보면 알겠지만 마이크로소프트에서 번들로 주는 게임들보다 오히려 <Dance Central>의 리뷰점수가 높고, 더 재미있다. 하지만 그 게임은 아직 KINECT를 100% 활용하지 않고 있다. KINECT 센서를 보면 이런저런 가능성은 높은데, 단가를 낮추기 위해서 프로세서를 빼는 바람에 쓸 수 있는 입력값은 정말 단순한 내용 밖에 없다. 그런 입력값을 처리하는 엔진이 탑재된 게임이 나오면 (혹은 MS에서 API를 업데이트해주면) 그 잠재력이 최대한 발휘되리라 생각한다.

(2) UI로 쓸만한가: 한계가 뚜렷하다. 기술 자체라기보다는 플랫폼에 의한 한계가 많은데, 이를테면 320x240의 해상도로 전신을 잡으면 손/발/머리의 움직임은 사실 거의 잡지 못하고, 중첩이나 회전을 감지하는 건 상상도 못한다. 결국 앞에서 말했듯이 UI에 사용되는 동작명령도 팔다리를 허우적거리는 수준으로 큼직큼직하게 만들어야 하고, 팔다리가 신체의 다른 부위를 가리지 않아야 하기 때문에 흔히 비교되곤 하는 영화 <Minority Report>의 동작 UI와는 상당한 거리가 있다. MS에서도 이 문제를 해결하려고 해상도를 두 배(640x480)로 늘리겠다고 했지만, 그래도 손동작을 UI에서 쓸 수 있는 수준으로 인식하는 건 어렵다고 본다.

Body Tracking on KINECT
(한 가지 첨언하자면, 위의 해상도는 소프트웨어적으로 조정이 가능한 각해상도 angular resolution 이다. 따라서 이론적으로는 일시적으로 특정부위 - 얼굴이나 손 - 에 해상도를 집중해서 더 자세한 자세정보를 얻는 것도 가능하지만, 현재 API에서는 지원하지 않는다.)

결국 이런 방식의 동작인식 시스템이 주요 UI 장치로 쓰일 수 있는 경우는 무척 좁을테고, 여기에 관심을 보이는 실무 디자이너들에게 돌아올 궁극의 질문은 이번에도 꽤나 신랄할 것이다: 그 센서로 인한 단가상승만큼 중요하고 필요한 조작인가? ... 여기에 확실히 그렇다고 할만한 물건은 아니다. 단지 과거 터치스크린이 그랬고 전자나침반도 그랬듯이, 제한된 용도일지라도 그 유용함이 확실하다면 남들보다 앞서서 고려해야 하는 세상이라는 점을 강조하는 수 밖에.

개인적으로 흥미롭게 보고있는 것은 키넥트 출시 이후에 줄줄이 등장하고 있는 해킹 사례들이다. 특히 기존에 동작/영상인식을 하던 사람들이 가장 신나하는 것같고, 그외에 컴퓨터 그래픽에서도 3차원 영상으로만 가능한 재미있는 사례가 속속 나오고 있다. 하지만 진짜 기대되는 것은 이 Kinect와 Wii Remote를 동시에 사용하는 (해킹) 어플리케이션이다.

키넥트는 전신의 움직임을 잡아내는 데에는 유용하지만 메뉴를 선택한다든가 총을 겨냥해서 쏜다든가 하는 세밀한 움직임이 불가능하다. 거기에 그걸 제대로 해줄 수 있는 장치(게다가 가상의 물체에 매핑될 수 있는 물리적 장치)를 더한다면 그야말로 동작인식에 날개를 단 형국이 아닐까. 이미 둘 다 해킹이 되어 PC에서 연동이 되고, 특히 Flash 등 인기있는 시각화 도구와도 바로 연결이 된다. 바로 며칠 전에 변형된 게임에 이를 적용한 사례가 올라오긴 했지만, 단순히 입력값을 조작에 연결시킨 수준일 뿐 각 장치의 잠재력과 시너지를 충분히 발휘했는지는 모르겠다.



아마 기존의 컨트롤러와 Kinect를 동시에 (아마도 Kinect는 보조적/선택적인 입력으로) 사용하는 Xbox용 게임이 올해 중으로는 발표되리라는 생각이 들지만, 우선은 그 전에 오는 5월의 CHI 2011 학회에서 그런 조합이 몇 건 나와주지 않을까 하는 기대를 하는 중이다.

Wii Remote, Kinect, 3D TV, ... 판이 점점 재미있게 돌아가고 있다.




... 뭐가 "짧게 짧게"냐. ㅡ_ㅡa
저작자 표시 비영리 변경 금지
신고
Posted by Stan1ey
이미 제품의 외형이며 어떤 부품이 들어가는지까지 속속들이 드러나 버린 상태에서 이만한 관심을 끄는 제품도 없을 거다. 새로운 아이폰이 드디어 공식발표되고 웹사이트에 관련 내용이 올라왔길래, 한번 훑어보니 역시 짧은 키노트에 모두 포함되지 못한 내용이 좀 있다. 사실 키노트의 내용 중 많은 부분(이를테면 HD영상 녹화, 화상통화)은 오히려 하드웨어를 보고 예상할 수 있는 부분이었기 때문에 조금은 김이 빠져 있었는데, 발표에서 빠진 내용을 보면서 "역시 애플은 대단해..."이라는 덕심이 다시 한번 치솟는 기분을 느꼈다.

iPhone 4의 발표 소식(?)에 대해서는 이미 여기저기서 많이들 올라와 있을테니, 난 HTI 관점에서 직접적인 발표내용 외에 주목할만한 내용들, 그리고 누군가 열심히 UX 개선을 위해서 애쓴 흔적이 눈물겹도록 보이지만, 솔직히 물건을 파는 데 크게 도움이 되지 않아서 발표에서 제외된... 그런 내용이나 좀 정리해 보려고 한다. 서로 돕고 살아야지. (무슨 도움이 되겠다는 건지는 모르겠다만 -_- )

(1) Gyro Sensor
Gyro Sensor in iPhone 4

아 물론 자이로 센서가 포함된다는 사실 자체는 발표 내용에 대대적으로 포함됐다. 근데 이게 무슨 의미를 가질까? 잡스가 보여준 데모는 젠가라는 보드게임이었는데, 사실 휴대폰을 돌리면 화면이 돌아가는 정도는 기존의 가속도 센서로도 거의 불편함을 느끼지 못한 것이기 때문에 조금은 고개를 갸우뚱하게 한다. 이미 관련 블로그에도 그 의미에 대해서 의구심을 표시하고 있기도 하고. 사실 젠가 게임은 순수하게 자이로 센서의 특성을 보여주기에는 좋은 사례일지 모르지만, 실상 가장 강조되어야 할... 위 사진의 맨 아래에 등장하는 6축 동작인식이라는 부분이 잘 드러난 것 같진 않다. 자이로 센서가 들어감으로써, 기존 가속도 센서를 이용했던 회전 감지에 비해서 나아지게 되는 건 뭘까? 

기존에 들어있던 가속도계는 원래 상하좌우로의 직선운동을 잡아내는 물건이다. 마침 지구에는 중력가속도라는 게 있는 덕택에, 아래로 떨어지려는 움직임(정확히는 그 반작용)의 방향을 상하좌우 센서의 입력값을 비교함으로써 알아내고, 그걸 바탕으로 기기의 자세(가로/세로)를 알아내거나 매시각 비교함으로써 상대적인 회전을 찾아내는 것이다. 이렇게 직선운동을 잡아내는 물건으로 회전운동을 찾아내려다 보니, 직선운동과 회전운동을 둘 다, 실시간으로 구분해서, 함께 인식하기가 어렵다는 문제가 있다.

이제 순수하게 회전을 담당할 자이로 센서가 들어감으로써 아이폰은 회전과 직선운동을 동시에 알아낼 수 있게 된 것이다. 이건 단지 잡스의 데모에서처럼 사용자가 폰을 들고 제자리에서 돈다는 정도가 아니라 3차원 공간에서의 자유로운 위치와 자세 변화를 (상대적으로) 인식할 수 있다는 거다. 한동안 유행했던 증강현실(AR)을 예로 들자면, 이제 기준이 되어 줄 AR-Tag가 없이도 임의의 공간을 상정하고 그 주변으로 아이폰을 움직이면서 그 공간에 떠 있는 가상의 물체를 관찰할 수 있을 것이다. 아니 심지어 공중에 직접 3차원 그림을 그리는 건 어떨까. 3차원 그림을 그리고 감상하는 어플도 충분히 가능하리라 생각한다. (가속도 센서와 자이로 센서의 악명높은 오류 누적 문제는 일단 덮어두자. -_- )

사실 이제까지 회전인식을 도와주던 게 3GS부터 들어가 있던 전자나침반인데, 이건 주변 자기장의 변화에 따라 초기화를 시켜주지 않으면 제멋대로 돌아가 버리는 아주 심각한 문제를 가지고 있다. 그렇다고 지도 서비스에서 동서남북을 알아낼 수 있는 기능을 버릴 순 없으니, 결국 다소 중복되는 것 같더라도 자이로 센서를 다시 추가했음을 짐작할 수 있다.

이로서 아이폰에는 자세를 알아내는 센서만 3개다. 이 센서값들을 개발자에게 어떻게 활용하기 쉽게 제공할지가 관건이 되겠지만, 이제 사실 더이상 넣을 센서도 없게 된 만큼 iPhone 4는 뭔가 궁극의 입력장치가 되지 않을까 기대하고 있다. 특히 닌텐도 Wii의 MotionPlus 리모트가 가속도 센서와 자이로 센서, 그리고 적외선 마커를 이용한 기준위치(화면)를 알아내서 정밀한 움직임을 측정하고 있다는 걸 생각해 보자. 아이폰은 이제 시각적 마커를 카메라로 알아낼 수도 있고, 심지어 나침반과 GPS 정보로 마커를 대신할 수 있게 됐다. 이상적으로 말하자면, 아이폰은 지구상 어디서 어떤 위치/높이에 어떤 자세로 어떤 움직임으로 사용되고 있는지를 완벽하게 계산할 수 있게 된 것이다. ... 어떻게 보면 좀 무섭다. ㄷㄷㄷ


(2) FaceTime using Rear Camera
FaceTime on iPhone 4
뒷면 카메라를 이용한 화상통화. 이것 역시 키노트에서 발표된 주요 내용 중 하나이긴 하지만, UX 관점에서는 꽤 신선한 느낌이다. 사실 화상통화(WiFi를 이용해서만 된다니 화상채팅?)는 거는 사람이나 받는 사람이나 다소 부담스러울 수 있는 상황이고, 사실 얼굴이야 서로 잘 알고 있을테니 얼굴만 봐도 좋은 연인 사이가 아니라면야 그보다 내가 지금 보고 있는 장면을 공유하면서 화제로 삼는 게 좀더 유용한 화상통화의 활용방법일 수 있겠다.

사실 이런 식의 활용에 대해서는 예전에 좀 들여다 본 적이 있는데, 이 특허 - 화상통화를 하면서 전면 카메라와 후면 카메라를 전환할 수 있는 - 는 국내 L모사가 6년전 쯤에 출원했던 것으로 기억한다. 결국 그게 특허로 등록이 되었는지, 그리고 그 특허가 혹시나 이번에 FaceTime을 굳이 WiFi 버전으로만 내는 데에 어떤 영향을 미쳤는지는 모를 일이다. (사실 애플이 언제 특허 신경 썼나... 아마 전송되는 화상의 품질 때문에 내린 결정이라고 보는 게 더 타당할꺼다.)

이 기술은 기존에 3G 망을 통해서 할 수 있었던 화상통화와 전혀 다르지 않아 보이기 때문에 처음 발표를 접한 사람들도 "남들은 이미 다 하고 있었다"면서 시큰둥한 반응이 있기는 했지만, 전화통화 상대방과 전화망 외의 ad-hoc IP 네트워크 연결을 순간적으로 해준다는 건 꽤 혁신적인 발상이다. 다른 네트워크(3G 등)으로 확장하는 것도 어렵지 않은 방식이긴 하지만, 사실 굳이 화상통화를 WiFi로 제한한 것은 아이폰 덕택에 기하급수적으로 늘어나는 통신사의 데이터 통신망의 부하를 어떻게든 줄여주고자 하는 제스처 아니었을까. 이런 식이라면 화상통화를 하면서도 통신사의 데이터망은 건드리지 않을 수 있을테니까.

이게 만일 MSN 메신저와 같은 방식으로 어딘가에서 각 통화자들의 IP를 연계해주는 화상채팅 중계 서버가 있는 거라면 여러가지로 문제가 되겠지만... 굳이 "zero set up"을 강조하고 "open standard"로 추진하는 걸로 봐서는 그냥 폰과 폰이 직접 P2P로 IP를 주고받고 화상망을 구축하는 방식인 듯 하다. (만일 따로 중계서버가 있어서 아이폰 사용자의 화상통화 상황을 알 수 있다면... ㄷㄷㄷ )


(3) The Second Camera
Front Camera on iPhone 4
화상통화와 함께, 드디어 결국 전면카메라가 들어갔다. 이미 지난 수년간 디지털 카메라에 들어간 얼굴인식/미소인식 등의 영상인식 기술이 특허침해 같은 거 검토하지 않고 무작위로 App으로 등장하고 있는 와중에, 전면카메라가 갖는 의미는 각별하다. 이를테면, 아래와 같은 걸 아이폰에서 볼 수 있게 된 것이다!



혹은 이전에 소개했던, 전면카메라를 활용한 NDSi의 (조금은 우스꽝스러운) 게임들은 어떨까. 앞의 자세 인식 센서들과 함께 전면카메라의 사용자 얼굴인식 기능이 합쳐진다면, 이건 뭐 어떤 괴물 앱이 나와도 이상하지 않겠다. 키노트 내용에 따르면 전면 카메라에 대한 API도 개방될 것 같으니, 개발자들이 어떤 사고를 쳐줄지 두근두근 기다려 보자.


(4) Dual Mic

마이크가 위아래로 2개 들어간다는 소리가 나오는 순간 눈이 번쩍 떠졌다. 전화를 표방하는 기기에서 마이크가 2개 들어간다면, 이유는 뻔하다. 발표 내용에도 나왔듯이, 배경의 잡음을 없애 깨끗한 음성을 보내기 위함이다. 양쪽 마이크에 입력되는 음의 파형을 시간축으로 미리 설정한만큼 평행이동 하면, 아래쪽 마이크 가까이 있고 위쪽 마이크에는 어느 정도 떨어져 있는 (즉, 음성이 전달되기까지 시간이 좀 걸리는) 사용자의 음성이 겹쳐지게 된다. 나머지 음향정보는 사용자 음성이 아닌 주변 잡음이기 때문에 신호를 줄여버리면, 깨끗한 음성만 보낼 수 있는 거다.

사실 이 기술은 2년전쯤 "알리바이폰"이라는 명칭으로 국내에도 상품화된 적이 있으니, 새롭다고 하긴 어렵다. 기술에 붙인 이름이 좀 위험스러워서인지 마이크 하나 더 붙이는 단가가 부담스러웠는지, 어쨋든 "깨끗한 통화"라는 본래의 취지가 무색하게 이후의 휴대폰에서 이 기술이 적용된 사례는 찾아보기 어렵다. :(

어쨋든 dual mic의 채용에 반색하는 개인적인 이유는, 물론 음성인식률의 향상을 기대하기 때문이다. 여러 개의 마이크(mic array)를 이용해서 음성명령의 공간 상의 위치(방향/거리)를 파악하고 나머지 음향을 소음으로 여길 수 있다거나, 심지어 여러 명이 동시에 말하는 내용을 따로따로 구분할 수 있다는 기술만큼은 아니겠지만... 그래도 이 마이크 입력을 이용하면 통화나 음성인식 뿐만 아니라 박수소리의 방향/거리를 알아낸다든가 동영상 녹화 시에 배경음을 녹음할지 녹화자의 음성을 녹음할지 선택할 수 있다든가 하는 기능도 구현할 수 있을 것이다. 단지 이 마이크들에 대한 API에 대해서는 따로 언급이 없었고, 무엇보다 이런 신호처리를 하려면 그냥 주어진 조건(귀옆에 대고 통화하는)에 맞춰서 하드웨어에 프로그램을 박아 버리는 게 편하기 때문에 과연 그 정도의 자유도가 개발자에게 주어질지는 모르겠다. 그냥 위 조건에 맞춰진 잡음제거 기능의 강도를 조정하는 정도가 아닐까?


(5) N-Best Type Correction
Type Correction on iPhone 4
터치스크린의 잦은 오입력을 보완하기 위해서 아이폰을 필두로 많은 스마트폰은 어절 수준에서 오류를 인식하고 자동으로 수정해 주는 방식을 채택하고 있다. 어절을 기준으로 한 수정방식이 한글이나 조사/어미를 갖는 다른 언어들에 맞지 않는다는 점은 차치하더라도, 기존의 방식은 띄어쓰기나 마침표 등을 입력할 때 무작정 오류(라고 생각한) 입력을 지우고 대안으로 바꿔버리기 때문에 자주 쓰지 않는 단어를 입력할 때마다 사용자가 아차하는 순간에 의도하지 않은 내용이 입력되는 경우가 많다. 사실 이건 모든 인공지능 입력 기술이 가지고 있는 공통적인 인식률의 문제이기도 하고.

그런데 이번에 공개된 내용 중 한 페이지에는 다른 부분과 달리 오타로 추측되는 어절을 분홍색으로 표시한 후 사용자가 터치하면 몇가지 대안(인식기술 쪽에서는 N-Best라는 표현을 쓰는, 사실은 가장 흔한 방식이다.) 중 하나를 선택할 수 있게 해 주는 내용이 나와 있다. 문자 메시지의 경우에는 안 되고 이메일에만 되는 기능이라면 사용자의 혼란이 있을 것도 같은데, 어쨋든 이렇게 사후수정 방식이라면 터치스크린과 잘 어울리기도 하고, 의도하지 않은 수정을 없애거나 다시 복구하기 쉽게 만들 수 있을 듯 하니 반가운 일이다. 터치스크린의 오터치 보완 방식이 조금은 인간을 위해 겸손해진 느낌이랄까.


(6) Faces and Places
Faces - Face Recognition on iPhone Photo Album on iPhone 4Places - Location-based Photo Album on iPhone 4

이미 iPhone OS 4 (이젠 iOS 4가 됐다)의 개발자 버전을 통해서 많이 누설됐지만, 데스크탑용의 Mac OS에서 구동되는 iPhoto를 통해서 가능했던 Faces와 Places 사진정리 기능이 아이폰으로 들어왔다. 어찌나 반갑던지. :)

설명을 보면 Faces 기능은 iPhoto와 함께 사용할 수 있다고 되어 있는데, 이거 iPhoto에서 얼굴인식한 내용을 가지고 모바일에서 보여주기만 한다는 건지, 아니면 그냥 얼굴인식은 각자 하고 그 meta-tag를 공유한다는 얘긴지 모르겠다. 작년에 보여준 iPhoto의 얼굴인식 및 등록 기능은 아이폰에서 똑같이 만들기에 사용자 입장에서도 기술적으로도 어려워 보이지 않았으니 전자는 아니라고 생각하지만, 그렇다면 왜 굳이 iPhoto를 언급했을까... 이 부분은 조만간 개발자 버전을 깐 사람들이 규명해 주리라 생각한다.



그리고...

ASL Users using FaceTime on iPhone 4
아래의 나머지는 늘 굳이 내세워 발표하지 않는, 장애인을 고려한 확장된 접근성에 대한 부분이다. 애플은 위 FaceTime을 홍보하는 동영상에도 수화로 대화하는 연인을 넣을 정도로 장애인에 대해서 고려하고 있으면서, 절대로 그걸 크게 부각시키는 법이 없다. 어쩌면 "특정 사용자 전용이 아닌, 더 많은 사용자에게 편리한" universal design의 철학에 가장 걸맞는 모범을 보이고 있다고나 할까.


(7) Gesture-based Voice Browsing
Gesture-based Voice Browsing on Safari, iPhone 4
우선 첫번째는 웹 브라우저. 이미 들어가 있던, 웹페이지 내용을 음성으로 읽어주는 기능에 더해서, 웹페이지의 특정부분에 손가락을 대면 바로 그 부분의 텍스트를 읽어주는 기능을 추가했다. (왼쪽 그림에서는 오른쪽 아래 광고(?) 영역을 선택해서 듣고있는 상태)

기존의 screen reader 프로그램들은 HTML 코드를 내용 부분만을 잘라내어 처음부터 줄줄이 읽어주는 게 고작이었고, 일부러 시각장애인을 고려해서 코딩하지 않는다면 어디까지가 메뉴고 어디부터가 본문인지도 알기 힘들었다. 그런데 이렇게 모바일 기기의 터치스크린의 장점을 살려서 손에 들고 있는 페이지의 특정 위치를 항행할 수 있게 한다는 것은 정말 혁신적인 장점이 되리라 생각한다.


(8) Rotor Gesture

이 기능은 3GS부터 있던 기능이라는 것 같은데, 왜 이제서야 눈에 띄었는지 모르겠다. 화면 상에 실제로 뭔가를 표시하는 건 이번이 처음인 것 같기도 하고... 어쨋든 이 기능은 두 손가락을 이용해서 회전식 다이얼(로터)를 돌리는 듯한 동작을 하면, 아마도 그 각도변화에 따라서 몇가지 음성항행 모드 중 하나를 선택해 준다. 이를테면 목록을 읽을 때 제목만 읽기라든가, 바로 기사 본문으로 가기라든가, 링크된 영역만 읽기라든가... 기존의 음성 웹 브라우징은 키보드 단축키를 통해서 이런 모드를 지원했는데, 이 로터 제스처는 터치스크린에 맞춘 나름의 좋은 해법인 것 같다.


(9) Braille Keyboard Support
iPhone 4 Supports Braille Keyboards via Blutooth
말 그대로, 블루투쓰를 통한 25개 언어의 점자 키보드를 지원한단다. 휴... 이건 정말 쉬운 결정이 아니었을 듯. 점자 키보드라는 게 얼마나 표준화가 잘 되어 있는지 모르겠지만, 경쟁사의 다른 무선 키보드와도 연동하기 까다롭게 만들어 놓기로 유명한 애플사다. 이렇게 점자 키보드를 위한 입력을 열어놓으면 분명히 제한없이 공개되어 있을 그 방식을 적용한 비장애인용 키보드 제품이 쏟아질 건 자본주의의 이치. 비록 악세사리라고는 해도 독점이 가능한 키보드도 팔고 있으면서 이런 결정을 내린 사람들은 도대체 어떤 경영진, 어떤 책임자, 어떤 월급쟁이일까. 어쨋든 훌륭한, 심지어 존경스럽기까지 한 결정이다.



이상. 사실 별다른 관심이 없던 발표여서 신나는 내용이 많기는 했지만, 왠지 개인적으로 다음 달에 판매한다는 iPhone 4를 바로 구매할 만한 큰 계기는 찾지 못했다. 무엇보다 루머의 RFiD도 안 들어갔고... 지금 쓰고 있는 아이폰을 1년반 넘게 썼으니, 2년을 채우고 고민해 봐야 할 듯 하다.
저작자 표시 비영리 변경 금지
신고
Posted by Stan1ey
지난 6일자 USA Today에 실린 앞으로 10년간의 기술/경제적 변화상이라는 기사를 훑어보니, Personal technology와 Entertainment 분류의 내용이 재미있어서 스크랩해두기로 했다. 아래 내용은 나름의 요약과, 괄호 안은 그냥 떠오른 생각들이다.

Personal technology

Computers that anticipate our needs. 사용자의 행동 기록과 일정 계획을 바탕으로 좋아할만한 TV 프로그램을 추천하는 등의 기능 (똑같은 이야기를 30년 전에도 들었던것 같은... 쿨럭 ;ㅁ; )

Housework by robots. 로봇 청소기뿐만 아니라 다른 로봇들까지 가사를 돕기 시작한다. 각각의 용도에 따라 여러 대의 로봇을 가지게 된다. (문제는 가장 단순한 기능의 로봇 청소기조차, 내세우고 있는 청소 기능을 제대로 처리하기에 제약이 많다는 거겠다.)

Shape-shifting personal computers. 마이크로 머신의 조합으로 이루어진 개인용 기기가 용도에 따라 형태를 바꾼다. (트랜스포머..라는 건데, 그냥 접었다 폈다가 하는 정도를 말하는 게 아니라면 쪼끔 무리일 듯. 주머니 속에서 자기 판단에 따라 꿈틀거리는 놈이 들어있다면 무엇보다 무섭잖어. -_-;; )

Brain chip implants. 생각으로 컴퓨터를 조작할 수 있도록 머릿속에 칩을 심을 수 있다. 이메일은 쓰지 못할지 몰라도 마우스는 움직일 수 있다고. (이걸 위해서 칩을 심고 싶은 사람은 전신마비로 고생하는 사람 뿐일 듯. 그걸 시장이라고 부를 순 없겠지.)


Entertainment

We'll view films in many ways. TV 외에도 컴퓨터, 태블릿, 스마틑폰 등등... (이미 충분히 그렇다고 생각하지만.)

... But still go to the movies. 그래도 외식 등 다른 경험을 위해서 영화관에는 계속 갈거다. (.. 그리고 영화관은 점점 비싸고 쾌적해질 듯.)

Plusher theaters. TV 경험과 차별화하기 위해서, 영화관은 여러가지 서비스를 추가할 거다. 고품질 영상과 음향, 3D, 좌석 예약제, 좋은 음식, 영화를 소개하는 아나운서 등 (몇가지는 이미 벌어지고 있는 일이고, 한국에선 약간 무리다 싶은 4D까지 가고 있다. 나머지 몇가지 엥? 싶은 게 사실.)

Motion-controlled video games. 닌텐도 Wii와 같은 동작인식 게임이 표준이 된다. 버튼 조작은 옛날 이야기. (흠... 버튼 하나로 멋진 칼부림을 날릴 수 있다는 건 나름 매력적이다. 심각한 게임과 쉽게 즐길 수 있는 게임으로 이분화되어 진행되리라는 예측이 더 맞아들지 않을까.)

Healthier video games. 동작인식 게임을 하는 사람은 - 특히 노인은 - 보다 많은 보험 혜택을 받을 수 있다. (좀 극단적이긴 하지만, 가능성이 없는 이야기는 아니다.)

TV and computer, all in one. 가정에서는 컴퓨터와 TV가 일체화되어 TV의 고해상도 화면의 장점을 활용하게 된다. (이미 여러차례 시도됐지만, 결국 PC는 웹서핑 등 나름 특화된 기능이 있어서 미디어 PC를 하나 더 쓰는 걸로 결론이 내려지고 있지 않나?)

American Idol, 2020. 리얼리티 쇼는 계속해서 인기를 끌 거다. (그러시던가 -_-a )


이 두가지 분야가 기사 중에서 내가 관심을 갖고 읽은 대목이자, 그동안 이 블로그에서 다뤘던 내용이다. 이런 미래 예측이 꼭 모두 맞으리라는 법은 없지만, 가정용 로봇이 확대 적용되고 영상 미디어에 3D가 적극적으로 도입되는 것은 바로 지금 한창 현실이 되고 있기도 하다.

LG전자에서는 2007년 '로봇청소'라는 개념을 넣은 에어컨을 발매해서 좀 재미를 봤는지 (사실 구동부는 모두 내부에 있어서 사용자 입장에선 '로봇'이라는 느낌이 안 듦에도 불구하고), 다른 에어컨에 이미 적용되어 있는 움직임 감지 기능을 "인체감지로봇"이라는 이름으로 홍보하면서 요즘은 아예 로봇을 광고 전면에 내세워서 홍보하고 있다. 로봇 청소기를 시장에 정착시켰다고 할 수 있는 iRobot 사에서는 오히려 신제품 개발이 뜸한 반면에 삼성과 LG에서는 기존에 비해 개선된 청소로봇이 심심찮게 발표되고 있기도 하고, 여기에 점점 똑똑+복잡해지는 세탁기까지 로봇이라고 하기 시작하면 가정용 로봇이 확대 적용된다는 것은, 혹은 다른 말로 가전기기가 이제 '로봇'이라고 부를 수 있을 정도로 발전하고 있다는 것은 기정 사실이라고 봐도 되겠다.

3D 영상은 이미 극장에서는 누구나 대세라고 인정하는 것 같고, 이번 CES에서 삼성소니에서 LCD/OLED로 3D TV를 구현해서 내놓는가 하면 삼성은 아예 "3D의 모든 것을 보여주겠다"는 선언까지 해버린 듯 하다. (어느샌가 LED TV라고 부르는 LCD TV에 대한 언급은 하지 않기로 -_-; ) 아직까지 발표된 3D TV 방식은 모두 시청자가 배터리가 포함된 안경 shutter glass을 써야 하는 방식인데, 삼성에서 Real-D사와 협약을 맺었다는 걸로 봐서는 조만간 그냥 플라스틱 안경을 쓰는 식으로도 가능할지 모르겠다. 픽셀단위로 편광을 조작할 수 있는 방법을 찾아냈는지 이미 올릴대로 올려놓은 시간해상도를 반으로 나누려는 생각인지는 모르겠지만. 이에 발 맞춰서 영국에서는 SKY가, 미국에서는 DirecTV가, 그리고 이젠 가장 영향력 있는 케이블 채널이라고 할 수 있는 ESPN까지 3D 방송을 연내에 추진하겠다고 나섰다. 하드웨어에 컨텐트까지, 3D TV가 안방을 차지하리라는 것 역시 기정 사실이라고 할 수 있을 듯.


3D와 로봇이라... 솔직히 로봇은 UI와는 다른 방향을 향해서 발전해 나가는 것 같고 HRI 분야 역시 상품기획 측면의 담론만 지속될 뿐 실제적인 UI 디자인 수준에서는 별다른 진척이 없다. 그에 비해서 3D는 당장 UI 요소를 어느 depth에 위치시킬 것인가라든가 하는 실무적인 고민이 산적해 있는 상황이므로 앞으로는 이 분야의 논의가 점점 많아질 듯.

이제 Post-GUI라는 컨셉은, 모바일 기기에서는 터치 UI동작 UI, TV를 비롯한 AV기기에서는 3D UI라는 구도로 움직여 가는 듯 하다. 개인적인 바램으로는 컨텐트로서의 UI, 즐길 수 있는 Fun UI라는 방향도 좀 잡혀줬으면 하는데 말이지.



... 사실 이런 새로운 개념의 UI들이 실무에 적용되는 상황이 되면서, 블로그에 거기에 대한 글을 올리기가 점점 망설여지는 게 사실이다. 아무래도 연구 수준에서 하는 다루는 것과 취미(?) 수준에서 접근하는 것은 실제로 만들어보고 시행착오를 거치면서 배우는 것과 질적으로 큰 차이가 있게 마련. 실무 없이 이것저것 끼워맞추다 보면 뭔가 흰소리가 많이 끼어들게 되어 있고, 그러다 보면 무식과 경험부족이 탄로나는 것도 시간문제라고 생각한다.

결국 그저 입 닥치고 있는 게 제일 나은데, 뭔가 좀 아쉬운 마음에 잊을만하면 이런저런 글을 올리고 있다. 그러면서 정작 종사하고 있는 Fun UI 분야의 생각은 좀체 마무리가 되지 않아 나서지 못하고 있는 중.

아놔, 이 블로그 어쩌지 이거...
신고
Posted by Stan1ey
요새는 TV 광고 보다가 재미있는 거 간단히 소개한 글만 올리고 있는데, 그러다보니 스스로 좀 폐인같이 느껴질 때가 있다. ... 뭐 사실 그렇지 않냐고 하면 또 할 말이 없고. ㅎㅎ 어쩌겠나 그래도 자꾸 눈에 밟히는데.


이번에 눈에 띈 물건은 휴대폰 벨소리와 게임 등을 다운로드 받을 수 있게 해주는, Jamster 라는 회사의 광고에서 눈에 띄었다. 이름하며 eyeCall.

eyeCall being sold on Jamster

위 웹페이지에서도 볼 수 있듯이, 이 소프트웨어는 전화벨이 울릴 때 휴대폰의 카메라를 구동시키고, 카메라 앞에서의 움직임을 인식해서 벨소리를 진동이나 자동응답으로 바꿔주는 기능이다. 통신사에서 휴대폰 컨텐츠의 일거수일투족을 제한하는 우리나라의 상황에서는 이렇게 제3자에 의해서 공급되기가 힘든 소프트웨어지만, 사실 기술적으로는 일전에 언급했던 삼성 매직홀 휴대폰의 참참참 동작인식 게임과 다를 바 없겠다.

조금 더 찾아보니, 이 소프트웨어는 휴대폰 카메라를 통한 영상인식을 전문으로 내세우는 eyeSight 라는 회사에서 만든 물건이었다. 이 회사에서는 eyeCall 외에도 eyeCan (동작으로 4방향키 입력을 대체해서 음악재생이나 화면넘기기 등의 특정 작업을 도와주는 방식), eyePlay (동작으로 게임 속에서 '던지기' 동작 등을 입력할 수 있게 하는 방식) 등을 만들고 있다. ... 근데 웹사이트 자체는 컨텐츠가 온통 뒤죽박죽. 아래 동영상이 차라리 정리가 잘 되어 있다.



웹사이트와 위 동영상 내용을 조합해 보면, 비교적 열악한 카메라를 - 특히 최근 3G 네트워크에서의 영상통화를 위한 전면 카메라까지 - 이용해서도 안정적인 인식이 가능한, 다음 몇가지 동작을 수행하는 것 같다.

(1) 카메라 위에서 손을 한 방향으로 움직인다.
- 화면을 그 방향으로 스크롤하거나 다음 페이지로 넘기는 기능
- 미리 정해진 특정 기능 (예: 발신자에게 자동응답 메시지 보내기)
- 게임에서의 공격 기능 (예: 닌자 수리검 날리기)

(2) 카메라를 손으로 잠시 덮어둔다.
- 미리 정해진 주요 기능 (예: 벨소리를 진동으로 전환)

(3) 카메라를 손으로 짧게 덮었다 뗀다.
- 게임에서의 방어 기능 (예: 날아오는 무기 막기)


뭐 영상인식이다보니 어느 정도 조명이 있어야 한다든가 하는 제약은 있겠지만, 그래도 주어진 제약 하에서 기술을 활용할 수 있는 방법을 많이 꽤나 고민했을 것 같다. 휴대폰 카메라+CPU 정도의 수준에서 영상인식 기술을 적용함으로써 휴대폰의 움직임(=사용자의 동작입력)을 인식한다든가 심지어 사용자 얼굴의 움직임(=상하좌우 및 거리)을 인식해서 UI에 응용하려는 노력은 이미 여러 사례가 있지만, 그래도 이렇게 간단하나마 상용화한 팀이 있어서 반가운 마음에 스크랩.
신고
Posted by Stan1ey
Wand Remote - sold by Firebox.com
지난 주에 회사에 굴러들어온 광고지들을 버리다가 왼쪽 광고가 눈에 띄었다. Wand... remote... 흠. 모종의 연유로 꽤 익숙한 단어의 조합이다. 마법 지팡이 모양의 리모트 컨트롤러. 여러가지 동작을 인식해서 그걸 지팡이 끝의 적외선 LED를 통해 송신하는 방식이다. 위 홍보물에 적혀있던 웹사이트와 구글링을 통해서 이 "The Magic Wand Remote Control"를 개발한 회사를 찾아낼 수 있었다. 회사 이름 자체가 The Wand Company라고 한다.

The Magic Wand Remote Control

위 페이지에도 나와있지만, 이 물건을 이용해서 사용할 수 있는 주요 동작은 다음과 같다. 모두가 영화 <해리포터> 시리즈에 나오는 마법사가 지팡이를 휘두르던 동작을 연상하게 하는 모습들이다.

The Magic Wand Remote Control - Gesture

Flick Right: 오른쪽으로 세게 휘두르는 동작. 그 전에 반대방향으로 천천히 움직인 것은 무시된다.

The Magic Wand Remote Control - Gesture

Flick Down: 아래쪽으로 세게 휘두르는 동작. 역시 위쪽으로 움직인 준비동작은 인식하지 않는다.

The Magic Wand Remote Control - Gesture

Big Swish: 위에서 아래로 크게 휘두르는 동작. "연습이 필요함"이라고 되어 있다.

The Magic Wand Remote Control - Gesture

Volume Up: 지팡이 자체를 시계방향으로 돌리는 동작으로 소리 크기를 키운다. 물론 반시계 동작도 있다.

The Magic Wand Remote Control - Gesture

Single Tap: 지팡이 본체의 윗쪽을 톡 치는 동작. 한번 치기 외에 두 번 치기 동작도 인식한다.

The Magic Wand Remote Control - Gesture

Side Tap: 지팡이 본체를 옆쪽에서 톡 치는 동작. 이 경우에도 한번 치기와 두번 치기가 있다.


사용자 삽입 이미지
회사의 홈페이지에 올라온 사용설명서(달랑 한쪽짜리이긴 하지만, 제법 "마법 지팡이"의 느낌을 살려서 만들어져 있다)를 보면, 몇가지 응용동작이 추가로 나열되어 있다.

동작인식을 사용한 리모컨이라는 점도 그렇지만, 무엇보다 마법 지팡이라는게 있다면 이렇게 생겼겠구나 싶을 정도로 철저한 고증(?)을 거친 듯한 디자인과 마감을 가지고 있다는 게 이 제품을 꽤 주목받게 만들 것 같다.

그런데, 위 사용설명서의 내용이 HTI 및 UX 측면에서 재미있다고 여겨진 것은, 동작명령을 "Practice Mode"와 "Expert Mode"로 나누어 소개하면서 "Practice makes perfect." 같은 경구를 끼워넣었다는 점이다. 다른 인식기반의 HTI와 마찬가지로 동작인식도 입력된 동작을 명확히 구분하지 못하고 오인식이 일어날 수 있는데, 위에서 practice mode로 구분된 동작은 비교적 서로 구분이 분명한 종류이고, expert mode에 포함된 것들은 그 강약의 정도에 따라 오인식이 일어나기 쉬운 종류의 동작이다.

오인식률이 높은 동작을 마치 사용자가 연습이 부족해서 오인식이 일어난 것처럼 - 사실 기술적으로만 보자면 맞는 이야기지만 - 떠넘겼다는 건 보통 HTI 관점에서만 볼 때는 좋은 사례라고 할 수 없는 일이다. 하지만 UX 측면에서 생각해 보면 그 오인식을 극복하는 과정에 이야기와 의미를 부여하고 그걸 하나의 경험으로 승화시켰다는 측면에서는 훌륭한 사례가 될 수도 있다고 생각한다. 완벽한 동작이 이루어지지 않았을 경우에 일어나는 오인식이라는 단점을  오히려 UX의 진실성(authenticity)을 높이는 장점으로 활용한 것이다.



동작인식을 이용한 리모컨을 만들고, 거기에 "magic wand"라는 이름을 붙인 것은 사실 이 회사가 처음이 아니다. 국내에서도 이와 비슷하게 3축 가속도 센서를 이용해서 공간 상에 그려진 모양을 인식하는 리모컨의 프로토타입을 만들어 발표한 사례가 있는데, 이 연구에서 사용한 명칭도 바로 이 "magic wand"였다.



뭐 어쨋든, 이 "마법 지팡이"는 과연 상품으로서 성공할 수 있을까? 아래의 동영상을 한번 보자. (유투브가 없었으면 블로깅을 어떻게 했으려나 몰라.)


사용설명서를 다시 보면, 동작명령이 인식된 후에는 1~13번의 진동이 느껴지면서 동작이 과연 제대로 인식됐는지를 확인할 수 있도록 되어 있다. 일전에도 비슷한 사례에 대해서 언급한 적이 있지만, 이렇게 출력신호의 횟수만으로 정보를 확인하게 하는 것은 이해가 어려울 뿐만 아니라 언제 끝날지 모르는 반복 신호가 확실히 끝날 때까지 '기다리고' 있어야 한다는 단점이 있다.

위 동영상에서 가끔 보이는, 마법 동작 후의 어색한 기다림이 그 진동 피드백 때문인지, 적외선 신호가 늦게 송신되어서인지, 아니면 리모컨 입력 이후에 TV가 반응하기까지의 시간 때문인지는 분명하지 않다. 하지만 적외선 신호가 아니라 RF 신호를 이용하고, 서로 다른 입력에 대한 피드백을 LED 몇개로 표시하고, 지팡이 손잡이 한쪽에 압력 센서을 넣어 동작의 시작과 끝을 사용자가 자연스럽게 입력할 수 있게 했더라면 나름 인식률에도 기여하고 저런 어색한 기다림도 없지 않았을까 하는 아쉬움이 든다.

실제로 최근의 TV에는 RF 리모컨이 종종 적용되어 있지만, 아직 RF 신호는 제조사에서만 사용할 수 있는 듯 하다. 뭐 어쨋든 '마법 지팡이'라는 게 대기업이 만들만한 물건이라고 여겨질 것 같진 않지만. -_-a
신고
Posted by Stan1ey
최근에 아래와 같은 광고를 보게 됐다.



이 동작인식 게임기를 새로 소개한 회사 V-Tech은, 주로 아이들의 교육용 게임을  만드는 회사다. 상품 목록을 보면 디즈니, 픽사 등 주요 캐릭터 사업체와 제휴한 알파벳 게임, 숫자 게임, 기억력 게임 등이 각 연령대 별로 출시되어 있다. 기존의 주요 상품(V.Smile)은 비교적 전통적인 유선 조작기가 연결되어 있는데, 이번에 출시한 V.Smile Motion부터 동작센서가 들어있는 무선 조작기를 채용했다.

Vtech V.Smile Motion

게임 콘솔에 동작인식 센서을 처음 적용한 것은 Sony PlayStation의 SixAxis controller라고 할 수 있겠지만, 실제로 그걸 게임에 주요한 조작 방식으로 채용해서 시장에 소개한 것은 Nintendo Wii Remote라는 데에 이의가 있을 수 없을 것이다. 닌텐도가 활짝 열어놓은 동작인식 게임 시장이, 이제는 그 안에서 다시 전문화되고 있나보다. 위 광고에서 말하듯이 애들은 가만히 있지를 못하니까, 어쩌면 사회적으로 수줍어하는 어른들보다 동작인식을 이용한 조작에 좀더 적합할 수도 있겠고.

생각해 보면 동작인식으로 동작하는 전용 게임기라는 컨셉은 이전에도 있었는데, 그때 우리나라 백화점에서 찍은 사진을 어디에 뒀는지 못 찾겠다. 사진 찍은 것도 제품이름을 메모해 놓은 것도 기억이 나는데... 쩝 긴장이 풀렸나. -_-a;;
신고
Posted by Stan1ey

BLOG main image
by Stan1ey

카테고리

분류 전체보기 (347)
HTI in General (45)
User eXperience (11)
Voice UI (50)
Vision UI (14)
Gesture UI (25)
Tangible UI (28)
Robot UI (14)
Public UI (9)
Virtuality & Fun (56)
Visual Language (15)
sCRAP (70)

글 보관함



www.flickr.com
This is a Flickr badge showing public photos and videos from Stan1ey. Make your own badge here.