iPhone 5 Wishlist

2011.10.04 06:13
애플의 "Let's talk iPhone" 행사가 코앞으로 다가왔다. 매번 새로운 OS 버전이 발표될 때마다 내심 혁신에 대한 기대를 하게 하는 아이폰이지만, 이제 모바일 상황에서 쓸 수 있는 센서들은 대충 (2개 빼고) 다 들어갔고 MobileMe에서 환골탈태한 iCloud 서비스의 새로운 윤곽도 많이 알려진 터라 뭐 또 새로운 게 나올까 싶긴 하다. 요컨대 출시하기 전부터 새로운 기능들이 식상해지고 있는 희한한 형국인데, 주요 업데이트인 만큼 큰 변화들이 많아 그 와중에 별로 주목을 받지 못하고 있는 소소하지만(?) 재미있는 기능들이 많다.

실제 발표가 되기 직전이니만큼 조금 무모한 포스팅이지만, 그래도 그런 기능들에 개인적인 소망-_-을 담아보자면 이렇다.


Magic Home Button

iPhone 5 CAD Drawing - Wider Home Button
아이폰의 홈버튼이 커지고, 제스처 기능이 들어간다는 건 이제 기정사실화 되어있는 것같다. 이 이야기는 소문만 있는 게 아니라 이미 아이폰 케이스를 만드는 업체를 통해서 도면까지 나왔는데, 결국 어떤 동작이 사용되느냐에 대해서는 어째 그다지 구체적인 소리가 없다. 동작이라는 힌트를 바탕으로 멋대로 추측성 "소설"을 써보자면 (요새 이게 유행이라면서 -_- ), 아마도 애플은 이미 Mighty Mouse와 Magic Mouse에서 보여줬던 물리 버튼과 터치센서의 조합을 보여주지 않을까 싶다.

Touch Sensor Layout inside Apple's Mighty Mouse

처음 나왔던 "마이티마우스"는 멀티터치 동작을 지원하는 매직마우스와 달리 (저렴하고) 단순한 기술의 조합이었는데, 하나의 플라스틱 표면에서 어느 부위에 손가락이 닿아있는냐에 따라 왼쪽 클릭과 오른쪽 클릭을 구분하고, 몸통 전체가 통채로 버튼 역할을 함으로써 물리적인 입력을 가능하게 했다. (왼쪽 그림을 보면 좌우로 한쌍의 터치센서가 펼쳐져 있음을 볼 수 있다.)

그리고 유출된 아이폰5의 넓다란 홈버튼에도, 딱 손가락 3개 폭만큼의 터치센서를 올릴 수 있어 보인다. 3개의 영역만 구분되면 좌우로 쓸기(swipe) 동작은 인식할 수 있을테고, 그렇다면 이런 식의 활용이 가능하지 않을까? 내멋대로 이름하여 유치찬란한 "매직홈버튼"이다. ㅎㅎ


Magic Home Button for iPhone 5
요컨대 기본적으로 홈버튼 위의 세 영역 중 한 곳에 손가락을 얹고 누르면, 그 위치에 따라 다른 동작을 하는 조작이 가능할 것이다. 여기에 추가로 버튼을 누르기 전이나 후에는 좌우쓸기 동작을 이용해서 몇가지 변용을 추가할 수 있겠다.

  • 홈버튼을 눌러서 화면을 켜고 홈스크린이 나오면, 홈버튼 자체에서 "slide to unlock" 동작을 할 수 있다.
  • 멀티태스킹을 지원하는 상황에서 버튼에 손을 올리면, 오래전부터 소문만 많았던 Mac OS의 Expose 같은 화면을 보여주다가 좌우쓸기로 불러올 기능을 선택할 수 있다.
  • Springboard나 웹브라우저 등 여러 페이지를 앞뒤로 넘길 수 있는 상황에서는, 이 좌우쓸기 동작이 페이지 넘김과 연동될 것이다.
  • 홈버튼을 클릭해서 자주 쓰는 기능을 구동하는 기능은, 버튼의 어느 영역에 손가락을 올리고 눌렀느냐에 따라 다르게 수행될 수 있다. 한번 눌러 홈스크린을 띄우거나 첫페이지/검색페이지로 가는 기능은 어떨지 몰라도, 두번 혹은 세번 누르는 기능은 이로 인해서 몇 배로 다양한 기능을 할 수 있게 된다.
... 아님 말고.


Voice UI
Voice UI Setting for iOS5, partnered with Nuance
iOS5에서 음성 UI를 본격적으로 지원한다는 것 또한 사실상 확정된 것같다. 애플은 이미 MacOS와 iOS에 구현된 VoiceOver 기능을 통해서 검증된, 쓸만한 음성합성 엔진을 갖고 있다. 하지만 음성인식 분야에서는 그닥 눈에 띄는 활동이 없었는데, 지난 몇달간 그 분야의 일인자라고 할 수 있는 Nuance사와 온갖 소문이 다 났다. Apple와 Nuance는 이전에도 협력관계에 있기는 했지만, 한때는 애플이 아예 뉘앙스를 사버린다는 소문도 있다가, 결국은 그냥 어느 정도 선에서 합의한 모양이다. (사실 애플이 실제로 뉘앙스를 가져가 버렸다면, 뉘앙스 외에는 구글의 Android를 쓰는 것 말고 딱히 음성인식 대안이 없는 휴대폰 제조사들로선 청천벽력같은 상황이 될 수도 있었다. -- 뭐 VUI에 대해서 신경이나 쓴다면 말이지만.)

어쨋든 저 앞의 설정화면에 드러난 대로라면, 관련된 옵션이 새로 최소한 3개는 들어가는 것 같다. 우선 가장 흥미있는 것은, Android에서 구현되어 몇번 언급했던 가상 키보드의 "음성 버튼"이다. "Mic on space key"라고 묘사된 저 기능은 왠지 스페이스(공백) 키 자체에 마이크를 표시하고 이를 길게 누르거나, 심지어 누르고 있는 동안(push-to-talk; PTT) 음성인식을 할 수 있도록 할 것같다.

출시할 때 이름이 바뀌긴 할테지만, 그 외에 "Nuance Dictation"이나 "Nuance Long Endpoint Detection"이라는 옵션들은 감히 "받아쓰기(dictation)"를 언급했다는 게 특히나 놀랍다. 사실 이미 구글은 물론 우리나라의 인터넷 포털까지 자유발화를 통한 음성검색을 지원하고 있는 마당에, 사실 더이상 빼기도 뭐 했을게다. 남은 건 과연 이 음성인식을 어느 범위로 지원하냐는 건데, 과연 아이폰 내의 기능으로 제한될지, 음성을 통한 인터넷 검색까지 지원할지, 아니면 기왕 Dictation을 넣은 김에 새로 들어가는 iMessage나 이메일의 음성 받아쓰기를 포함시킬지, 혹은 심지어 모든 키보드 입력 상황에서 음성입력의 대안을 제공하는 소위 "Hybrid VUI"까지 구현할지 말이다. 아니 기왕 꿈을 꾸는 김에, 일전에 인수한 대화형 검색엔진 Siri의 기능을 몽땅 아이폰에 넣어서 제대로 된 대화(nested adjacent pair 등을 포함한) 로 대부분의 PIMS를 이용할 수 있도록 한다면? ㅎㅎ (물론 보통 이런 상황에서는, 애플은 보수적인 접근을 택해서 나를 실망시키곤 한다.)

끝으로 "Long EPD"라는 옵션도 아마 PTT 기능과 관련해서, 버튼을 누르고 떼는 순간과 음성발화에 공백이 있는 순간을 비교해서 음성인식에 유리한 발화를 선택하는 기능이 아닐까 싶다. 실제로 그렇게 된다면 '그런데 그 일이 정말 일어났습니다!' 라는 느낌일 듯 하지만.

한가지 확실한 것은, 만일 이 기능들이 출시되는 iPhone 5에 그대로 들어간다면 더이상 장애인 접근성에 포함되지 않을 거라는 거다. 그렇게 된다면 -- 안드로이드에 이어 아이폰에까지 주요 사용방식으로 음성이 적용된다면 -- Voice UI도 사용자 인터페이스의 주류에 들어갔다고 말할 수 있겠지.

... 하지만 역시, 그런 일이 일어날까나. -_-a;;


Assistive Touch
iOS에서의 장애인 접근성 기능 중에도 추가되는 기능이 있다. 이전 버전에서는 다이얼을 돌리는 동작을 하면 그 상대적인 회전 각도에 따라 다른 기능을 실행시키는 Rotor라는 기능이 있었는데, 이 방식은 상하좌우가 비슷하게 생긴 iPhone이나 iPad에서는 특히 전맹인(全盲人)을 고려할 때 꽤 괜찮은 접근이었다고 생각한다. 그런데, 이번 방식은 반대로 장치의 방향을 안다는 전제 하에, 특정 위치에 손가락을 댄 후에 화면 중앙에서 상하좌우의 미리 설정한 방향으로 손가락을 움직이면 해당 기능을 선택할 수 있다.

Assistive Touch in iOS5



위 동영상에서 볼 수 있듯이, 손가락을 움직여서 구동시킬 수 있는 기능 중에는 멀티터치 기능도 있어서 여러 손가락을 자유롭게 움직일 수 없는 지체장애인의 경우에도 멀티터치 동작명령을 쓸 수 있게 해준다.

Assistive Touch in iOS5 - Custom gesture
유출된 왼쪽의 설정화면에 따르면, 이 기능을 쓰기 위해서 처음 터치해야 하는 지점(adaptive accessory?)은 미리 설정된 터치 제스처(가로 지그재그)로 활성화시킬 수도 있는 것같다. 이 동작은 사용자가 바꿀 수도 있는데, 어쩌면 그 동작이 다음에 뜨는 pie menu의 방향성을 결정할 수도 있겠다. Pie menu는 최대 8개까지의 기능을 설정할 수 있는데, 이런 방향 버튼의 조합은 다양한 장애인 보조기술(assistive technology)에서 지원하고 있는 입력으로 접근가능한 웹사이트 UI 설계 지침에도 들어가는 대목이기도 하다.

사실 장애로 인한 니즈가 없는 일반 사용자의 경우에도, 이 방식은 주머니 속에 손을 넣은 채 주요 기능을 사용하게 해줄 수 있을 것같다. 어쩌면 Universal Design의 개념과 맞물려 좋은 사례가 되어줄지도...?


Deep touch
설마 하니 아닐 거라고 생각하긴 하지만 -_-, 어쩌면 이번 아이폰5에는 터치 이전에 손가락의 감지를 느낄 수 있거나, 터치 이후에 압력 혹은 클릭을 느낄 수 있는 방법이 들어가지 않을까. 화면 자체는 아니더라도, 앞서 말한 방식의 터치방식의 홈버튼이 구현된다면 터치와 클릭/압력을 조합해서 제한된 범위나마 딥터치가 구현될지도 모르겠다.

Deep Touch

Apple Mighty Mouse

앞에서 적었듯이 "마이티마우스"의 기술이 아이폰의 홈버튼에 들어간다면, 사실 누군가는 그 제품에서 별로 빛을 보지 못한, 하지만 사실은 꽤 중요한 기술을 재검토했을지 모른다. 바로 마이티마우스의 양쪽에 있는 압력센서. 아이폰5의 홈버튼이 단순한 물리 스위치가 아니라 압력센서를 겸하는 것이라면 그것도 재미있는 딥터치 사례가 되겠다. 실제로 그 마이티마우스의 사례처럼, Expose 화면들의 축소 정도가 압력에 따라서 결정된다면 사용자는 화면을 완전히 전환하지 않고도, 자신이 필요로 하는 만큼만 정보를 훔쳐볼 수 있을 것이다. ... 하지만 다른 버튼도 아니고 홈버튼에 그런 불안한 아날로그 센서를 넣으리라는 기대는 나로서도 좀 무리. =_=

... 이러나 저러나, 역시 이건 그냥 개인적인 소망일 뿐이다.


NFC/RFiD
이게 언제부터 나오던 이야긴데 아직도 안 넣냐. -_-;; 루머에 따르면 애플에서는 아직 그 상품화 필요성을 못 느끼고 안 넣으려고 하는 것같지만, 이미 안드로이드 스마트폰에서는 이를 이용한 어플리케이션을 이용해서 아이폰과 차별화가 이루어지고 있고, 얼마전에는 Google Wallet이라는 서비스가 나오면서 이 방식이 아예 주류 통신채널 중 하나로 급부상하고 있다.

즉 이 대목에서 애플이 iOS에 NFC를 포함시키지 않는다면 안드로이드 기기와 비교될 수 밖에 없을테고, 따라서 그런 결정은 내리지 않을꺼라고 기대하고 있다. 애플 입장에서는 소위 "iTunes 생태계(eco-system)"에 다른 결제 방식이 끼어드는 것을 싫어하는 게 당연하다. 그래서 In-App 결제니 뭐니 만들면서 앱에서 직접 결제하려고 할 때마다 어떻게든 막아왔는데, 이제 와서 전자지갑이니 앱을 통한 인증이니 결제니 하면서 통제할 수 없는 돈의 흐름이 생기는 게 내키지는 않겠지.

... 그래도 이것만큼은, 이번에도 안 들어간다면 애플이 너무 욕심이 많은 거다.



여기까지. 사실 이런 예측... 혹은 제목에 적었듯이 희망사항들(wishlist)이 얼마나 애플의 의사결정권자들의 생각과 맞을지는 모른다. 저번에 그랬듯이 대박 틀릴 수도 있겠지. 단지 정식으로 공개되기 전까지는, 내 생각을 한번 정리해 보고 싶었다.

이건 그저, 후견지명의 오류에 빠지지 않으려는 애플 빠돌이의 몸부림일 뿐이다.
Posted by Stan1ey

댓글을 달아주세요:: 네티켓은 기본, 스팸은 사절

  1. 2011.10.04 14:30
    댓글 주소 수정/삭제 댓글
    slide to unlock을 click + swipe 두동작이 아니라 press and swipe로 한 동작에 할 수도 있을 것 같습니다. 실제로 이런식의 제스처를 매직트랙패드에 지정해서 잘 쓰고 있거든요.
    홈버튼 tap 만으로 기능을 수행하는건 안 할 것 같습니다. 안드로이드 터치 버튼들의 오조작이 많아서 홈이동 키 정도는 다시 하드키로 바꾸는게 대세인 것 같거든요.

    • 2011.10.04 20:11
      댓글 주소 수정/삭제
      press(hold) 상태의 swipe 조합도 검토하긴 했는데, 전 아무래도 내구성이 걱정되더라구요. 클릭 후 손가락을 떼지않고 swipe하는 게 가능하다면 사용자 입장에선 어차피 한동작 chunk로 인지될테고, 계속 누르고 있어야 하는 스트레스도 없겠다 싶었습니다.

      홈버튼을 터치버튼처럼 tap으로 구동시키게 하지 않을 꺼라는 건, 저도 100% 동감입니다. 본문에서처럼 버튼 클릭에 연결된 기능(Expose?)의 preview 역할이 제격일 것 같아요. 터치는 어느 부분이 눌렸느냐를 구분하는 기능이 주가 될겁니다. (만일 이런 구성의 물건이 나와준다면... 말입니다만 ㅋ)
  2. 2011.10.05 08:19
    댓글 주소 수정/삭제 댓글
    ... 쿠헐. 후견지명의 오류에는 빠지지 않은 것같지만, 이 얼마나 실망스러운 발표였는지. ㅡ_ㅡa;;; 결국 Assistive Touch야 원래 알려진 내용이니 그렇다 치고, Voice UI가 확대된다면 정말 좋겠네..했던 내용이 엉뚱하게도 들어맞아 버렸다. 넓어진 홈버튼을 전제하고 말한 내용은 죄다 헛방망이. ㅡ///ㅡ;;;

    적어도 데모를 보자면 음성대화 기능(Siri)은 홈버튼을 길게 눌러 대화를 시작하고(아마 처음에만 그렇게 시동하고 이후부턴 마이크 아이콘을 tap해서 시동하는 듯), nested adjacent pair를 지원하는 것같다. 대화설계에 있어서 겹쳐진 대응쌍을 다룬다는 건 현실적으로 불가능하다고 생각했는데, 이 기능이 실생활에서 가능한 수준인지는 이제 보면 알겠지. 어쨋든 예상을 크게 윗도는 활용도를 보여준 VUI 였다. 다른 앱들과도 연동이 된다니 그게 어떤 식일지 궁금할 뿐.

    Voice UI를 이 정도 수준까지 끌어올려 적용해 준 것은 정말 좋지만, 이렇게 고난이도의 음성인식과 대화설계라니... 과연 실제 사용자들이 쓸 때도 데모처럼 유용한 상황만 벌어질지, 아니면 음성인식 오류와 대화설계 오류의 중첩으로 욕만 먹고 사라지게 될지 두고 볼 일이다.

    결국 이번 아이폰도 안 사게 될 듯. 지금 쓰는 iPhone 3가 거의 맛이 갔는데 일났네... =_=a;;;

얼마전 정식 출시된 Mac OS X의 신버전에, 요상한 스크롤 방식이 도입된 모양이다. 며칠 전에 마침 옆자리 프로그래머가 갑자기 투덜투덜 거리고 있길래  물어봤더니, 스크롤링이 개판이야...라고 군시렁대고 있었다. 오늘 NY Times의 컬럼을 받아보고 그 이유를 상세히 알 수 있었다.

http://pogue.blogs.nytimes.com/2011/07/28/zen-and-the-art-of-scrolling/

재미있지만 상세하게 써 놨으므로 터치스크린 UI와 데스크탑 UI를 오가며 작업하시는 분들은 한번 읽어보고 고민해봄직 하리라 생각한다. 요새 마이크로소프트에서도 Natural UI를 열심히 밀고 있지만, 사용자 인터페이스라는 게 과연 본질적으로 "자연스러움"을 추구할 수 있는 건지, 혹은 그렇다고 하더라도 그걸 무슨 원칙처럼 적용해야 하는 건지에 대해서 좋은 사례가 되어줄게다.

How to Deselect Natural Scroll Direction, on Mac OS X Lion


위 그림을 훔친 C|net 기사에서는, 심지어 다른 OS를 쓰다가 이번 버전의 Mac OS X를 쓰게 됐을 때, 기존 UI들에 익숙한 사용자가 어떻게 설정을 바꾸면 되는지에 대해서 안내하면서 그 첫번째로 이 "natural" 스크롤 방향을 deselect 하라고 되어 있다. 재미있는 상황.

십년쯤 전에 NUI라는 용어를 들고 나왔던 분들, 그리고 요새 몇몇 회사에서 NUI를 슬슬 화두로 몰고가는 분들... 모두 너무 몰아붙이다가 주화입마에 빠지게 되는 일이 없기를.

뭐, 끗.
Posted by Stan1ey

댓글을 달아주세요:: 네티켓은 기본, 스팸은 사절

  1. 대곤
    2011.07.29 18:51
    댓글 주소 수정/삭제 댓글
    저도 라이언 깔고 제일 처음 한게 저 '자연스러운 스크롤' 설정 찾아서 꺼버린거; 지덜두 사용자들 놀랄까봐 걱정되었는지, 설치 다하고나서 튜터리얼(?)을 넣어두었더군요. 실소가 새어나왔습니다.
  2. 2011.07.30 23:18
    댓글 주소 수정/삭제 댓글
    오랫만의 글 반갑습니다! 저도 라이온 깔고 스크롤 바꾸는 것부터 했네요. 예전 맥북을 쓰고 있는데 라이온을 까니 메모리가 부족해서 맥북 업그레이드를 위한 OS라는 생각도 드네요. 더 편해진 인터페이스를 위해 램 8기가를 투자한 느낌이네요.ㅎ
  3. 2011.08.01 09:50
    댓글 주소 수정/삭제 댓글
    저처럼 아이패드를 주로 쓰던 사람들에겐 그리 이상하지 않은 스크롤 방식이라고 생각됩니다. iOS와의 통합을 위해서 진행되고 있는 일이겠죠?
    글이 참 오래간만이라 반갑네요 :)
  4. 2011.08.01 13:48
    댓글 주소 수정/삭제 댓글
    오래간만에 글로 뵙네요. ㅎㅎㅎ
    사실 이런 부분은 오히려 게임 쪽에서 먼저 적용한 사례가 많은 것 같은데, 예를 들자면 번지의 명작 FPS인 HALO에선 사용자가 위/아래를 쳐다볼 때 마우스를 어떻게 움직이는가 알아보이기 위해 아래와 같은 과정을 거치게 하죠.

    1. 일단 원하는 위치까지 이동하게 한다.
    2. 수트를 입히고, 고개를 위로 올려보라고 한다. 이 때 움직이는 방향이 머리를 드는 방향으로 고정.
    3. 재차 확인한다.
    4. 끗!

    어찌보면 좀 번거러울 수도 있지만, 사용자의 깜놀을 막기 위해서 한 번쯤 고민해볼 수도 있었을텐데 말이죠.
    (게다가 번지 소프트는 원래 맥용 FPS 만들던 회사... 애플이 인수하려고 했었죠 ㅎㅎㅎ)

    여튼 이런 저런 생각이 드네요. 끗.
  5. 2011.08.01 18:39
    댓글 주소 수정/삭제 댓글
    저도 브라우저 스크롤을 위해서 기능을 바꾸긴 했는데..
    문제가 자연스러운 스크롤 기능을 꺼버리면... 주로 브라우저에서 쓰는 세로 스크롤은 좋아지는데... 라이언에서 화면을 전환하는 가로 스크롤 기능은 오히려 제가 기대한 방향과 반대가 되더란... 이래저래 헷갈려서... 그냥 손이 적응하길 기다려야 할 듯..

UX Design on KINECT

2011.01.16 15:48
지난 몇 개월간 키넥트 플랫폼을 이용한 게임개발 프로젝트에 참여하면서 UI 설계를 담당했다. 인터넷 상의 리뷰를 보면 사용자들은 비교적 긍정적인 인상을 많이 받고 있는 것 같지만, 새로운 UI를 설계하려는 입장에서 마이크로소프트의 담당자들과 이메일을 주고받다보면 역시 새로 상용화된 기술답게 나름의 제약점이 많다.

홍보되는 것처럼 "사용자의 동작을 입체적으로 인식"한다고 하기에는 조금 기술적인 어폐가 있고, 일반적인 동작 UI 디자인 가이드라인 외에도 적외선 거리인식 센서의 입력값과 카메라를 통한 영상처리 결과가 키넥트 시스템을 통해서 어떻게 조합되는지를 이해하고 그에 맞춰 동작입력을 선택하는 게 중요하다고 하겠다. ... 쓰고보니 당연한 소리를. ;ㅁ; Kinect 센서의 구성이나 특성에 대해서는 예전의 블로그 글이나 인터넷 검색, 혹은 의외로 잘 퍼지지 않은 동영상 자료지만 유용한 정보가 상당히 많은 <Inside Xbox> 인터뷰들을 참고하시면 좋을 듯.

가장 중요한 점은, 사실 이 시스템에서 거리센서는 사용자의 몸 "영역"을 배경과 바닥으로부터 분리시키는 데에만 사용되고, 정작 팔다리를 인식하는 건 주로 카메라로부터의 영상처리에 의존하는 것 같더라는 것이다. 그러니 팔을 앞으로 뻗어 몸통을 시각적으로 가린다든가 하면 바로 자세인식에 문제가 생기고, 그러니 별도의 신호처리 없이 시스템에서 입력받을 수 있는 자세정보(각 부위의 위치와 각도)라는 것은, 카메라에서 봤을 때 큰대(大)자 자세에서 팔다리를 위아래로 휘젓는 정도다. (이보다 복잡한 동작이 아예 인식되지 않는 건 아니지만, UI는 고사하고 게임용으로 쓰기에도 오인식률이 높다.) 결국 제대로 3차원 인식이 아닌 2.5차원 인식방식이다보니 생기는 이상과 현실의 괴리랄까.

그렇다보니 그 멋져보이는 자세인식은 직접적으로 UI에 쓰이지 않고, 실제로는 인식된 특정부위(예: 손)의 위치를 커서위치에 대응시킨다든가, 특정부위까지의 거리변화를 입력으로 삼는다든가(예: 팔 휘둘러 내밀기) 하는 식으로만 매핑이 되고 있다. 사실 그것만으로도 기존에 없던 제법 재미있는 UI를 만들 수는 있지만, 실제로 브레인스토밍 중에 나왔던 수많은 멋진 동작 UI 아이디어들을 추려내다 보면 아쉬움이 이만저만이 아니다.

Gesture Command by SwipeGesture Command by Hand-Cursor

참여했던 프로젝트에서는 이런저런 제약점들을 피해서 나름대로 Wii Remote로 프로토타입도 만들어가며 최선의 UX 설계를 하려고 애썼는데, 실제로 제품이 출시되는 올 하반기가 되어야 이런저런 이야기를 풀어놓을 수 있을 듯. 그때쯤 되면 죄다 당연한 소리가 될지도 모르지만.

얼마 전 Jacob Nielsen도 <Kinect Gestural UI: First Impressions>라는 컬럼을 게재했는데, 키넥트 플랫폼에서 사용성을 고민하고 있다면 대체로 유용한 관점이라고 생각한다. 보아하니 나중에 유료 컨텐츠/세미나로 팔아먹기 위해서 말을 아낀 것 같기는 한데, 그렇다고 해도 게임 UX의 큰 목적(개인적으로, 재미와 탐사는 게임 뿐만 아니라 그 UI를 사용하면서도 느낄 수 있어야 한다고 생각하기에)이라든가 동작입력의 특성(중력장 안에서 상하움로 움직인다는 건 평면 상에서 마우스를 굴리는 것과는 또 다르다)을 고려하지 않은 지나치게 전통적인 (그리고 '웹'스러운) 발언들은 좀 아쉽다. 또한 현재 출시되어 있는 키넥트 기반 게임들 중에서 가장 나은 사용성을 보이고 있는 <Dance Central>의 경우는 상당한 시행착오와 고민 끝에 나온 나름의 최적안이라고 볼 수 있는데, 그 부분이 약간 평가절하되어 있는 부분은 너무 평가자의 시점에서만 이야기하고 있다고 느껴졌다. 그런 건 UI에 관심만 있고 실제로 책임지고 디자인하지는 않는 사람이 쉽게 취하는 입장인데.



어쨌든 사람들이 이 KINECT 플랫폼에 대해서 갖고있는 질문은 "키넥트 게임이 재미있나?" 라는 것과 "키넥트 기반의 동작 UI는 쓸만한가?"로 정리된다.

(1) 게임은 재미있나: 재미있다. 그런데 '어떤' 게임이 재미있는가에 대해서는 아직 장르를 많이 타고, 그 장르에서 어떤 방식으로 KINECT 플랫폼을 활용하는지는 현재 시행착오가 진행 중이다. 관련 리뷰들을 보면 알겠지만 마이크로소프트에서 번들로 주는 게임들보다 오히려 <Dance Central>의 리뷰점수가 높고, 더 재미있다. 하지만 그 게임은 아직 KINECT를 100% 활용하지 않고 있다. KINECT 센서를 보면 이런저런 가능성은 높은데, 단가를 낮추기 위해서 프로세서를 빼는 바람에 쓸 수 있는 입력값은 정말 단순한 내용 밖에 없다. 그런 입력값을 처리하는 엔진이 탑재된 게임이 나오면 (혹은 MS에서 API를 업데이트해주면) 그 잠재력이 최대한 발휘되리라 생각한다.

(2) UI로 쓸만한가: 한계가 뚜렷하다. 기술 자체라기보다는 플랫폼에 의한 한계가 많은데, 이를테면 320x240의 해상도로 전신을 잡으면 손/발/머리의 움직임은 사실 거의 잡지 못하고, 중첩이나 회전을 감지하는 건 상상도 못한다. 결국 앞에서 말했듯이 UI에 사용되는 동작명령도 팔다리를 허우적거리는 수준으로 큼직큼직하게 만들어야 하고, 팔다리가 신체의 다른 부위를 가리지 않아야 하기 때문에 흔히 비교되곤 하는 영화 <Minority Report>의 동작 UI와는 상당한 거리가 있다. MS에서도 이 문제를 해결하려고 해상도를 두 배(640x480)로 늘리겠다고 했지만, 그래도 손동작을 UI에서 쓸 수 있는 수준으로 인식하는 건 어렵다고 본다.

Body Tracking on KINECT
(한 가지 첨언하자면, 위의 해상도는 소프트웨어적으로 조정이 가능한 각해상도 angular resolution 이다. 따라서 이론적으로는 일시적으로 특정부위 - 얼굴이나 손 - 에 해상도를 집중해서 더 자세한 자세정보를 얻는 것도 가능하지만, 현재 API에서는 지원하지 않는다.)

결국 이런 방식의 동작인식 시스템이 주요 UI 장치로 쓰일 수 있는 경우는 무척 좁을테고, 여기에 관심을 보이는 실무 디자이너들에게 돌아올 궁극의 질문은 이번에도 꽤나 신랄할 것이다: 그 센서로 인한 단가상승만큼 중요하고 필요한 조작인가? ... 여기에 확실히 그렇다고 할만한 물건은 아니다. 단지 과거 터치스크린이 그랬고 전자나침반도 그랬듯이, 제한된 용도일지라도 그 유용함이 확실하다면 남들보다 앞서서 고려해야 하는 세상이라는 점을 강조하는 수 밖에.

개인적으로 흥미롭게 보고있는 것은 키넥트 출시 이후에 줄줄이 등장하고 있는 해킹 사례들이다. 특히 기존에 동작/영상인식을 하던 사람들이 가장 신나하는 것같고, 그외에 컴퓨터 그래픽에서도 3차원 영상으로만 가능한 재미있는 사례가 속속 나오고 있다. 하지만 진짜 기대되는 것은 이 Kinect와 Wii Remote를 동시에 사용하는 (해킹) 어플리케이션이다.

키넥트는 전신의 움직임을 잡아내는 데에는 유용하지만 메뉴를 선택한다든가 총을 겨냥해서 쏜다든가 하는 세밀한 움직임이 불가능하다. 거기에 그걸 제대로 해줄 수 있는 장치(게다가 가상의 물체에 매핑될 수 있는 물리적 장치)를 더한다면 그야말로 동작인식에 날개를 단 형국이 아닐까. 이미 둘 다 해킹이 되어 PC에서 연동이 되고, 특히 Flash 등 인기있는 시각화 도구와도 바로 연결이 된다. 바로 며칠 전에 변형된 게임에 이를 적용한 사례가 올라오긴 했지만, 단순히 입력값을 조작에 연결시킨 수준일 뿐 각 장치의 잠재력과 시너지를 충분히 발휘했는지는 모르겠다.



아마 기존의 컨트롤러와 Kinect를 동시에 (아마도 Kinect는 보조적/선택적인 입력으로) 사용하는 Xbox용 게임이 올해 중으로는 발표되리라는 생각이 들지만, 우선은 그 전에 오는 5월의 CHI 2011 학회에서 그런 조합이 몇 건 나와주지 않을까 하는 기대를 하는 중이다.

Wii Remote, Kinect, 3D TV, ... 판이 점점 재미있게 돌아가고 있다.




... 뭐가 "짧게 짧게"냐. ㅡ_ㅡa
Posted by Stan1ey

댓글을 달아주세요:: 네티켓은 기본, 스팸은 사절

  1. 2011.01.18 18:27
    댓글 주소 수정/삭제 댓글
    얼마전에 dance central하고 복싱게임을 kinect로 해보면서 가졌던 의문이 좀 풀리네요. 팔을 정면으로 뻗어도 좌우로 휘젓는 사람을 이길 수 없었거든요. 그리고 kinect의 UI가 왜 특정 위치에 신체가 유지되는 interval을 측정하는 방식으로 되어있는지도 좀 알게됐습니다. 잘 읽었습니다 ^^
    • 2011.01.18 19:51
      댓글 주소 수정/삭제
      결국 알고리듬 자체는 IF문(특정 신호가 주어진 범위에 들어하는가..하는 조건문)이고, Kinect에서 처리하는 신호는 어느 정도 떨어져 있는 물체(아마도 플레이어)의 각 지점까지의 거리니까요. 거기에 영상인식으로 신체구조까지 인식하면, 좀 불안하나마 오른손/왼쪽 손/발 정도를 추가로 인식할 수 있게 되는 거죠. 말씀하신 Kinect Adventure의 경우에는 MS의 원래 욕심대로, 신체구조 인식을 좀더 적극적으로 사용한 것 같았습니다. 다른 스튜디오에서 만든 게임들은 인식이 안 되는 건 과감히 버리고 게임의 재미에 집중하고 있어요. 그러다가 처참하게 실패한 사례도 있지만. ㅎㅎㅎ
  2. hyunnam
    2011.01.24 11:51
    댓글 주소 수정/삭제 댓글
    이상한 점이 있습니다. 키넥트 센서(적외선발광+센싱)가 배경과 사용자를 분리하고 일반RGB카메라를 이용하는것 같다(?)라고 되어 있는데 RGB카메라를 가리고 해보셨는지요? RGB카메라로 pose를 인식하는게 더 어렵습니다. 그리고 손을 앞으로 뻗는다던가 하는 것도 잘됩니다. 키넥트 튜너에서 kinect adventure 타이틀을 삽입하면 skeleton이 나오기때문에 쉽게 알 수 있습니다. 타이틀이 없으면 머리와 손만 인식이 되더군요. 키넥트 게임 개발에도 참여하셨다고 하는데 잘못 알고 계시는것 같네요.
    • 2011.01.24 21:15
      댓글 주소 수정/삭제
      카메라를 가리고 검은 영상으로 만들면 아래 동영상 7분에 나오는 장면처럼 암흑 속에서 Kinect를 쓰는 것과 같은 상황이 되겠죠? 이 경우에도 인식은 됩니다만, 그 인식은 적외선 센서가 배경으로부터 분리한 이미지로부터 된다는 게 제 추측입니다.
      http://youtu.be/ZrYMda9fNug

      키넥트 튜너에서 손을 앞으로 뻗어 몸통을 시각적으로 가려보시면, 몸통 부분의 skeleton이 엉클어지는 것을 볼 수 있습니다. 키넥트 센서의 거리정보를 자세인식에 이용했다면 이런 일이 없어야 할 것 같아서 말이죠. 또한 팔의 3차원 자세를 실시간으로 UI에 이용하려고 해봤는데, 마이크로소프트로부터 "추천하지 않는다"는 의견을 들었습니다. 제가 보기엔 적외선 정보로 배경/사용자를 분리한 다음에, 사용자 이미지를 사전에 학습된 자세DB에 매칭시켜 제시하는 듯 합니다.

      사실은 이 내용에 대해서 마이크로소프트의 담당자에게 단도직입적으로 질문도 해 봤는데, 제대로 된 답변은 못 듣고 "앞으로 더 개선될 거다"라고만 하더군요. 따라서 저도 아직은 심정과 정황증거만 있고 물증은 없는 상황입니다. 하지만 이미 출시된 대부분의 게임에서의 자세인식이 대부분 정면 큰대자를 기본으로 하는 데에는 나름의 이유가 있다는 게 나름의 결론입니다.

      제가 파악한 내용이 최소한 제가 참여하고 있는 프로젝트 진행에는 도움이 됐습니다만, 분명 오류가 있을 수 있으므로 hyunnam님이 뭔가 물증을 제시해 주신다면 더없이 환영하겠습니다.
  3. hyunnam
    2011.01.25 15:43
    댓글 주소 수정/삭제 댓글
    프로젝트에 도움되시길 바라며 다시 말씀드리면 depth 영상 기반 skeleton 모델이 확실하다는 겁니다. 손을 앞으로 뻗으면 이상해지는 것 자체가 증거입니다. 손을 뻗으면 적외선광선이 가리기 때문에 몸통부분에 occlusion이 생깁니다. 그러니 당연히 skeleton 형성에 문제가 발생하죠. 학습된 자세DB에서 매칭시키는 방법은 키넥트 이전의 방법입니다. 일반 RGB카메라로 pose estimation을 할때 쓰입니다. 구분하려는 자세도 커야하고 비슷하면 안되겠죠. 키넥트 기반 게임들은 머리,팔,다리 등 엄청난 자유도를 가지고 있습니다. UI가 아닌 게임 개발자에게 물어보시면 아실겁니다. 키넥트로부터 어떤 데이터가 넘오는지.. 각 신체의 좌표가 오는지 아니면 정해진 자세DB를 매칭한 정보가 넘오는지요.
    키넥트 센서의 성능을 생각보다 괜찮습니다. 키넥트에 대해 약간 비관적인 의견을 가지신것 같아서 설득하고 싶어지네요. 컴퓨터비전, 미디어아트, 컴퓨터그래픽스, UX 등 많은 분야의 전문가들이 키넥트에 열광하고 있습니다.
    • 2011.01.25 19:22
      댓글 주소 수정/삭제
      제 블로그를 보셨으니 아시겠지만, 키넥트 센서에 대해서는 저도 3DV 시절부터 열광하는 사람 중 한 명입니다. 이 글에 비판적인 내용이 포함되어 있다면 그건 MS가 현재 구현해놓은 방식에 대한 거고요. 해킹된 키넥트 센서가 어떤 신세계를 가져올지에 대해서는 저도 상당히 기대하고 있습니다.

      말씀하신대로 적외선 occlusion이 자세인식에 영향을 주고있는 거라면, 결국 3차원 인식인 듯 하지만 3차원적인 정보는 제대로 활용하지 않고 있는 거 아닐까요. 팔로 몸을 가로막았는데 그걸 연속적으로 인식하지 못한다면 말이죠. 적외선을 이용한 2.5D 거리인식 센서의 가능성에 대해서는 hyunnam님에 대해서 이견이 없지만, 정작 상품화된 걸 보니 그 자유도에는 고려해야 할 제한이 있다는 점을 이 블로그에서 공유하고 싶어서 글을 올린 겁니다.

      실제로 그 기계 안에서 적외선 센서와 카메라가 정확히 어떻게 역할분담되어 있는지에 대해서는, 앞으로 MS가 인식가능한 제스처를 어떻게 확대시켜 나가느냐에 따라 차차 드러나리라고 생각합니다. 어차피 제 생각도 키넥트 앞에서 손짓발짓 해가며 얻은 추측일 뿐이니까, 맞을 수도 있고 틀릴 수도 있겠죠.

요새는 TV 광고 보다가 재미있는 거 간단히 소개한 글만 올리고 있는데, 그러다보니 스스로 좀 폐인같이 느껴질 때가 있다. ... 뭐 사실 그렇지 않냐고 하면 또 할 말이 없고. ㅎㅎ 어쩌겠나 그래도 자꾸 눈에 밟히는데.


이번에 눈에 띈 물건은 휴대폰 벨소리와 게임 등을 다운로드 받을 수 있게 해주는, Jamster 라는 회사의 광고에서 눈에 띄었다. 이름하며 eyeCall.

eyeCall being sold on Jamster

위 웹페이지에서도 볼 수 있듯이, 이 소프트웨어는 전화벨이 울릴 때 휴대폰의 카메라를 구동시키고, 카메라 앞에서의 움직임을 인식해서 벨소리를 진동이나 자동응답으로 바꿔주는 기능이다. 통신사에서 휴대폰 컨텐츠의 일거수일투족을 제한하는 우리나라의 상황에서는 이렇게 제3자에 의해서 공급되기가 힘든 소프트웨어지만, 사실 기술적으로는 일전에 언급했던 삼성 매직홀 휴대폰의 참참참 동작인식 게임과 다를 바 없겠다.

조금 더 찾아보니, 이 소프트웨어는 휴대폰 카메라를 통한 영상인식을 전문으로 내세우는 eyeSight 라는 회사에서 만든 물건이었다. 이 회사에서는 eyeCall 외에도 eyeCan (동작으로 4방향키 입력을 대체해서 음악재생이나 화면넘기기 등의 특정 작업을 도와주는 방식), eyePlay (동작으로 게임 속에서 '던지기' 동작 등을 입력할 수 있게 하는 방식) 등을 만들고 있다. ... 근데 웹사이트 자체는 컨텐츠가 온통 뒤죽박죽. 아래 동영상이 차라리 정리가 잘 되어 있다.



웹사이트와 위 동영상 내용을 조합해 보면, 비교적 열악한 카메라를 - 특히 최근 3G 네트워크에서의 영상통화를 위한 전면 카메라까지 - 이용해서도 안정적인 인식이 가능한, 다음 몇가지 동작을 수행하는 것 같다.

(1) 카메라 위에서 손을 한 방향으로 움직인다.
- 화면을 그 방향으로 스크롤하거나 다음 페이지로 넘기는 기능
- 미리 정해진 특정 기능 (예: 발신자에게 자동응답 메시지 보내기)
- 게임에서의 공격 기능 (예: 닌자 수리검 날리기)

(2) 카메라를 손으로 잠시 덮어둔다.
- 미리 정해진 주요 기능 (예: 벨소리를 진동으로 전환)

(3) 카메라를 손으로 짧게 덮었다 뗀다.
- 게임에서의 방어 기능 (예: 날아오는 무기 막기)


뭐 영상인식이다보니 어느 정도 조명이 있어야 한다든가 하는 제약은 있겠지만, 그래도 주어진 제약 하에서 기술을 활용할 수 있는 방법을 많이 꽤나 고민했을 것 같다. 휴대폰 카메라+CPU 정도의 수준에서 영상인식 기술을 적용함으로써 휴대폰의 움직임(=사용자의 동작입력)을 인식한다든가 심지어 사용자 얼굴의 움직임(=상하좌우 및 거리)을 인식해서 UI에 응용하려는 노력은 이미 여러 사례가 있지만, 그래도 이렇게 간단하나마 상용화한 팀이 있어서 반가운 마음에 스크랩.
Posted by Stan1ey

댓글을 달아주세요:: 네티켓은 기본, 스팸은 사절

Wand Remote - sold by Firebox.com
지난 주에 회사에 굴러들어온 광고지들을 버리다가 왼쪽 광고가 눈에 띄었다. Wand... remote... 흠. 모종의 연유로 꽤 익숙한 단어의 조합이다. 마법 지팡이 모양의 리모트 컨트롤러. 여러가지 동작을 인식해서 그걸 지팡이 끝의 적외선 LED를 통해 송신하는 방식이다. 위 홍보물에 적혀있던 웹사이트와 구글링을 통해서 이 "The Magic Wand Remote Control"를 개발한 회사를 찾아낼 수 있었다. 회사 이름 자체가 The Wand Company라고 한다.

The Magic Wand Remote Control

위 페이지에도 나와있지만, 이 물건을 이용해서 사용할 수 있는 주요 동작은 다음과 같다. 모두가 영화 <해리포터> 시리즈에 나오는 마법사가 지팡이를 휘두르던 동작을 연상하게 하는 모습들이다.

The Magic Wand Remote Control - Gesture

Flick Right: 오른쪽으로 세게 휘두르는 동작. 그 전에 반대방향으로 천천히 움직인 것은 무시된다.

The Magic Wand Remote Control - Gesture

Flick Down: 아래쪽으로 세게 휘두르는 동작. 역시 위쪽으로 움직인 준비동작은 인식하지 않는다.

The Magic Wand Remote Control - Gesture

Big Swish: 위에서 아래로 크게 휘두르는 동작. "연습이 필요함"이라고 되어 있다.

The Magic Wand Remote Control - Gesture

Volume Up: 지팡이 자체를 시계방향으로 돌리는 동작으로 소리 크기를 키운다. 물론 반시계 동작도 있다.

The Magic Wand Remote Control - Gesture

Single Tap: 지팡이 본체의 윗쪽을 톡 치는 동작. 한번 치기 외에 두 번 치기 동작도 인식한다.

The Magic Wand Remote Control - Gesture

Side Tap: 지팡이 본체를 옆쪽에서 톡 치는 동작. 이 경우에도 한번 치기와 두번 치기가 있다.


사용자 삽입 이미지
회사의 홈페이지에 올라온 사용설명서(달랑 한쪽짜리이긴 하지만, 제법 "마법 지팡이"의 느낌을 살려서 만들어져 있다)를 보면, 몇가지 응용동작이 추가로 나열되어 있다.

동작인식을 사용한 리모컨이라는 점도 그렇지만, 무엇보다 마법 지팡이라는게 있다면 이렇게 생겼겠구나 싶을 정도로 철저한 고증(?)을 거친 듯한 디자인과 마감을 가지고 있다는 게 이 제품을 꽤 주목받게 만들 것 같다.

그런데, 위 사용설명서의 내용이 HTI 및 UX 측면에서 재미있다고 여겨진 것은, 동작명령을 "Practice Mode"와 "Expert Mode"로 나누어 소개하면서 "Practice makes perfect." 같은 경구를 끼워넣었다는 점이다. 다른 인식기반의 HTI와 마찬가지로 동작인식도 입력된 동작을 명확히 구분하지 못하고 오인식이 일어날 수 있는데, 위에서 practice mode로 구분된 동작은 비교적 서로 구분이 분명한 종류이고, expert mode에 포함된 것들은 그 강약의 정도에 따라 오인식이 일어나기 쉬운 종류의 동작이다.

오인식률이 높은 동작을 마치 사용자가 연습이 부족해서 오인식이 일어난 것처럼 - 사실 기술적으로만 보자면 맞는 이야기지만 - 떠넘겼다는 건 보통 HTI 관점에서만 볼 때는 좋은 사례라고 할 수 없는 일이다. 하지만 UX 측면에서 생각해 보면 그 오인식을 극복하는 과정에 이야기와 의미를 부여하고 그걸 하나의 경험으로 승화시켰다는 측면에서는 훌륭한 사례가 될 수도 있다고 생각한다. 완벽한 동작이 이루어지지 않았을 경우에 일어나는 오인식이라는 단점을  오히려 UX의 진실성(authenticity)을 높이는 장점으로 활용한 것이다.



동작인식을 이용한 리모컨을 만들고, 거기에 "magic wand"라는 이름을 붙인 것은 사실 이 회사가 처음이 아니다. 국내에서도 이와 비슷하게 3축 가속도 센서를 이용해서 공간 상에 그려진 모양을 인식하는 리모컨의 프로토타입을 만들어 발표한 사례가 있는데, 이 연구에서 사용한 명칭도 바로 이 "magic wand"였다.



뭐 어쨋든, 이 "마법 지팡이"는 과연 상품으로서 성공할 수 있을까? 아래의 동영상을 한번 보자. (유투브가 없었으면 블로깅을 어떻게 했으려나 몰라.)


사용설명서를 다시 보면, 동작명령이 인식된 후에는 1~13번의 진동이 느껴지면서 동작이 과연 제대로 인식됐는지를 확인할 수 있도록 되어 있다. 일전에도 비슷한 사례에 대해서 언급한 적이 있지만, 이렇게 출력신호의 횟수만으로 정보를 확인하게 하는 것은 이해가 어려울 뿐만 아니라 언제 끝날지 모르는 반복 신호가 확실히 끝날 때까지 '기다리고' 있어야 한다는 단점이 있다.

위 동영상에서 가끔 보이는, 마법 동작 후의 어색한 기다림이 그 진동 피드백 때문인지, 적외선 신호가 늦게 송신되어서인지, 아니면 리모컨 입력 이후에 TV가 반응하기까지의 시간 때문인지는 분명하지 않다. 하지만 적외선 신호가 아니라 RF 신호를 이용하고, 서로 다른 입력에 대한 피드백을 LED 몇개로 표시하고, 지팡이 손잡이 한쪽에 압력 센서을 넣어 동작의 시작과 끝을 사용자가 자연스럽게 입력할 수 있게 했더라면 나름 인식률에도 기여하고 저런 어색한 기다림도 없지 않았을까 하는 아쉬움이 든다.

실제로 최근의 TV에는 RF 리모컨이 종종 적용되어 있지만, 아직 RF 신호는 제조사에서만 사용할 수 있는 듯 하다. 뭐 어쨋든 '마법 지팡이'라는 게 대기업이 만들만한 물건이라고 여겨질 것 같진 않지만. -_-a
Posted by Stan1ey

댓글을 달아주세요:: 네티켓은 기본, 스팸은 사절

최근에 아래와 같은 광고를 보게 됐다.



이 동작인식 게임기를 새로 소개한 회사 V-Tech은, 주로 아이들의 교육용 게임을  만드는 회사다. 상품 목록을 보면 디즈니, 픽사 등 주요 캐릭터 사업체와 제휴한 알파벳 게임, 숫자 게임, 기억력 게임 등이 각 연령대 별로 출시되어 있다. 기존의 주요 상품(V.Smile)은 비교적 전통적인 유선 조작기가 연결되어 있는데, 이번에 출시한 V.Smile Motion부터 동작센서가 들어있는 무선 조작기를 채용했다.

Vtech V.Smile Motion

게임 콘솔에 동작인식 센서을 처음 적용한 것은 Sony PlayStation의 SixAxis controller라고 할 수 있겠지만, 실제로 그걸 게임에 주요한 조작 방식으로 채용해서 시장에 소개한 것은 Nintendo Wii Remote라는 데에 이의가 있을 수 없을 것이다. 닌텐도가 활짝 열어놓은 동작인식 게임 시장이, 이제는 그 안에서 다시 전문화되고 있나보다. 위 광고에서 말하듯이 애들은 가만히 있지를 못하니까, 어쩌면 사회적으로 수줍어하는 어른들보다 동작인식을 이용한 조작에 좀더 적합할 수도 있겠고.

생각해 보면 동작인식으로 동작하는 전용 게임기라는 컨셉은 이전에도 있었는데, 그때 우리나라 백화점에서 찍은 사진을 어디에 뒀는지 못 찾겠다. 사진 찍은 것도 제품이름을 메모해 놓은 것도 기억이 나는데... 쩝 긴장이 풀렸나. -_-a;;
Posted by Stan1ey

댓글을 달아주세요:: 네티켓은 기본, 스팸은 사절

일전에 회사가 영국의 100대 기술 미디어 기업에 뽑혔다고 하길래, 그 홈페이지를 보다가 오히려 재미있는 회사를 찾았다. New Concept Gaming이라는 매력적인 이름의 이 회사에서는 JOG라는 게임 보조기기를 파는데, 그 아이디어가 기발하다.

JOG from New Concept Gaming

마치 만보계처럼 생긴 이 물건은... 사실은 진짜 만보계다. ㅡ_ㅡa;;; 다른 만보계와 다른 점이라면 걸음수를 화면에 표시하는 것 외에, Nintendo Wii의 컨트롤러 중에서 Nunchuck과 Main controller 사이에 끼어들어서, 눈척에 달린 조이스틱의 신호를 가로채서 조작한다는 점이다. 즉 눈척에서 조이스틱을 어떤 방향으로 움직이는 것은 그 방향만을 입력받고, 조이스틱의 각도값(많은 게임에서 '얼마나 빨리 움직일지'를 정하는 기준이 된다)은 이 "만보계"의 걸음빈도로 대체하는 것이다. 요컨대 빨리 움직이려면 제자리걸음을 더욱 빨리 종종 거려야 한다는 이야기.

설치도 (비교적) 간편하다.
How to install JOG

보통 '온몸으로' 조작하는 환경 - 특히 VR의 CAVE 환경 같은 걸 이야기할 때 - 에서 몰입이 어려운 점 중의 하나로 실제 몸의 움직임과 가상공간에서의 움직임이 일치하지 않고, 그렇다고 커다란 공간을 만들자니 비용은 물론이고 동적으로 시야각이 변해야 하는 경우도 있는 등 여러가지 문제가 있다는 점이 꼽히곤 하는데, 이 JOG라는 물건은 그냥 게임이라는 범주에서 적당히 먹힐만한 해법을 내 놓은 것 같다.



사실 앞으로 뛸 때도 뒤로 뛸 때도 (물론 조이스틱은 그 방향으로 향하겠지만) 제자리걸음을 해야 한다든가 하는 게 얼마나 자연스럽게 느껴질지는 잘 모르겠다. 잠깐 상상하면서 뛰어봤는데, 무엇보다 앞으로 뛸 때의 몰입감("나도 뛰고 캐릭터도 뛴다!")이, 뒷쪽으로 뛸 때 깨지는("나는 앞으로 뛰는데 캐릭터는 내 쪽을 향해서 뛴다!") 문제가 있어 보였다. 조이스틱은 진행방향과 속도를 한꺼번에 조절하는데, 그걸 분리하는 게 특히 기존의 조작에 익숙한 사용자일수록 쉽지는 않을게다.

그래도 내 생각에는, Wii Remote의 조작방식에 대한 아주 적절한 (간편한) 얹혀가기의 사례라고 생각한다. 닌텐도 안에서도 이 아이디어만큼은 무릎을 치면서 아쉬워 하거나, 혹은 이미 생각하고 있었던 아이디어에 타이밍을 못 맞춘 것을 아쉬워하고 있지 않을까.

참고로 유투브를 검색하다보니, 이미 Gadget Show에서 #1 digital toy로 꼽힌 적도 있는 모양이다.

뭐 걍, 내용은 없다. ㅡ_ㅡa;;
Posted by Stan1ey

댓글을 달아주세요:: 네티켓은 기본, 스팸은 사절

  1. 2009.09.16 13:53
    댓글 주소 수정/삭제 댓글
    뛰는 것이 부자연스러워 보이지만,
    적당한 소프트에서는 재미있을 것 같네요~.
    님 블로그에서 좋은 것 많이 보고 갑니다!
    • 2009.09.16 18:21
      댓글 주소 수정/삭제
      고맙습니다. ^^ 눈척 신호를 잡아내는 덕택에, 눈척으로 움직임을 조작하는 소프트에서는 범용으로 쓸 수 있다는 게 포인트인 것 같아요. 많은 3D 게임에서 눈척은 움직임, 리모트는 무기로 사용되고 있는데, 아주 적절한 배치인 것 같습니다. 그게 아닌 소프트도 많은 경우 설정을 바꿔서 쓸 수 있게 되어 있기도 하고 말이죠.
  2. g-cow
    2009.09.16 16:53
    댓글 주소 수정/삭제 댓글
    조그 한국에 에이젼시 있던데여
    한국 오픈 마켓에서 이미 판매중이더라구여~
    대충 한 4만원대 초반정도 입니다
    재미는 있겠는데 ㅡㅡ;; 살도 빠지는데 ㅡㅡ;;
    힘들면 ㅡ0- 이건 완전 다이어트 용!
    • 2009.09.16 18:22
      댓글 주소 수정/삭제
      유툽 동영상도 그렇고 꽤 오래전부터 광고한 것 같은데, 저는 이번에야 봤네요. ㅎㅎ 이걸로 게임하면 한시간 이상은 지쳐서 못할테니, 어쩌면 게임 중독을 줄이는 효과가 있을까요? ^^;;;
  3. 2009.09.17 14:55 신고
    댓글 주소 수정/삭제 댓글
    오호 저도 저거 재미있게 봤는데.. 벌써 블로깅을 하셨군요.. 하하..흥미있는거 같아요. 케이브환경이 좋다라..한번 교수님께 여쭈어보고 적용시켜보자고 해봐야겠네요.라이브러리가 있을지는 모르겠지만 말이에요
    • 2009.09.17 17:48
      댓글 주소 수정/삭제
      그러세요.. 그런데 CAVE에서는 어차피 이동방향은 사용자가 향한 방향을 이용할테고, 제자리 걸음을 이동여부/속도와 연관시킨 연구는 이미 몇번인가 있었던 것 같습니다. ^^;

      이 장비를 이용하면 그걸 (비교적) 쉽게 구현해서 다른 관련된 연구를 할 수 있다는 장점은 있겠네요. 어차피 신호는 Wii Remote를 통해서 블투로 나가게 되고, 그걸 위한 API라면 나와있으니까 말이죠. :)
    • 2009.09.17 18:38 신고
      댓글 주소 수정/삭제
      아하 그럼 WiiRemote라이브러리도 가능한거군요.

      재미있겠다. ㅎㅎ;
    • 2009.09.18 19:38
      댓글 주소 수정/삭제
      재미있다면 그게 최고죠. :)

삼성에서 새로 한국시장에 출시한 휴대폰 W830, 마케팅명 '매직홀'이다.

사용자 삽입 이미지

처음 신문기사로 올라온 (아마도) 홍보자료 내용을 봤을 때, 내 반응은 대충 이랬다. "카메라 동작인식을 이용한..." (우오옷!!! 드디어 상용화되는 건가! +_+ ) "... 참참참 게임을 즐길 수 있..." (응? 뭥미?) 참참참 게임... 강호동이 그 손바닥 내밀고 좌우로 휘두르던 그거? ㅡ_ㅡa;;;

어찌나 황망하던지, 느려터진 영국 인터넷으로 무겁디 무거운 애니콜 웹사이트에 들어가봤다. 일단 사용설명서 다운로드, 검색.. "참참참" -_-;;;
Vision-based Gesture Recognition on Samsung W830
손동작 인식..이라고는 하지만, 뒤의 주의사항을 읽어보니 딱이 손을 인식하거나 최소한 살색(?) 물체를 따로 인식하는 것 같지도 않고, 화면 상의 optical flow, 즉 독특한 패턴의 위치를 프레임마다 인식해서 그 움직인 방향을 추정하는 방식인 듯 하다. 이런 방식의 동작인식은 카메라폰이 등장한 이래로 자주 등장했지만, 그 응용처로는 대부분 공간 상의 상하좌우 움직임(부가적인 기술을 조금 더해서 Z축 움직임을 제안한 경우도 있었다)을 인식하고 있었다.

이런 기술로 '참참참 게임'이라니 나름 신선하다...라는 생각은 들지만, 보아하니 손만 인식하고 내 얼굴을 인식하지 않으니 일방향적인 게임이 될테고, 그렇다면 게임보다는 그냥 기술데모에 가깝지 않나 하는 게 솔직한 느낌이다. 3G 영상통화가 되면서 2개의 카메라를 이용한 여러가지 재미있는 특허가 나와있는 걸로 아는데, 모처럼 들어간 영상기반 동작인식은 왜 딸랑 '참참참 게임'으로만 적용이 되었는지 아쉬운 노릇이다.
사용자 삽입 이미지


그런데, 이 모델의 웹사이트와 사용설명서를 읽다보니 의외로 눈에 띄는 기능이 있다. 바로 '에티켓 모드'... 하지만 진동기능이 아니다.

사용자 삽입 이미지
난 이렇게 기술이 기능과 잘 맞아떨어지는 경우를 좋아한다. 물론 이 기능을 '설정'해 놓고 뒤집어 놓으면 바로 무음모드가 되는지 (실수로 놓치는 경우가 많을 거다), 아니면 일단 벨/진동이 울리고 나서 뒤집어야 무음모드가 되는지 (사용자 입장에선 차라리 버튼 누를께 하겠지만, 제조자 입장에선 안전한 선택일 듯)... 뭐 그런 모호한 부분도 있겠지만.

이 기능이 이 모델에만 적용이 됐는지 이전부터 적용되어 있는지는 잘 모르겠지만, 이런 종류의 기능이 다양하게 (물론 일관적으로) 들어간다면 삼성 휴대폰의 특징으로 부각시키기 좋은 아이템이 될 수도 있다. 기왕 들어간 가속도 센서, 이렇게 단순한 응용을 생각해 보면 꽤 쓸만한 구석이 많다. iPhone OS 3.0에 들어간 것처럼 '흔들면 Undo'라는 것도 재미있고, 다른 제품에도 많이 적용됐지만 '흔들었을 때 Shuffle'이라는 것도 잘 맞아 떨어진다. 문자가 도착하거나 전화가 왔을 때, 어느 쪽으로 기울였느냐에 따라 반응이 달라지는 건 어떨까? (삭제/무시 등) 그리고 가속도 센서를 활용할 수 있는 방법 중 하나로, 제품을 '톡톡' 치는 것을 명령으로 인식하는 방법도 있다. 조금만 신경써 준다면 최소한 어느 방향(상하 or 좌우 or 앞뒤)을 치는 지도 알 수 있고, 몇번을 쳤는지도 알 수 있으니 활용도는 꽤 많을 게다.

휴대폰에 제법 많이 탑재되고 있는 이 (원래는 동작인식용) 가속도 센서는, 이제 99%라고 해도 될 정도로 게임용으로 사용되고 있다. 처음 들어갔을 때에부터 이런저런 동작인식 아이디어를 제치고 결국 게임성 있는 '비트박스'가 간판으로 내세워 지더니, 결국 점점 더 단순한 '주사위 게임'이나 '랜덤볼(모두가 로또라고 부르는)', 그리고 다른 게임회사에서 개발되는 단순한 방향인식 수준의 게임이 전부인 듯.

사용자 삽입 이미지


센서기반의 동작인식과 영상기반의 동작인식(어쨋든)이 둘 다 탑재된 휴대폰이라니, 이 W830 계열의 휴대폰은 상당히 의미있는 모델이라고 생각한다. 이미 센서기반의 동작인식은 초기의 '요요현상'으로 인해서 '엔터테인먼트' 메뉴 속으로 안착(?)해 버린 것 같으니, 영상인식이라도 좀더 적극적으로 적용되어서 단지 화면 상의 모호한 흐름 뿐만 아니라 제대로 얼굴이든 손이든 잡아내서 UI 입력으로 활용될 수 있기를 기대해 본다. 아니 그렇게까지 복잡하게 넣지 않더라도, 닌텐도의 NDSi 처럼만 해도 충분히 쓰임새가 있을텐데 말이지...

... 개발 다 했으면, 너무 재지말고 빨리 좀 출시했으면 좋겠다는 거다.
Posted by Stan1ey

댓글을 달아주세요:: 네티켓은 기본, 스팸은 사절

  1. 영현
    2009.08.30 10:54
    댓글 주소 수정/삭제 댓글
    뭐가 먼저인지는 모르겠지만, 뒤집으면 무음모드가 되는 건
    CYON의 뢀리팝 폰에서 보고 "오호라.." 한 적이 있어요-
    그나저나 핸드폰 앞에서 손으로 참참참을 하고 있으려니 우습기도 하네요. 원래 참참참은 공격이 외치는 거잖아요? 아예 음성인식까지 넣어서 좀 리얼하게 했으면 좋았을텐데..참참참 인식하기는 차암~ 쉬울텐데 말이죠. 같은 말을 세번이나 반복해주다니..(이렇게 슬그머니 음성쪽으로..-_ㅡ)
    • 2009.08.31 23:47
      댓글 주소 수정/삭제
      롤리팝이면 벌써 출시된 폰이죠? 이거 은근히 표준이 되려나요. 기대되는데.... @_@

      음성인식으로 "참참참"도 좋을 것 같습니다. 왠지 우리 예전에 했던 실험(3번 입력하기)이 생각이 나는 것이 말이죠. 요새 여기선 iPhone 3GS 광고로 Voice Control이 나오는데, 그야말로 주류 VUI라는 생각이 들어서 부럽고 그렇습니다. ^^;
    • 2009.08.31 23:48
      댓글 주소 수정/삭제
      참고(요새 방영되는 TV광고):
      https://www.youtube.com/watch?v=l69Yjt_VEOQ

제목은 얼마전부터 한국에서 광고하고 있는 SKY Presto 라는 휴대폰 모델(IM-U310)의 광고 카피다.



일전에도 잠깐 언급했듯이 터치 방식 UI에는 늘 '오터치'의 위험성이 있었기 때문에 그리는 동작(stroke)으로 조작을 하는 방식이 제안된 적이 있었고, 특히 광선차단 방식의 터치스크린은 그 해상도가 낮아 stroke을 이용하게 함로써 확실한 명령을 전달할 수 있었다. 오터치의 위험성만을 생각한다면, Neonode사의 휴대폰들처럼 차라리 터치(정확히는 tap)를 통한 단속적인 입력을 전혀 사용하지 않는 편이 나을지도 모른다.

이번에 광고하고 있는 이 휴대폰 모델에서는, 광고를 통해 "Don't Touch, Just Draw"라고 핏줄을 곤두세운 것에 비해서 그다지 엄청난 기능을 보여주고 있지 않다. 홈페이지의 제품설명을 보면, 오히려 유일하게 -_- 스트로크를 사용하는 대목은 'ONE Player'라는 멀티미디어 재생기능이다.

ONE Player in SKY Presto, IM-U310

사실 동작기반의 UI를 대대적으로 적용하려고 하면 문제가 되는 것이 사용자가 다양한 동작 명령을 기억하거나 직관적으로 생각해내지 못하는 부분인데, 이 문제를 그나마 해결할 수 있는 부분이 기존에도 그만큼 단순한 아이콘인 ▶, ■, ◀ 등을 '>, O, <' 등의 스트로크 명령으로 대응시키는 방법이었을 것이다. 기왕이면 일시정지('||' 대신 뒤집힌 'N')를 포함시킨다든가, 정지('○' 대신 '□' 혹은 '×')와 녹음('○' 혹은 'R')을 구분한다든가 하면 어땠을까 싶긴 하지만, 아마 이런 문제 정도는 충분히 고려했을 테고, 이미 구현되었거나 그렇지 않다면 뭔가 피할 수 없는 이유가 있으리라고 생각한다.

Apple에서 MacBook에 멀티터치패드를 적용하면서 넣은 동작 UI도 결국 무척 적은 수로 제한되어 있지만, 그 동작들은 꽤 자주 쓰이는 문서 스크롤이나 확대/축소를 위한 것이므로 시스템 전반에서 사용될 수 있는 범용성이 있었다. 휴대폰에서도 목록을 스크롤한다든가 상하좌우 동작을 한다든가 하는 범용적인 명령이 몇 있을텐데, 기왕에 강한 어조로 홍보하는 김에 좀 더 휴대폰 전반에 걸쳐 동작을 적용해주면 좋지 않았을까 하는 아쉬움이 남는다.




... 아 물론, 저렇게 넓은 터치스크린이 있다면 그냥 오터치 방지 차원에서 조작 버튼을 크게 만들어주는 게 동작의 오인식 위험성을 감수하는 것보다 낫지 않았을까 하는 생각도 든다. 앨범 아트를 보여주는 게 중요했다면 그런 조작 버튼들이 터치(tap?)에 의해서만 나타나게 하는 방법도 있을테고, 터치에 뒤이은 보다 간단한 동작(hold+상하좌우stroke)으로 조작되게 하는 방법도 추가될 수 있을 거다.

이래저래 말로야 쉽지만, 실제로 구현해야 했던 실무자들의 고심만큼이야 할 수 없을테지. -_-a 그냥 모처럼 옛 고민과 연결된 광고에 혹했다가, 결국 동작 기능이 그다지 대대적으로 적용되지 않아서 초큼 실망해서 주절거려 봤다. -_-a
Posted by Stan1ey

댓글을 달아주세요:: 네티켓은 기본, 스팸은 사절

일전에 관심을 가지고 있었던 2.5D 위치인식 카메라의 실제 어플리케이션이, 한 캐나다 업체에 의해서 만들어져 MIGS 2008이라는 데에서 발표된 모양이다. (MIGS는 Montreal International Game Summit 이란다) 에딘버러 오가는 기차 안에서 밀린 Podcast를 보다가 이 독특한 이름 - Mgestyk (= majestic) - 을 어떻게든 외워서 회사 웹사이트에 들어가 볼 수 있었다.

Mgestyk - 2.5D Gesture RecognitionMgestyk - 2.5D Gesture Recognition

(사족: 이 이미지 만든 사람 칭찬해 주고 싶다. PNG인 것도 그렇고, 단순히 배경 덮지 않고 투명으로 뺀 것도 그렇고. 디자인 감각은 잘 모르겠지만 웹 그래픽을 잘 이해해 주고 있는 듯. 이런 사람도 흔치 않은 게 현실이다.)

일단 이 회사는 하드웨어나 센서를 만드는 회사는 아니고, 전의 포스팅에서 소개했던 3DV Systems사의 3D 카메라를 가져다 어플리케이션을 만든 회사이다. 웹사이트에서 동영상을 보면, 일단 그네들이 만든 내용을 전반적으로 볼 수 있다.





센서야 전에 들여다 본 내용이니 뭐 딱이 말할 거 없고, 이 회사는 인식된 그 공간정보를 이용해서 손모양을 인식하는 소프트웨어를 만든 모양이다. 위 오른쪽 사진을 보면 인식된 바에 따라서 손모양이 바뀌는 정말 누가봐도 기술데모용의 소프트웨어가 화면 한켠에 보인다. :)

이 3D 카메라, 혹은 뭐 내맘대로 부르고 있는 2.5D 센서-카메라는 적외선을 이용하고 있다는 게 아래 사진에서 잘 나타나고 있다. 그러니까 사실 위 동영상에서 Wii Remote의 센서바 - 사실은 적외선 LED 여러개 - 를 사용하지 않고 있다는 것은 사실 간섭 때문에 사용할 수가 없는 이유도 있을 꺼다. :P 
 
Mgestyk - 2.5D Gesture Recognition using InfraRed Distance Measuring

그래도 이 센서-카메라에 주목해야 한다고 생각하는 이유는, 무엇보다 그다지 비쌀 이유가 없는 구성 때문이다. 해상도(거리해상도)는 좀 떨어질지 모르고, 저 정도 광원으로는 대충 2m 정도 떨어지면 반사수신율 턱없이 떨어질테고, 햇빛이나 조명에 의한 간섭이 걱정될지 모르지만, 그래도 이 정도 간단한 구성으로 뭐가 됐든 공간 상의 동작을 인식할 수 있다는 건 굉장히 매력적인 거다.

원래의 데모에서처럼 PC 모니터나 TV 같은 영상기기에 직접 붙여도 좋겠지만, 리모컨을 대신할만한 물건 같은 것도 좋겠다. 소파 옆이나 커피테이블 위에 놓고 그 위에서 손짓하면 조작되는. (아 그런데 갑자기 눈에 먼지가... ;ㅁ; ) 배터리 귀신일 듯한 적외선 LED array는 터치/근접/움직임 센서에 의해서 켜도록 하면 배터리로 동작하는 것도 가능할지도 모르겠다. 적어도 Wii Remote는 카메라와 통신장치를 갖추고도 배터리로 잘 쓰이고 있으니까, LED만 잘 조정하면 뭐.

... 사실 생각해 보면 굳이 테이블 위에 놓을 필요도 없는데. 리모컨 마냥 잃어버리기도 쉽고. (아 그런데 자꾸 눈에 먼지가 ;ㅁ; )

저 카메라의 '시야'는 단지 광각으로 결정되는 게 아니라 거리까지 포함된 공간으로 정의될텐데, 개인적으로는 그 안에 얼굴이나 발이나 인형을 들이밀면 어떻게 반응할지 어떨지가 궁금하다. ㅋㅎㅎ 뭐 결국에는 거리와 크기의 상관관계라든가 반사율에 의한 표면재질을 판단한다든가 등등 적당히 걸러낼 수는 있겠지만 말이지.



... 결국, 본의 아니게 또 동작기반 UI에 대해서 쓰고 말았다. 이뭥미... 난 Voice UI를 정리하고 싶단 말이다... -_ㅜ 아무리 봐도 동작 입력의 한계는 분명해서 저 데모에서도 "데모하는 사람 팔 아프겠다..."라든가 "저 동작 실수없이 다 하려면 몇번이나 다시 찍었을까..." 싶은 생각이 드는데, 그럼에도 불구하고 "대세는 동작"이라는 분위기의 요즘이다.
Posted by Stan1ey

댓글을 달아주세요:: 네티켓은 기본, 스팸은 사절

  1. htruth
    2008.11.28 08:20
    댓글 주소 수정/삭제 댓글
    저걸로 총 제대로 쏘려면 엄지좀 아프겠는데요.. ^^
    Gesture가 대세인지는 모르겠지만 Gesture에 대한 관심이 높아지는 때이기는 한듯 합니다.
    터치에서 더 나아가기는 해야겠고, Voice는 한번 데인적이 있고, 그러니 남은건 Gesture?
    게다가 그 Demo의 force는 감성/재미/경험 이런것이 잘 먹히는 요즘의 분위기에 딱이거든요..
    그럼에도 이분야에 발 담궈본 사람들은 그 한계를 속속들이 뼈져리게 느낀바가 있어서 오히려 부정적인것 같아요.
    인식율은 Voice보다 낮은 놈이 쓰기는 더 힘드니.. (저의 지나친 단정인가요?)
    • htruth
      2008.11.28 08:23
      댓글 주소 수정/삭제
      이 제스쳐는 아니고..
      Touch에서 gesture라고 이름 붙이고 형상을 그리는 것 말이어요.
      얼마전 지나가다 언뜻 본 광고에서 touch할 필요가 없다 어쩌구 해서.. 전 진짜 gesture로 모 하나보다 했는데..
      결국은 touch 패널에 동그라미 그리니 음악이 플래이되는 그런거더라구요. -.-
      그냥 플래이버튼 누르는게 백배 빠르겠다.. 처음에나 재미지 그걸 들을때마다 해야하면 스크린 남아나겠냐
      게다가 나처럼 감성이 메마른 사람은 그냥 버튼을 띄워도~~ 이런 절규를 하겠군.. 모 이런 생각이 순식간에 지나갔었는데..
    • 2008.11.28 09:09
      댓글 주소 수정/삭제
      흠... 사실 터치스크린 상의 stroke같은 동작은 음성에 비해서 인식률이 훨씬 높고, 공간에서의 인식도 (굳이 가속도계 같은 어려운 방법을 택하지만 않는다면) 아마 음성에 비해서는 인식률이 높지 싶어요. 결국 사용처를 잘 맞추면 될텐데, 역시 무척이나 제한된 용도가 될 듯 합니다. 마우스 제스처 프로그램 같은 경우에는 좀 쓰다보면 두세가지 명령은 아주 능숙하게 쓸 수 있잖아요. 버튼이 편하긴 하지만 역시 동선이라는 게 있어서, 사용 맥락에 잘 맞춰진 용도만 찾아내면 쓸 수 있는 게 또 동작 아닐까 싶습니다.
  2. 2009.05.13 10:45
    댓글 주소 수정/삭제 댓글
    이 회사, 결국 Microsoft에 팔리더니 내년쯤 게임이 나올 모양이다. 소니의 AR게임 <Eyes of Judgment>는 나왔는지 어쨌는지 모를 정도로 시장 반응이 미미했는데, 과연 MS의 동작인식 게임은 어떻게 드러날까. 이미 어느 정도의 가능성은 닌텐도가 증명해준 셈이니 동작인식 방식의 차이에 따른 새로운 인터랙션을 잘 반영하는 물건이 나와주면 좋겠다.

    http://venturebeat.com/2009/05/12/microsofts-gesture-based-game-control-to-debut-in-2010/
    • 2009.06.08 16:37 신고
      댓글 주소 수정/삭제
      Xbox 360 Project Natal 로 드디어 나왔군요. 방식도 다르고 많이 부족하지만, 손 동작 인식 인터페이스라는 점에서 소개하고 싶네요. ^^

      http://msl.yonsei.ac.kr/index.php/Main/TouchAir
    • 2009.06.09 01:34
      댓글 주소 수정/삭제
      개발하신 TouchAir 라는 기술도 멋지네요. 영상 안에는 기술 설명이 따로 나오지 않는데, 혹시 카메라를 2대 사용해서 삼각법을 쓰시나요? 이런 기술도 잘 응용하면 재미있는 게임 많이 만들 수 있을 것 같습니다. 그런데 떠오르는 건 이런 게임밖에 없군요... (죄송;ㅁ;)

      http://nigoro.jp/game/rosecamellia/rosecamellia.php

      그래도 만들어주세요! ㅎㅎㅎ


BLOG main image
by Stan1ey

카테고리

분류 전체보기 (347)
HTI in General (45)
User eXperience (11)
Voice UI (50)
Vision UI (14)
Gesture UI (25)
Tangible UI (28)
Robot UI (14)
Public UI (9)
Virtuality & Fun (56)
Visual Language (15)
sCRAP (70)

글 보관함



www.flickr.com
This is a Flickr badge showing public photos and videos from Stan1ey. Make your own badge here.