영국 통신사 O2에서 O2 Joggler라는 디지털 액자를 내놓았다. 우리나라에서도 비슷한 시도가 여러번 있었으니 뭐 새롭다할 건 없지만, 그래도 하도 광고를 해주는 덕택에 궁금해져서 한번 들여다 봤다.

O2 Joggler

통신사에서 만들었다길래 당연히 휴대폰 망을 쓰는 줄 알았더니, 의외로 WiFi나 유선 랜에 연결해서 쓰는 웹 기반의 서비스다. O2 웹사이트에서 서비스하는 O2 Calendar에서, 가족/친구들끼리 일정을 공유하는 서비스를 제공하면서 그 공유된 일정을 Joggler 장치에 다운로드 받아 보여주는 듯. 공유 일정이라면 Google Calendar에서 해주던 거지만, 무슨 생각인지 저 위에서 보이듯이 "Your New Fridge Door"라는 카피를 중심으로 그 일정공유 기능을 가장 앞세워 열심히 홍보를 하고 있다.



물론 PC와 연결해서 사진, 동영상, 음악을 다운로드/재생할 수 있는 건 기본이고, 일반/스포츠 뉴스(이 동네에선 스포츠 뉴스가 세상 무엇보다도 중요하다;;)를 알려주고 날씨와 교통상황도 알려준다. 간단한 게임도 들어가 있고, 문자 송수신과 인터넷 라디오도 넣을 예정이라고 한다. 요컨대 인터넷에서 다운로드 받을 수 있는 정보를 이것저것 집어넣었다는 건 이제까지 나온 물건들과 하나도 다를 게 없는데, 단지 그 중심을 사진 재생(디지털 액자)이나 최신정보 제공(대쉬보드)으로 잡지 않고 가족 간의 일정정보 공유로 잡았다는 것이 가장 큰 차별점이 되겠다.

[O] 참고: O2 Calendar 사용 동영상


개인적으로 디지털 액자에 대한 애정도 있고 해서 아쉽기도 하고, 솔직히 저렇게 냉장고 문에 붙여놓은 온갖 맥락의 정보들을 작은 화면에 건조하게 나열한다는 게 좋은 생각이라는 생각은 안 든다. 하지만 이 기기(혹은 서비스)가 통신사에서 만들었다는 느낌이 드는 유일한 점 - 일정알림이 휴대폰 문자메시지로 도착한다 - 을 최대한 살린다고 생각하면 뭐 나름의 고충은 이해가 간달까.

O2 Joggler
지난 십여년간 실패를 거듭해온 컨셉에 작은 (7인치) 화면, 기껏 휴대폰 망을 가지고 있으면서도 전원선에 랜선(WiFi가 없다면)까지 꼽아야 하는 물건을 만들어 내다니. 솔직히 유용할 것 같지도 성공할 것 같지도 않은 물건이지만, 그래도 GUI를 보면 구석구석 공들인 흔적이 보이니 '행운'을 빌어주는 수 밖에.

YouTube에 위 광고가 올라왔나...하고 검색하다가, 재미있는 동영상을 발견했다. 동영상간 링크 기능을 활용한 Walkthrough가 올라와있다. O2에서 공식적으로 만들어 올린 것 같기는 하지만, 이 링크 기능이 동영상 미연시 게임을 만드는 데만 유용한 게 아니었구나... ㅎㅎ



... 결국 터치스크린을 쓰고 있다는 것일 뿐, 터치 UI에 대한 재미있는 점은 하나도 없었다. 이거 블로그 성격에 안 맞는 글이 되어 버렸지만, 그래도 모처럼 썼으니 올리자. ㅡ_ㅡa;;;
신고
Creative Commons License
Posted by Stan1ey

얼마전에 열렸던 CHI 2009 학회에서 Nanotouch라는 프로토타입이 공개된 모양이다. 나노터치라니, 무슨 나노기술을 이용한 터치센서인가 싶어서 얼른 연결되어 있는 동영상을 틀어 봤다.



관련기사의 설명에 따르면, 결국 작은("nano") 화면은 터치스크린으로 만들었을 때 손가락이 화면을 상대적으로 많이 가리므로 뒤에서 터치하는 방식이 유용하다..는 요지다.

... 물론 말은 맞지만, 이건 개념상의 발전은 커녕 남의 연구를 똑같이 베낀 거라는 게 문제다. 위 동영상에서 보이는 프로토타입은 PC에 연결된 LCD 화면과 뒷면의 터치스크린인데, 이건 2004년 Sony가 같은 학회에서 공개한 프로토타입과 정확히 똑같은 물건이다. (아래 왼쪽이 2004년에 촬영해 두었던 사진, 오른쪽이 동영상 속의 프로토타입이다.)

Gummi Prototype by Sony CSL, at CHI 2004Nanotouch Prototype by Microsoft Research, at CHI 2009

물론 크기는 놀랄 정도로 작아졌지만, 그동안 기술의 발전은 물론이고 Sony의 프로토타입은 2주동안 연구실에 굴러다니는 부품으로 만들었고, 특히 bendable computer라는 개념을 구현하기 위해서 휨센서를 포함한 손잡이가 부착되었다는 것을 생각하면 그건 자랑할만한 일이 아니다. 게다가 한쪽으로는 Gummi의 bendable 컨셉을 따라한 연구결과도 보여주고 있는 걸 생각하면 초큼 한심하달까.

무엇보다 오지랖 넓은 마음을 불편하게 하는 것은, 꽤나 장황하게 쓰여진 논문과 실험, 그리고 수십개에 달하는 참고문헌 어디에서도 이 똑같은 선행사례에 대한 인용이 없다는 것이다. 거 같은 솥밥을 나눠먹고 지내는 사람들끼리 이러면 안 되지, 이 사람들아... -_-+=3

이전에 소개한 Lucid Touch를 만들었던 Microsoft Research 연구팀의 성과인 모양인데, 손가락의 움직임을 볼 수 있다는 장점을 살리지는 못할 망정 오히려 Sony의 Gummi 컨셉을 베껴놓고, 손가락의 모습은 시뮬레이션으로(즉, 가짜로 터치지점에 손가락을 붙여서) 만들어서 데모 동영상을 만들었다. 즉 동영상은 그럴듯 하지만, 손가락의 방향이 바뀌면 어떻게 될지는 전혀 모른다는 거다. 이래놓구선 이미 MIT Technology Review에서는 벌써 "What's Next in Computer Interface?"라는 큼지막한 제목으로 기사를 걸어놓았다.

Shameful article from MIT Technology Review
부끄러운 줄을 알아야지~!!!

Nanotouch 홈페이지의 기사링크를 보니 벌써 지난 해 11월부터는 홍보에 나선 모양인데, MS Research 연구자분들 왜 이러신데... ㅡ_ㅡ;;; 이 사람들이 연봉 많이 받는 만큼 일해줘야 전체적으로 UI 선행연구 분야가 살아날텐데, 솔직히 이런 일은 그냥 덮어두는 게 좋지 않을까 하는 생각이 들 정도다. 그래도 이 블로그 보시는 분들, 이제 인터넷에 동영상이 돌기 시작했으니 아무래도 여러 쪽에서 이 "기술"에 대한 이야기를 듣게 될텐데... 참고하시라고 이것저것 모아서 쌓아놓기로 했다.

저작자 표시 비영리 변경 금지
신고
Creative Commons License
Posted by Stan1ey
LG에서 '투명폰'이라는 이름으로 투명한 터치패드를 장착한 폰(LG-GD900)을 내놓을 모양이다.
LG-GD900 with transparent touch pad

LG-GD900 with transparent touch pad
기술적인 측면에서 투명전극(ITO)를 화면 앞의 판때기에 배치해서 터치스크린으로 사용한 경우는 많지만, 그걸 따로 빼서 디자인적으로 응용한 부분은 훌륭하다고 생각한다. 최종적인 디자인은 내 취향이 아니지만. -_-;;; 터치키패드 빼서 누르고 하려면 상당히 불안한 모양새가 나올 듯하고, '투명인간의 부조리'에서처럼 사실 투명하다는 건 보이지 않는다는 거니까 배경조명 조건에 따라서 저 숫자들이 안 보이는 것도 사실은 꽤 문제가 될꺼다.

하지만 이 폰을 만든 사람들이 특히 훌륭하다고 느끼는 것은, 단지 한가지 눈길 끌만한 요소를 넣는 것에 멈추지 않고 관련된 기술을 연결해서 최적의 솔루션을 내려고 했다는 점이다. 이 폰의 투명키패드에서는 동작(stroke) 인식기능과 멀티터치, 진동 피드백 기능까지 넣었다고 한다. 엔지니어들 죽어났겠다... ㅠ_ㅠ 특히 동작인식 기능 중에는 터치 휠처럼 사용하는 부분도 있다고 한다. 와우.

정말 수고하셨습니다들. :D




하지만,

Motorola A668, a touchpad cellphone
그래도 그 놈의 "명품 S클래스 UI"라는 '광고문구'와, 이미 2004년 모토롤라에서 출시했던 것을 세계최초라고 하고 있는 것은 조금 마음에 걸린다. 설마 마케팅 부서에서는 아이들도 이해할 수 있는 캠페인을 펼치다보니 4년쯤 지나면 모두 잊는다고 생각하는 걸까. -_-a  아직도 왼쪽의 Motorola A668 모델 키패드 아래를 훔쳐봤을 때의 흥분을 잊지 않고 있는 사람으로서는 그냥 "마케팅은 마케팅일 뿐, 진실성을 따지지 말자"는 말을 되뇌이는 수 밖에.

개인적인 생각으로는, 모토롤라의 사례를 알고 그걸 투명하게=예쁘게=디자인적으로 활용하는 김에, 기왕이면 그 조합을 좀 더 살려서 뒷면 터치 기능을 강조했으면 어떨까 하는 생각도 든다. 사실은 글자가 잘 보이지 않을테니까 대부분의 사용자들이 한 손으로 키패드 뒷면을 가리는 자세로 어중간하게 폰을 잡고, 눈을 잔뜩 찌푸린채로 키패드를 사용하게 될 것이다. 만일 저 '투명폰'이 패드의 투명도를 희생해가면서까지 일부러 뒷면터치를 막지 않았다면 뒷쪽에서도 똑같이 사용할 수 있을테고... 그렇다면 그 부분을 좀더 강조하는 편이 단지 유용한 기술들의 훌륭한 조합이 아니라, 그 이상의 새로운 사용자 경험을 제공하는 제품이 되지 않았을까 하는 아쉬움이 든다.


한줄요약: 엔지니어 짱. 디자인 굿잡. 마케팅 즐. 상품기획 아쉽. UX 화이팅. (응?)
블로그는 블로그일 뿐... 정색하고 화내기 없기. (찡긋~ ;-> )
신고
Creative Commons License
Posted by Stan1ey

열흘쯤 전에, Apple이 iPhone의 Touch UI를 대상으로 낸 특허가 등록되었다. 이제 공식적으로 iPhone 및 iPod Touch에 적용된 UI 중에 어떤 것이 특허의 범위이고 아닌지를 판정할 수 있게 됐고, iPhone보다 낫다는 평을 들으며 떠오르고 있는 Palm Pre에 대해서 애플이 공개적으로 경고한 법적인 대응이 어느 정도 수준일지도 생각해 볼 수 있을 것이다. 많은 기사/블로그에서 - 요새는 이 둘을 구분하는 게 불가능하다 - 여기에 제1발명자로 Steve Jobs가 등록되어 있는 것에 대해서 "과연 잡스" 혹은 "CEO라고 올려준거라면 유효성에 영향" 정도의 주장도 하고 있지만, 솔직히 애플 내에서 잡스의 독재적 영향력이야 뭐 익히 알려진 정도이니 나는 그다지 문제삼을 내용은 아니라고 본다. 실제로 검색을 해봐도 "Steven P. Jobs"가 발명자로 등록된 50여건의 특허 중에서 잡스옹이 제1발명자인 경우는 심심찮게 볼 수 있다.

어쨋든 HTI 인지 UI 인지를 하는 입장에서 관심이 많이 갈 수 밖에 없는 특허이고, 그래서 이 특허문건(미국특허등록번호 7,479,949)를 좀 열심히 들여다보려고 했다가, 292쪽에 달하는 도면들을 보느라 몇시간이나 썼더니 그만 질려 버렸다. 할 일도 있는데 청구항까지 읽을 시간을 없어서, 그냥 눈에 띄는 그림 몇개를 스크랩하고 나머지는 숙제로 남겨두려고 한다. (숙제로 남겨둔다는 것과 나중에 그걸 어떻게 처리할 거라는 건 늘 별개의 일이다.)


(1) 개요

Apple iPhone Touch UI Patent: Overview
우선 이 특허는, 터치스크린이 달린 "휴대용 다기능 장치 portable multifunction device"에서 1차원 혹은 2차원적인 입력을 인지해서 화면 상태를 바꾸고, 입력된 명령에 따른 기능을 호출하는 구성을 가진 발명이다. 결국 전형적으로 '내가 내기엔 약해보이고 남이 내면 강력해보이는' UI 특허인 셈인데, ... 흠, 어쨋든 이제 iPhone에 적용되어 있어서 많은 업체에서 "터치스크린 UI는 원래 이게 표준"이라고 말했던 것이 그림의 떡이 되어 버린 셈이다. (쌍따옴표는 다른 사람의 말을 있는 그대로 인용했기 때문이다. 개인적으로는 인생을 바꿔주신 말이랄까.)

(2) 기본어플의 미구현 기능
Apple iPhone Touch UI Patent: Basic AppsApple iPhone Touch UI Patent: Basic AppsApple iPhone Touch UI Patent: Basic Apps
Apple iPhone Touch UI Patent: Basic AppsApple iPhone Touch UI Patent: Basic AppsApple iPhone Touch UI Patent: Basic Apps
특허에는 현재의 iPhone OS 2.2.1 버전에도 구현되어 있지 않은 몇가지 기능들이 포함되어 있다. 이 기능들을 위 그림의 순서대로 보면,
* 이메일이 도착했을 때 몇가지 기준에 따라 정해진 폴더로 자동 정리해주는 기능(Outlook이나 Gmail에 있는 기능과 거의 비슷하다),
* 이메일을 읽을 때 데스크탑 소프트웨어에서처럼 목록과 내용을 한 화면을 나누어 보여주는 방법(몇 가지가 예시되어 있다),
* 어플리케이션에 따라 화면이 어두워지는 시간을 따로따로 조절할 수 있는 기능,
* 웹브라우저에서 특정 웹페이지를 초기화면에 아이콘으로 링크할 때 아이콘 모양을 바꿀 수 있는 기능(현재는 보고있던 화면모양으로 자동설정),
* 화면의 일부를 확대하거나 고정시켜 놓고 한손가락 스크롤은 배경을, 두손가락 스크롤은 확대/고정된 부분을 움직이도록 하는 기능(웹브라우저를 사례로 들고 있다)
... 등이 iPhone의 개발 당시에 논의 되었음을 알 수 있다. 구현된 기능 중에 어떤 것은 초기버전의 OS에는 포함되지 않았던 것도 있는데, 그렇다면 이 기능들도 앞으로 구현될 가능성이 높아 보인다.

(3) 터치입력 개선
Apple iPhone Touch UI Patent: Better Touch InputApple iPhone Touch UI Patent: Better Touch InputApple iPhone Touch UI Patent: Better Touch Input
상하 stroke 동작으로 스크롤을 할 때 정확하게 수직으로 움직이는 사람은 없으므로, iPhone을 써보면 자유 스크롤과 상하 스크롤 간에는 어느 정도 threshold가 설정되어 있다. 이 특허에 의하면 그게 아마 27도인 듯. 나름의 인간공학적 실험을 거친 결과인 듯 하고, 실제로 해봐도 그 정도 각도에서 자유/상하 스크롤의 판단을 가르는 듯 하다. 그 외에도 손가락이 접촉된 점에서 가까운 widget을 찾아서 그걸 선택한 것으로 인식하게 하는 방법(!)이라든가, 키보드를 통해 입력된 일련의 철자에 따라 다음 키보드 입력의 터치입력 가중치를 빈도만큼 늘려주는 방법(예전에 키노트에서 살짝 언급했던 내용이긴 하다)이 설명되어 있다.

(4) 터치GUI 개선
Apple iPhone Touch UI Patent: Touch-friendly GUIApple iPhone Touch UI Patent: Touch-friendly GUIApple iPhone Touch UI Patent: Touch-friendly GUI
아이폰의 터치UI가 꽤 보기는 좋지만, 사실 손가락으로 터치하기 위한 키보드 치고는 좀 많이 작은 게 사실이다. 이미 애플에서도 그런 논란이 없지 않았는지, 대안적인 키보드가 몇가지 등장하고 있다. 한번 누를 거 두번 누르게 되면 불편하긴 하겠지만, 신체적 조건이라든가 하는 이유로 꼭 필요한 경우도 있을테니 미리미리 적용해 줬다면 좋았겠다 싶은 기능이다.

(5) 센서입력 무시
Apple iPhone Touch UI Patent: Overriding Sensor InputApple iPhone Touch UI Patent: Overriding Sensor Input
중력(가속도)센서를 이용해서 화면을 돌려주는 게 멋지고 대체로 유용하긴 하지만, 사용자가 옆으로 누워있다거나 하는 경우에는 오히려 기계가 제멋대로 동작해서 쓸 수가 없는 상황이 연출되기도 한다. 물론 웹브라우저의 경우에는 완전히 180도 돌리면 어느 쪽으로 돌리느냐에 따라 옆으로 누워서도 볼 수 있지만, 그건 왠지 숨겨진 기능조차도 아니라 기계의 눈치를 보며 아쉬운대로 사용하는 느낌이랄까. 위 두가지 입력은 중력방향 회전을 override하고 싶을 때 사용하는 동작으로, MacBook에서도 적용되었던 두 손가락 회전 제스처와, 대각선 모서리 양쪽에 손가락(엄지)을 대고 바깥으로 움직이는 제스처를 제시하고 있다.

(6) Deep Touch
Apple iPhone Touch UI Patent: Deep TouchApple iPhone Touch UI Patent: Deep TouchApple iPhone Touch UI Patent: Deep Touch
결국 써야지 써야지 했던 내용이 이렇게 특허로까지 (조금이지만) 드러나고 있다. 앞부분에서는 iPhone에 사용된 GUI들만 지루할 정도로 나열하더니, 뒷부분으로 가면서 정전기식 터치스크린의 센서신호를 어떻게 GUI와 연동하는가에 대한 자세한 부분까지 다루고 있다. 여기서 이야기하고 있는 유사압력감지라든가 손가락의 근접에 따른 GUI의 반응이라든가 하는 내용이 소위 내가 중얼거리고 다녔던 터치 다음으로서의 'deep touch'인데, 그 일부가 위에 설명되어 있는 것이다. 이 발명에서는 손가락의 근접에 따른 점진적인 시각 피드백, 근접과 접촉에 대한 센서입력값의 기준치 설정, 명확하지 않은 입력에 대해 근접정보를 활용하는 방법 등이 기술되어 있는데, 손에 들려있는 iPhone 3G을 가지고 이리저리 실험을 해봐도 이 딥터치 부분은 실제로 구현되어 있지 않은 듯 하다. ... 사실 디바이스 드라이버부터 많은 부분을 다시 만들어야 할테니 그럴만 하기도 하지만. 개인적으로는 조금 맥 빠지지만 뭐 한편으로는 일단 방향은 맞는 듯 하니 다행이랄까. -,.-a



내가 이 특허에 포함된 그림들을 보면서, 현재 버전의 iPhone/iPod Touch에 적용되어 있지 않거나 잘 드러나있지 않는 내용을 찾아낸 것은 여기까지다.

비슷비슷해 보이는 그림들을 일일이 보면서 실제 구현된 화면들과 비교하다 보니 좀 지치기도 했고, 중간쯤부터는 이게 무슨 쓸데없는 옛버릇인가 싶어서 시큰둥해지기도 했으므로 조금 빼먹었을지도 모른다. 각 그림에 대한 상세한 설명은, 그림 속의 좀 눈에 띄겠다 싶은 숫자를  위에 링크한 특허원문에서 검색해 보면 쉽게 찾아볼 수 있으니, 관심있는 사람은 좀더 열심히 읽고 틀리거나 빠진 부분이 있으면 리플 달아주시면 여러 사람(약 10여명 -_- )에게 도움이 되겠다. 그리고 무엇보다 특허는 도면이 아니라 청구항 claim 에 의해서 정의되는 만큼, 그냥 훑어보기 쉬운 그림만 보는 것으로 섣불리 기술적인 판단을 하지는 말기를.

이 글에 포함된 그림은 모두 위의 파일(PSD)에 저장되어 있다. 어차피 나야 가지고 있어봐야 짐만 되니까, 어느 친구의 퇴근시간에나 도움이 되면 좋겠다.

 




끝으로, 그림을 보다가 재미있는 부분 몇가지.
Apple iPhone Touch UI Patent: Conference CallApple iPhone Touch UI Patent: Bart SimpsonApple iPhone Touch UI Patent: Flash Was Planned

그동안 아이폰을 쓰면서도 다자간 통화 conference call 가 지원된다는 사실은 까맣게 잊고 있었다. 위의 첫번째 화면은 위 글에 포함시키려고 일단 저장해 두었다가, 뭔가 찜찜해서 찾아보니 처음부터 존재했던 기능이라길래 머쓱했다. 생각해보니 처음 아이폰을 발표했을 때 키노트 내용 중에도 있었던 것 같기도 하고, GSM에서는 쉽게 되지만 CDMA에서는 구현이 어렵다든가 하는 이야기도 나눴던 것 같기도 하고 뭐 그렇다. 어물쩍 넘어가자. =_=;;;

두번째 화면은 바트 심슨 Bart Simpson 이 난데없이 나왔길래 저장했다. 이 특허에서는 대부분 실명같은 이름(Bruce Walker는 도대체 누굴까)이나 노골적인 익명(Jane Doe)이 등장하는데, 아마 이 장면에서는 "B"로 시작하는 이름이 하나 더 필요해서 문득 넣은 것 같다. ㅎㅎ

세번째 화면은 웹브라우저에서 멀티미디어 컨텐트를 보여주는 방법인데, 한쪽에 버젓이 플래쉬 로고가 포함되어 있다.
스티브 잡스가 아이폰에서의 Flash 구동에 대해서 부정적인 발언을 했음에도 불구하고, 사실은 당연히 내부적으로는 준비를 하고 있었던 것으로 보인다. 아마 잡스옹의 그 발언은 Adobe와 Apple 중 누가 그 독점적인 플러그인을 개발해 넣을 것인가에 대한 소모적인 논의 끝에 불거진 불평 아니었을까. 이런이런.



이제 진짜 끝. 이제 그만 놀고 다시 일해야지 일. ㅡ_ㅡa;;;
신고
Creative Commons License
Posted by Stan1ey

제목은 얼마전부터 한국에서 광고하고 있는 SKY Presto 라는 휴대폰 모델(IM-U310)의 광고 카피다.



일전에도 잠깐 언급했듯이 터치 방식 UI에는 늘 '오터치'의 위험성이 있었기 때문에 그리는 동작(stroke)으로 조작을 하는 방식이 제안된 적이 있었고, 특히 광선차단 방식의 터치스크린은 그 해상도가 낮아 stroke을 이용하게 함로써 확실한 명령을 전달할 수 있었다. 오터치의 위험성만을 생각한다면, Neonode사의 휴대폰들처럼 차라리 터치(정확히는 tap)를 통한 단속적인 입력을 전혀 사용하지 않는 편이 나을지도 모른다.

이번에 광고하고 있는 이 휴대폰 모델에서는, 광고를 통해 "Don't Touch, Just Draw"라고 핏줄을 곤두세운 것에 비해서 그다지 엄청난 기능을 보여주고 있지 않다. 홈페이지의 제품설명을 보면, 오히려 유일하게 -_- 스트로크를 사용하는 대목은 'ONE Player'라는 멀티미디어 재생기능이다.

ONE Player in SKY Presto, IM-U310

사실 동작기반의 UI를 대대적으로 적용하려고 하면 문제가 되는 것이 사용자가 다양한 동작 명령을 기억하거나 직관적으로 생각해내지 못하는 부분인데, 이 문제를 그나마 해결할 수 있는 부분이 기존에도 그만큼 단순한 아이콘인 ▶, ■, ◀ 등을 '>, O, <' 등의 스트로크 명령으로 대응시키는 방법이었을 것이다. 기왕이면 일시정지('||' 대신 뒤집힌 'N')를 포함시킨다든가, 정지('○' 대신 '□' 혹은 '×')와 녹음('○' 혹은 'R')을 구분한다든가 하면 어땠을까 싶긴 하지만, 아마 이런 문제 정도는 충분히 고려했을 테고, 이미 구현되었거나 그렇지 않다면 뭔가 피할 수 없는 이유가 있으리라고 생각한다.

Apple에서 MacBook에 멀티터치패드를 적용하면서 넣은 동작 UI도 결국 무척 적은 수로 제한되어 있지만, 그 동작들은 꽤 자주 쓰이는 문서 스크롤이나 확대/축소를 위한 것이므로 시스템 전반에서 사용될 수 있는 범용성이 있었다. 휴대폰에서도 목록을 스크롤한다든가 상하좌우 동작을 한다든가 하는 범용적인 명령이 몇 있을텐데, 기왕에 강한 어조로 홍보하는 김에 좀 더 휴대폰 전반에 걸쳐 동작을 적용해주면 좋지 않았을까 하는 아쉬움이 남는다.




... 아 물론, 저렇게 넓은 터치스크린이 있다면 그냥 오터치 방지 차원에서 조작 버튼을 크게 만들어주는 게 동작의 오인식 위험성을 감수하는 것보다 낫지 않았을까 하는 생각도 든다. 앨범 아트를 보여주는 게 중요했다면 그런 조작 버튼들이 터치(tap?)에 의해서만 나타나게 하는 방법도 있을테고, 터치에 뒤이은 보다 간단한 동작(hold+상하좌우stroke)으로 조작되게 하는 방법도 추가될 수 있을 거다.

이래저래 말로야 쉽지만, 실제로 구현해야 했던 실무자들의 고심만큼이야 할 수 없을테지. -_-a 그냥 모처럼 옛 고민과 연결된 광고에 혹했다가, 결국 동작 기능이 그다지 대대적으로 적용되지 않아서 초큼 실망해서 주절거려 봤다. -_-a
신고
Creative Commons License
Posted by Stan1ey
마이크로소프트에서 Surface Computing을 가지고 구형으로 뿌리나 싶더니 이번에는 SecondLight라는 개념을 추가했다고 한다. 첫번째 소식을 듣고는 저걸 어떻게 만들었을까를 이리저리 그려봤었는데, 동영상에서는 2개의 프로젝터와 액정필름을 이용했다는 것만 이야기하고 있다.



저 위의 손으로 들어 옮기는 '스크린'은 그냥 기름종이라고 하니, 결국 거기서 뭔가 하지는 않을테고, 결국 뭐 프로젝터에서 나오는 광선을 하나는 가로방향, 하나는 세로방향의 편광필터를 통과시켜서 역시 편광필터가 있는 스크린에 투과해서 편광 방향이 일치하는 화면은 상이 맺히지 않고 통과, 일치하지 않는 화면은 상이 맺히는 거 아닐까라는 게 첫번째 생각이었다.

그랬다가 다른 곳에서 접한 동영상은 좀 더 자세한 설명이 포함되어 있었다.



결국 대충은 생각한 것과 비슷하지만 테이블 스크린의 편광 필터도 액정으로 동작하는 전자식이었다는 건 좀 의외다. SecondLight를 이용하지 않을 경우에는 전원을 꺼서 (즉, 빛을 거르지 않음으로써) 화면 밝기를 확보하거나, 아니면 그냥 두가지 화면이 모두 맺히는 걸 보면서 두 화면의 X, Y축 좌표를 맞추고 디버깅하는 용도로 쓰이는 거 아닐까 싶다. (원래 AR 계열 연구는 뭐 하나 세팅하려면 이 가상세계와 현실세계를 서로 calibration하는 게 큰 일이다. ㅡ_ㅡ;; )

SecondLight Explained from Microsoft

... 근데 고해상도 카메라라는 게 얼마나 고해상도인지 모르겠지만, 일반 사람들이 생각하는 고해상도 - 요새는 1600×1200 해상도의 디카사진도 고해상도로 안 치는 듯 - 라면 이 뒤에는 데스크탑 PC 본체가 2대는 연결되어 있어야 할 거다. 어쩌면 그 둘에서 인식한 영상을 연동해주는 정보처리 PC가 하나 더 필요할지도 모르고. 그게 아니라 영상인식에서 말하는 고해상도 - 640×480이나 요새는 혹시나 800×600 정도도 가능하려나 - 라면 멀티코어 PC 한 대로 어떻게 될 것도 같고. 어쨋든 PC가 빠지는 바람에 이 그림이 많이 간단해진 것 같다.



잠시 딴 이야기로 새자면, 2005년 쯤인가 HelioDisplay라는 '공중에 투사되는 화면'이 꽤나 주목받은 적이 있다.



내가 이 제품을 직접 볼 기회가 있었던 것은 2006년 6월에 있었던 전시회에서 였는데, 아래와 같은 사진을 찍으면서 이 제품의 '숨겨진 모습'을 볼 수 있었다.

3D Projection in the Air ... and the wall behind.3D Projection in the Air ... and the wall behind.

위 그림에서의 3D 공간 상의 스크린(사실은 수증기로 만든 2D 막으로, 특수한 노즐이 달린 가습기라고 생각하면 된다. 실제로도 물을 리필해줘야 하는데, 회사 광고에는 그런 소리 절대로 안 나온다. ㅎㅎㅎ )에 화면을 투사하는 방식으로 적당한 거리(이론 상 약 3m 떨어지면 양안시차로 구분할 수 있는 물리적/지각적 입체감은 거의 의미가 없고, 이미지 상의 패턴을 인지적으로 해석함으로써 입체감을 느끼게 된다.)에서 떨어져서 보면 실제 뭔가가 입체적으로 떠있는 듯한 느낌이 들기도 한다.

HelioDisplay with Somehow-Black Background
하지만 저 수증기 스크린은 투사되는 빛을 제대로 잡아주지 못하기 때문에 화면이 어둡고 화면 자체도 반투명하다. 그러다보니 회사 웹사이트의 이미지도 교묘하게 배경을 검게 만들었고, 위의 동영상이나 전시장도 검은배경을 만드는 게 관건이었던 것 같다. 위의 직찍 사진 중 한장은 일부러 비스듬하게 찍어서 흰색 배경을 넣었는데, 화면이 전혀 보이지 않는 걸 볼 수 있다.

저 위의 사진을 찍고 뒤돌아 서다가 본 광경은 좀 더 놀라왔는데, 스크린의 투과성이 높다 보니 화면에 뿌려지는 내용이 그대로 뒷쪽에도 뿌려지고 있었던 거다.



... 다시 Microsoft의 SecondLight로 돌아와서 -_-a;;

이 놀라운 시스템도, 결국은 테이블 스크린를 반투명하게 한 장치이고, 두번째 화면만 생각하자면 거의 대부분이 테이블 표면을 통과하기 때문에 그냥 투명하다고 할 수도 있겠다. 결국 동영상에서 보이는 두번째 화면은 사실 작은 화면(기름종이)에만 뿌려지는 게 아니라 천정과 발표자의 얼굴에도 뿌려지고 있을 것 같다. 그것만 해결한다면 실용적으로도 쓸모가 있을텐데, 지금으로선 천정이 높거나 검은 곳에서만 사용해야 할 것 같은 시스템이다. 특히 누군가가 테이블에 붙어서 열심히 쓰고 있다면 다른 사람은 모두 사용자의 얼굴에 비춰진 두번째 화면을 볼 수 있을지도. ㅎㅎ
신고
Creative Commons License
Posted by Stan1ey

얼마 전 대한항공을 타고 오다가, 기내 VOD 시스템의 UI가 터치스크린 기반으로 대대적인 개편을 했길래 한번 이것저것 찔러 봤다. 새로운 터치스크린 시스템은 좌석에 부착된 리모컨과 함께 사용할 수 있어서, 커서를 움직이고 클릭하기 위해서 손가락을 이용할 수도 있고, 리모컨의 상하좌우/선택 키를 이용할 수도 있었다.



그런데 뭔가 이상하다... -_-+ (마음에 들었으면 왜 이러고 있겠냐 ㅡ_ㅡa;; )

어떤 화면에서는 터치를 하면 그게 클릭가능한 영역이든 아니든 커서가 따라오는데, 어떤 화면에서는 클릭가능한 영역이 아니면 커서가 따라오지 않는다. 그런데 커서가 따라오지 않는 영역에서도 터치한 후에 리모컨을 조작해보면, 뒤늦게 그 위치로 커서가 따라오는 것을 볼 수 있다.

또 어떤 화면으로 진입할 때에는 커서의 위치가 이전 화면에서의 위치가 아닌, '디폴트 선택' 위치로 훌쩍 이동해 있기도 하다.
 
잠자는 사람을 위해서 기내에 불을 꺼둔 시간에 찍은 관계로 화질은 매우 열악하지만, 두번째 상황에 대한 사용 sequence를 몇개 예로 들자면 다음과 같다. (첫번째 상황은 동영상으로 보는 수 밖에 없겠다;)

GUI of In-flight VOD System for KALGUI of In-flight VOD System for KALGUI of In-flight VOD System for KAL
(2-1) 커서가 클릭한 지점으로 이동해 있다.

GUI of In-flight VOD System for KALGUI of In-flight VOD System for KALGUI of In-flight VOD System for KAL
(2-2) 커서가 이동한 화면의 첫번째 항목('디폴트 선택')으로 이동해 있다.

조작과 반응이 이렇게 따로 움직이는 듯하게 구현된 이유는, 분명히 조작 레이어(커서)가 시스템 레이어에서 구현된 게 아니라 반응 레이어(GUI)의 일부로서 구현되었기 때문일 것이다. 즉 터치입력이 들어오면 시스템 수준에서 커서가 이동하든가 하면서 그 좌표값이 기능을 수행하고 반응을 보여야 하는데, 이 경우에는 터치입력에 따라 기능이 수행되고 반응하면서 비로서 커서를 표현하도록 되어 있는 것이다.

Design suggestion for VOD GUI
도대체 왜 이렇게 만들어야 했을까? 특히 터치스크린에서 커서는 별 소용이 없는데다가, 위 GUI 들에서 볼 수 있듯이 리모컨으로 커서를 픽셀 단위로 힘겹게 움직여 버튼을 클릭하기보다, 버튼 테두리를 커서로 활성화 시키고 한번 누르면 한 항목씩 움직이는 방식이 좀더 효율적이지 않았을까?



몇년 전, 터치스크린 기반의 ATM 기기를 위한 UI를 만들면서 onMouseOver 이벤트를 사용한 후배에게 잔소리를 했던 기억이 난다. 터치스크린 UI는 일반적인 GUI와 다른 점이 있을텐데, 그걸 생각하지 않았다고 말이다. 내가 만일 이 VOD 시스템의 UI를 만든 사람을 만난다면, 그 때의 열배 정도는 잔소리를 쏟아부을 것 같다. 여기에도 onMouseOver 이벤트가 있는 건 물론이지만, 시스템 전체에 걸쳐서 어느 한 곳에서도 픽셀 단위의 좌표입력이 필요한 곳이 없는데 (있다고 해도 그 부분만 그렇게 만들면 될 일이다) 왜 그냥 머릿속에서 나오는대로, 혹은 심지어 만들기 간편한 대로 이런 UI를 만들었냐고 말이다.

대한항공에서야 새로 개편한 GUI가 이전보다 "예쁘니까", 그리고 이전보다 "많은 컨텐트"를 제공하니까 뭔가 큰 일을 했다고 생각할지 모르겠지만, 난 수많은 승객이 침침한 기내에서 리모컨 버튼을 꾹 누른채 참을성있게 커서가 날라가는 터치스크린 화면을 응시하는 모습을 목격한 입장에서, 이걸 만들기 위해서 투자된 돈이 어느 개념없는 UI 디자이너에게 흘러갔을 걸 생각하면 좀 속이 쓰리다.
신고
Creative Commons License
Posted by Stan1ey

... 뭐, 그런 논리적이고 설득력 있는 연유로 해서 ( '-')y~, 휴대폰 없는 생활에 지겨워진 어느 날 iPhone을 질러 버렸다. ㅡ_ㅡa;;; 한 이틀 잘 가지고 놀다보니, 인터넷으로 지겹도록 예습한 iPhone 자체의 기능들보다 AppStore에서 다운로드 받을 수 있는 소프트웨어 중에 재미있는 게 너무 많아서 즐거운 비명을 지르는 중이다. 탑재하고 있는 센서와 네트워크 기능, 게다가 뛰어난 그래픽 엔진까지 달려 있으니 뭐 아이디어와 열정과 욕심이 있는 엔지니어들이 얼마나 신이 나서 만들었는지가 보이는 느낌이랄까.

이런저런 재미있는 장난감들이 있지만, 그 중 다음 몇가지 어플은 어떤 식으로든 센서로부터의 입력 신호를 바탕으로 패턴을 인식해서, 그걸 사용자로부터의 암시적 입력으로 사용하는... 뭐 결국은 HTI 어플이라고 할 수 있는 것들이다. AppStore에 올라와 있는 것들 중 전부는 아니겠지만, 그래도 제법 많이 뒤져서 찾아낸 거다.

My Collection of iPhone HTI Apps


1. Movies
iPhone Apps - Movies
iPhone Apps - Movies
영화를 검색하고, 현재 위치에서 가까운 극장에 대한 상영정보와 함께 영화 정보나 예고편을 볼 수 있는 어플이다. 현재 위치를 사용할 수도 있고, 임의의 다른 지역을 '디폴트 지역'으로 설정할 수도 있다. 위치 정보를 이용하는 모든 어플들은 처음 시작할 때 "위치 정보에 대한 접근을 허락하겠느냐"는 확인을 하게 된다. 등록된 영화정보가 많다보니 이 지역과 관련이 적은 영화도 올라와서 걸러내기가 힘들긴 하지만, 그래도 평점 같은 정보는 정말 도움이 많이 될 듯.


2. AroundMe
iPhone Apps - AroundMe
iPhone Apps - AroundMe
마치 LBS의 표본 같은 어플로, 그야말로 사용자의 현재 위치에 기반해서 알려줄 수 있는 유용한 지점 정보를 (구글에 등록된 항목들을 바탕으로) 검색해서 나열해 준다. 카 내비게이션에서 종종 보이는 POI 표시/검색 기능과 비슷하다고 할 수 있는데, GPS로 인해 정확한 위치가 가능하니 얼마나 앞에 있는지를 정확하게 보여주고 구글 맵 지도 위에서 확인할 수 있게 해 준다. 물론 구글 맵 위에는 내 GPS 신호의 위치가 함께 표시가 되니까, 예전에 동영상으로 숱하게 찍어냈던 ubicomp 서비스가 이제 이만큼이나 구현되어 있구나... 하는 느낌이다. 실제로 언젠가 봤던 노키아의 기술비전 동영상 (뭐 왠만한 회사에서는 다 동일한 내용이 있었던 것으로 기억하지만 -_- ) 속에서처럼, 친구들이 서로의 위치를 확인할 수 있다든가 하는 어플도 나와있는데, 무료가 아니라 패쓰. ㅋㅋ


3. SnapTell
iPhone Apps - SnapTell
iPhone Apps - SnapTell
아이폰 어플 중에 영상인식을 사용하는 게 있는 걸 보고 많이 놀랐다. 인식용으로 사용하기에 카메라의 화질도 별로고, 아무래도 모바일 환경에서 찍힌 사진에는 인식을 방해하는 요소가 많이 포함되기 마련이니까. 이 어플은 책/영화포스터/CD표지 등을 찍으면 그에 대한 평과 관련 정보를 보여주는 기능이 있는데, 미국에 출판되었을 법한 책을 하나 집어서 찍어보니 꽤 정확하게 인식하고 있다. 단지 광고와 달리 영화포스터는 몇 개를 해봐도 정보가 없었고, 게임 CD도 인식하지 못했다. 그래도 예전에 언급한 Evolution Robotics사의 기술과 유사한 게 적용되어 있는지, 배경만 깔끔하다면 조금 삐딱하게 찍어도 되는 것 같고, color histogram 같은 게 아니라 제대로 윤곽선 따서 하는 듯 하다. 흑백으로 복사한 책 표시를 인식시켜봐도 똑같이 검색이 되는 걸 보면. ^^; 기왕이면 내가 찍은 사진과 검색된 책 표지를 같이 보여주면 좋을텐데, 검색이 성공했을 경우엔 그걸 확인할 방법이 없으니 간혹 엉뚱한 책이 검색됐을 때 왜 그랬는지를 추정할 수가 없다. (일반 사용자 용의 기능은 아니겠지만 -_- )


4. Evernote
iPhone Apps - Evernote
iPhone Apps - Evernote
사진을 찍어서 저장하면 사진에 포함된 글자를 인식해서 단어로 검색할 수 있게 해준다고 하길래 얼른 설치한 어플이다. 기능은 로컬이지만 결국 영상인식은 위의 SnapTell과 마찬가지로 서버에서 하는 듯, 사진을 등록할 때마다 꽤나 시간이 걸린다. 그런데도, 사실은 인식의 난이도를 넘넘 낮춰가며 여러가지를 시도해봐도 인식이 된 적이 없다. 엔진의 문제인지 뭔지는 몰라도 마치 사장 데모 만큼이나 감감 무소식에 뭐가 잘못 됐는지도 알 수가 없어서 그냥 포기했다.


5. Cactus
iPhone Apps - Cactus
iPhone Apps - Cactus
iPhone Apps - Cactus
iPhone Apps - Cactus
iPhone Apps - Cactus

음성인식 어플이 나와있었다! 그것도 무료로! Cactus Voice Dialer라고 되어 있는 이 어플은 주소록의 이름을 인식해서 전화를 걸어주는데, 전화기에서 VUI의 첫번째 응용이라고 볼 수 있는만큼 좋은 징조라고 생각한다. 무료 어플이긴 하지만 음성인식 다이얼링에 필요한 기능과 옵션들을 두루 잘 갖추고 있고, 음성인식 오류를 최대한 줄이기 위한 지침도 역시나 '아무도 읽지 않을 장문으로' 꼼꼼히 적혀 있다. 실제로 여러 영어이름을 넣어 실험해 보니 처음에는 indexing을 하는지 좀 오래 걸리지만 다음부터는 더 빨리 구동되는 듯 하고(600명 정도 넣었을 경우), 인식률은 그다지 높은 편이 아니었다. 전화번호까지 넣고 해본 게 아니고, 아무래도 실험참가자의 영어 발음이 알아듣기 힘들었던지라 그다지 공정한 판정은 아니라고 해도. -_-
VUI 자체는 가장 일반적인 방식, 즉 Push-to-Talk 방식의 터치 버튼("Speak")을 채용하고 결과를 1개 혹은 옵션에서 선택하면 3개까지 보여주는 식이다. 인식결과에 대해서 무조건 전화를 걸게 한다든가, 인식결과에 나온 사람의 대표 번호를 디폴트 선택으로 할 것인가 라든가 하는 것도 voice dialer를 표방한 이상 들어갈 수 밖에 없는 기능들. 하지만 인식기 자체는 위 그림에서 보이듯이 "Call John Smith's mobile" 따위의 최소한의 구문은 인식할 수 있도록 되어 있다. (IBM에서 VoiceSignal로 넘어오는 대표적인 '전화걸기' 구문 되겠다) 비록 시각적인 (그리고 아마도 인식엔진의) 완성도는 떨어진다고 해도, 이만큼 충실하게 만들어진 어플이 무료로 배포되다니, 정말 유료로 살 정도의 시장은 없는 건가... OTL..


6. CenceMe
iPhone Apps - CenceMe
iPhone Apps - CenceMe
iPhone Apps - CenceMe
이게 또 재미있는 어플이다. 가속도 센서의 입력을 가지고 각 방향으로의 강도와 빈도를 분석해서 사람이 어떤 행동을 하고 있는지, 즉 소위 말하는 "사용자 행동 정황"을 파악하겠다는 시도는 많은 연구가 이루어져 있다. 대부분의 취지는 뭐 휴대단말이 사용자에게 전달할 메시지가 있을 때 그 적절한 '끼어들기' 타이밍을 좀 판단하겠다는 거다. 이메일이 왔다거나, 전화가 왔다거나 하는 메시지가 대표적이고, 소리로 알릴지 진동으로 알릴지 나중에 알릴지 등등의 판단을 유도하곤 한다. 이 어플은 정확히 똑같은 일을 하면서, 그 '정황'을 무려 내 계정의 FaceBook에 연결시켜 보여준다. 이 정황은 2가지 아이콘으로 보여지는데, 앞의 것은 자동으로 업데이트되고, 뒤의 것은 자기가 원하는 아이콘(정황을 보여주는)으로 바꾸거나 사진을 찍어 올릴 수 있다. 덤으로 위치 정보까지 같이 올려주는 모양인데, 어떻게 보면 상당한 사생활 공개라고 하겠다. ㅡ_ㅡa;;;
CenceMe Application on FaceBook
그래도 공짜니까 받아서 여러가지를 테스트해 봤는데, 오른쪽 그림의 몇가지는 어느 정도 잘 인식하고 있었다. (실험 과정에서 룸메이트가 항의하는 사태가 있었다;;;) 이 어플의 문제는 어플이 떠있는 동안에만 센싱 및 업데이트가 된다는 점이 아닐까 한다. FaceBook 업데이트하려고 이 어플만 띄워놓고 다닐 사람은 없을테니까.  그 외에도 아주 심각한 문제를 하나 안고 있는데, 정작 그 사용자는 이런 행동을 하는 동안 자기 FaceBook에 뭐가 표시되고 있는지를 볼 수 없을 거라는 거다. 실제로도 열심히 뛰고 헉헉 거리면서 바로바로 캡춰하지 않으면 위의 장면들도 얻기 힘들었을 거다.


7. WritePad
iPhone Apps - WritePad
iPhone Apps - WritePad
IUI 분야의 선구자 중 한 분라고 생각하는 IBM의 한 연구자가 십년 너머 연구해 온 터치스크린 키보드가 있다. 처음에는 ATOMIK 이라고 부르면서 입력시의 동선을 최적화 시킨 새로운 키보드 배치를 제안했는데, 요즘은 SHARK 라는 이름으로 바뀌고, 배치도 결국 사람들에게 익숙한 QWERTY 자판을 쓰고 있다. 이 연구를 상업화한 것이 ShapeWriter 라는 회사이고, 이 어플은 실제 사용할 수 있도록 개발/공개된 첫번째 상품(?)이다. 아이폰의 다른 기능과 그다지 어울리지 않아서 데모 소프트웨어와 다른 점은 모르겠지만, 그래도 최근 Google Android 위에서도 개발되는 등 활발한 활동을 보이고 있다. 실제로 이 '그려서 글자입력' 방식을 써보면 꽤 편하고 무엇보다 빠르다는 걸 알 수 있는데, 터치스크린이 손가락을 가리는 단점을 잘 극복한다면 (아이폰의 기본 GUI scheme만으로 가능할거다) 이 터치스크린 시대에 잘 맞는 새로운 표준이 될 수도 있을 듯 하다. (뭐 이런 류의 연구가 늘 그렇지만, 한글입력은 아직 지원하지 않는다 -_- ) 위 회사 웹사이트에 가면 상당한 정보가 있으니, 관심 있으신 분은 가봄직하다.


8. PanoLab
iPhone Apps - PanoLab
iPhone Apps - PanoLab
이 어플은 사실 HTI, 혹은 인식기반의 어플이라고는 할 수는 없다. 하지만 여러 장의 사진을 이어붙여 파노라마 사진을 만드는 과정에서, 그냥 평면적인 조합이 아니라 iPhone 카메라의 고정된 화각과 초점거리를 적용해서 구면 상에서 합성하도록 되어 있는 어플이다. 그 덕에 사진 바깥쪽의 왜곡에도 불구하고 좀 더 잘 겹쳐지는 것 같기는 한데, 사실은 아무래도 정확할 수 없어서 뭐 있으나 마나 하다. 그래도 그렇게 합성한 사진을 저장하고 바로 보낼 수 있는 점은 확실히 장점이어서, 돌아다니다가 본 풍경을 공유하거나 할 때 유용할 듯.


9. LlamaLight
iPhone Apps - LlamaLight
PDA를 쓰던 시절에 가장 유용한 필수어플이었던 PalmMirror (화면을 검게 표시해서 얼굴이 비친다;;)와 PalmLight (화면을 하얗게 표시해서 조명으로 쓸 수 있다;;)를 기억한다면, 이 어플에 대한 설명은 왼쪽 화면 만큼이나 단순하다. 단지, 터치하는 위치에 따라 색과 밝기를 바꿀 수 있다는 정도가 다른 점이랄까. 하지만 이 "가장 단순한" 기능을 HTI 기반 어플로 언급하는 이유는 그 플래시 기능 때문이다. 한가지 색상을 선택한 후에 다른 색상 위치를 서너번 같은 간격으로 tap 하면, 그걸 인식해서 그 간격대로 두 색을 번쩍번쩍하는 기능인데, 그냥 버튼 하나 둔다든가 한 게 아니라 터치 간격을 입력으로 받아들이게 한 게 재미있다. 사용법이 너무 숨겨져 있다든가, 사실은 뭐 인식이랄 것도 없을 정도로 단순한 기술이라는 게 좀 그렇지만, 그래도 기능의 단순함에 비하면 훌륭한 HTI 적용이라고 본다.




여기까지가, 현재의 Apple AppStore에서 무료로 구할 수 있었던 9가지 HTI 어플들이다. 정도의 차이는 있고 어쩌면 못 본 어플이 있었을지도 모르겠지만 그래도 꽤 재미있는 콜렉션이라고 생각해서 한번 정리해 봤다. 이 외에도 게임들을 보면 재미있는 기능들이 넘치도록 많지만, 오히려 너무 많아서 뭘 어떻게 봐야 할지 모르겠다.

Chinese Character Input on iPhone
한편으론 기본적인 iPhone 기능 중에서도 GPS를 지도 상에 표시하는 방법이라든가 (정확도에 따라 표시가 다르고, 지도 상의 길을 기준으로 위치를 보정하는 것 같다.), 중국어 입력에 한해서는 필기입력이 가능하다든가 (왼쪽 그림) 하는 점도 HTI의 적용이라고 볼 수 있겠지만, 뭐 너무 널리 알려진 기능들은 또 말하는 재미가 없으니까.

신고
Creative Commons License
Posted by Stan1ey
대부분 노트북에 달려있는 터치패드를 공급하고 있는 시냅틱스 Synaptics 사에서 단순한 터치 외에 그동안 Apple 제품에서만 상용화되었던 손가락 제스처들을 속속 구현하고 상용화하고 있다고 한다.

Samsung K7 MP3 Player with Circular Finger Gesture
작년 10월에 발표된 카이럴모션 ChiralMotion 은 이미 삼성의 MP3 Player에 적용된 기술이고 다른 몇가지 제품에 적용되어 있는데, 사실 Apple의 터치휠과 같은 동작을 일반적인 터치패드에서 사용할 수 있게 만든 것이다. 구현을 위해서 몇가지 알고리듬이 들어갔다고 하지만, 수많은 학생 프로젝트에서 봤던 것과 얼마나 다를지는 미지수다. 함께 발표된 Momentum 이라는 기법도 논문은 물론이고 다양한 소프트웨어(특히 게임)에서 자체적으로 구현된 기능이다. 오히려 주목할만한 것은 물론 Apple iPhone에도 들어갔던 pinch gesture 라고 하겠다. 물론 시기적으로 "따라하기"라는 게 역력히 보이는 관계로 좀 쯔쯔..싶지만, 어차피 애플도 그 개념을 처음 만든 게 아니니까 뭐.

YouTube에 올린 홍보 동영상도 심각한 면이 없이 재미있다. ㅎㅎ



Two-Finger Flick
지난 9월 30일자로 발표된 ChiralRotate 와 Two-Finger Flick도, 조금 더 복잡한 알고리듬을 필요로 하지만, Two-Finger Flick의 경우 기존에 Apple의 MacBook에 오래전부터 구현되어 있었고 (원래 오른쪽 클릭을 대신하는 선택적인 기능이었다가 최근 스크롤 등이 추가되긴 했지만), ChiralRotate은 최근에서야 부가된 기능이라는 차이가 있을 뿐이다.

Advanced Touch Control, Commercialized by SynapticsAdvanced Touch Control, Commercialized by Synaptics



애플에서 이미 다 구현한 기술임에도 불구하고 시냅틱스 사의 발표에 주목하게 되는 것은, 이 회사의 터치패드가 대부분의 노트북에 들어가기 때문일 것이다. 애플에서 이런저런 제스처 입력 기술을 상용화한 것은 특정한 노트북과 OS를 사용하는 사람에게만 의미가 있을지 몰라도, 시냅틱스의 터치패드에 다양한 제스처 입력 기술이 적용되는 것은 분명 그보다 더 큰 파급효과를 가져올 것이다. 어쩌면 오늘날 많은 소프트웨어에서 마우스의 휠 조작을 당연하게 사용하는 것처럼 (마우스에 휠이 도입된 것이 1995년이라는 걸 생각하면, 얼마나 빨리 정착한 UI인지 놀라운 일이다), 간단한 제스처 입력들이 널리 사용되게 될 날이 의외로 가까운 시일 내에 올지도 모르겠다.

애플 같은 회사가 시장에 가능성을 보이고, 시냅틱스 같은 회사가 이를 대중화한다. 대부분의 기술이 뭐 이렇게 발전하기는 한다. 애플이라는 촉매가 있었기에 멀티터치라는 생경한 조작 방법이 마치 정말 편한 것처럼 포장(?)되어 Hype Curve를 쉽게 넘을 수 있었던 것 같기는 하지만.



10월 15일 추가:
어제 시냅틱스 한국지사에서 설명회를 한 모양이다. 링크된 사이트에서 자세한 이야기를 들을 수 있지만, 위에서 설명한 제스처 입력에 대한 슬라이드가 있어서 하나 훔쳐(ㅈㅅ) 왔다.

사용자 삽입 이미지

자세한 이야기는 원래 사이트의 기사에서 보시기를. ㅎㅎ
신고
Creative Commons License
Posted by Stan1ey

벌써 보름쯤 전의 일이지만서도, Sony에서 PlayStation3의 조종기에 끼워서 쓰는 QWERTY 키보드를 내놓았다.

QWERTY keyboard for PS3 ControllerQWERTY keyboard for PS3 Controller

조금 가오리처럼 생겼지만, 조종기에 꼽혀있는 모습을 보면 게임 컨트롤과 키보드 입력을 같이 지원하려면 사실 적당한 디자인(=위치선정)이라는 생각도 든다. PS3에서도 웹서핑이라든가 게임에서 이름을 넣는다든가 하는 식으로 문자입력이 종종 필요하다는 점에서, QWERTY 키보드가 들어간다는 건 환영할만한 일이다.


Touch Pad mode button on PS3 QWERTY keyboard
... 뭐 그런가보다 하고 넘어가려다 보니, 위에 링크한 기사에서 언급한 "Touch Pad mode"가 마음에 턱하니 걸렸다. 자세히 보면, 키보드 아랫부분에 손가락 아이콘과 함께 On/Off로 터치패드모드 상태를 알려주는 듯한 LED가 있는 버튼이 있다. 기사에서 말한대로 터치패드가 있다면 웹서핑 같은 순간에 꽤 쓸모가 있겠지만, 저 제품의 어디에 터치패드가 있다는 걸까? ㅡ_ㅡa;;;

그냥 답이 나오지 않았다는 이유로 이걸 멋대로 수수께끼로 생각하자면, 이 모드에서 무엇이 "마우스를 대신하는" 포인팅 기능을 할지에 대해서는 몇가지 예측을 해볼 수 있겠다.


1. 아날로그 스틱
PS3 컨트롤러에 붙어있는 2개의 아날로그 스틱은 평소에 다양한 용도로 각각 쓰이기 때문에, 일부러 "터치패드 모드"를 두어서 마우스 조정에 사용하도록 만들 거라는 예상을 해볼 수도 있다. 하지만 웹서핑과 같은 모드에서는 3D 게임에서처럼 많은 입력이 동시에 필요하지 않으므로, 굳이 스틱을 다른 용도와 함께 나누어 쓰지 않아도 될 것이다. 따라서 가장 간단하게 생각할 수 있는 이 조합은, 사실은 아무래도 아니지 않을까 싶다. ㅎㅎ


2. 터치-키보드 조합
사실 소니는 키보드를 동시에 터치로 사용하는 기술을 이미 특허로 가지고 있으며, 심지어 일부는 상품화되어 있다. 원래 "PreSense" 라는 이름으로 몇차례 논문화되었던 이 아이디어는, 키보드 자체를 전기가 (조금이라도) 통하는 물질도 만들어서 그 자체가 터치패드로 기능할 수 있도록 만든 것이다, 이 방법을 이용하면 버튼을 누르기 전에 터치여부를 알 수 있으므로, 사용자는 버튼을 누르지 않고 버튼 표면만을 살살 문질러서 터치패드처럼 사용할 수 있는 것이다. (가끔 인간이 손가락의 압력을 얼마나 자유롭게 조절할 수 있는지를 생각해보면 새삼스럽게 놀라곤 한다.) 게다가 클릭이 가능한 영역에 손가락을 올렸을 때 화면에 시각적 피드백을 줄 수가 있고, 그대로 누르면 되기 때문에 상당히 직관적이고 자연스럽게 사용할 수 있다.

PreSense - OverviewPreSense - Applications

Sony VGF-AP1 with G-Sense
하지만 이 방식을 사용하면, 사실 화면좌표 상에서의 정확한 포인팅이나 클릭은 어렵다고 봐야 한다. 버튼과 버튼 사이의 영역은 터치가 안 되거나 별도의 계산이 필요하고 오류가 많기 때문에, 결국 버튼영역에 공간적으로 매핑되는 별도의 UI를 만들어야 하는 것이다. PreSense를 "G-Sense"라는 이름으로 최초로 상용화했던 Sony의 MP3 플레이어 VGF-AP1 같은 경우에도 5x5의 버튼배치에 일대일로 매핑되는 UI를 만들어서 적용해야 했다.

따라서, 웹브라우저에서의 사용을 목표로 하는 위의 컨트롤러 키보드에 이 방식이 쓰이려면 웹브라우저에서의 링크를 그때그때 모두 QWERTY 배치에 맞춰 매핑시켜야 하는 불편+위험이 따른다. 아무리 소니라지만 이렇게 무모한 시도는 안 하지 않을까?


3. 뒷면 터치패드

Backside Touch Pad from Sony's Flexible Computer, Gummi
기기의 앞면을 사용할 수 없는 경우, 소니에서는 뒷면에 터치패드를 달아 입력장치로 쓰는 방법을 특허낸 바 있다. 이 기술은 이미 Gummi라는 휘어지는 컴퓨터에 적용되어 공개된 적이 있으며, 실제로 절대적인 포인팅이 아닌 상대적인 포인팅, 즉 특정한 방향으로 dragging gesture를 한다든가 할 때에는 앞면에서 터치하는 방식과 진배없는 사용성을 보여준다.

문제는 웹브라우저에서 사용할 것은 특정한 아이콘을 클릭한다든가 하는, 주로 절대적인 포인팅이라는 거다. 그냥 스크롤만 할 게 아니라면, 손가락 끝을 보지 못하는 상태에서 뒷면으로 클릭을 한다던가 하는 것은 직관적이지도 못할 뿐더러 실제로도 어려운 일이다.

Touch Pad mode button on PS3 QWERTY keyboard
단지, 이 대목에서, 확대된 터치모드 버튼 위로 어색하게도 스페이스 버튼 좌우에 놓여있는 좌우 화살표가 마음에 걸린다. 혹시 터치패드 모드에서는 뒷면으로 상대적인 포인팅을 하면서, 좌우 클릭을 저 화살표키로 할 수 있도록 하는 게 아닐까? 컨트롤러를 잡은 상태에서 좌우의 방아쇠 trigger 버튼의 조작을 방해하지 않으면서 터치패드를 사용하게 하려면 뒷면의 디자인이 좀 까다로우니까, 사실 그 상황이라면 컨트롤러를 떼고 저 가오리 모양의 키보드만 따로 들고 입력하는 게 훨씬 편하겠다. (그런 경우라면 저 안에 배터리와 통신장비가 들어가 있어야 하겠다.)




... 흠, 이래저래 생각해보니 뒷면터치가 나올 법한 조합이긴 한데, 그렇다면 정확한 절대 포인팅이 불가능한 포인팅 장치의 특성상 다소 특이한 UI가 나올 수도 있겠다. 이를테면 웹브라우저를 조작할 때에도 우선은 전체 웹페이지를 TV 화면에 띄우고 그 중 일정영역을 표시하는 사각형을 뒷면터치로 대충 원하는 곳으로 이동, 버튼으로 선택한 다음... 커서는 화면 중앙에 고정된 채로, 뒷면터치로 화면을 이동하는 방식을 채용하지 않을까 싶다. Gummi의 UI가 그런 방식이기도 했지만, 중앙의 커서에 가까와지는 링크를 활성화시키는 방식이라면 사용하기도 편하지 않을까?

Combined Scrolling and Selection, from Sony's Gummi Prototype, CHI 2004 Presentation

어떤 방식의 UI가 나오든, 소니가 뭔가 새로운 시도를 준비하고 있다는 소식만으로도 기대가 된다. 도대체 저 제품이 나온다는 "later this year"라는 건 언제가 될런지, 일단은 조마조마 하면서 기대해 봐야겠다.



... 심심하니까 참 별 걸 다 궁리하고 앉았다. ( '-')a


며칠 전 이 키보드의 출시가 임박했다는 기사를 봤는데, 오늘 시내 -_- 에 갔다가 게임샵에 갔더니 떡하니 팔리고 있다. ㅡ_ㅡa;; 뭐 크리스마스를 맞이하여 채팅이라고 하라는 건지 뭔지. 여하튼 덕택에 좀 요모조모 살펴보고 사진도 찍었는데, 정작 사진은 접사불가의 아이폰인지라 나만 간직하기로 하고, 결국 확인된 내용만 (기사에서 훔친 사진과 함께) 간단히 정리하자면 이렇다.

Sony PS3 Wireless Keyboard Sold NowSony PS3 Wireless Keyboard Sold Now

우선 이 기계는 독립적인 컨트롤러로, 그냥 집게로 기존 컨트롤러에 집어놓는 방식이다. 별도로 mini USB 케이블(별매 --;;; 혹은 기존 컨트롤러에 있는 놈과 교대로 사용해야 한다)를 이용해서 충전시키고, 본체와는 역시 별도의 Bluetooth 모듈로 연동하는 방식. 일반적인 모양새로 잡아서는 손가락이 키보드에 제대로 닿지 않기 때문에, 위에 말한대로 결국 키보드만 떼어서 따로 쓸 수도 있는 셈이다.

뒷면의 저 네모는 잠시 나를 두근거리게 했으나 결국 그냥 상품표시 레이블에 불과하다. ㅎㅎ 결국 위에 링크한 리뷰기사에서 언급되었듯이 위 글에서 적었던 두번째 방법 - PreSense 특허를 또 울궈먹기로 한 모양 - 을 사용하고 있고, 우려했던 문제도 그대로 발생하는 듯 하다. 에헤라.

재미있었던 것은 이 키보드 컨트롤러에도 좌우에 버튼이 하나씩 더 달려 있다는 건데, 이게 용도가 뭔지는 잘 모르겠다. L1, L2, L3까지 다 썼는데 저 단추 많은 걸 달면서 왜 굳이 L4(?)와 R4(응??) 넣은 걸까? 그거 없으면 안 되는 게임 따위 만들어서 억지로 구매하게 하다가 욕먹고 뭐 그러는 거 아닌지 몰라... -_-+

이상. 12월 22일 업데이트.



 

신고
Creative Commons License
Posted by Stan1ey

BLOG main image
by Stan1ey

카테고리

분류 전체보기 (347)
HTI in General (45)
User eXperience (11)
Voice UI (50)
Vision UI (14)
Gesture UI (25)
Tangible UI (28)
Robot UI (14)
Public UI (9)
Virtuality & Fun (56)
Visual Language (15)
sCRAP (70)

글 보관함



www.flickr.com
This is a Flickr badge showing public photos and videos from Stan1ey. Make your own badge here.