(앞의 글에서 계속...이라지만 사실 앞글과는 별 상관이 없을지도 모르겠다;;)


이 글은 벌써 세번째인가 쓰는 글이다. 야심차게 적었다가 다음에 읽어보면 너무 무모한 내용이라고 생각해서 지우고, 블로그를 몇개월 방치했다가 다시 열어보고 써내려 가다가 다음에 읽어보면 또 지우고... 아무래도 자신이 없었나보다. 글 번호 순서로 보면 지난 2007년말에 쓰기 시작한 모양인데, 뭐 워낙 우유부단한 걸로 악명높은 놈이라지만 이건 좀 심했다고 본다. ㅎㅎ

어쨋든, 이젠 더 미룰 수 없을 것같은 상황이 됐다. 삼성은 갤럭시 노트라는 걸 발표했고, 아이폰5의 발표가 임박한 것같고, 아마존의 새 이북리더도 곧 나올 예정이다. 더 늦으면 뒷북이 될 것 같아서, 빈약한 논리와 어거지 주장을 그냥 그대로 적어 올리기로 했다. (제목도 이제는 좀 민망해졌지만, 그래도 밀린 숙제니 어쩔 수 없이 그대로...) 몇년을 말그대로 "썩혀온" Deep Touch 이야기다.


그래서 대뜸.

터치스크린의 최대 약점은 그 조작의 순간성에 있다.

PC 중심의 UI를 하던 UI/HCI/HTI 연구자들은 터치스크린을 보고 무척이나 당혹스러웠다. 지금 인터넷 상에서는 도대체 찾을 수가 없는 누군가의 글(아마도 Ben Shneiderman 할아버지일텐데, 이 분의 논문을 다 뒤지기도 귀찮고... 해서 통과)에서는, 터치스크린이 전통적인 사용자 인터페이스의 기본 개념인 "Point-and-Click"을 지킬 수 없게 한다고 지적한 적이 있었다. 즉 물리적인 버튼을 누르는 상황에서는 손가락으로 그 버튼을 만지는 단계와 눌러 실행시키는 단계가 분리되어 있고, PC의 전통적인 GUI에서는 그것이 point 단계와 click 단계로 구분되어 있는데, Touch UI에서는 point 단계없이 바로 click(tap) 단계로 가버리게 되면서 사용성 오류가 발생하고 있다는 것이다.

Mouse Pointers, Hand-shaped
GUI에 이미 익숙한 사용자들은 이런 손모양 포인터를 통해서 사용에 많은 도움을 받는다. 이런 포인터들은 마우스의 저편 가상세계에서, 손을 대신해서 가상의 물체를 만지고 이해하며, 사용 이전과 사용 중에는 선택한 기능에 대한 확신을 준다. 추가설명이 필요한 영역에 포인터를 올렸을 때 활성화되는 툴팁(tooltip)이나, 포인터에 반응해서 클릭할 수 있는 영역을 시각적으로 강조하는 롤오버(roll-over; hover) 등의 기법도 이런 사례이다.

그런데, iOS의 기본 UI 디자인 방식을 중심으로 표준화되어 버린 Touch UI에서는 이런 도움을 받을 수가 없다. 물론 페이지, 토글버튼, 슬라이더 등의 즉물성(physicality)을 살린 -- 드래그할 때 손가락을 따라 움직인다든가 -- 움직임이 도움이 되긴 하지만, 기존에 손→마우스→포인터→GUI 설계에서 제공해주던 만큼 도움이 되지는 않는다. 요컨대 전통적인 GUI에서 "클릭"만을 빼서 "터치(혹은 탭)"으로 간단히 치환하는 것으로는 부족한 거다.

이 부족한 부분을 어떻게든 되살려서, 사용자가 고의든 아니든 어떤 기능을 실행시키기 전에 그 사실을 인지시킬 수 있는 방법을 주는 것. 그리고 실행을 시키는 중에확신을 줄 수 있고, 명령이 제대로 전달되었음을 따로 추론하지 않고도 조작도구(손가락) 끝에서 알 수 있게 하는 것. 아마 그게 터치UI의 다음 단계가 되지 않을까 한다. 버튼 입력이 들어올 때마다 휴대폰 몸통을 부르르 떤다든가 딕딕 소리를 내는 것 말고 말이다.

개인적으로 생각하고 있는 것은, 오래전부터 끼고 있는 아래 그림이다.

Deep Touch - Pre-touch detection, and Post-touch pressure/click


터치 이전. Pre-touch.

앞서 말한 (아마도 Ben 할배의) 연구 논문은 터치 이전에 부가적인 정보를 주기 위해서, 앞의 글에서도 말한 광선차단 방식의 터치스크린과 유사한 방식의 "벽"을 화면 주위에 3cm 정도 세워 사람이 화면 상의 무언가를 "가리키면" 이를 알 수 있게 한다..는 내용이었다. (혹시 이 논문 갖고 계신 분 좀 공유해주삼!) 말하자면 'MouseOver' 이벤트가 가능한 인터페이스를 만든 거 였는데, 불행히도 이 방식은 그다지 인기가 없었던 모양이다.

하지만 그 외에도 손가락이 접촉하기 전의 인터랙션을 활용하고자 하는 사례는 많았다. 지금은 Apple에 합병된 FingerWorks사의 기술은 표면에서 1cm 정도 떠있는 손가락의 방향이나 손바닥의 모양까지도 인식할 수 있었고, 이미 이런 센서 기술을 UI에 적용하기 위한 특허도 확보했다. 카메라를 이용한 사례로는 Tactiva의 TactaPad나 Microsoft Research의 Lucid Touch 프로토타입이 있고, 역시 Microsoft Research의 또 다른 터치 프로토타입에서도 터치 이전에 손가락을 추적할 수 있는 기술을 제시한 바 있다.

iGesture Pad, FingerWorks (Apple)Looking Glass, Microsoft ResearchLooking Glass, Microsoft Research


터치 이후. Post-touch.

일단 터치가 감지되면, 대부분의 시스템에서는 이것을 일반 마우스의 "KeyDown" 이벤트와 동일하게 처리한다. 즉 생각 없는 개발팀에서는 이를 바로 클릭(탭)으로 인식하고 기능을 수행하고, 좀 더 생각 있는 팀에서는 같은 영역에서 "KeyUp" 이벤트가 생기기를 기다리는 알고리듬을 준비할 것이다. 하지만 어느 쪽이든, 이미 터치 순간에 기능 수행을 활성화시켰기 때문에 사용자가 의도하지 않은 조작을 할 가능성은 생겨 버린다.

손가락이 화면에 닿은 후에, 추가적으로 사용자의 의도를 확인할 수 있게 해주는 것으로는 Drag와 Press의 두가지 동작을 생각할 수 있다.

이 중 Drag의 경우는 이제 터치 기반 제품에 명실상부한 표준으로 자리잡은 "Slide to Unlock"을 비롯해서 사용자의 의도를 오해 없이 전달받아야 하는 경우에 널리 쓰이고 있지만, 화면을 디자인해야 하는 입장에서 볼 때 어째 불필요하게 커다란 UI 요소를 넣어야 한다는 점이 부담으로 다가온다. 특수한 경우가 아니면 단순한 버튼을 클릭/탭하도록 하는 편이 사용자에게 더 친숙하기도 하고.

이에 비해서, 압력 혹은 물리적인 클릭을 통해 전달받을 수 있는 Press의 경우에는 화면 디자인 상의 제약은 덜하겠지만 이번엔 기술적인 제약이 있어서, 일반적인 터치 패널을 통해서는 구현에 어려움이 많다. (불가능하다..라고 할 수도 있겠지만, 클릭영역의 분포나 시간 변수를 활용해서 간접적으로 압력을 표현한 사례도 있었으니까.) 한때 우리나라의 많은 UI 쟁이들 가슴을 설레게 했던 아이리버의 D*Click 시스템은 제한된 범위에서나마 화면 가장자리를 눌러 기능을 실행시킬 수 있게 했었고, 화면과는 동떨어져 있지만 애플의 노트북 MacBook의 터치패드나 Magic Mouse에서도 터치패널 아래 물리적 버튼을 심어 터치에 이은 클릭을 실현시키고 있다. 몇차례 상품화된 소니의 PreSense 기술도 터치와 클릭을 조합시킨 좋은 사례였다고 생각한다.

이진적인 클릭이 아니라 아날로그 신호를 다루는 압력감지의 경우에도 여러 사례가 있었다. 일본 대학에서는 물컹물컹한 광학재료를 이용한 사례를 만들기도 했고, 앞서 언급한 소니의 PreSense 후속연구인 PreSense 2는 바로 터치패드 위에 다름아닌 압력센서를 부착시킨 물건이었다. 노키아에서 멀티터치로 동일한 구성을 특허화하려고 시도하고 있기도 하다. 하지만, 최근 가장 눈길을 끄는 것은 단연 TouchCo 라는 회사의 투명한 압력감지 터치스크린이다. 이 기술은 아무래도 압력감지를 내세우다보니 외부충격에 예민한 평판 디스플레이와는 맞지 않아서, 상대적으로 외부충격에 강한 전자종이와 같이 쓰이는 것으로 이야기 되다가 결국 Amazon에 합병되고 말았다. 사실 플라스틱 OLED 스크린도 나온다고 하고, 고릴라 글래스라든가 하는 좋은 소재도 많이 나왔으니 잘 하면 일반 화면에도 쓰일 수 있을텐데, 그건 이제 전적으로 아마존에서 Kindle다음 버전을 어떤 화면으로 내느냐에 달려있는 것같다.

D*Click, iRiverMagicMouse, AppleMagicMouse, Apple



Deep Touch

곧 iPhone 5를 발표할 (것으로 보이는) Apple은 Pre-touch에 해당하는 FingerWorks의 기술과 Post-touch에 해당하는 터치+클릭 제작 경험이 있고, 아마도 며칠 차이로 Kindle Tablet이라는 물건을 발표할 Amazon은 Post-touch 압력감지가 되는 터치스크린을 가지고 있다. 단순히 순간적인 터치가 아닌 그 전후의 입력을 통해서, Touch UI의 태생적인 단점을 개선할 수 있는 '가능성'이 열리고 있는 거다. 이렇게 확장된 터치 입력 방식이, 그동안 이 블로그에서 "딥터치(Deep Touch)"라고 했던 개념이다. (그렇다. 사실 별 거 아니라서 글 올리기가 부끄럽기도 했다.)

얼마전 발표된 삼성의 갤럭시 노트도, 압력감지를 이용한 입력을 보여주고 있다.

Galaxy Note, SamsungS-Pen with Galaxy Note, Samsung

압력감지가 가능한 스타일러스를 포함시켜 자유로운 메모와 낙서를 가능하게 함은 물론, 스타일러스의 버튼을 누른 채로 탭/홀드 했을 때 모드전환이 이루어지게 한 것 등은 정말 좋은 아이디어라고 생각한다. (사진을 보다가 버튼을 누른 채 두번 탭하면 메모를 할 수 있고, 버튼을 누른 채 펜을 누르고 있으면 화면을 캡춰해서 역시 메모할 수 있다.)

하지만 PDA 시절 절정을 이뤘던 스타일러스는 사실 가장 잃어버리기 쉬운 부속이기도 했다든가(게다가 이 경우에는 단순히 플라스틱 막대기도 아니니 추가 구매하기도 비쌀 것같다), 화면에서 멀쩡히 쓸 수 있던 펜을 본체의 터치버튼에서는 쓰지 못한다든가 하는 디자인 외적인 단점들이 이 제품의 발목을 잡을 수도 있다. 게다가 무엇보다도, 만일 앞으로 발표될 iPhone 5와 Kindle Tablet에서 스타일러스 없이 Deep Touch를 구현할 수 있는 방안이 제시된다면 갤럭시 노트의 발표에서 출시까지의 몇개월이 자칫 일장춘몽의 시기가 될 지도 모르겠다.

개인적으로는 출시 준비가 거의 되고나서 발표를 해도 좋지 않았을까 싶은 아쉬움과 함께, 아예 펜을 이용한 인터랙션(이 분야는 동작인식과 관련해서 많은 연구가 있던 주제이고, 검증된 아이디어도 꽤 많다.)을 좀 더 적극적으로 도입해서 손가락이 아닌 펜의 강점을 최대한 부각시키면 좀 더 robust한 경쟁력이 있는 상품이 되지 않을까 상상해 본다. 물론 남이 만든 OS를 쓰다보니 독자적인 인터랙션을 구현하는 데 한계가 많았다는 건 알겠지만, 무엇보다 홍보 문구대로 "와콤 방식"의 펜을 적용했다면 pre-touch pointing 이라든가 압력과 각도에 반응하는 UI도 구현할 수 있었을텐데 말이다. (특허 문제는 뭐 알아서 -_- )



Multi-touch든 Deep-touch든, 혹은 HTI가 적용된 다른 어떤 종류의 새로운 UI 방식이든, 우리는 그것이 모두 어떤 군중심리에 사로잡힌 설계자에 의해서 "임의로 정의된 입출력"임을 잊으면 안 된다. 사용자가 익숙하게 알고 있는 어떤 물리적 법칙도 적용되지 않고, 상식으로 알고 있는 공리가 반영되어 있는 것도 아니다. 새로운 UI 기술이 주목받게 되었을 때 그 기술을 충분히 이해하고 그 잠재력을 발휘하도록 해주는 최후의 보루는, 결국 사용자 중심의 관점를 프로젝트에 반영하는 전문성을 가진 UI 디자이너이다. (혹은 유행따라 UX.)

하나하나의 UI 기술이 상용화될 때마다, UI/UX 디자이너들 사이에는 그 완성본을 먼저 제시하기 위한 물밑 경쟁이 치열하게 이루어진다. 기술과 사용자의 입장을 모두 고려해서 최적화된 UI를 설계한 팀만이 그 경쟁에서 승자가 되고, 결국 다른 이들이 그 UI를 어쩔 수 없는 표준으로 받아들이는 모습을 흐뭇한 표정으로 볼 수 있을 것이다. 아마도.

한줄결론: Good luck out there.

신고
Posted by Stan1ey

앞의 글에 이어서 "한국 HCI 학회" 모임의 토론게시판에 퍼오는 글. 역시 아래 네모 안의 글은 토론의 발제문이고, 그 아래의 글이 내가 올린 글이다.

토론주제(2): Where is HCI going?

There was talk of ubiquitous computing. With WiFi, 3G, iPhone, etc, ubiquitous computing is really blooming. What comes next?


When did you feel 'good' using a product/service?

Was it when you encountered a nice technological application? (Perhaps, but it surely is not a general phenomenon.) Was it when you found a nice content or function? (Maybe, but it doesn't explain all the other moment of enjoying content-less interaction.) Or, was it when you did some intended task without any difficulty? (C'mon. You know the reality: good interface is not noticeable.)


So where is HCI going. I personally have two possible scenarios.

(1) Going for Technology
Born to differentiate "UI for computing device" from "UI for dumb traditional hardware", HCI somehow settled on the technological side. HCI could keep specializing itself as such and end up as HTI, or Human-Technology Interaction, as once claimed in Finnish HTT. As another effort to make HCI more focused on computing technology rather than studying people, a concept of HCC was emerged as an alternative concept for HCI.

(2) Going for Experience
The second scenario in my mind may be a bit personal. Since the field of "UI" has been focused on 'usability' by definition, its approaches to UX are naturally bound to the assumption that efficient use is good use. It's user-centered, engineering, and serious job for the dedicated people.

However, HCI has more exploratory tradition. Always wondering for the next interesting stuff to do, and saying "Wow this's cool. What can we do with it?" It is NOT user-centered, more inventive than need-based, and there was always dirty little secret among us: it's more about fun and cool experiments rather than making easy-to-use piece of technology.

This untold truth of pursuing cool-ness was actually discussed in CHI several years ago, and there was clearly two sides of opinions. Traditional UI practitioner didn't like it, and framed it as not being enough for academia. Some 'other' people didn't explain it very well but still thought it's the momentum of CHI community, what gathers people in one place, and something they have to support. (After a couple of years, the result from this discussion turned out as a new CHI section called 'Media Showcase' where you don't need to try to be academically perfect.)

If HCI could be brave enough and coming out with its secret desire for the fun side of experience, it could make the next face of HCI. Although it's different from what's been discussed in every joint-conference with UI people, and although it's far different from what its name originally meant, I believe the tradition has been always there waiting to be revealed and embraced.


... I must have come too far away from HCI technologies now. Working in game industry as UX designer and thinking about the product which is solely for an enjoyable experience, I can't help myself thinking about a concept of 'fun experience' as the future of HCI.

There was many discussions about this direction, some even called it as "New HCI" on <Interaction> magazine. Since I have found unexpectedly many cases of different yet complementary approaches to 'generate' fun in an experience product, I believe there will be more tangible and even academic way to facilitate it in the future of HCI... or whatever it's called.




... 옮기면서 보니 이건 뭐 발제 내용하고 상관없는 글일세. ㅡ_ㅡ;;;

어쨋든 여기까지. 앞의 글과 이 글의 공통점이 있다면, 둘 다 내가 글을 올린 후 몇 주가 지나도록 아무 댓글이 없다는 거다. -_- 회사 내에서도 이메일로 토론을 하다보면 내가 끼어듬과 동시에 thread가 끊기는 경우가 많았는데, 역시 너무 고급 영어를 써서 현지인들조차 이해하지 못하는 걸까... 덕택에 thread-breaker라고 취급당하는 듯. -_-a;;; 그러면서도 UI 관련 이슈가 있을 때마다 꾸역꾸역 찾아 물어오는 걸 보면, 나는 참 예의바른 사람들과 일하고 있다는 생각이 든다.

내가 지난 몇달 동안 이 블로그에 글을 올렸더라면, 아마도 신기한 HCI 기술 같은 것보다는 이런 내용을 올리게 되지 않을까... 해서, 그냥 다른 데 올렸던 글이라고 퍼올려서 최소한 블로그 주인장이 살아있다는 증거라도 남기기로 했다.

신고
Posted by Stan1ey

너무 오랫동안 글을 안 썼다. 출시 직전이라고는 하지만 이미 UI/UX 관련된 이슈들은 할 수 있는 일과 그렇지 않은 일이 구분된 상황이라 그다지 바쁘지도 않았고, 흥미있는 신제품/신기술도 심심찮게 등장하고 있는데 왠지 영 의욕이 생기지 않는 바람에 몇달이나 블로그를 방치해 두고 있는 중이다. 이 블로그를 RSS로 구독하시는 분도 최소한 열 분은 있는 것 같은데 왠지 죄송한 마음에, 그냥 다른 데 올린 글을 두 개 퍼 올리기로 했다.

퍼온 글은 둘 다 LinkedIn.com 이라는 커뮤니티 포털 사이트에 있는 "한국 HCI 학회" 모임의 토론게시판에 올린 내용이다. 질문도 thread도 영어길래 영어로 올렸는데, 따로 번역을 할까 하다가 그마저 귀찮아서 그냥 원문 그대로 올리기로. 그냥 개인적으로 보관할 용도이고, 위 모임을 홍보하려는 의도가 다분하다고 이해해 주시기를. (이건 뭘 이해를 하라는 건지... -_- )

아래 네모 안의 글은 토론의 발제문이고, 그 아래의 글이 내가 올린 글이다.

토론주제(1): How did we get here?

Current state of Human Computer Interaction is great. Computers do not look like computers of old days, and we interact directly by pointing, or talking to, we we can do that anywhere with laptops, GPS navigators, mobile phones, and so on.

I would like to go back to the past and remember how things were in the old days, and how we got here. Also, there were past attempts that may make sense now or in the near future.

So, how did we get here?


Would it be okay to shoot a BIG answer for a BIG question? ;-)

A summary of history may be handy to invite more people, so this is me trying:
(It will be only fair to say that the following stories did NOT happened chronologically in order, but maybe causally.)

(1) Man as a Machine Counterpart
The word 'interface' or 'interaction' originally meant simple concept of communicative medium/action between different systems. The tendency to consider human workers as part of manufacturing system as a whole, isolated a concept of 'Man-Machine Interface (MMI)'.
So it was more about defining the specific area of interest, rather than thinking about its characteristics and improvement.

(2) Thinking about the Efficiency
This concept was more developed and polished to represent a field to make what's happening through the 'interface' more efficient and productive. Industrial engineering contributed a lot with expertise from 'human factors (US)' or 'Ergonomics (Europe)'.
The names explain itself that they are focusing on the _human factor_ in the system compared to non-human factor, and intereted in the _economics_ of it.

(3) Get the Job Done
With emergent of everyday goods with electricity and switches in them, the system could be designed free from physical power linkage. This tendency became even more so with circuits, micro-processors, and even digital display devices (from light bulb and seven-segments, to LED lights and FPDs). These new kinds of system was so-called 'black box' and harder to understand with hidden logic and features behind the surface; which exploited the needs of paying attention to the design of the surface, now separated from its mechanics behind it.
Now spot-lighted as an individual field, the concept became a new field of practice, named as 'User Interface (UI)' or 'UI design' which is more about people.

(4) Machine to Computer
Things became more and more complex and black-boxed with programmable micro-chips and digital matrix displays commercialized, and a new kind of special machine created only to compute became more and more accessible for non-military use. This new machine, or 'computer' didn't have many mechanics except logics it's playing with, so designing its 'interface' was free from any kind physical principle or conventions. Emphasizing this fundamental difference, a word 'Human-Computer Interaction (HCI)' was coined compared to 'MMI'. However the difference between the field of UI and HCI has never been clearly accepted, probably because the targets of UI design had been developed as computerized goods very fast and there was not much to divide them.
The newest element to be designed in the computer was of course the display, where the keyboards have already been familiarized itself with typewritter, digitizers was only hooked up with very limited one or two inputs, and all the other horrible boxes filling the room was for system administrators rather than users. So designing what should be happening on the display got more and more interest, referred as 'Graphical User Interface (GUI)'. Naturally, the traditional field of UI dealing with hardwares were often called 'Solid User Interface (SUI)' or 'Physical User Interface (PUI)'.

(5) Many Many Computers
Long story short, Personal Computers (PCs) became quite common everywhere and used for a variety of different purposes. Accordingly many different points of view were rapidly emerged. To list a few, 'Social User Interface (SUI, again)' was focused on anthropomorphizing computer with figure and conversation with 'Agent-Based User Interface (AUI)', Social User Inteface was sometimes interpreted as being more about society like in 'Computer-Supported Collaborative Work (CSCW)', 'Sound User Interface (SUI, again again)' was focused on auditory feedback and beyond with 'Auditory User Interface (AUI)' and 'Voice User Interface (VUI)' or 'Speech User Interface (SUI)', 'Tangible User Interface (TUI)' emphasized on alternative physical means to deliver the command, and the list goes on and on almost forever. With all those newly-introduced concept, some grouped some of them as 'Natural User Interface (NUI)', 'Intelligent User Interface (IUI)', or some as 'Reality-Based Interaction (RBI)'. Traditional interfaces were sometimes referred as 'Command-line Interface' compared to new fancy 'Non-command-line interfaces'. New platforms also got some interest to be called as 'Web User Interface', 'Mobile User Interface', '3D User Interface', or even 'Brain-Computer Interface (BCI)'. Frankly, there's no point to argue about all these angles of HCI, because they are NOT exclusive at all except some constraints to say the least. But thanks to all this energy gathered, proper theories, general principles and guidelines, and even several handy methodologies were collected as 'Usability Engineering' or UI design in its boarder sense.

(6) No More about the Machine
Most notable development in the field of ... usability concerns ... was probably 'Information Architecture (IA)'. IA focuses on the fact that usability starts from how its contents are organized and represented. Even though it's more related to the successors of Graphical User Inteface for now, the fundamentals of IA is focusing to the contents in the first place before doing tricks to nicely display them.

(7) Not Even about the Interaction
Another notable experiment these days would be 'User Experience (UX)'. Although there has been no clear-cut differentiation between UX and what we have called UI, UX became a fashion among those who are interested in usabilities, and sometimes even substitutes the place of UI without expanding the concept to any extent. Saying it as UX may sound fancy, but all those philosophies and visions had been there in the history of User Interface. There is slight possibility to identify UX apart from UI or usability, but that'd be a whole other story.

(8) Time to Leave the Nest?
Something's happening in the field of UI, such as:
- Visual designers are tired of all those logical talks, and start talking 'back to basic' of their visual traditions or now often callled 'interaction design'.
- Many HCI groups are now focusing on its own technological interest, rather than any common topics for HCI as an academic field.
- Computer scientists don't like to be driven by the people who may or may not use the system, and try to focus more on computation issues like in 'Human-Centered Computing (HCC)'.
- The 'UX' talks either go more and more vague and philosophical, or underestimate traditional UI design as mere development compared to UX as design, evaluation, and analysis.
- It's now safe to say, "Everybody knows how to design a system with fair usability."
This field has been a safe house for many decades, but it may be time to leave the nest and build their own.

... I hope I didn't miss something important above. If you find anything seriously wrong, please understand that it was written in less than an hour, and comment it in the thread for the discussion. ;->


 

신고
Posted by Stan1ey

... 뭐, 그런 논리적이고 설득력 있는 연유로 해서 ( '-')y~, 휴대폰 없는 생활에 지겨워진 어느 날 iPhone을 질러 버렸다. ㅡ_ㅡa;;; 한 이틀 잘 가지고 놀다보니, 인터넷으로 지겹도록 예습한 iPhone 자체의 기능들보다 AppStore에서 다운로드 받을 수 있는 소프트웨어 중에 재미있는 게 너무 많아서 즐거운 비명을 지르는 중이다. 탑재하고 있는 센서와 네트워크 기능, 게다가 뛰어난 그래픽 엔진까지 달려 있으니 뭐 아이디어와 열정과 욕심이 있는 엔지니어들이 얼마나 신이 나서 만들었는지가 보이는 느낌이랄까.

이런저런 재미있는 장난감들이 있지만, 그 중 다음 몇가지 어플은 어떤 식으로든 센서로부터의 입력 신호를 바탕으로 패턴을 인식해서, 그걸 사용자로부터의 암시적 입력으로 사용하는... 뭐 결국은 HTI 어플이라고 할 수 있는 것들이다. AppStore에 올라와 있는 것들 중 전부는 아니겠지만, 그래도 제법 많이 뒤져서 찾아낸 거다.

My Collection of iPhone HTI Apps


1. Movies
iPhone Apps - Movies
iPhone Apps - Movies
영화를 검색하고, 현재 위치에서 가까운 극장에 대한 상영정보와 함께 영화 정보나 예고편을 볼 수 있는 어플이다. 현재 위치를 사용할 수도 있고, 임의의 다른 지역을 '디폴트 지역'으로 설정할 수도 있다. 위치 정보를 이용하는 모든 어플들은 처음 시작할 때 "위치 정보에 대한 접근을 허락하겠느냐"는 확인을 하게 된다. 등록된 영화정보가 많다보니 이 지역과 관련이 적은 영화도 올라와서 걸러내기가 힘들긴 하지만, 그래도 평점 같은 정보는 정말 도움이 많이 될 듯.


2. AroundMe
iPhone Apps - AroundMe
iPhone Apps - AroundMe
마치 LBS의 표본 같은 어플로, 그야말로 사용자의 현재 위치에 기반해서 알려줄 수 있는 유용한 지점 정보를 (구글에 등록된 항목들을 바탕으로) 검색해서 나열해 준다. 카 내비게이션에서 종종 보이는 POI 표시/검색 기능과 비슷하다고 할 수 있는데, GPS로 인해 정확한 위치가 가능하니 얼마나 앞에 있는지를 정확하게 보여주고 구글 맵 지도 위에서 확인할 수 있게 해 준다. 물론 구글 맵 위에는 내 GPS 신호의 위치가 함께 표시가 되니까, 예전에 동영상으로 숱하게 찍어냈던 ubicomp 서비스가 이제 이만큼이나 구현되어 있구나... 하는 느낌이다. 실제로 언젠가 봤던 노키아의 기술비전 동영상 (뭐 왠만한 회사에서는 다 동일한 내용이 있었던 것으로 기억하지만 -_- ) 속에서처럼, 친구들이 서로의 위치를 확인할 수 있다든가 하는 어플도 나와있는데, 무료가 아니라 패쓰. ㅋㅋ


3. SnapTell
iPhone Apps - SnapTell
iPhone Apps - SnapTell
아이폰 어플 중에 영상인식을 사용하는 게 있는 걸 보고 많이 놀랐다. 인식용으로 사용하기에 카메라의 화질도 별로고, 아무래도 모바일 환경에서 찍힌 사진에는 인식을 방해하는 요소가 많이 포함되기 마련이니까. 이 어플은 책/영화포스터/CD표지 등을 찍으면 그에 대한 평과 관련 정보를 보여주는 기능이 있는데, 미국에 출판되었을 법한 책을 하나 집어서 찍어보니 꽤 정확하게 인식하고 있다. 단지 광고와 달리 영화포스터는 몇 개를 해봐도 정보가 없었고, 게임 CD도 인식하지 못했다. 그래도 예전에 언급한 Evolution Robotics사의 기술과 유사한 게 적용되어 있는지, 배경만 깔끔하다면 조금 삐딱하게 찍어도 되는 것 같고, color histogram 같은 게 아니라 제대로 윤곽선 따서 하는 듯 하다. 흑백으로 복사한 책 표시를 인식시켜봐도 똑같이 검색이 되는 걸 보면. ^^; 기왕이면 내가 찍은 사진과 검색된 책 표지를 같이 보여주면 좋을텐데, 검색이 성공했을 경우엔 그걸 확인할 방법이 없으니 간혹 엉뚱한 책이 검색됐을 때 왜 그랬는지를 추정할 수가 없다. (일반 사용자 용의 기능은 아니겠지만 -_- )


4. Evernote
iPhone Apps - Evernote
iPhone Apps - Evernote
사진을 찍어서 저장하면 사진에 포함된 글자를 인식해서 단어로 검색할 수 있게 해준다고 하길래 얼른 설치한 어플이다. 기능은 로컬이지만 결국 영상인식은 위의 SnapTell과 마찬가지로 서버에서 하는 듯, 사진을 등록할 때마다 꽤나 시간이 걸린다. 그런데도, 사실은 인식의 난이도를 넘넘 낮춰가며 여러가지를 시도해봐도 인식이 된 적이 없다. 엔진의 문제인지 뭔지는 몰라도 마치 사장 데모 만큼이나 감감 무소식에 뭐가 잘못 됐는지도 알 수가 없어서 그냥 포기했다.


5. Cactus
iPhone Apps - Cactus
iPhone Apps - Cactus
iPhone Apps - Cactus
iPhone Apps - Cactus
iPhone Apps - Cactus

음성인식 어플이 나와있었다! 그것도 무료로! Cactus Voice Dialer라고 되어 있는 이 어플은 주소록의 이름을 인식해서 전화를 걸어주는데, 전화기에서 VUI의 첫번째 응용이라고 볼 수 있는만큼 좋은 징조라고 생각한다. 무료 어플이긴 하지만 음성인식 다이얼링에 필요한 기능과 옵션들을 두루 잘 갖추고 있고, 음성인식 오류를 최대한 줄이기 위한 지침도 역시나 '아무도 읽지 않을 장문으로' 꼼꼼히 적혀 있다. 실제로 여러 영어이름을 넣어 실험해 보니 처음에는 indexing을 하는지 좀 오래 걸리지만 다음부터는 더 빨리 구동되는 듯 하고(600명 정도 넣었을 경우), 인식률은 그다지 높은 편이 아니었다. 전화번호까지 넣고 해본 게 아니고, 아무래도 실험참가자의 영어 발음이 알아듣기 힘들었던지라 그다지 공정한 판정은 아니라고 해도. -_-
VUI 자체는 가장 일반적인 방식, 즉 Push-to-Talk 방식의 터치 버튼("Speak")을 채용하고 결과를 1개 혹은 옵션에서 선택하면 3개까지 보여주는 식이다. 인식결과에 대해서 무조건 전화를 걸게 한다든가, 인식결과에 나온 사람의 대표 번호를 디폴트 선택으로 할 것인가 라든가 하는 것도 voice dialer를 표방한 이상 들어갈 수 밖에 없는 기능들. 하지만 인식기 자체는 위 그림에서 보이듯이 "Call John Smith's mobile" 따위의 최소한의 구문은 인식할 수 있도록 되어 있다. (IBM에서 VoiceSignal로 넘어오는 대표적인 '전화걸기' 구문 되겠다) 비록 시각적인 (그리고 아마도 인식엔진의) 완성도는 떨어진다고 해도, 이만큼 충실하게 만들어진 어플이 무료로 배포되다니, 정말 유료로 살 정도의 시장은 없는 건가... OTL..


6. CenceMe
iPhone Apps - CenceMe
iPhone Apps - CenceMe
iPhone Apps - CenceMe
이게 또 재미있는 어플이다. 가속도 센서의 입력을 가지고 각 방향으로의 강도와 빈도를 분석해서 사람이 어떤 행동을 하고 있는지, 즉 소위 말하는 "사용자 행동 정황"을 파악하겠다는 시도는 많은 연구가 이루어져 있다. 대부분의 취지는 뭐 휴대단말이 사용자에게 전달할 메시지가 있을 때 그 적절한 '끼어들기' 타이밍을 좀 판단하겠다는 거다. 이메일이 왔다거나, 전화가 왔다거나 하는 메시지가 대표적이고, 소리로 알릴지 진동으로 알릴지 나중에 알릴지 등등의 판단을 유도하곤 한다. 이 어플은 정확히 똑같은 일을 하면서, 그 '정황'을 무려 내 계정의 FaceBook에 연결시켜 보여준다. 이 정황은 2가지 아이콘으로 보여지는데, 앞의 것은 자동으로 업데이트되고, 뒤의 것은 자기가 원하는 아이콘(정황을 보여주는)으로 바꾸거나 사진을 찍어 올릴 수 있다. 덤으로 위치 정보까지 같이 올려주는 모양인데, 어떻게 보면 상당한 사생활 공개라고 하겠다. ㅡ_ㅡa;;;
CenceMe Application on FaceBook
그래도 공짜니까 받아서 여러가지를 테스트해 봤는데, 오른쪽 그림의 몇가지는 어느 정도 잘 인식하고 있었다. (실험 과정에서 룸메이트가 항의하는 사태가 있었다;;;) 이 어플의 문제는 어플이 떠있는 동안에만 센싱 및 업데이트가 된다는 점이 아닐까 한다. FaceBook 업데이트하려고 이 어플만 띄워놓고 다닐 사람은 없을테니까.  그 외에도 아주 심각한 문제를 하나 안고 있는데, 정작 그 사용자는 이런 행동을 하는 동안 자기 FaceBook에 뭐가 표시되고 있는지를 볼 수 없을 거라는 거다. 실제로도 열심히 뛰고 헉헉 거리면서 바로바로 캡춰하지 않으면 위의 장면들도 얻기 힘들었을 거다.


7. WritePad
iPhone Apps - WritePad
iPhone Apps - WritePad
IUI 분야의 선구자 중 한 분라고 생각하는 IBM의 한 연구자가 십년 너머 연구해 온 터치스크린 키보드가 있다. 처음에는 ATOMIK 이라고 부르면서 입력시의 동선을 최적화 시킨 새로운 키보드 배치를 제안했는데, 요즘은 SHARK 라는 이름으로 바뀌고, 배치도 결국 사람들에게 익숙한 QWERTY 자판을 쓰고 있다. 이 연구를 상업화한 것이 ShapeWriter 라는 회사이고, 이 어플은 실제 사용할 수 있도록 개발/공개된 첫번째 상품(?)이다. 아이폰의 다른 기능과 그다지 어울리지 않아서 데모 소프트웨어와 다른 점은 모르겠지만, 그래도 최근 Google Android 위에서도 개발되는 등 활발한 활동을 보이고 있다. 실제로 이 '그려서 글자입력' 방식을 써보면 꽤 편하고 무엇보다 빠르다는 걸 알 수 있는데, 터치스크린이 손가락을 가리는 단점을 잘 극복한다면 (아이폰의 기본 GUI scheme만으로 가능할거다) 이 터치스크린 시대에 잘 맞는 새로운 표준이 될 수도 있을 듯 하다. (뭐 이런 류의 연구가 늘 그렇지만, 한글입력은 아직 지원하지 않는다 -_- ) 위 회사 웹사이트에 가면 상당한 정보가 있으니, 관심 있으신 분은 가봄직하다.


8. PanoLab
iPhone Apps - PanoLab
iPhone Apps - PanoLab
이 어플은 사실 HTI, 혹은 인식기반의 어플이라고는 할 수는 없다. 하지만 여러 장의 사진을 이어붙여 파노라마 사진을 만드는 과정에서, 그냥 평면적인 조합이 아니라 iPhone 카메라의 고정된 화각과 초점거리를 적용해서 구면 상에서 합성하도록 되어 있는 어플이다. 그 덕에 사진 바깥쪽의 왜곡에도 불구하고 좀 더 잘 겹쳐지는 것 같기는 한데, 사실은 아무래도 정확할 수 없어서 뭐 있으나 마나 하다. 그래도 그렇게 합성한 사진을 저장하고 바로 보낼 수 있는 점은 확실히 장점이어서, 돌아다니다가 본 풍경을 공유하거나 할 때 유용할 듯.


9. LlamaLight
iPhone Apps - LlamaLight
PDA를 쓰던 시절에 가장 유용한 필수어플이었던 PalmMirror (화면을 검게 표시해서 얼굴이 비친다;;)와 PalmLight (화면을 하얗게 표시해서 조명으로 쓸 수 있다;;)를 기억한다면, 이 어플에 대한 설명은 왼쪽 화면 만큼이나 단순하다. 단지, 터치하는 위치에 따라 색과 밝기를 바꿀 수 있다는 정도가 다른 점이랄까. 하지만 이 "가장 단순한" 기능을 HTI 기반 어플로 언급하는 이유는 그 플래시 기능 때문이다. 한가지 색상을 선택한 후에 다른 색상 위치를 서너번 같은 간격으로 tap 하면, 그걸 인식해서 그 간격대로 두 색을 번쩍번쩍하는 기능인데, 그냥 버튼 하나 둔다든가 한 게 아니라 터치 간격을 입력으로 받아들이게 한 게 재미있다. 사용법이 너무 숨겨져 있다든가, 사실은 뭐 인식이랄 것도 없을 정도로 단순한 기술이라는 게 좀 그렇지만, 그래도 기능의 단순함에 비하면 훌륭한 HTI 적용이라고 본다.




여기까지가, 현재의 Apple AppStore에서 무료로 구할 수 있었던 9가지 HTI 어플들이다. 정도의 차이는 있고 어쩌면 못 본 어플이 있었을지도 모르겠지만 그래도 꽤 재미있는 콜렉션이라고 생각해서 한번 정리해 봤다. 이 외에도 게임들을 보면 재미있는 기능들이 넘치도록 많지만, 오히려 너무 많아서 뭘 어떻게 봐야 할지 모르겠다.

Chinese Character Input on iPhone
한편으론 기본적인 iPhone 기능 중에서도 GPS를 지도 상에 표시하는 방법이라든가 (정확도에 따라 표시가 다르고, 지도 상의 길을 기준으로 위치를 보정하는 것 같다.), 중국어 입력에 한해서는 필기입력이 가능하다든가 (왼쪽 그림) 하는 점도 HTI의 적용이라고 볼 수 있겠지만, 뭐 너무 널리 알려진 기능들은 또 말하는 재미가 없으니까.

신고
Posted by Stan1ey
HTC G1, powered by Google Android
얼마 전 Google의 휴대폰 OS인 Android를 탑재한 첫번째 휴대폰이 공개됐다. 이 휴대폰 - G1 이라는 모델 - 을 만든 HTC 라는 회사에선 그만그만한 풀터치 폰을 만들어서 홍보를 좀 하는가 했더니, 이번에 발빠르게 Android를 도입함으로써 위험을 감수할 수 있는 작은 회사의 장점을 살리고 브랜드 가치가 떨어지는 단점을 보완하는 모범적인 사례를 보여주고 있다.

이 휴대폰을 출시하는 T Mobile 회사의 웹사이트에서는 이 새로운 휴대폰을 미리 체험해 볼 수 있는 플래시 페이지가 있는데, 독특하게 열리는 하드웨어 구조도 눈을 끌지만 "Emulator" 코너에서 직접 써볼 수 있는 Android UI의 첫 모습이 무엇보다 인상 깊었다. 무엇보다 구글에서 만든 휴대폰 UI 아닌가! (구글 빠돌이 -_-a; )

HTC G1 Emulator, powered by Google Android OSHTC G1 Emulator, powered by Google Android OSHTC G1 Emulator, powered by Google Android OS

모두가 기대했던 대로, 이 폰은 구글의 온갖 온라인 어플리케이션들과 멋지게 어울린다. 주소록을 포함해서 Gmail 서비스를 모두 사용하고, 캘린더도 실시간 공유하고, 구글 맵과도 연동이 된다. Apple의 iPhone을 이용해도 회사의 Exchange Server에 연결하거나 Mobile Me 서비스를 이용해서 같은 경험을 할 수 있지만, 애플이 비싼 폰을 사고 비싼 서비스(Exchange Server도 비싸고, Mobile Me도 다른 무료 서비스와 비교하면 성능대비 비싸다)에 연결되어 있어야 한다는 불편함이 있다. 그에 비해서 구글은 내내 무료로 제공하던 서비스를 역시 많은 부분이 공개되어 있는 OS를 통해서 제공하는 거다. 물론 그 속셈이야 더 많은, 게다가 모바일 장치로부터의 정보를 수집함으로써 좀더 많은 개인정보를 바탕으로 광고수입을 올릴 수 있다는 것이겠지만, 그게 "더 많은 광고"가 아닌 "더 필요함직한 광고"라면 사실 소비자 입장에서도 나쁠 게 없다.

구글 블로그에는 Android를 만든 사람들이 Android의 기능을 짤막하게 나눠서 설명하는 인터뷰 형식의 동영상이 올라와 있다. 예전부터 담당 엔지니어가 기능을 소개하는 방식을 쓰더니만, 지난 번 Chrome 웹브라우저 때부터는 아예 떼로 나와서 맡은 분야를 설명하는 데에 맛을 들인 모양이다.



구글 블로그에는 이 외에도 많은 동영상이 올라와 있어서, 혹시 아직 작동모습을 안 봤다면 한번 가볼만하다. 유독 눈에 띄는 것은 문자를 복사하고 붙여넣는 Copy & Paste 기능이 있어서, 이 휴대폰을 소개하는 블로그마다 "아이폰에서 안 되는 기능이 들어갔다"고 부각시키고 있다는 거다. 흠... 물론 아이폰이 멀티터치를 비롯해서 탄탄하고 다양한 UI scheme을 가지고 있으면서도 복사기능을 왜 안 넣는지가 답답하긴 하지만 (그냥 문자입력 영역에서 두 손가락으로 앞뒤 정하면 복사되게 한다거나, Microsoft Windows Mobile에서 사용하는 것처럼 좀 오래 누르고 있으면 옵션을 띄우거나 하면 되지 않냔 말이다), 이번에 Android에 들어간 것을 보면 사실 그것도 간단하긴 않았구나 싶은 생각이 든다.

구글에서 채택한 방법은 바로 이 '오래 누르기' 인데, 문제는 설명에서만 빠진 건지는 모르겠지만 눌려진 입력칸에 들어간 모든 문자열을 한꺼번에 복사하거나 잘라내서 다른 입력칸에 (역시 오래 눌러서) 복사할 수 있게 되어 있는 듯 하다. 결국 같은 내용을 여기 저기에 복사할 때에 유용할 것 같기는 한데, 사실 복사/붙여넣기 작업이 유용한 건 이게 아니지 않나? 사실은 메모장에서 문장의 앞뒤 순서를 바꾼다든가 하고 싶을 때 가장 아쉬운 기능이지, 아이디나 이메일 주소를 여기저기 복사해 넣거나 할 일은 없지 않나 싶은데 말이지. -_-a;;;

아무래도 범용의 소프트웨어로서 만들어진 물건이니만큼 멀티터치를 전제한다든가 하는 건 어려웠던 것 같다. 그래도 구글 맵을 사용하면서 화면을 가리고 있는 확대/축소 아이콘을 눌러 단계적으로 확대/축소 하는 모습은 좀 안습이라는 생각이다. 그래도, 위 동영상을 봐서는 잘 드러나지 않지만, 개발자 대상의 컨퍼런스에서 소개되었다는 발표내용을 보면 가속도 센서는 적용되는 것 같다.
 


그런데 맨 위에 링크한 에뮬레이터를 봐도 그 다음의 일련의 동영상 소개를 봐도, 이 가속도 센서를 이용해서 자동으로 화면을 돌려주는 기능은 보이지 않는다. 멀티터치  "pinch" 기능은 물론이고 화면 돌리기도 워낙 여기저기에서 했던 연구가 있으니 특허권의 문제는 아닐텐데, 급하게 새로운 OS를 완성하는 데 급해서 첫번째 폰부터 그런 '부가 기능'을 넣을 시간은 없었던 걸까.

어떤 이유였던 간에, Google Apps와의 강력한 연결과 Copy & Paste 지원에도 불구하고 훨씬 전에 발표된 iPhone에 비교해서도 더 나아보이지는 않는 물건에 조금 실망하는 중이다. 무엇보다 iPhone에는 그런 부족한 부분을 AppStore에서 구입할 수 있는 소프트웨어로 보완할 수 있다는, 구글에 (아직) 없는 강력한 장점이 있기도 하고.



계속 미루다가 얼마 만에 쓴거냐... 이제 일이 점점 손에 (혹은 귀에) 익는지 처음 만큼 여유가 없다. 그러면서도 갈 길은 점점 멀어져 가는 것 같으니 희한한 노릇이라고 할 수 밖에. ;ㅁ;
신고
Posted by Stan1ey

Making Form for Online Survey from Google Docs
구글 문서 Google Docs 에서, 일반적인 워드 형식과 스프레드쉬트, 슬라이드 형식 외에 "Form"이라는 형식을 새로 만들 수 있다고 하길래 들어가 봤다. 귀찮아서 설명이고 뭐고 안 읽고 바로 만들기... 이게 뭐냐? ㅡ_ㅡa;; 그런데 조금 써보고 늦었지만 관련 글도움말도 좀 읽고 하다보니 이거 완전 대박 기능이다.

주로 논문을 쓸 때에 필요하긴 했지만, 그 외에도 많은 의견을 수렴해야 할 경우에 요즘은 이메일을 많이 이용한다. 만일 서버 프로그래밍을 할 수 있어서 웹사이트를 만들 수 있고 열어둘 수 있는 서버가 하나 있다면 직접 온라인 설문웹사이트를 개발해 돌릴 수 있겠지만, 대부분의 경우엔 그냥 이메일로 질문들을 날리거나 엑셀파일 같은 걸 첨부해서 보낸 후에 수작업으로 일일이 그 대답들을 취합해야 한다.

그런데 구글에서는, 아마 기왕 설문결과를 스프레드쉬트(=엑셀) 파일에 모을 꺼라면, 왜 설문조사 기능 자체를 포함시키지 않지? 라고 생각한 모양이다. 그래서 온라인 설문을 위해서 다양한 설문 유형을 포함시켜서 편집하고, 이걸 발송한 후에 응답내용을 바로 스프레드쉬트에 정리해주는 기능을 만든 거다.

Google Docs Form - Editing Forms

설문지는 주관식(짧은 글, 긴 글)이거나 객관식(하나 선택, 여러개 선택, 목록에서 선택, 3~7점 척도, '기타' 답변 등) 문항들을 원하는대로 추가할 수 있으며, 각 문항에 맞는 제목과 설명도 포함시킬 수 있다. 설문지 편집은 조금 어설픈 구석도 있지만, 대체로 구글 Docs의 다른 기능과 비슷하게 깔끔하게 만들어진 UI라고 생각된다. 시험 삼아 만들어본 위의 온라인 설문지는 이곳을 누르면 볼 수 있다.

위 그림에서 보이는 [Email this form]을 클릭하면 여러 명의 수신자에게 설문지로의 링크가 포함된 이메일을 보낼 수 있고, 그 사람들이 링크를 눌러 온라인 설문지에 답변을 입력하면 (답변은 익명으로 저장된다. 그렇게 하지 않을 수도 있었을텐데... 역시 구글답달까 -_- ) 그 결과는 스프레드쉬트에 시간 time stamp 과 함께 순서대로 저장된다.

Google Docs Form - Survey Result on Spreadsheet

Google Docs Form - Share and more
온라인 설문인만큼 설문내용을 발송 후에 바꿀 수도 있고, (일반적으로는 권장할만한 일이 -_- 아니지만, 추후에 통계분석의 편의를 위해서라면 유용할 수도 있겠다) 설문결과를 다른 사람과 함께 공유하고 수정할 수 있는 것은 물론, 이제 많이 안정화된 다양한 그래프나 가젯을 이용해서 시각화하고 워드 문서에 넣는 것도 가능하다. 그야말로 온라인 설문조사를 위한 모든 기능이 하나의 웹사이트에서 가능하게 된 거다. 그동안 이런 종류의 설문조사를 유료로 대행해주던 업체들로선 닭 쫓던 개 신세가 된 기분이겠지만, 논문을 쓰기 위해서든 회식 자리를 결정하기 위해서든 참 유용하게 쓰일 것 같은 기능이다.

분야가 분야인지라 종종 설문조사를 할 일이 있어서 이 기능이 유난스레 반가운지도 모르지만, 안 그래도 콩꺼풀 씌워진 구글을 보는 시선에 한 겹이 덧씨워지게 됐다. 위에 연결한 블로그를 보면 이제 PDF를 업로드하거나 (편집이 가능한지는 모르겠지만) 사진앨범을 관리하는 기능(Picasa와의 관계는 아직 미확정인 듯)도 모두 Docs에 들어간다고 하는데, 이제 슬슬 불법으로 사용하고 있는 MS Office를 지우고 Google Gears를 깔아서 써볼까? 하고, 때이른 고민을 하고 있다. ^_^;;

신고
Posted by Stan1ey
P.S. 제목에서 "Save the Cheerleader, Save the World"를 패러디해보려고 했는데, 초큼 실패한 것 같다. orz... ㅋㅋ

시작부터 삼천포지만, 오늘 아침에 본 기사는 UI 디자인을 하고 있다고 남들이 생각하고 있는 월급쟁이의 입장에서 희망을 품게 해주는 내용이다. Sidekick과 Helio의 UI를 만든 Matias Duarte가 차세대 Palm OS의 UI 디자인을 한다는 소식이다.
Sidekick 3 from Danger & T-Mobile
Sidekick이라는 제품을 처음 접한 것은 그게 출시되기도 전의 일이다. (아마 2005년쯤이었던 듯? 잘 기억이 안 난다 -_- ) Apple에서 iPod의 click wheel 을 구현했던 사람을 불러서 세미나를 하고 있는데, 그 사람이 "요새 하는 일"이라면 꺼낸 게 Danger라는 회사(제조사)의 "Hiptop"이라는 시제품이었다. 아직 일부 기능이 동작하지 않았지만, 그래도 충분히 매력적인 기기여서 그 시기에 이미 full browsing을 지원하고 있었고, 이메일이나 메신저 등과 휴대폰의 기본기능(주소록, 전화 송수신 등)의 연계가 잘 정리되어 있어서 무척 탐이 났던 기계였다.

이 기계가 잊을만한 시점에 회사가 T-Mobile에 팔리더니, 이름을 바꿔 나온 게 Sidekick이다. (일의 순서가 내가 기억하고 있는 것과 다르지만 -_- 어쨌든 그렇다.) Sidekick은 1-2-3 버전에 이어 색상을 적용한 모델이나 고급형 모델 등등이 나왔고, 슬라이드 형태의 휴대폰으로도 나온 모양이지만, 처음에 본 독특한 OS(정확하게는 Shell이지만)는 아직도 거의 동일한 형태의 UI를 사용하고 있는 것 같다.

좋은 기능과 잘 정리된 UI과 깔끔한 스타일을 갖췄지만, 그다지 주목받지 못했던 비운의 line-up이랄까. 개인적인 생각으로는 만일 Danger사가 Steve Jobs같은(능력은 물론이고 명성까지 포함해서) CEO를 가지고 있었다면 그 운명이 많이 달라졌으리라 생각한다.

Helio from SKT

Helio는 SKT에서 야심차게 시작해서 꾸준히 말아먹으면서, 국내에서도 제법 알려진 이름이다. 미국 땅에서 통신사업을 시작하기 위한 방편으로 우선 재미교포를 대상으로 시작한 건 좋았지만, 아마 미국인들에게 다가가기엔 역부족이었나보다. -_-

Helio의 경우에도 UI는 그 깔끔한 그래픽과 함께 독특한 느낌을 주고 있다. 아무래도 휴대폰의 워낙 많은 기능을 처리하려다 보니까 메뉴 화면 이상을 넘어가지 못하고 있지만, 그래도 Helio 첫모델의 메뉴 화면은 조작장치인 wheel과 맞물려 편리한 사용성을 제공하고 있었다. (국내 무슨 전시회에서 이 기기를 만져볼 기회가 있었는데, 저 wheel이 touch 였는지는 기억나지 않는다 -_- )


어쨌든, 이 두 기기의 UI가 "상당히 잘 만들어져 있다"는 것 외에 공통점이 있다면, 제품의 개성 있는 Physical UI와 잘 맞물려 돌아가도록 되어있다는 것이다. 두 기기가 모두 "kickflip", 즉 상판을 위쪽을 축으로 180도 회전시켜 사용하도록 되어 있다는 것도 왠지 우연히 비슷해진 제품디자인같이 여겨지지 않고, Sidekick의 다양한 입력장치가 GUI와 맞물리는 방식이나 Helio의 wheel이 메뉴와 어울려지는 방식은 그냥 naive하게 만들어진 PUI-GUI 조합보다 훨씬 높은 몰입감을 제공해 준다.

이번에 이 두 제품의 UI Designer와 그 동료들이 '거의 망한 것으로 치부되고 있는' 차세대 Palm OS의 UI를 맡는다는 소식을 듣고, 세상을 구하는 영웅 이야기라면 눈이 뻘개지도록 좋아하는 나로선 극단적으로 희망적인 상상을 하지 않을 수 없었다.


Palm OS는 이미 그 기세가 꺽인지 수년째다. Palm One사에서 조차도 자사 제품에 Microsoft Windows OS를 넣고 있고, iPhone이 초강세로 트렌드를 이끄는 가운데 Google에서도 Andriod라는 Mobile OS를 공개해 버렸다. 게다가 최근에는 Nokia가 Symbian OS의 지분을 모두 확보하고 소스를 공개해 버리는 바람에 Linux 같은 (좋은 측면도, 나쁜 측면도 ㅎㅎ) 개발환경을 만들어 버렸다.

마치 휴대용 기기의 OS에서 두번째 전쟁 - 첫번째는 MS 대 Palm 이라는 단순한 구도였다면 - 이 전국전쟁 수준으로 일어나는 걸 보는 듯한 이 상황에서, 만약에(x100) 죽어가는 혹은 '어쩌면 이미 죽어있는' Palm OS가 훌륭한 UI로 인해서 살아난다면, 이건 또 두고두고 이야기할 좋은 사례가 될 것 같다.
Matias Duarte, UI designer of Sidekick, Helio, and Next-Gen Palm OS

Matias Duarte 라는 친구, 난 전혀 모른다. Sidekick과 Helio의 UI를 모두 이 사람이 디자인했다는 것도 몰랐다. 하지만 앞으로 자주 다른 사람에게도 이야기할 수 있도록, 크게 한 껀 터뜨려줬으면 하는 마음이다.
신고
Posted by Stan1ey

"UI 기술" 혹은 "HCI 기술" 이라는 말은 사실 일반적으로는 안 쓰이는 단어의 조합이다. 디자인을 배우기 시작하던 무렵 "디자인은 공학과 예술의 만남"이라든가 하는 경구와 함께 종종 등장하는 '기술'이라는 것은 종종 technology가 아닌 technique의 의미로 혼용될 정도로 개념조차 정립되어 있지 않았으니까.

그러다가 다소 수동적인 사용성 향상을 꾀하는 GUI가 아니라 아예 사용 방식 자체를 바꿔버리는 적극적인 사용성 향상 방법으로 언급된 것이 소위 "UI 기술"이라고 뭉뚱그려진 다양한 입출력 기술이었고, 그저 회사에서 그런 접근방법의 정당성을 주장하면서 없는 자리를 만들어 살아남으려고 여러 사람들과 함께 발버둥치다보니, 이 이상한 단어 조합이 어느새 제법 쓰이게 되었다.

이 "UI 기술"이라는 단어는 디자이너는 디자이너대로 싫어하고, 엔지니어는 엔지니어대로 싫어하는 표현이긴 했지만, 사실 디자이너에게는 상품기획에서 만든 모호한 글자와 도형 -_- 을 시키는대로 구체화/시각화 시키는 것 외에 뭔가 주도권을 잡고 싶은 빌미(그렇다고 발명을 하겠다고 한다는 오명?을 뒤집어 쓸 수는 없고...)가 필요했고, 엔지니어는 또 나름대로 복잡한 알고리듬 문제(더이상 백날 파봐야 결론도 안나고, 하드웨어가 더 빨리 좋아지니 알아주는 사람도 없고...)보다 현실세계에서 주목받고 환영받는 응용기술에 관심을 갖지 않을 수 없었던, 아마도 상호보완적인 개념이었다. (이제와서 보면, 그건 아무래도 한시적인 휴전이었던 듯. -_- )



그로부터 5년이 넘게 지난 지금, 지난 주에 한국디자인진흥원으로부터 연락을 받았다. 실무디자이너를 대상으로 교육을 하는데, 그 중 "UI 기술"에 대한 한 꼭지를 맡아보겠냐는 거 였다. 핑계김에 한번 머릿속이나 정리해 볼까 했다가, 결국 다른 일정과 겹칠 듯 해서 사양하고 말았다. (사실 요새 회사가 좀 바빠서... 한다고 했더라면 주말은 고스란히 반납했을 꺼다. -_-;;; )

그런데 그 과정에서 받은 커리큘럼은, 개인적으로 무척 인상적이었다.

과목: UI & HCI 구현 기술 현황
내용: Interaction I/O 및 HCI 최신 기술 이해 및 구현 사례 소개
개요:
본 강의를 통해 최근 UI 및 HCI 기술의 발전 현황 및 국내외 기업의 제품 적용 사례와 향후 발전 가능한 UI 및 HCI 기술이 어떤 것이 있는지 파악하게 된다. 특히 감성적 UI의 접근 방법으로 Muli-Modal UI가 제품에 많이 사용되고 있는데 각 적용된 사례 들과 최근 이슈가 되고 있는 Touch 및 Haptic UI에 적용되고 있는 다양한 센서기반의 UI도 파악하게 된다. 또한 GUI 디자인 구현 기술이 어디까지 와 있는지 파악한다 (2D, 3D 구현 방식) 위와같은 HCI 기술의 기본적인 이해와 각기술에 따른 Interaction이 어떻게 다르게 나타나는 지를 파악함으로써 성공적인 UI를 만들 수 있는 기본적인 지식을 갖추도록 한다.

물론 교과과정을 잡는 데에 이전 직장의 분이 자문해 주셨다고는 하지만, 어느새 "UI 기술"이라는 단어가 이렇게까지 자리잡고 들어있다니 정말 반갑기 그지 없다. (감성적 UI라든가, "이슈가 되어 있는 Touch 및 Haptic UI" 라든가 하는 부분은 좀 생각이 다르지만 ㅎㅎ ) 예전에 회사 내에서도 최근 UI 관련 학회의 움직임을 모니터링하며 HTI로의 흐름이 심상치 않다고 외치곤 했는데, 이렇게 외부의 교육에 - 6~7일 교육에 딱 2시간 뿐이긴 하지만 - UI 기술, 혹은 HTI 분야가 한 자리를 차지하고 있다니 분명 기념할만한 시작이다.

우리나라도 이제 자신들(학과/부서/개인)이 추구하는 "디자인"이 "그림"인지 "개발"인지 "기획"인지를 명확히 해야 할 때가 오고 있다. 무엇을 하던 그 사람은 "디자이너"라고 불릴 수 있지만, 이도저도 아니라면 "디자이너"라고 하더라도 "월급쟁이"에 불과할 것이다. 나도 확신이 없고 누구한데 어느 쪽이 맞다고 말할 수도 없지만, 적어도 우리가 UI 디자인을 시작하던 때의 꿈은 "개발"에 가깝지 않을까...라고 생각하고 있다.


P.S. 사실은 홍보를 부탁받기도 한 -_- 위 교육에 대한 자세한 정보는, KIDP 홈페이지에 있는 공지를 보면 찾아볼 수 있다. 관심있는 분들의 많은 참여를.. 쿨럭 ;ㅁ;



(다음날 아침에 추가)
Curriculum for UI-Friendly Sensor Seminars

ㅎㅎ 이런 일은 늘 재미있다. 하필이면 오늘 새벽에 도착한 메일 중에, 미래기술교육연구원에서 주관하는 "친 UI 대응 터치센서 및 센서응용현황 세미나" 라는 교육 안내 메일이 있다. 정작 들어가보니 딱이 "親UI" 라는 표현이 없는데, 굳이 그렇게 온 건 아마도 UI 업계의 목록을 통해서 메일을 보낸 것 같다. 그나저나 "親UI" 라니! 영어로 하면 "UI-Friendly" 아닌가! ㅋㅎㅎ

기술 측면에서의 접근답게, 이 교육의 커리큘럼(오른쪽 그림)은 좀더 공학적인 깊이가 있다. 비록 UI 기술을 제한된 종류의 센서로만 국한하고 있기는 하지만, 다양한 터치 센서와 관련 기술인 투명전극 이외에도 (아마도 다음 UI 혁신을 주도할) 이미지 센서에서부터 MEMS, 나노 기술을 이용한 센서, 환경 센서, 심지어 바이오칩 이야기까지 할 모양이다. 게다가 '자동차용 센서'라는 모호한 이름이긴 하지만, 일전에 말했듯이 역시 IUI를 적용할 수 있는 최적의 플랫폼은 자동차라는 생각에 관심이 가는 강의도 있다. 아무래도 UI 디자이너를 대상으로 한 강의는 아닌 것 같지만, 그래도 HTI 분야에 관심이 있는 디자이너라면 한번 참여해 봄직하지 않을까 싶다. (이 정도로 다채로운 구성을 돈과 시간을 투자해 들을 수 있는 실무자가 과연 있을까 싶기는 하지만 OTL...)

어쨌든, 소위 '미래기술'을 연구한다는 곳에서도 역시 UI에의 응용을 하나의 중요 시장으로 보고 "UI-Friendly Technology" 라는 소리를 하는 걸 보니 뭔가 변화가 있기는 있겠다는 생각이 든다. 그것도 매우 빠르게.
신고
Posted by Stan1ey

Looking Back the History

2008.06.19 14:03

Korean translation of 'The Universal Computer'
한두해 전에 <수학자, 컴퓨터를 만들다>라는 책을 읽은 적이 있다. 원제는 좀더 멋진 <The Universal Computer>인데, 번역서에서 굳이 "수학자" 운운하는 제목이 붙은 것은 저자가 이론수학자로서 자동화된 계산 및 추론이론의 발전사에 대해서 자세히 다루고 있기 때문이기도 하지만, 역시 수학자인 역자의 생각이 반영되지 않았을까 추측해 본다.

어쨌든, 다소간의 정치논쟁 - 수학 vs. 전산학 vs. 전기공학 - 을 차치하기로 한다면, 이 책은 정말 흥미로운 내용을 다루고 있다. 오늘날 사용하는 컴퓨터 장치에 들어가있는 자동 계산(machine computation)이라는 것이, 얼마나 많은 사람들의 다양한 아이디어를 최선의 (경우에 따라서는 차선의) 방법으로 조합해서 만들어진 것인가에 대한 역사서라고 보면 될 것이다.

이번에 TED 동영상으로 올라온 <The Birth of the Computer> 강의에서는, 수학자들의 노력도 물론 언급하면서 좀더 실제적인 에피소드를 실제적인 증거자료 - 유명한 연구자의 논문과 특허문건도 있지만, 실제 초창기 컴퓨터를 운용하던 사람들의 갈겨쓴 연구노트도 있다 - 와 함께 소개하고 있다. 일부는 그들의 천재성에 가슴 가득 존경심이 올라오기도 하지만, 당시 '사용자'의 기록들은 시대가 달라도 결국 다 비슷한 기분이었구나..라고 미소가 띄어지기도 한다.

기억해 둠 직 하다고 생각해서 스크랩해 놓기로 했다.



나중에 십수년이 지나고 나서 누가 UI나 HCI나 HTI의 역사에 대해서 말하라고 한다면, 저렇게 정리된 자료를 가지고 있을 수 있을까? 이 분야의 main stream도 아니고 (아마도 미국이라면 모를까 -_- ), 해당 분야를 폭넓게 섭렵하고 있는 것도 아니니(Nielsen이나 Norman이라면 직간접적으로 커버할 수 있을지도...) 아마도 어려울 게다.

그래도 나중에 나이가 들어 기회가 된다면, 여기저기서 얻어들은 "컴퓨터 초창기, 펀치 카드의 사용성" 이라든가, "주석이 붙은 GUI Widget의 변천사", 내가 목격한 "일상생활 속의 컴퓨터 UI의 흐름과 Key Player"같은 걸 좀 정리할 여력이 있었으면 한다. 소시적에는 역사 관련 과목을 그렇게나 싫어했으면서 말이지. -_-a;;

신고
Posted by Stan1ey
이전 글에서 회상한 악몽이, 최근 애니콜의 "햅틱폰" 마케팅 캠페인에서 다시 살아나고 있는 기분이 든다. (이 이야기 쓰려다가 앞의 글이 통채로 생겨 버렸다. 무슨 주절주절 끝나지 않는 할아버지의 옛이야기도 아니고 이게 뭐냐 -_-;;;. 그냥 후딱 요점만 간단히 줄이기로 하자.)

삼성에서 "풀 스크린 터치" 폰을 개발한다는 소식이 들리고 국내외 전시회에서 해당 모델이 조금씩 모습을 드러낼 무렵, 드디어 시작된 광고는 정말 뭇 UI 쟁이들의 마음을 설레게 하기에 충분했다.



"..., 터치... 다음은 뭐지?" 라는 것은, 정말이지 Apple iPhone 이후에 모든 월급쟁이 - 풀어서 말하자면, 뭔가 월급에 대한 대가로 새로운 것을 제시해야 한다는 책임감을 부여받은 - UI 쟁이들에게 주어진 공통의 숙제 같은 거 였다. 자리만 생기면 서로 저 질문들을 하기도 했고, 학계에서나 연구되던 많은 주제들이 무수하게 떠올랐다가 사라지곤 했다. 그러다가 종종 SF에서 보던 장면들이 논의되면 잠시나마 꿈에 부풀기도 했고.

그 중의 하나가, 물론, "햅틱 haptic"이라는 기술이다. (UI가 아니다.)

Wikipedia를 인용하자면, 햅틱은 "촉각 감각을 통해 힘이나 진동, 움직임을 가함으로써 사용자와 인터페이스하는 기술"이라고 정의된다. 나는 햅틱에 관해서는 전문가는 커녕 학생 수준에도 못 미치기 때문에 말을 길게 하는 건 매우 -_- 위험한 짓이 되겠으나, 투덜거림을 위해 예전에 관련 전문가분들과 같이 과제를 하면서 몇가지 얻어들었던 사실을 언급하자면 다음과 같다.



우선 햅틱은 위 정의에서와 같이 다양한 촉각 감각을 다루는 분야로, 크게 tactile 감각과 kinesthetic 감각으로 분류하기도 한다. 이때 tactile 감각은 피부에 있는 촉감 세포들이 느끼는 압력, 요철, 진동 등의 감각이며, 차갑고 뜨거운 것을 느끼는 열감각은 여기에 포함시키거나 별도로 thermal로 구분하기도 한다. Kinesthetic 감각은 인간의 관절을 둘러싼 근육과 인대의 운동감각에 의한 것으로, 흔히 말하는 force feedback 이라든가 무게감 등이 이에 해당한다.

햅틱 기술을 이용한 UI는 아직 걸음마 단계로, 몇가지 시험적인 상용화 시도가 있었다. 그 중에서 가장 높은 이상을 보여주었던 사례는 BMW의 iDrive라고 생각한다.
BMW iDrivce: a haptic input device
iDrive는 다양한 조작이 가능한 하나의 다이얼+버튼+조이스틱 입력장치로, 동적으로 변하는 각 조작상황에 최적화된 물리적인 조건 - 즉, 메뉴의 개수에 맞춰서 다이얼이 움직이는 범위가 변한다든가, 버튼 입력시의 반응이 다르다든가 하는 - 을 제시하는 햅틱 장치가 아래쪽에 숨어있다.

하지만 iDrive는 햅틱 기술의 대표적이고 도전적인 적용 사례일 뿐이고, 그 사용편의성 측면에 대해서는 많은 비판을 받기도 했다. 실제로 iDrive를 검색해 보면, 많은 글들이 극단적으로 부정적인 의견이어서 마치 예전 MS Office Assistant에 관한 글을 보는 듯한 기분마저 든다. 이것이 새로운 기술에 대한 대중 사용자의 거부감일 뿐일지, 아니면 실제로 상상 속의 편리함이 공상으로 드러나는 패턴인지는 아직 판단을 미뤄둔 상태다.

한편으로 보면, 간단한 수준의 햅틱은 이미 우리가 사용하고 있는 제품에 적용되어 있는데, 대표적인 것이 바로 휴대폰과 게임기의 진동 모터이다. 휴대폰의 경우에는 단순히 중심이 어긋난 추가 달린 모터를 켜고 끄는 것으로 진동 전화벨을 구현한 것에서 시작해서, 2~3년 전부터는 "진동벨"이라는 음악에 맞춰 강약이 조절된 진동이 적용되기도 했으며, 최근 모델들에는 다양한 강약패턴을 갖는 진동이 휴대폰에 적용되기도 했다.

특히 이 강약패턴의 경우엔 게임기에 적용된 것과 같은 기술을 적용하고 있는데, 바로 진동모터에 정전류과 역전류를 적당히 적용함으로써 모터의 회전수, 즉 진동의 강약을 실시간으로 정확히 제어할 수 있는 것이다. 이 기술에 대한 특허를 가지고 있는 것이 바로 햅틱 기술의 거의 모든 특허를 독점하고 있는 회사인 Immersion 이다.

[○] Immersion의 햅틱기술 독점 에피소드


Immersion사의 진동 피드백 기술에 대해서는, 대충 아래의 Immersion Studio 라는 진동효과 편집 소프트웨어를 보면 느낌이 올 것 같다. 이 소프트웨어는 진동 모터의 강도를 시간축에 따라 정밀하게 제어할 수 있는 기능을 GUI로 제시하고 있다.
Immersion Studio Screenshot

진동 자극은, 대상 UI의 물리적 특성을 직접적으로 제시하는 게 아니라 다양한 진동을 통해 간접적으로 표현하는 것이다. GUI 식으로 이야기하면 극단적으로 단순화된 메타포 metaphor 라고 할 수 있을 듯. 이보다 직접적인 방식으로 촉각적 자극을 주는 방식으로는, 실제로 물리적인 형태를 바꾸는 형태가 있겠다. 이미 이런 방식은 시각 장애인을 위한 점자 표시 braille display 장치에서 구현되어 있다. (아래 오른쪽 그림의 장치 - 브레일 한소네 - 를 만든 힘스코리아 HIMS Korea 라는 회사는 우리나라에서 재활공학을 업으로 하는 극소수의 소중한 회사들 중 하나다.)

Refreshable Braille Display (close up)
Portable Braille Display 'Hansone' by Himskorea


이 방식은, 점자를 위한 장치 외에도 full matrix로 만들어지기도 했는데, 점자 디스플레이 모듈을 만드는 일본의 KGS 라는 회사에서는 이 모듈을 연결시켜 아래 사진과 같은 제품 - DotView - 을 만들기도 했다. 이거 만든지 벌써 몇년이 지났는데, 잠잠한 걸 보면 결국 확실한 application은 찾지 못한 모양이다.
DotView by KGS
Haptic Display Prototype from NHK
위 제품은 좀더 거대한 조합으로 발전하고 터치스크린 기능이 덧붙여져서, 최근 "NHK의 햅틱 디스플레이"라는 이름으로 소개되기도 했다. (NHK에서 발표한 오른쪽 그림의 장치를 잘 보면, KGS 사의 로고를 찾을 수 있다. KGS는 이 방식 - 피에조 방식을 이용한 적층식 점자표시 - 에 대한 특허권자라고 했다.)

점자와 같은 수준의 정보를 주지만 조금 더 우아한 방식으로는, Sony CSL의 Interaction Lab.에서 구현한 Lumen (shape-changing display) 을 빼놓을 수 없다. 디스플레이라고 하기에는 픽셀(?)의 크기가 어마어마하고, 모듈의 크기(특히 깊이)는 더욱 더 어마어마하고, 반응속도도 느리지만, 기술의 발전에 대한 막연한 기대에 기대자면 그 궁극적인 발전 가능성은 매우 크다고 하겠다.

Luman by Ivan Poupyrev, Sony CSL Interaction Lab.

음... 기왕 길어진 김에 (이렇게 써제껴놓고 뭘 새삼스럽게;;) 촉각에 대해서 하나만 더 추가하자면, 개인적으로 햅틱의 가장 큰 재미라고 생각하는 것은 촉각 감각에 있어서의 착시(?)라고 할 수 있는 것이다. 다양한 스펙트럼의 빛이 여러가지의 시각적인 색채 자극을 조합해 내는 것과 마찬가지로, 우리가 뜨겁다, 차갑다, 볼록/오목하다, 우둘두툴하다 등등 여러가지로 표현하는 촉감은 사실 다양한 세포들의 조합에서 유추된 것이다. 따라서 세포 감각의 레벨에서 자극을 조작하면, 실제로 물리적인 자극을 만들지 않고도 해당하는 자극을 느끼게 할 수 있는 것이다. 즉 적당한 전기 자극을 줘서 촉각세포를 교란시킬 수도 있고, 특정 주파수의 진동을 줘서 특정 촉각 세포만을 자극할 수도 있다고 한다. (실제로는 상호간섭이 심해서 딱이 성공했다는 사례를 못 봤다.) 최근(?)에 이런 사례로 재미있는 것은 캐나다 McGill 대학 Haptic Lab.피부 늘리기 기법인데, 구체적인 원리는 2000년도의 논문에 나와있으니 관심있는 분은 함 보시길.
PHANTOM Omni

촉각 tactile 에 대해서 이렇게 잔뜩 썼지만, 다른 한 축인 kinesthetic에 대해서는 사실 그렇게 쓸 말이 없다. Immersion 외에도 햅틱 기술의 강자로 꼽히는 회사인 SenAble 에서 만든 PHANTOM이라는 기구는, 화면 상의 가상 물체를 펜이나 다른 도구의 끝으로 꾹꾹 찔러볼 수 있도록 하고 있다. 비슷한 기능을 하는 6 DOF의 force-feedback 입력장치는 여러 회사와 연구소에서 만들어지고 있으며, 특히 의료업계에서 원격수술이나 로봇수술, 미세수술의 입력장치로서 상용화가 되고 있다.



... 자, 이 정도가 지난 3일 동안 짬짬이 -_- 적어본, "햅틱"이라는 UI 기술에 대한 지극히 주관적인 개요이다. (차라리 대형 삼천포라고 하는 게 나을 듯 -_- ) 어쨌든 이런 햅틱 기술을 알고 있는 사람들을 잔뜩 들뜨게 한 위의 동영상 티져 광고에 이어서, 드러난 "햅틱 폰"의 실체는 다음과 같았다.



... 어라? "햅틱"은? 애니콜 홈페이지에 볼 수 있는 햅틱폰의 주요 기능 feature 들도 다음과 같이 나열되어 있다.

Not-so-haptic Features on Samsung Haptic Phone

언제나와 같이 잘 나가는 아이돌 스타들을 총동원해서, "전지현보다 여자친구가 좋은 이유는 만질 수 있기 때문이다" 라든가, "만지면, 반응하리라!" 따위의, 다분히 문제의 소지가 있는 카피로 화려하게 광고를 하고 있지만, 터치스크린이 적용된 제품에서 내장된 진동소자를 이용해서 터치에 대한 feedback을 주는 것은 국내에서도 출시된 적이 있는 방식이다.

물론 진동을 이용한 tactile feedback이 햅틱 기술이 아니라는 게 아니다. 하지만 "햅틱 UI"라고 부르려고 한다면, 단순한 진동 피드백이 아닌 뭔가가 있어야 자격이 있는 거 아닐까? 비교적 쉽게 적용이 가능한 햅틱 기술로는 제품 전체가 아닌 스크린만 진동시키는 방법이라든가, 특히 스크린 중 일부만 특정한 느낌을 주도록 진동시키는 방법이 있다. 아니, 앞서 언급했듯이, 햅틱 기술에는 tactile 외에 kinesthetic 감각을 위한 더 다양한 기술들이 있다. 그런 기술들 중에서 가장 초창기의 것만이 적용된, 그것도 사실은 이전의 적용 사례들과 동일한 UI가 "햅틱 UI"라는 이름을 갖게 된 것이다.

POP Ad for Haptic Phone: Alive UI

"살아있는 User Interface"라니. -_-

"햅틱 UI"라는 건 결국 딱이 정의되거나 공유될 수 있는 개념이 아니라, 사용되고 있는 용어의 정의와 상관 없이 마케팅 상의 필요에 의해 기존의 멋져 보이는 용어를 갖다쓴 것 뿐이다. 물론 뭐 말 좀 갖다썼다고 큰 피해 준 것도 아니고, 이렇게 장광설을 펴는 이유를 모르겠다고?



햅틱이라는 이름이 붙여진 제품이 광고되면서, 기존에 햅틱 기술을 연구하던 사람들이 무척이나 흥분(?)하는 걸 볼 수 있었다. 예전에 햅틱 기술을 이용한 UI를 토론하곤 했던 한 연구원은 이제 햅틱이 유명해지겠다며 "보람을 느낀다"는 말을 하기까지 했다. 사실 회사에서 느끼기에 햅틱은 생소한 용어였기 때문에 무슨 과제 발표를 할 때마다 용어부터 설명을 해야 했고, 심지어 경우에 따라서는 "햅틱"이라는 용어를 사용하지 못해서 - 발표가 강의나 토론으로 끝나는 경우가 많아지기 때문에 - 약자로만 넣기도 했다. 그런데 이제 "햅틱"이라고 하면 사람들이 알아듣고 더이상 그게 뭐냐든가 아리송한 표정을 하지는 않을 거라는 거 였다.

그런데, 위의 웹페이지 설명에서와 보이듯이, 정작 나온 제품에서 볼 수 있었던 햅틱 UI는 기존의 것과 전혀 다르지 않거나, 사실은 터치스크린을 이용한 다른 종류의 입력 방식 - 햅틱과는 상관 없는 - 이 전부였던 것이다. 결국 대중들 사이에서 "햅틱"이라는 단어는, "터치"와 같은 의미가 되어 버렸다.

'Haptic Consumer' article on tabloid

위 5월 20일자 기사에 따르면, 오프라인 매장에서 직접 제품을 만져보고나서 저렴한 인터넷 매장에서 구입을 하는 구매자를 "햅틱형 고객"이라고 한다고 한다. -_-;;; 해당 회사에서 별도의 웹사이트까지 만들어서 광고에 힘쓴 덕택에, 하나의 학술적인 연구 범위를 정의하는 전문 용어 하나가 변화되고, 왜곡되고, 협소해져서 세간에 알려지게 된 것이다.

... 그냥 그 이야기를 하고 싶었다.



이 글을 벌써 일주일 넘게 썼나보다. 이제 슬슬 지치기도 하고... 되돌아 읽으면 읽을수록 추가할 부분만 더 늘어나서 좀 버겁다. 게다가 개인적으로 지난 며칠, 그리고 앞으로 며칠이 굉장히 심란한 시기가 될 것 같고. 그러니 그냥 핑계김에 이 글은 요기까지. 나름 애지중지하던 "햅틱"이라는 단어가 자격 없는 제품의 광고에 사용되어 그 '고아한 학술적인 지위'를 폄하(?) 당한 것 같아서 속상하다... 그냥 그 이야기를 하고 싶었다. 한 줄이면 되는 것을 아는 거 모르는 거 죄다 털어내느라 지저분한 글이 되어 버렸다. 또. ㅡ_ㅡ;;;

그래도 여전히 하고싶은 이야기는 많다... 터치스크린과의 위험한 조합이라든가, 이런 UI를 앞서 적용한 회사들의 다양한 적용 사례라든가, 보조적인 피드백으로서의 역할에서부터 독립적인 UI로서의 가능성까지 재미있는 구석이 많은 기술이다. 햅틱은. 모쪼록 타의에 의한 이번 '유행'이 지나도 "햅틱"이라는 단어와 무엇보다 그 기술에 대한 매력이 주저앉지 않기를 바란다.

오버앤아웃.



[○] 이 글을 올리고 난 직후에...

신고
Posted by Stan1ey

BLOG main image
by Stan1ey

카테고리

분류 전체보기 (347)
HTI in General (45)
User eXperience (11)
Voice UI (50)
Vision UI (14)
Gesture UI (25)
Tangible UI (28)
Robot UI (14)
Public UI (9)
Virtuality & Fun (56)
Visual Language (15)
sCRAP (70)

글 보관함



www.flickr.com
This is a Flickr badge showing public photos and videos from Stan1ey. Make your own badge here.