<Media Equation>이라는 책이 있다. 번역본도 나온 것으로 알고 있고... 여하튼 이 책은 부제목에서 말하듯이 "어떻게 인간이 컴퓨터나 다른 새로운 미디어를 마치 사람인 것처럼 다루는가"에 대한 책이다. 이 책에서 말하는 new media에는 라디오나 TV도 포함하고 있고, 음성입출력을 사용하는 기계라든가 화면 상의 의인화된 에이전트 캐릭터에 대해서도 언급하고 있다.

그림이 없기 때문에 많은 상상력을 동원해야 하는 읽기 힘든 글이지만, (저자인 Clifford Nass 교수와 대화한 적이 한번 있는데, 그때의 경험과 비슷하다. 어찌나 빠르게 말로만 이야기하는지! -_-;; ) 어찌 보면 당연할 내용을 하나하나 실험을 통해서 밝혀주었다는 점에 대해서는 머리를 조아리고 받들어야 할 참고문헌이라고 생각한다.

이 책 - Media Equation - 에서는 로봇에 대해 다루고 있지 않았고, 비교적 신간인 이후의 책 <Wired for Speech>에서도 로봇에 대한 언급은 거의 없으니 아무래도 이 저자에게 로봇은 주된 관심사가 아닌 듯 하다.

하지만 Media Equation에서 말하는대로 제품에 음성출력이 들어가는 순간 그 인간만의 고유특성으로 인해 의인화가 훨씬 더 많이 유도된다면, 움직임이라는 인간 혹은 동물만의 고유특성도 그에 상응하는 정도로 의인화가 유도되어야 하는 게 맞을 것이다. 실제로 Nass 교수의 연구실에서 박사학위를 받은 이관민 교수님의 경우에는 Roomba와 Aibo의 사용자를 대상으로 media equation이 얼마나 적용되는지 고찰하기도 했고, 나도 사무실을 돌아다니는 청소로봇이 사람들에게 어떤 영향을 미치는지를 관찰한 적이 있다. 적어도 이제까지 직간접적으로 경험한 바로는, 인간이 로봇에게 느끼는 의인화 성향은 심지어 SF 영화나 만화에서 과장해서 그리는 것보다도 더 크다고 생각된다. 무생물인 로봇을 인간처럼 다룬다는 것은 마치 인형놀이처럼 느껴질지 모르지만, 남녀노소 누구나 쓰레기통에 종이뭉치를 던져넣으며 즐거워 하듯이 그 인형놀이도 모두의 놀이이기 때문에 그만큼 중요한 게 아닐까.


어찌 알고 있는 연구자가 이번에 로봇의 감성적 영향에 대한 연구를 정리해서 발표한 모양이다. 출장 중에 받은 메일링리스트에서 아는 이름을 발견하고 한편 대견하고, 한편 부럽고 한 복잡한 심경이었다. ^^;


특히 이 연구의 결과물 중 하나인 아래 그래프는 한번 눈여겨 볼만하다.

Roomba Philes - How the owners do for them, with them, by them.

이러한 결과는 사실 이번이 처음이 아니고, 위에서 언급한 이관민 교수의 2006년 연구에서도 비슷한 결과가 나온 적이 있다. Aibo 사용자(혹은 주인)들의 과잉-의인화된 행태('과잉'부분에 대해서는 판단을 조금 유보하고 싶지만)에 대해서는 다른 매체에서도 인터뷰 등으로 그 현상을 지적하기도 했다.

하고 싶은 얘기는, 처음에 위 그래프와 같은 결과를 받아든 사람들의 대부분의 반응은 "말도 안 된다", "대상이 초딩이냐" 뭐 이런 식이지만, 로봇에 대한 사람들의 친밀도가 (문자 그대로) 상상을 초월하고 있다는 것은 이미 한두번 지적된 것이 아니라는 것이다.

이번 성자영씨의 연구가 의미를 갖는 것도 그런 맥락이다. 이제까지는 비교적 소수의 사람들을 인터뷰하는 수준이었기에 어느 정도 반론이 가능했지만, 이제 당연시 되어버린 청소로봇... 혹은 좀 더 편한 가전제품의 소유자 379명을 대상으로 한 연구이므로 그동안 있어왔던 논란에 쐐기를 박을 수 있지 않을까 생각한다.

이제 문제는 디자이너들이다. 우리는 이렇게 로봇을 사랑하고 아끼는 사용자들을 위해서 로봇을 디자인할 준비가 되어 있는가? (이 "우리 디자이너들은 준비가 되어 있는가?" 라는 주제는 조만간 CHI 학회를 정리하면서 한번 더 이야기하게 될 듯...)

신고
Creative Commons License
Posted by Stan1ey

GUI 위주의 UI를 하다가 Voice UI를 접하게 되면, 가장 친숙하게 다가오는 게 바로 persona라는 개념이다. VUI의 다른 측면들은 대부분 음성대화에 대한 분석과 조합에 대한 것이고, 입출력 기술의 제약조건과 그에 따르는 생소한 설계 지침이나 tip들은 아무래도 시각적인 것이 없어서 거리감이 느껴지게 마련이다.

그에 비해서 이 persona라는 것은 그 구축 방법에서부터 어떤 사람의 모습을 상정하기 때문에 뭔가 사진이라도 하나 띄워놓을 수 있고, 기존의 UI 디자인에서도 Persona 구축을 통한 사용자 상(像)의 공감대 형성이 하나의 방법론으로서 인기가 있기 때문에 언뜻 "아, 이건 아는 거야!" 라고 접근할 수 있는 거다. (상품기획이나 UI.. 혹은 다른 종류의 디자인을 위한 Persona 방법론은 Alan Cooper에 의해 주창되었지만, 그 내용에 대한 상세한 설명은 <The Persona Lifecycle>이라는 책에 더 잘 기술되어 있다.)

하지만 일반적인 UI 디자인에서 말하는 persona가 잠재적인 사용자의 대표상을 뜻하는 것과 완전히 반대로, VUI 디자인에서의 persona는 시스템의 '목소리'를 내는 시스템의 대표상을 뜻한다. VUI 식으로 말해서 persona 디자인은, 설계자가 서비스에 부여하고 싶은 사회적인 이미지 - 종종 선입견을 포함한 - 혹은 사용자들의 사용 맥락에 적합한 분위기 등을 고려해서 이루어진다. 동시에 사용자가 해당 서비스에 대해서 가지고 있는 이미지, 즉 mental model과의 차이를 되도록 줄이거나, 적절한 소개를 거쳐 보다 시스템 설계의 의도에 맞는 것으로 유도하는 것도 중요한 설계 요소의 하나이다. (VUI 디자인에서의 Persona에 대해서는 VUI에 대한 최초의 균형 잡힌 책인 <Voice User Interface Design>을 참조할 것)

Example of VUI Persona

Example of VUI Persona: by Michael Cohen (SpeechTEK, 2004)


재미있는 것은, 위 문단에서 "persona"라는 단어를 그냥 "UI"라고 바꾸면, 기존의 UI 디자인의 개념과 여러가지 측면이 중첩된다는 거다. 아마도 그런 이유 때문에 - 일단 기존 UI와 VUI에서 단어의 정의가 다르다는 걸 이해하고 나면 - VUI의 persona가 접근하기 쉬운 것이라고 생각한다. Persona 구축이 VUI에서 중요하기는 하지만, 전체적으로 볼 때 그것은 VUI에 대한 모호한 컨셉을 잡는 것에 불과하고 이를 구체화하는 실질적인 설계 작업은 여전히 뛰어넘어야 할 장벽이 있는 것은 유념해 둘 만하다.

참고로...
사용자 삽입 이미지
UI, 아니, HTI 업계에 처음으로 "persona"라는 단어를 소개한 것도 사실은 공감대 형성도구로서의 방법론으로서가 아니라, conver-sational agent 의 실험적 사례로서였다. 얼마전에 불평을 늘어놓았던 Microsoft Agent의 기원이 된 "Persona Project"가 그 주인공인데, 그건 뭐 담에 또 기가 뻗치면 한번 정리해봐야 겠다. 어쨌든 이제까지 UI/HTI에 세 번에 걸쳐 불어왔던 persona 개념은 그때 그때 다르긴 했지만, 그 각각의 개념들이 UI 디자인에 미친 영향은 이래저래 적지 않았던 것 같다.



오케이. 그럼 이제 본론으로 들어가자. (또냐!!!)

휴대폰에 들어간 음성 기능은 주로 음성인식에 대한 것이어서, 사용자에게는 '어디 있는지도 모르지만, 찾아도 눌릴지 안 눌릴지 모르는 버튼의 대용품' 정도로 다가왔다. VUI라든가 기계와의 대화라든가 하는 거창한 비전이 아닌 단순한(?) 음성입력 기능이었던 것이다. 그에 비해서 네비게이션은 구태의연한 버튼과 터치스크린 입력을 사용했지만, 음성합성(가장 기본적인 수준의) 중심으로 정보를 제공하기 때문에 사용자에게는 '끊임없이 말을 거는', 좀더 VUI의 모습에 가까운 모습으로 각인되어 왔다. 내 말을 알아듣는 기계보다, 뭔가 자신의 말을 하는 기계가 더 기특하고 인간다워 보이는 것일까.

우리나라의 네비게이션은 여기에 여러가지 목소리(남성/여성/아기/... 그리고 몇 명의 인기 연예인들)를 포함시키는 방식으로 VUI의 'persona'를 다양하게 반영시켰다. 대부분의 너무 개성이 강한 목소리에 쉽게 질리긴 했지만, 사람들은 각자 나름의 방식으로 그 변화무쌍한 수다쟁이를 좋아하고 있다.

앞에서 VUI 디자인에 있어서 persona를 구축하는 게 중요하다고 말했던 것과는 반대의 이야기다. 물론 "튜닝의 끝은 순정이다"는 말처럼 결국 많은 사용자들이 기본 음성을 사용하는 걸 보면, 그 기본 음성의 persona 만큼은 중요하다고 말할 수도 있겠다. 이랬다가 저랬다가... 정말 persona를 잘 구축하는 게 VUI에 있어서 중요할까? 아니면 그냥 여러가지 persona (=목소리)를 제공해서 선택하게 하는 게 좋은 방향일까?


유럽의 신생 업체에서, 기존 네비게이션에 자신의 (혹은 친구/가족/연인의) 목소리를 녹음해서 넣을 수 있는 서비스를 시작했다고 한다. 별도의 회사에서 이런 서비스를 한다는 사업 모델에 대해선 다소 의구심이 들지만, 뭐 어쨋든 흥미로운 시도인 것은 사실이다. 특히 자신의 목소리를 웹에서 녹음해서 누군가의 네비게이션으로 선물할 수 있다는 건데, 그런 친구나 가족의 목소리가 연예인의 목소리보다 더 듣기가 좋거나... 최소한 쉽게 질리지는 않을런지 모르겠다. 미국에서 본 네비게이션에도 2~3가지 목소리가 제공되고 있었지만 연예인 목소리 같은 건 없었는데, (헐리웃 스타의 몸값을 생각해보면 뭐 ㅡ_ㅡ;; ) 또 이런 식의 customization 방법을 제공하는 것도 나름 재미있다 싶다.

VUI 블로그에서는 이 서비스를 소개하면서, "Forget about Persona!"라고까지 하고 있다. 한편 일리있는 일갈이기는 하지만, 처음 말했듯이 persona가 GUI의 시각적 컨셉과 같은 위치에 있다면, 이 말은 곧 UI를 설계하는 데 있어서 상위의 개념적인 방향을 잡는 것은 오히려 사용자에게 맡기고, 사용자가 원하는 그 컨셉이 제대로 움직이도록 체계를 잡는 것만 남는다는 소리가 된다. 좀 억지스럽긴 하지만.

오랫동안 슬금슬금 바뀌고 있는 디자이너의 역할과 더불어서, 이런 서비스가 개시되었다는 것, 그리고 VUI에 열정을 가진 사람이 그 방향타를 놓는 거에 거부감을 가질 수 없게 되었다는 것이 VUI 뿐만 아니라 디지털 서비스 모든 분야에 걸친 일반적 의미의 UI 전체 흐름과도 무관하지 않은 것 같아 주절주절 적어 보았다.

신고
Creative Commons License
Posted by Stan1ey
IBM에서 "앞으로 5년간 우리 생활을 바꿀 5가지 혁신"을 발표했다.


... 이런 걸 볼 때마다, UI 라는 건 (디자인도 그렇고) 그다지 세상을 바꾸지 않는구나~ 라는 생각이 우선 드는 건 사실이지만, 그래도 간접적으로나마 관련있는 주제가 있다는 건 주목해둬야 할 것 같다.

이미 Don Norman은 <The Design of Future Things>에서 자동운전 auto cruise control 차량의 UI 문제를 자주 언급하고 있는데, 사실 자동차는 여러가지 측면에서 Intelligent UI의 선진사례가 되어줄 것이다.

Intelligent UI의 상용화를 연구하다보면, 우리가 주변에서 사용하고 있는 물건들 - 그 중에 어떤 것은 사용자의 생명을 책임지고 있음에도 불구하고 - 이 얼마나 값싼 마이크로 칩을 이용한 단순한 알고리듬으로 운용되고 있는지를 알게 된다. PC에서는 당연하게 여겨지는 몇가지 계산만 더하려고 하더라도, 당장 제조 담당자로부터 그건 현재의 스펙에서 불가능합니다~라는 소리를 듣게 되는 것이다. 이런 문제는 소프트웨어의 문제(아직 개발이 안 되었고, 개발에는 시간과 돈이 필요하다는)일 수도 있지만, 많은 경우 하드웨어의 문제(극히 제한된 계산만 가능한 경우)여서 애초에 해결이 불가능하다. 이를테면 2년전쯤만 하더라도 대부분의 휴대폰에서는 Flash와 같은 vector graphic을 사용하는 것이 불가능했고, 대부분의 TV set에서는 반투명을 처리하는 것이 불가능했다. 일부 선진적인 제품을 만드는 회사에서는 이러한 것들이 가능한 (상대적으로) 비싼 소자를 넣은 제품을 만들어 멋진 GUI를 선보일 수 있었지만, 후발주자의 입장에서는 그보다 값싼 소자를 써서 단가경쟁력을 높이는 데에 주력했던 것이다.

LG-KP8400 Healthcare Phone 당뇨폰
Intelligent UI (귀찮네. 이하 IUI) 상용화의 또 다른 문제라면, 역시 기술적으로는 가능하지만 그 기술이 적용된 모습이 사용자의 인내를 벗어나는 경우에 있다. 이를테면 L모사에서 나왔던 일명 '당뇨폰'의 경우, 사용자의 피를 적신 -_- 시험지를 휴대폰에 꼽으면 혈당량이 체크되어 나오는 제품이었는데, 주기적인 혈당량 체크의 중요성과 그것을 항상 들고다니는 휴대폰에서 할 수 있다는 편의성, 그리고 의료 서비스와 바로 커뮤니케이션할 수 있다는 훌륭한 장점에도 불구하고 그 커다란 배터리팩과 측정장치는 구매를 거부하기에 충분했던 것이다.


그런데, 자동차는 휴대폰이나 TV보다 일단 비싸고 크기 때문에, 실무자 입장에서는 위에서 말한 IUI의 상용화 장벽을 비교적 쉽게 뛰어넘을 수 있는 기회가 된다.

물론 자동차의 경우에도 IUI를 적용하려면 어느 정도의 단가 상승과 외형에의 영향을 피할 수 없다. 하지만 자동차 시장은 고급제품 시장의 비중이 크게 형성되어 있기 때문에 "워낙 비싸고 큰 물건"으로 인식하고 있는 구매자 층도 그만큼 두껍다. 카오디오와 같이 온갖 옵션에 넣어두면 제조자의 입장에서도 부담이 적다. (사용자가 원하면 넣고, 사용자가 원치 않으면 안 넣으면 되니까) 게다가 특히, 자동차를 사는 사람은 이 시대에 거의 유일하게, 기술이 갖는 가치를 과대평가하는 사람들이다. 이제 PC도 TV도 심지어 휴대폰도 그만그만한 기술력으로 감성가치를 중시하는 마당에, 자동차를 구매할 때에는 거기 적용된 기술들이 자신을 위해서 뭔가 해주리라는 것을 - 그리고 그렇게 산 더 비싼 차가 자신의 더 높은 지위를 대변해 주리라는 것을 - 믿어 의심치 않는 것이다. (물론 자동차 디자인의 스타일이 구매에 미치는 영향을 폄하하려는 게 아니라, 단지 기술이 여전히 크게 영향을 미치고 있다는 얘기다.)

미국 시장을 필두로 자동차에 들어간 자동운전이나 자동주차 시스템의 상용화 소식이 속속 들어오고 있는 요즘, IBM에서 발표한 향후 5년간의 운전 혁명은 IUI.. 혹은 그걸 만들어야 할 HTI 디자이너의 관점에서는 가장 관심을 가져야 할 주제라고 생각한다.


P.S.
사실 위의 IUI와 자동차의 이야기는, UI를 하다가 작년초쯤 자동차 업체에 네비게이션 UI를 하러 (아마도) 들어갔던 한 후배에게 들려준 이야기였다. 그때만 해도 모 회사에서 사람을 뽑고 있기도 해서 관심을 갖고 있었는데, 이제 그런 이야기가 소강상태인 걸로 봐서는 곧 가시적인 효과가 나올 차례인 듯 하다. 모쪼록 우리나라의 자동차 회사에서도 외국 따라하기가 아닌 새로운 IUI를 탑재한 자동차를 출시해 줬으면 좋겠다. 이를테면 오피러스에 탑재된 전방카메라처럼... 이거 넣은 사람에게는 정말 마음 깊이 박수를 보내고 싶다!!! 완벽하진 않아도 훌륭한 IUI의 독자적 적용사례 아닌가 말이다.
기아자동차 오피러스의 펜더 (빨간 네모 부분이 전방 카메라)
전방 카메라 클로즈업
전방 좌우의 모습을 볼 수 있다.



신고
Creative Commons License
Posted by Stan1ey

사실 이런 문제를 고민해야 한다는 것 자체가 문제이긴 하지만, UI라는 개념.. 혹은 업종이 세간의 관심을 받게 되면서 어쩔 수 없는 일이지 싶기도 하다. 사실 무슨 UI로 조작하느냐가 아니라 어떤 유용한 기능을 어떤 이해하기 쉬운 구성과 간단한 방법으로 사용할 수 있게 하느냐가 UI design의 처음이자 끝일텐데, 요즘 들어오는 질문들은 항상 "앞으로 무슨 UI가 뜰 것 같아요?" 라는 거다. (사실 딱 세 번 정도였던가... -_-;; )

어쨌든.

그런 질문에 대한 의견은 이전의 글에서 말한 것과 같지만, Apple iPhone 이래로 달라진 것이 있다면 "혹시 Touch UI 일까요?" 라는 자문자답이 따라붙는다는 거다. iPhone 이전에도 터치방식이 없었던 것이 아니고, 아니 GUI가 시작되었을 때에 이미 Light Pen이 있었으니 터치는 HCI의 시작과 함께 시작되었다고 봐도 될꺼다. 이제와서 굳이 새로운(?) 총아로 주목받는 이유는 역시 이제까지 모호하게 정리되지 않고 있던 Touch UI 의 모범적이고 완성도있는 UI 사례를 Apple이 보여줬기 때문일 것이다. 실제로 Apple의 iPhone Human Interface Guideline을 보면 비록 하나의 제품에 올린 제한된 기능에 대한 것이라고는 해도 참 여러가지를 고민한 끝에 지르는 "야!야!야~! 터치는 이렇게 쓰는 거야!"라는 호통이 페이지마다 들린다.


사실 터치가 소위 "Next UI"의 주인공이 되리라는 것은 현재 상황에서 그저 당연해 보인다. 마치 유명한 디자이너가 "올 겨울 유행은 블랙입니다!" 하면 - 사실은 그 소리를 들은 다른 자신없는 누군가들이 그 말을 "블랙이랍니다. 그래서~" 하고 인용했기 때문일지라도 - 그 예측이 맞아떨어지듯이, Apple이 내놓은 일련의 Touch UI 제품들(iPod의 Click Wheel 과 iPhone의 Mutli-touch)의 몇년에 걸친 성공을 보면서 다른 제조사들은 홀린 듯이 Touch UI 관련 기획과 제품을 내놓고 있다.

디자인 계의 유행색 예감 -_- 과 작금의 Touch UI 유행의 차이점이 있다면, 정작 Apple은 차세대 UI가 Touch라는 소리를 한 적이 없다는 것이다. 우리가 보고 있는 것은 기계적인 Wheel에서 시행착오를 거쳐 적용된 터치 방식의 휠이고, 큰 화면의 모바일 기기에서 당연히 들어가야 할 터치기술이 각각의 기능에 맞게 잘 조정된 사례들일 뿐이지, 무슨 차세대 UI의 계시 같은 게 아니다.


무엇보다, 터치 관련 기술은 몇가지 장단점과 한계가 있을 수 있다. 우선 화면 상에서 터치를 인식하는 (터치인식의 범위를 화면으로 한정하는 건 뭐... 나름의 이유가 있다 -_- ) 기술은 흔히 알려진 감압식(感壓式; = 저항식 resistive)과 정전기식(= 정전용략방식 capacity) 방식 외에도 몇가지가 더 있다. 하나씩 UI... HTI 측면에서 장단점을 보자면 다음과 같다. (아래 목록은 Wikipedia의 도움을 받았지만, 구성은 내가 맘대로 - 즉, 어깨너머로라도 경험한 만큼만 - 바꿨다)


1. 감압식
살짝 떨어져 있는 2개의 얇은 막이 눌려 서로 닿은 점의 좌표를 X축과 Y축을 나타내는 두 저항값의 변화로 알아내는 방식이다. 물리적으로 동작하는 것인만큼 내구성 문제가 있고, 막이 2개에 중간에 공기층(혹은 기름층)까지 있다보니 원래의 화면 밝기보다 많이 어두워진다. 무엇보다 저항값 2개만 사용하므로 원칙적으로 멀티터치란 있을 수 없고(교묘하게 dual touch를 구현한 사례가 있기는 하다), 어딘가의 부품에 문제가 생기면 저항값이 어그러져 다시 calibration (주로 화면 네 귀퉁이를 찍어서) 해야 하는 경우가 생긴다.

하지만, 이 방식은 손가락이 아닌 다른 물건으로도 어쨋든 화면에 압력을 가하면 되기에 거친 사용환경에 적합한 방식이고 값도 싸므로 버리기 힘든 방식이다. 장갑을 끼던 플라스틱 막대기("stylus")를 쓰던 사용할 수 있다는 건 어떤 사용상황이든 큰 장점이 된다.


2. 정전기식
거의 안 보이는 전선들을 가로와 세로로 (서로 다른 층에) 깔아놓고 있으면 항상 정전기를 내뿜고 있는 인간의 몸이 닿았을 때 그 전기의 흐름을 감지할 수 있다. 이 경우엔 정확히 어떤 좌표에 전기가 흐르는 지를 알 수 있기 때문에 멀티터치가 가능하지만, 그것보다 그냥 감압식처럼 X, Y 좌표로 받는 게 더 싸기 때문에 그동안은 그냥 일반적인 방식으로 사용되어 왔다. 인간의 몸이나, 저항이 약한 도체로 만든 Stylus 펜은 인식될 수 있다.

하지만 역시 손가락으로만 쓸 수 있다는 건 대부분 약점으로 작용하고, 오동작을 막기 위해서 손가락이 닿았다고 생각되는 정전용량의 범위를 정해놓았기 때문에 특수한(?) 상황 - 이를테면 손이 유난히 건조한 날이라든가, 손이 젖어있다거나, 물방울 같은 것이 화면에 떨어져 있다든가 하는 - 에서는 인식이 잘 되지 않을 수 있다. 무엇보다 멀티터치를 지원하려면 좀더 여러 신호를 동시에 처리할 수 있는 비싼 칩을 써야 한다. Apple iPhone과 iPod Touch가 바로 이 방식을 사용했다. -_-
iPhone에 사용된 정전기 감지 방식의 터치 스크린

... 여기까지는 뭐 대충들 알려진 사실이다.
하지만, 앞으로의 Touch UI는 조금 다른 방식을 채택할 가능성이 있다.


3. 카메라식
영상인식을 공부하다가 HCI 분야에 관심을 보인 연구기관들이 많이 쓰는 이 방식은, 카메라에 비친 손가락과 화면의 접점을 인공지능적으로 분석하여 (즉, 그때그때 적당히 민감도를 조정해서) 찾아낸다. 사실 '카메라식'이라는 듣도보도 못한 이름으로 뭉뚱그려 버리기엔 다양한 방식이 있지만, 이 방식에는 공통적인 구조적인 단점이 있기 때문에 HTI 관점에선 그냥 묶는 게 편한 것 같다. 그것은 바로 카메라를 사용하기 때문에, 화면을 인식하려면 화면을 볼 수 있을 만큼 카메라가 멀찍이 떨어져 있어야 한다는 것이다. 요컨대 요즘 유행하는 얇은, 화면 뿐인 모바일 장치에는 이 방식이 사용될 수가 없다.

이 방식은 원래 천정에 매달려있는 프로젝터로부터 정보를 받고, 영상인식이 가능한 마커를 이용해서 그 옆에 매달려있는 카메라를 통해 신호를 보내는 식이었던 Augmented Reality (AR; 증강현실) 연구의 일환으로 시작되었기 때문에, 테이블이나 벽면에서 이루어지는 종류의 사용상황을 위해서 만들었을 뿐 소형화를 염두에 둔 것이 아니었다. (여담이지만, 이 I/O Bulb라는 컨셉은 한동안 나한테도 많은 고민꺼리를 안겨줬고, 이제 상용화 사례가 나타나고 있는 지금도 '아직 뭔가'가 더 있을 것 같아서 고민하고 있는 중이다.)

초창기의 물체인식에 손가락 인식으로 관심분야를 바꾼 사람들은, 천정에 적외선 조명을 달고 스크린 아래에 카메라를 달아 손 그림자의 뽀족한 부분(아마도 손가락)을 인식하기도 했고(이 방법으로 터치는 인식이 거의 불가능하다), 적외선 조명을 스크린 아래에 카메라와 같이 두어 반사된 적외선 빛을 인식하려고 하기도 했다(스크린도 많은 적외선을 반사하므로 설계에 따라 인식이 불가능한 부분이 있다).

Frustrated Total Internal Reflection - FTIR
그래서 나온 것이 투명체의 전반사(FTIR: Frustrated Total Internal Reflection)를 이용한 방법이다. 이 방식은 스크린에 유리판 등을 이용하고 특정 임계각도 이하로 - 즉, 유리판 단면에서 - 적외선을 넣어 그 빛이 유리판 안을 마구 튕겨 돌아다니게 하는고, 손가락 등이 거기에 밀착되었을 때 임계치가 바뀌어 그 접촉면에서 난반사되는 현상을 이용한 것이다. 훌륭한 기술의 조합이고, 이 방식은 요새 유명한 Jefferson Han의 데모Microsoft Surface Computing에 적용되어 소위 '멀티터치 대세론'를 만들어 냈다. 그렇다고 카메라식 터치인식의 단점이 어디로 사라진 것은 아니어서, 여전히 설치를 위해서는 공간이 필요하지만.
Microsoft Surface Computing
(그것도 아주 큰 공간이. -_-;; )  이 방식의 경우에는, 그 밖에도 스크린 접촉한 모든 다른 물체는 물론 남겨진 손가락 자국, 엎질러진 음료수(커피가 가장 좋을 듯)까지 죄다 인식하게 되는 문제가 있다. 물론 영상인식 모듈에서 이런저런 제한조건을 걸어 몇가지 경우를 제외할 수도 있겠지만, 그럼 인식률도 덩달아 떨어지기 때문에 사실 쉬운 일은 아니다. 또한 적외선을 인식하는 방식은 그 종류를 막론하고 외부 태양광 아래에서 사용하는 게 거의 불가능하다. 방대한 파장의 빛을 쏟아내는 태양 아래에서는 모든 종류의 광학센서가 하얗게 날아가 버리기 때문이다.

사용자 삽입 이미지
아마 FTIR 현상을 이용한 카메라식 터치인식의 극단적인 오용 사례를 보여주는 것이 오른쪽 사진이 아닐까 싶어서 불펌해왔다. 저렇게 코로 터치를 해도 당연히 인식되지만, 남겨진 개기름을 닦아내지 않으면 오작동의 여지가 있겠다. -_-;;;
(출처: 여기)

카메라식의 보완적 대안으로 자주 등장하는 것이 LPD(light position detector)라는 카메라도 아니고 빛센서도 아닌 소자를 쓰는 건데, 이 경우에도 가격이 싸다든가 프로세싱이 간편하다는 것 외에는 카메라식의 장단점을 그대로 가지고 있다. LPD를 이용해서 터치를 감지하는 사례로는 한동안 유행했던 소위 '레이저 키보드'라는 게 있으나, 이는 동적인 화면을 터치하는 방식이 아니니 자세한 언급은 하지 않기로 한다.


4. 광학센서 방식
Apple Patent - Integrated Sensing Display
애플이 2004년 7월 출원한 특허 <Integrated Sensing Display>가 공개되었을 때에 처음 든 생각은 '참 별 허무맹랑한 아이디어를 다 특허화하는구나'하는 거 였다. 카메라를 겸하는 스크린이라니, 안 그래도 따닥따닥 붙이기 힘든 픽셀 사이에 센서라니! 하고 말이다. 하지만 이후 이런저런 -_- 기술을 공부하게 되면서 LCD 화면이 불투명하지 않다든가, 적외선이 화면을 통과한다든가 하는 것을 알게 되면서 저걸 미리 '반보 빨리' 특허로 낸 연구자들이 참 존경스러워 보이기까지 한다.

사용자 삽입 이미지
이미 일본 업체에서 시험생산을 마친 이 방식은, 화면 뒤에서 적외선 빛을 뿌리고 거기에 반사된 손가락을 인식하거나, 직접 화면에 표시된 빛으로부터의 반사광을 인식하는 방식이다. 전자의 경우 별도의 전력(적외선 광원을 위한)이 필요하다는 단점이 있으나, 후자의 경우에는 화면에 표시되는 내용에 따라 인식률이 들쑥날쑥할 뿐더러, 외부 조명환경의 변화에 따라 영향(기술적 대안이 없는 건 아니지만)을 많이 받기 때문에 적외선 광원을 포함한 방식이 좀더 각광을 받는 듯 하다.



동영상을 배포한 Microsoft 사의 연구원들도 이런 직접적인 멀티터치 스크린의 가능성에 대해서는 충분히 고민하고 있는 것 같다. 적어도 카메라식보다는 상용화에 훨씬 근접한 모습임은 분명하지만, 적외선을 쓰는 한 태양광 아래에서의 인식불가문제 - 어차피 화면을 읽지도 못하겠지만 - 를 해결하지 않는 한 상용화를 위해 해결해야 하는 문제는 남아있는 셈이다.


5. 광선차단 방식
화면표시장치의 앞이나 뒤에서 터치를 인식하는 게 아니라, 화면에 적외선 빔을 상하좌우로 뿌리고 그것이 차단되는 것으로 터치를 인식하는 방식이다. 이 방식은 이전에도 몇가지 연구수준의 시험적용이 있었던 것 같지만, 현재 쉽게(?) 사용해 볼 수 있는 방법은 유럽에서만 팔리고 있는 Neonode사의 휴대폰을 구입하는 것이다.



스웨덴 회사인 Neonode가 보유하고 있는 이 특허기술은 산란하는 적외선 빔을 적당한 순서로 켜고 끔으로써 정확한 접촉점을 찾기 위한 몇가지 방법을 포함하고 있다. 특히 위 동영상에서도 볼 수 있듯이, 어느 특정 접촉점을 인식하기보다 가로세로의 움직임(stroke)을 인식하는 방식을 사용하기 때문에 대부분의 경우 인식률이 떨어지더라도 문제 없이 사용할 수 있는 UI가 채용되어 있다.
Neonode N2 - Touch Schematics

적외선을 사용하는 방식임에도 불구하고, Neonode사의 휴대폰은 태양광 아래에서도 별로 영향을 받지 않는다. 이는 적외선 LED와 센서가 화면의 옆에 가려져 있고, 프리즘과 렌즈(역할을 하는 플라스틱 조각)로 그 유효한 각도가 제한되도록 잘 설계되어 있기 때문이다.

Neonode N2
하지만 같은 이유로, 이 방식은 화면이 제품의 표면에 있을 수 없고, 약간 함몰된 외형을 가지게 된다. 오른쪽 사진에서처럼 눈에 띄게 들어가 있는 것은 초기의 모델(N2)이고, 이후에는 좀더 정도는 줄어들겠지만, 여전히 요즘의 제품디자인 트렌드는 역행하는 모습이고, 마치 공업용 제품의 모습을 갖게 되는 건 어쩔 수 없는 태생적 한계인 듯 한다.


Sensing example of FingerWorks technology (from patent)
6. 전기장 왜곡 감지 방식
개인적으로 나에게는 큰 관심을 끌었으나 그다지 성공하지 못한 비운의 터치 기술로, 지금은 애플에 인수된 FingerWorks사의 방식을 꼽을 수 있겠다. 기술에 대한 정확한 내용은 나의 이해범위를 크게 벗어나지만, 어쨋든 특정 표면위의 공간에 균등하게 전기장을 조성하고, 그 공간 안에 들어온 유전체(=손)에 의해서 전기장에 왜곡이 일어났을 때 그 정도를 감지해서, 그 물체의 모양을 알아내는 방식이라고 대략 이해할 수 있겠다.
사용자 삽입 이미지
사용자 삽입 이미지
이 방식은 물체의 모양을 나타내는 위와 같은 신호를 영상인식과 같은 방식을 이용해서 분석함으로써,접촉면 뿐만 아니라 어느 정도 표면으로부터 떨어져 있는 영역에 대해서도 인식을 가능하게 한다. 접촉된 점(들)이 아닌 손의 움직임 자체를 인식할 수 있게 해준다는 데에 다른 '터치'기술과 뚜렷한 특장점을 갖는다. 즉 심지어 어느 쪽 손의 어느 손가락으로부터 어떤 각도로 (수직으로, 혹은 기울여서) 닿았느냐를 판단할 수 있기 때문에 손 동작(hand gesture) 자체를 인식하여 명령을 내릴 수 있게 되는 것이다.

iGesture Pad from FingerWorks
FingerWork사는 이 방식을 이용한 몇가지 제품을 출시했으며, 무엇보다 multi-touch와 hand gesture를 이용한 다양한 UI 조작방법에 대한 훌륭한 사례를 만들어 주었다. 이 회사가 다름아닌 애플에 인수되고, 이후에 애플에서 iPhone 등 멀티터치 UI를 적용한 제품이 나오기 시작한 것은, 내 생각에는 FingerWorks가 가지고 있는 기술을 바로 제품에 적용하려고 한 것이 아니라, 멀티터치라는 새로운 UI 방식에 대한 그들의 노우하우를 높이 산 게 아니었을까 생각한다.

전기장 왜곡 감지 방식은 다른 제품에 비해 강한 전기장을 방출하는 것 같기는 하지만, 적어도 미국 내에서 판매가 허락되는 수준인 것 같으니 괜한 걱정인지도 모르겠다. 그 밖에 이 방식은 단점이라면, 역시 화면과 함께 사용하지 못한다는 점이 되겠다. 전기장의 미세한 변화를 감지할 수 있는 투명한 소자를 만들어낼 수 있는 기술이 나오지 않는 한, 이 방식은 화면이 아닌 곳에서 여러가지 입력을 대체하기 위한 수단으로만 고려해야 할 것이다. (그 외에도 사용설명서를 보면 물이나 다른 유전체가 제품 위에 올라가 있으면 오동작할 수 있다고 한다.)


터치를 인식하기 위한 방법에는 이외에도 여러가지 재미있는 방법이 있다.

7. 무게감지 방식
특정 표면의 모서리에 무게센서(=압력센서)를 3~4개 설치하고, 사용자가 누르는 압력에 의해 해당 표면이 기울어지면 그 압력변화를 인식해서 원래의 압력이 가해진 점을 찾는 방법이다. 이 방식은 다소 엉뚱하게도 Nintendo사의 Wii Fit 이라는 게임조작기에도 채용되었는데, 사실은 방수/방진 설계가 필요하고 온갖 금속성 도구와 장갑 낀 손으로 사용할 수 있어야 하는 공업용 장비에 적용되는 것이 적합하다.

압력감지 방식은 본질적으로 압력에 대한 것이므로 어느 정도 아날로그 값을 이용한 UI 설계가 가능하다는 점에서 매력적인 입력방식이다. 하지만 사용자와 상황에 따라 입력되는 압력값이 다르기 때문에, 이 방식은 사실 방향성만을 줄 뿐 정확한 좌표값을 제시하지 못한다. 즉, 상하좌우 화살표 정도는 입력할 수 있어도 간단한 3x4 숫자패드 조차도 구현하기 어렵다.


8. 열감지 방식
사용자 삽입 이미지
이전의 포스팅에서도 잠시 언급했지만, B&O의 Beocenter 2의 touch wheel 방식 음량 조절 장치는 일련의 열감지 센서를 배치하여 사용자의 손가락을 인식한다. (감히 해보지는 못했지만, 뜨거운 인두나 라이터 불꽃도 똑같이 인식할 것이다. -_-; ) 이 희한한 터치 감지 방식은 B&O 제품의 트레이드 마크라고 할 수 있는 멋지게 마감처리된 금속표면에 터치를 넣기 위해 고심한 결과이다. 금속판이므로 압력감지(1,7)가 불가능하고, 금속 자체가 도체이므로 정전기식(2) 혹은 전기장을 이용한 방식(6)을 사용할 수는 없다. 물론 금속이 빛을 통과(4)시키지도 않을 뿐더러, 디자인을 해치는 방식(5)이나 애당초 소형제품에 적용할 수 없는 방식(3)을 채용할 수도 없었을 것이다.

열감지 방식 자체는 반응속도가 느리며, 기온과 체온에 영향을 많이 받고, 표면재료의 물리적 특성에 따라 적용이 불가능해 지는 등 문제가 많은 방식이지만, 이 경우에는 컨셉이 분명한 고급 제품이기에 가능한 사례였다고 생각한다.


9. 소리감지 방식
또다른 재미있는 방식은 손가락이나 다른 물체가 인식해야 할 표면에 닿았을 때의 울림(흔들림 혹은 소리)을 감지하는 것이다. 마이크나 다른 진동센서를 2~3개 부착하고, 특히 튀는 갑작스런 울림이 감지되었을 때 그 미묘한 시간차이를 이용해서 삼각측량을 하면 울림의 위치를 알 수 있게 된다. (지진의 진원지를 알아내는 것과 동일한 방법이다.)

이 방식은 진동의 매질이 균등해야 하는 등 몇가지 기술적 제한점이 있으며, 방수가 가능하지만 의도적인 입력과 그렇지 않은 접촉을 구분하지 못하고, 무엇보다 경우에 따라 다른 위치에서의 입력이 같은 입력값이 되어 구분할 수 없는 경우도 있으므로 설계 단계에서부터 조작범위를 잘 정의해야 한다. 하지만 이 방식의 가장 큰 단점은 역시 접촉과 Drag만이 인식될 뿐 손가락을 대고 있는다든가(hold/dwell), 손가락이 떨어지는 것(keyUp)은 인식하지 못한다는 것이다. 울림이라는 간접적인 방법을 사용하기에 어쩔 수 없는 한계라고 생각한다.



(추가됨)
여기까지 주절주절 터치 기술을 나열했지만, 솔직히 각 기술이 가지고 있는 장단점과 차이점 중에서 UI 디자이너(UX? HTI?)가 신경써야 할 부분은 많지 않다. 어쨋든 화면에 손가락 대면 입력이 들어온다... 정도면 충분하니까. 유행하는 멀티터치 multi-touch UI를 적용할 수 있는가에 대한 것도 간단히 정리하자면 다음과 같다.

우선, 아래 방식들은 멀티터치를 적용하지 못한다. 일부 언급됐지만, 각각 다른 기술을 써서 2점 터치 dual touch 를 구현하는 건 가능할 수 있으나, 다른 입력과의 혼동 가능성이 높으므로 실용적이지 않다.
    1. 감압식
    7. 무게감지 방식
    9. 소리감지 방식

나머지 아래 방식들은 멀티터치가 가능하나, 일부는 해상도가 너무 낮으므로 접촉한 2개의 손가락이 너무 가까울 경우에는 신호를 파악하지 못할 수 있다.(예: 5, 8)
    2. 정전기식
    3. 카메라식
    4. 광학센서 방식
    5. 광선차단 방식
    6. 전기장 왜곡 감지 방식
    8. 열감지 방식


또한 정전기식(2), 전기장 왜곡 감지 방식(6), 열감지 방식(8)의 경우 손가락으로만 입력이 가능하며, 장갑을 끼거나 하면 인식률이 현저하게 떨어진다. 입력이 가능한 특수한 스타일러스가 있기는 하지만, 역시 그 스타일러스로만 입력이 가능하다는 얘기이므로 제한이 있기는 마찬가지.

나머지 방식들은 뭘로 누르던 입력이 가능하다.


이 많은 터치입력 기술이 있는 와중에, 그럼 차세대 UI의 명맥을 잇는 것은 역시 모든 사람이 입을 모으는 멀티터치 multi-touch UI일까? 거기에 대해선 조금 다른 관점에서 한번 써 보겠다.

신고
Creative Commons License
Posted by Stan1ey

제목의 'TTT' 라는 문구는 MIT Media Lab.의 유명한 (아마도 가장 유명한) 연구 컨소시엄의 이름이다. 웹사이트를 찾아보면 이 프로젝트는 1995년에 시작되었으며, "디지털로 인해서 기능이 강화된 물건과 환경을 만드는" 데에 그 목적을 두고 있다.

Hiroshi Ishii (Tangible Media Group), Roz Picard (Affective Computing Group) 등 UI 하는 입장에서 유난히 관심이 가는 교수들이 director를 하고 있고, 그 외에도 내가 이름을 알 법한 MIT의 교수들은 모두 참여하고 있는 것 같다. (내가 이름을 알 정도라는 것은, 그만큼 UI design에 가깝거나, 아니면 대외활동에 열을 올리고 있는 교수라는 뜻이니.. 각각 어느 쪽으로 해석할지는 각자 알아서 -_-;; )


어쨋든, (아슬아슬하게 삼천포를 피했다..고 생각한다)

며칠 전에 올라온 한 일간지의 기사에서, 이 TTT consortium을 연상하게 하는 내용을 발견할 수 있었다. "눈치 빨라진 디지털" 이라는 제하의 이 기사에서는 최근 발매된 몇가지 제품들을 대상으로 그 '자동화' 기능을 언급하고 있다.

Intelligent_Appliance_Chosun071119.pdf

눈치 빨라진 디지털 (조선일보 2007.11.19)


제품의 기능에 '인공지능 AI', '똑똑한 smart' 등의 표현을 사용한 것은 거의 디지털 정보처리 칩셋 - 한때 모든 제품의 광고문구에 첨단의 의미로 쓰였던 "마이컴"을 기억하는가 - 이 적용된 바로 그 시점부터라고 생각이 되지만, 이제야 비로서 눈에 띌 정도로 지능적인 기능들이 된 것일까. 여전히 '자동화'라는 용어를 적용한 것은 다소 섭섭하지만, 가까스로 꽃피기 시작한 Intelligent 제품, 그리고 당연히 따라붙어야 할 Intelligent UI에 대해서 예의주시할 필요가 있겠다.

스스로 지능을 갖고 판단하는 제품에 대해서, 어떻게 그 UI를... 이래라 저래라를 설계할 수 있을 것인가? 이제까지 몇가지 시도해 봤지만, 두마리 토끼 - AI의 이상과 UI의 현실이랄까 - 를 모두 잡아본 적이 없다. Screen-by-screen의 UI에서 벗어난... 새로운 UI의 개념과 (무엇보다도) 방법론의 재정립이 글자 그대로 '발등의 불'이라고 생각해야 한다.

신고
Creative Commons License
Posted by Stan1ey

퇴직기념(?)으로 팀원들이 준 선물이 iPod인 덕택에, 지난 며칠간 iTunes-iPod ecosystem을 벤치마킹 하느라고 푹 빠져 살았다. (iTunes가 먼저 나오는 것에 주의. ㅎㅎ ) 그러다가 문득 요약 transcript만 읽고 넘어갔던 빌 게이츠와 스티브 잡스의 대화가 생각 나서 전체 동영상을 Podcast로 받아서 들어봤다.

지난 5월말 있었던 이 대화는 - 비록 이발소 의자에 앉아서 진행되기는 했지만 ^^; - 참... 여러가지로 의미가 있다. MS와 Apple.. 아니 각각의 대표주자인 게이츠와 잡스의 증의 관계와 서로 다른 관점이 드디어 어느 정도 수렴되는 모습을 보인 자리이기도 했고, 그 UI에 대한 특허분쟁이 적어도 법적으로는 마무리된 상태에서 최초로 만나는 자리이기도 했고, 한편으로는 함께 일을 하던 두 사람의 한 사람(잡스)은 아직 현역 엔지니어의 모습으로, 한 사람(게이츠)는 CEO의 모습으로 이야기하는 모습은 IT 분야의 커리어라는 것에 대해서 다시 한번 생각하게 하는 장면이기도 했다.

하지만, 내가 transcrpt에서 가장 인상 깊게 읽은 부분은 28분쯤에 나오는 잡스 형님의 코멘트다.

"You know, what's really interesting is, if you look at the reason that the iPod exists and Apple's in that market place, It's because this really great Japanese consumer electronics company, who kinda owned the portable music market - invented it and owned it - couldn't do the appropriate software. Cause iPod is really just softwares; software in the iPod itself, software on the PC or Mac, and software in the cloud(=인터넷) for the store. And it's in the beautiful box, but it's software. If you look at what a Mac is; It's OS X. It's in the beautiful box, but it's OS X. And if you look at what an iPhone hopefully be; it's software. And, So, the big secret about Apple - of course, not so big secret maybe - is Apple views itself as software company."

그리고 사회자(Mossberg인 듯)가 "하지만 많은 고객들은 당신 회사가 소프트웨어와 하드웨어를 잘 조합시키는 것으로 인식하고 있다"라고 하자.

"Alan Kay had a great quote back 70s, I think, he said; 'People that loves software, wanna do their own hardware'."

... A. Kay의 이 인용구는 전의 글에서도 언급하기도 했지만, 이 맥락에서는 얼마나 자신감이 충만해 보이는지...

어쨋든 MS와 Apple을 비교하면서 나온 이야기이지만, 나름대로 "software in the beautiful box"라는 표현은 이후 많은 파장을 일으키고 있다. 뭐 우선은 그 자리에 있던 Apple의 hardware designer들이 '때려칠까..'라는 생각을 했을 것 같고, 많은 consumer electronics company들이 '그럼 어쩌지...'라는 고민을 시작했(어야 한)다.

이전 회사에서 배운 것 중에 "업(業)의 개념"을 올바로 정의하는 것이 중요하다는 게 있다. Xerox는 복사기 회사가 아니라 'Documentation 회사'로 스스로를 정의함으로써 광학적 문서보관 시스템이나 문서관리 솔루션을 제공하는 식으로 사업을 확장할 수 있었고, Sony도 가전기기 제조업체가 아니라 entertainment 업체로 재정의하면서 컨텐트(영화/음악) 분야로 큰 영향을 미치고 있다. (... 비록 두 회사가 모두 그 이후에 큰 빛을 못 보고 있다는 문제는 있지만 ㅠ.ㅠ ) "업의 개념"이라는 말의 유행은 상당히 오래전에 지나간 듯 하지만, 그런 유행과 상관없이 수십년 전부터 몸소 입증하고 있는 회사가 있다.

어쨋든, 이 대화(panel discussion?)를 듣다보니 오히려 MS는 hardware에 집착을 보이고, Apple은 software & service에 중심을 두고 있어 각각 그쪽으로 움직이지 않을까..싶은 생각이 든다. 이 분야의 다른 key player들은 각각 무엇을 중심으로 어떤 회사가 되어갈지 꽤 흥미진진하게 생각하고 있다.



P.S. 동영상에서 하나 더 재미있는 대목... 50분쯤. 사회자가 앞으로 구체적으로
       어떤 서비스를 제공할 꺼냐고 물어보았을 때, 굉장히 곤란해 하면서 말을
       돌린 농담 한마디다. (Apple 직원들이 하는 이야기인 듯 ㅎㅎ)
       "Isn't it funny it ships that leaks from the top?"

P.S. 1시간이 지나면, 잠시동안 UI의 미래에 대한 두 사람의 비슷하지만 다른
       코멘트(그야말로 동전의 양면)가 나온다. 그동안 일하면서 생각한거랑
       과히 다르진 않지만.

신고
Creative Commons License
Posted by Stan1ey

Voice UI의 Keystone

2007.10.20 18:17

기계를 '조작'하지 않고, 손짓이나 음성만으로 뭔가를 시킬 수 있다는 것은 분명히 매력적이다. 이건 아마 앞으로도 변하지 않을 것이다. 그런데 Voice UI를 제대로 적용한 제품을 만들기는 왜 이렇게 힘든 걸까?

Virtual Assistant에 대한 글을 하나 읽으면서, 인용되어 있는 촌티 풀풀 나는 Apple의 미래 시나리오 동영상(아래)을 보면서, Voice Ui에 중요한 것은 혹시 Voice가 아닌 게 아닌 걸까..라는 생각이 들었다.


(동영상 내용은 중요하지 않으니 따분하면 - 실제로 그렇다 - 넘어가자)

음성입력(인식)과 음성출력(합성)이라는 두가지 기술로 뭔가를 만든다고 하자. 확률적인 오류를 항상 내포한 이 불안불안한 기술들로 뭔가 견고한 구조를 만드는 것은,마치 약간씩 찌그러진 돌로 만들어지는 아치를 짓는 것과 같다. 하나하나의 돌은 구조물에 사용되기엔 뭔가 불안하지만, 그 순서와 강약을 조절하고, 특정한 방향에 맞게 잘 정렬해서 모은 다음에, 결정적으로 아치의 꼭대기에 keystone을 꼽으면 하나의 훌륭한 - 안정적인 - 구조물이 되는 것이다.

Keystone and Voice UI

앞에서 링크한 기사에서는 Ray  Kurzweil의 다음 인터뷰 기사를 인용하며 'Intelligence of Software'를 논하고 있는데, 어쩌면 virtual assistant 뿐만 아니라 voice ui 의 keystone도 결국은 기계의 지능이라는 AI 본연의 질문으로 회귀하는지 모르겠다.


 
쓸모있는 지능을 갖지 못하면, Voice UI 라는 분야 자체만으로는 큰 의미를 갖지 못한다는 것은 사실 쓸만한 기능이 없으면 UI 잘 해봐야 별 소용이 없다는 것과 비슷한 맥락으로 보인다. 구닥다리 시녀론 - "디자인은 마케팅의 시녀인가?"였던가 - 을 끄집어 내는 건 의미없어 보이고, 그냥 아직도 한참 기다려야 하겠구나.. 싶을 뿐이다.

물론, 이 와중에도 누군가는 주어진 조건과 기능과 환경에서 그럴듯한 Voice UI를 만들어내서 내 뒤통수를 치겠지만 말이지. ㅡ_ㅡ+

신고
Creative Commons License
Posted by Stan1ey

이 할아버지의 행보가 나는 불안불안하기만 하다. 심리학자로서 나름대로 경력을 쌓다가 난데없이 일상의 물건들에 대한 소고를 정리해서 책으로 내면서 (the psychology of everyday things) 딱이 이론이 없던 UI 업계에 영웅으로 등장하더니, 그 후로도 잇달아 UI 업계를 효용성(things that make us smart)에서 기술(invisible computer)로, 다시 감성(emotional design)으로 뒤흔드는 저서를 연달아 발표했다. 그 와중에 심리학계에서는 다른 사람의 연구를 껍데기만 인용해서 민중을 현혹시키는 이단아로 불리고 있었고...

심리학자에서 UI 컨설턴트로의 변화에서 예측할 수 있었어야 하겠지만, 최근 KAIST에서 있었던 이 할아버지의 발언 - "사용하기 쉽게 만든 냉장고가, 그래서 더 많이 팔리더냐" - 은 결코 잔잔하지 않은 파문이 되고 있다. 기업 경영과 실무 현장에서의 관점으로 쓰고 있다는 그 책(만화로 된)이 언제쯤 출판될지는 모르지만, 그동안 UI 컨설턴트로 여기저기 불려다니면서 볼꼴 못볼꼴 다 본 입장에서 조금 시니컬해질 때도 됐다고 본다.

진짜 UI는 철학일 뿐일까.

뭐 여기까진 전체 맥락과 상관없는 서두일 뿐이고, -_- 이 할아버지가 요새 재미있는 컬럼 2편을 <Interactions>에 연달아 발표했다.

UI Breakthrough Part 1. Command Line Interfaces (2007.5-6.)
http://www.jnd.org/dn.mss/ui_breakthroughcomma.html

Don Norman - UI Breakthrough 1 Command Line Interfaces.mht


UI Breakthrough Part 2. Physicality (2007.7-8.)
http://www.jnd.org/dn.mss/ui_breakthroughs2phy.html

Don Norman - UI Breakthrough 2 Physicality.mht


대충 성의없게 요약하자면, 다음으로 닥쳐올 UI 혁명은 오히려 기본으로 돌아가는 방향이 될 것이며, 그 첫번째는 예전 DOS와 같이 명령어를 직접 입력하는 방식이지만 검색 기술과 속도의 향상에 힘입어 훨씬 강력해진 형태가 될 것이며, 두번째는 물리적인 행위를 통해 제품을 조작하되 강화된 제품의 지능으로 세세한 조작은 제품이 알아서 하는 것을 뜻하는 것이다.

흠... 이 두가지가 차세대 UI Breakthrough라고? 몇가지는 알면서 이야기하지 않은 것 같고, 몇가지는 미처 생각하지 못한 것 같은... 그런 느낌의 글이다.


1. Command Line Interfaces

  • 이미 타이핑되는 입력 중 문자입력이 아닌 것을 잡아서 특정 명령을 수행하는 프로그램은 나와있다. (이미 컬럼에 쓴 후 Norman도 제보를 받은 듯)
  • 애당초 DOS 시절에 문법이 어려워 못 쓰던 것은 여전히 문제로 남아있는데, 자연어 처리보다 독특한 검색 문법을 강조한 이유는 뭘까?
  • 기왕 제한적인 문법이라면 Voice UI 좀 언급해 주시지... (굽신굽신)
  • 어쩌면 이게 pseudo natural language와 연결될지도 모르겠다.

2. Physicality

  • Tangible UI 구먼 -_-;
  • Physical Computing 이구먼... -_-;;;
  • Haptic/Tactile input/feedback에 대해서는 수많은 특장점과 제한점이 있는데, 어째 하나도 언급하지 않고 서문만 읊으시나...



뭐 결국 이 할아버지 또 점 하나 찍으시는구나... 하는 마음에 감히 샘나서 몇마디 섞어보지만, 결국 이 두 컬럼은 여기저기서 인용하게 될 것 같다.

쩝.

완전 닭 쫓던 개 신세네 그려.

신고
Creative Commons License
Posted by Stan1ey

3~4년 전쯤. IUI 관련 강연자료를 만들다가 'scalable artificial intelligence'라는 개념을 접한 적이 있다. 인공지능이라는 것이 꼭 영화에 나오는 그것처럼 인간과 같은 수준의 인지능력을 갖춰야 하는 게 아니라, 주어진 기능에 맞는 만큼만 똑똑하면 그것으로 충분히 상품성 있는 인공지능이 될 수 있다는 거 였다.

이를테면, 카메라의 경우 노출수준을 알려주던 아날로그 게이지(뷰 파인더 안에 보이던 가느다란 빨간 막대기를 기억하시는가)도 훌륭하게 그 역할을 했던 인공지능이고, 자동초점(auto-focus)과 자동노출(auto-expose)는 그보다 훨씬 훌륭한 인공지능이었고, 이제 얼굴인식(face detection) 기능이 그 뒤를 이을 성공한 인공지능으로 자리잡아 가고 있다..는 식이다. (그외에도 손떨림 방지 등 많은 사례가 있을꺼다. 음성인식 카메라처럼 실패사례도 있을테고)

그 자료를 만들 때까지만 하더라도 디카의 얼굴인식 기능을 설명하려면 꽤 오랫동안 설명하고 그 가능성에 대해서도 한참동안 설파를 해야 조금 가우뚱하는 정도 였는데, 어느새 그게 '대세'가 되고 있는 모양이다.

DCinside의 설문내용(2007.7.)

위 자료는 DCinside.com 에서 지난 7월 한달동안 진행한 설문결과이다. (클릭해서 크게 볼 것) 얼굴인식 분야를 어깨너머로 보아온 나로서도 이 설문결과는 참 뿌듯하다. 그 모든 -_- 역경을 딛고 얼굴인식을 카메라에 적용시킨 사람은 상을 좀 받아야 한다. 정말로.

... 그런데 내 주변엔 그런 사람[조직]이 없다. 아쉽다.

어쨋든. 그동안 영상인식 기반의 UI는 아주 단순한 수준(의 인공지능)으로만 적용이 되어서 현관 조명을 켠다든가 하는 역할만 해왔다. 이제 카메라에서의 성공(이르지만)을 바탕으로 신뢰도를 좀 얻고 더 많은 분야로 뻗어나갔으면 좋겠다.

아래는 위 설문조사에 대한 기사 내용과 사진

얼굴인식 카메라 제품시연회 현장..이란다. -_-
노컷뉴스 <얼짱 만드는 카메라가 짱>

신고
Creative Commons License
Posted by Stan1ey


거의 인공지능의 역사와 함께 시작된 인간과 컴퓨터의 체스 게임의 경우,
1950년에 관련된 첫 논문이 나온 이후 1997년 Deep Blue가 당대의 체스
챔피언을 이기는 데까지 반세기가 필요했습니다. 사실 그 체스 챔피언과
싸울 수 있는 수준까지 개발한 게 1989년이니 8년이 걸렸다고 할 수도 있고요.
(이후에 이 체스 챔피언은 컴퓨터와 이기고 지고 하는 게임을 종종 하고
있습니다. 그러니까 아직 어느 쪽도 완전히 이기거나 진 건 아니지요...)

뭐 어쨋든, 이번에는 컴퓨터가 이번엔 포커를 시작했다고 합니다.
이건 도박에 더 가까우니까 점점 못된 것만 배워간다 싶기는 합니다만,
다행히(?) 첫 번째 공식대결에서는 인간이 이긴 모양입니다. 첨부한 기사에
따르면, 처음에는 프로 포커선수가 지다가 인간 특유의 창조적인 측면을
발휘하여... 즉, 전문용어로 '뻥카'를 쳐서 컴퓨터를 이겼다고 하네요. ^^;

생각해보면, 체스와 포커는 플레이어의 의도가 드러나는 정도에 있어 커다란
차이가 있습니다. 특히 체스의 경우 수많은 계산을 통해서 각 수에 대한
선호 가능성을 산출할 수 있는 것에 비해서, 포커는 마지막의 마지막 순간에서야
드러나는 상대방의 의도 때문에 이제까지 컴퓨팅의 대상이 아니었을 많은 다른
변수들이 있죠. 이를테면 뻥카나... 운..같은.

컴퓨터가 이젠 그런 것까지 풀어보려고 애쓰는 걸까... 또다시 8년 혹은 그보다
짧은 기간 안에, 인간조차도 올바로 판단하지 못하는 무언가를 꼬집어내는
컴퓨터가 등장하게 되는 건 아닌지 살짝 기대반 걱정반 해봅니다.

신고
Creative Commons License
Posted by Stan1ey

BLOG main image
by Stan1ey

카테고리

분류 전체보기 (347)
HTI in General (45)
User eXperience (11)
Voice UI (50)
Vision UI (14)
Gesture UI (25)
Tangible UI (28)
Robot UI (14)
Public UI (9)
Virtuality & Fun (56)
Visual Language (15)
sCRAP (70)

글 보관함



www.flickr.com
This is a Flickr badge showing public photos and videos from Stan1ey. Make your own badge here.