며칠 전 TED의 Video Podcast를 보다가, 뒤에 첨부된 Nokia의 광고동영상을 보게 됐다. (TED 광고는 상업적인 느낌이 적어서, 끝까지 열심히 감상하곤 한다.)



광고라기 보다는 TED 강연 자체같은 내용이다. 요약하자면:

① 첫번째 화면: 영화관 (함께 감상하고 정보와 감정과 경험을 공유하는)
② 두번째 화면: 텔레비전 (세상을 연결하고 토론해도 결국 사적인)
③ 세번째 화면: 컴퓨터 (네트워크 혁명을 이뤘지만 개인적/가상적인)
④ 네번째 화면: 휴대단말 (실제 경험과 함께 원하는 연결이 가능한)

... 아, 한 줄씩 줄 맞춰서 (PPT에 길들여진 나쁜 습관이다, PC외의 브라우저에서는 의미도 없고) 정리하려니 좀 이상해졌다. 어쨌든.

마치 창세기처럼 "In the beginning, there was a screen." 이라는 문장으로 시작하질 않나, 화면 screeen 들을 그 자체 뿐만 아니라 그와 관련된 서비스/산업은 물론 그로 인해서 개인과 사회에 미친 영향까지 잘 뭉쳐서 핵심만 요약한 것이라든가, 특히 네번째 화면인 휴대폰 화면이 과거의 모든 좋은 점은 계승하고 문제점을 모두 해결한 해법이라고 제시하기까지의 논리는 매우 훌륭하다.

비록 휴대단말이 가져온 현실의 모습 - 지하철에서 모두 고개를 휴대폰 화면에 고개를 처박고 있는 모습이라든가 - 은 살짝 비껴나가고 있긴 하지만, 그래도 광고 하난 참 잘 만들었다 싶어서 공유해 본다.



아, 그리고 이것도 PPT에 길들여진 (혹은, 임원 상대의 발표에 길들여진) 나쁜 습관인데...

그럼, 다섯번째 화면은 뭘까? Microsoft가 지난 CHI 2008에서 배포하기도 했던 <BEING HUMAN: HCI in the year 2020> 이라는 연구보고서에 따르면, 아마도 그 연구에 참여한 많은 유명 연구자들은 ubiquitous computing의 화면 - 어디에서나 화면이 튀어나오는 - 이라고 생각하는 듯 하다.
Four Computing Era - by Microsoft Research <Being Human: HCI in the year 2020>

굳이 ubiquitous까지 한 화면이 굳이 저렇게 네모반듯해야 하는 이유는 잘 모르겠지만, 어쨌든 확실히 가능한 방향이겠다. 보고서 내용을 보면 결국 제목이 "being human"인 이유는 "모든 것은 인간 중심으로 연구해야" 하고, "사회 전반적인 관심과 참여를 유도해야" 하기 때문인 것 같은데... 그래서야 HCI나 UI가 맨 처음 시작했던 때의 주장과 달라지는 것이 없다는 생각이... OTL... (게다가 이 책은 맨 뒤에는 부록으로, "What is HCI?" 라는 챕터가 있기까지 하다!?!#$%^#)



... 그나저나, 이것도 역시 길들여진 인간의 고백이지만, 서양 사람들은 저렇게들 4단계로 나누어도 마음 한구석이 불편하지 않나? 보통은 3개나 5개가 좋은데...

그냥 동영상 하나 올리려다가 이것저것 생각 나는 걸 적다보니 또 하나 가비지가 되어 버렸다. 아놔. 바빠서 정리할 짬은 없으니 이대로 공개.

도대체 이 글의 주제는 뭐냣!!!
신고
Posted by Stan1ey
P.S. 제목에서 "Save the Cheerleader, Save the World"를 패러디해보려고 했는데, 초큼 실패한 것 같다. orz... ㅋㅋ

시작부터 삼천포지만, 오늘 아침에 본 기사는 UI 디자인을 하고 있다고 남들이 생각하고 있는 월급쟁이의 입장에서 희망을 품게 해주는 내용이다. Sidekick과 Helio의 UI를 만든 Matias Duarte가 차세대 Palm OS의 UI 디자인을 한다는 소식이다.
Sidekick 3 from Danger & T-Mobile
Sidekick이라는 제품을 처음 접한 것은 그게 출시되기도 전의 일이다. (아마 2005년쯤이었던 듯? 잘 기억이 안 난다 -_- ) Apple에서 iPod의 click wheel 을 구현했던 사람을 불러서 세미나를 하고 있는데, 그 사람이 "요새 하는 일"이라면 꺼낸 게 Danger라는 회사(제조사)의 "Hiptop"이라는 시제품이었다. 아직 일부 기능이 동작하지 않았지만, 그래도 충분히 매력적인 기기여서 그 시기에 이미 full browsing을 지원하고 있었고, 이메일이나 메신저 등과 휴대폰의 기본기능(주소록, 전화 송수신 등)의 연계가 잘 정리되어 있어서 무척 탐이 났던 기계였다.

이 기계가 잊을만한 시점에 회사가 T-Mobile에 팔리더니, 이름을 바꿔 나온 게 Sidekick이다. (일의 순서가 내가 기억하고 있는 것과 다르지만 -_- 어쨌든 그렇다.) Sidekick은 1-2-3 버전에 이어 색상을 적용한 모델이나 고급형 모델 등등이 나왔고, 슬라이드 형태의 휴대폰으로도 나온 모양이지만, 처음에 본 독특한 OS(정확하게는 Shell이지만)는 아직도 거의 동일한 형태의 UI를 사용하고 있는 것 같다.

좋은 기능과 잘 정리된 UI과 깔끔한 스타일을 갖췄지만, 그다지 주목받지 못했던 비운의 line-up이랄까. 개인적인 생각으로는 만일 Danger사가 Steve Jobs같은(능력은 물론이고 명성까지 포함해서) CEO를 가지고 있었다면 그 운명이 많이 달라졌으리라 생각한다.

Helio from SKT

Helio는 SKT에서 야심차게 시작해서 꾸준히 말아먹으면서, 국내에서도 제법 알려진 이름이다. 미국 땅에서 통신사업을 시작하기 위한 방편으로 우선 재미교포를 대상으로 시작한 건 좋았지만, 아마 미국인들에게 다가가기엔 역부족이었나보다. -_-

Helio의 경우에도 UI는 그 깔끔한 그래픽과 함께 독특한 느낌을 주고 있다. 아무래도 휴대폰의 워낙 많은 기능을 처리하려다 보니까 메뉴 화면 이상을 넘어가지 못하고 있지만, 그래도 Helio 첫모델의 메뉴 화면은 조작장치인 wheel과 맞물려 편리한 사용성을 제공하고 있었다. (국내 무슨 전시회에서 이 기기를 만져볼 기회가 있었는데, 저 wheel이 touch 였는지는 기억나지 않는다 -_- )


어쨌든, 이 두 기기의 UI가 "상당히 잘 만들어져 있다"는 것 외에 공통점이 있다면, 제품의 개성 있는 Physical UI와 잘 맞물려 돌아가도록 되어있다는 것이다. 두 기기가 모두 "kickflip", 즉 상판을 위쪽을 축으로 180도 회전시켜 사용하도록 되어 있다는 것도 왠지 우연히 비슷해진 제품디자인같이 여겨지지 않고, Sidekick의 다양한 입력장치가 GUI와 맞물리는 방식이나 Helio의 wheel이 메뉴와 어울려지는 방식은 그냥 naive하게 만들어진 PUI-GUI 조합보다 훨씬 높은 몰입감을 제공해 준다.

이번에 이 두 제품의 UI Designer와 그 동료들이 '거의 망한 것으로 치부되고 있는' 차세대 Palm OS의 UI를 맡는다는 소식을 듣고, 세상을 구하는 영웅 이야기라면 눈이 뻘개지도록 좋아하는 나로선 극단적으로 희망적인 상상을 하지 않을 수 없었다.


Palm OS는 이미 그 기세가 꺽인지 수년째다. Palm One사에서 조차도 자사 제품에 Microsoft Windows OS를 넣고 있고, iPhone이 초강세로 트렌드를 이끄는 가운데 Google에서도 Andriod라는 Mobile OS를 공개해 버렸다. 게다가 최근에는 Nokia가 Symbian OS의 지분을 모두 확보하고 소스를 공개해 버리는 바람에 Linux 같은 (좋은 측면도, 나쁜 측면도 ㅎㅎ) 개발환경을 만들어 버렸다.

마치 휴대용 기기의 OS에서 두번째 전쟁 - 첫번째는 MS 대 Palm 이라는 단순한 구도였다면 - 이 전국전쟁 수준으로 일어나는 걸 보는 듯한 이 상황에서, 만약에(x100) 죽어가는 혹은 '어쩌면 이미 죽어있는' Palm OS가 훌륭한 UI로 인해서 살아난다면, 이건 또 두고두고 이야기할 좋은 사례가 될 것 같다.
Matias Duarte, UI designer of Sidekick, Helio, and Next-Gen Palm OS

Matias Duarte 라는 친구, 난 전혀 모른다. Sidekick과 Helio의 UI를 모두 이 사람이 디자인했다는 것도 몰랐다. 하지만 앞으로 자주 다른 사람에게도 이야기할 수 있도록, 크게 한 껀 터뜨려줬으면 하는 마음이다.
신고
Posted by Stan1ey
이전 글에서 회상한 악몽이, 최근 애니콜의 "햅틱폰" 마케팅 캠페인에서 다시 살아나고 있는 기분이 든다. (이 이야기 쓰려다가 앞의 글이 통채로 생겨 버렸다. 무슨 주절주절 끝나지 않는 할아버지의 옛이야기도 아니고 이게 뭐냐 -_-;;;. 그냥 후딱 요점만 간단히 줄이기로 하자.)

삼성에서 "풀 스크린 터치" 폰을 개발한다는 소식이 들리고 국내외 전시회에서 해당 모델이 조금씩 모습을 드러낼 무렵, 드디어 시작된 광고는 정말 뭇 UI 쟁이들의 마음을 설레게 하기에 충분했다.



"..., 터치... 다음은 뭐지?" 라는 것은, 정말이지 Apple iPhone 이후에 모든 월급쟁이 - 풀어서 말하자면, 뭔가 월급에 대한 대가로 새로운 것을 제시해야 한다는 책임감을 부여받은 - UI 쟁이들에게 주어진 공통의 숙제 같은 거 였다. 자리만 생기면 서로 저 질문들을 하기도 했고, 학계에서나 연구되던 많은 주제들이 무수하게 떠올랐다가 사라지곤 했다. 그러다가 종종 SF에서 보던 장면들이 논의되면 잠시나마 꿈에 부풀기도 했고.

그 중의 하나가, 물론, "햅틱 haptic"이라는 기술이다. (UI가 아니다.)

Wikipedia를 인용하자면, 햅틱은 "촉각 감각을 통해 힘이나 진동, 움직임을 가함으로써 사용자와 인터페이스하는 기술"이라고 정의된다. 나는 햅틱에 관해서는 전문가는 커녕 학생 수준에도 못 미치기 때문에 말을 길게 하는 건 매우 -_- 위험한 짓이 되겠으나, 투덜거림을 위해 예전에 관련 전문가분들과 같이 과제를 하면서 몇가지 얻어들었던 사실을 언급하자면 다음과 같다.



우선 햅틱은 위 정의에서와 같이 다양한 촉각 감각을 다루는 분야로, 크게 tactile 감각과 kinesthetic 감각으로 분류하기도 한다. 이때 tactile 감각은 피부에 있는 촉감 세포들이 느끼는 압력, 요철, 진동 등의 감각이며, 차갑고 뜨거운 것을 느끼는 열감각은 여기에 포함시키거나 별도로 thermal로 구분하기도 한다. Kinesthetic 감각은 인간의 관절을 둘러싼 근육과 인대의 운동감각에 의한 것으로, 흔히 말하는 force feedback 이라든가 무게감 등이 이에 해당한다.

햅틱 기술을 이용한 UI는 아직 걸음마 단계로, 몇가지 시험적인 상용화 시도가 있었다. 그 중에서 가장 높은 이상을 보여주었던 사례는 BMW의 iDrive라고 생각한다.
BMW iDrivce: a haptic input device
iDrive는 다양한 조작이 가능한 하나의 다이얼+버튼+조이스틱 입력장치로, 동적으로 변하는 각 조작상황에 최적화된 물리적인 조건 - 즉, 메뉴의 개수에 맞춰서 다이얼이 움직이는 범위가 변한다든가, 버튼 입력시의 반응이 다르다든가 하는 - 을 제시하는 햅틱 장치가 아래쪽에 숨어있다.

하지만 iDrive는 햅틱 기술의 대표적이고 도전적인 적용 사례일 뿐이고, 그 사용편의성 측면에 대해서는 많은 비판을 받기도 했다. 실제로 iDrive를 검색해 보면, 많은 글들이 극단적으로 부정적인 의견이어서 마치 예전 MS Office Assistant에 관한 글을 보는 듯한 기분마저 든다. 이것이 새로운 기술에 대한 대중 사용자의 거부감일 뿐일지, 아니면 실제로 상상 속의 편리함이 공상으로 드러나는 패턴인지는 아직 판단을 미뤄둔 상태다.

한편으로 보면, 간단한 수준의 햅틱은 이미 우리가 사용하고 있는 제품에 적용되어 있는데, 대표적인 것이 바로 휴대폰과 게임기의 진동 모터이다. 휴대폰의 경우에는 단순히 중심이 어긋난 추가 달린 모터를 켜고 끄는 것으로 진동 전화벨을 구현한 것에서 시작해서, 2~3년 전부터는 "진동벨"이라는 음악에 맞춰 강약이 조절된 진동이 적용되기도 했으며, 최근 모델들에는 다양한 강약패턴을 갖는 진동이 휴대폰에 적용되기도 했다.

특히 이 강약패턴의 경우엔 게임기에 적용된 것과 같은 기술을 적용하고 있는데, 바로 진동모터에 정전류과 역전류를 적당히 적용함으로써 모터의 회전수, 즉 진동의 강약을 실시간으로 정확히 제어할 수 있는 것이다. 이 기술에 대한 특허를 가지고 있는 것이 바로 햅틱 기술의 거의 모든 특허를 독점하고 있는 회사인 Immersion 이다.

[○] Immersion의 햅틱기술 독점 에피소드


Immersion사의 진동 피드백 기술에 대해서는, 대충 아래의 Immersion Studio 라는 진동효과 편집 소프트웨어를 보면 느낌이 올 것 같다. 이 소프트웨어는 진동 모터의 강도를 시간축에 따라 정밀하게 제어할 수 있는 기능을 GUI로 제시하고 있다.
Immersion Studio Screenshot

진동 자극은, 대상 UI의 물리적 특성을 직접적으로 제시하는 게 아니라 다양한 진동을 통해 간접적으로 표현하는 것이다. GUI 식으로 이야기하면 극단적으로 단순화된 메타포 metaphor 라고 할 수 있을 듯. 이보다 직접적인 방식으로 촉각적 자극을 주는 방식으로는, 실제로 물리적인 형태를 바꾸는 형태가 있겠다. 이미 이런 방식은 시각 장애인을 위한 점자 표시 braille display 장치에서 구현되어 있다. (아래 오른쪽 그림의 장치 - 브레일 한소네 - 를 만든 힘스코리아 HIMS Korea 라는 회사는 우리나라에서 재활공학을 업으로 하는 극소수의 소중한 회사들 중 하나다.)

Refreshable Braille Display (close up)
Portable Braille Display 'Hansone' by Himskorea


이 방식은, 점자를 위한 장치 외에도 full matrix로 만들어지기도 했는데, 점자 디스플레이 모듈을 만드는 일본의 KGS 라는 회사에서는 이 모듈을 연결시켜 아래 사진과 같은 제품 - DotView - 을 만들기도 했다. 이거 만든지 벌써 몇년이 지났는데, 잠잠한 걸 보면 결국 확실한 application은 찾지 못한 모양이다.
DotView by KGS
Haptic Display Prototype from NHK
위 제품은 좀더 거대한 조합으로 발전하고 터치스크린 기능이 덧붙여져서, 최근 "NHK의 햅틱 디스플레이"라는 이름으로 소개되기도 했다. (NHK에서 발표한 오른쪽 그림의 장치를 잘 보면, KGS 사의 로고를 찾을 수 있다. KGS는 이 방식 - 피에조 방식을 이용한 적층식 점자표시 - 에 대한 특허권자라고 했다.)

점자와 같은 수준의 정보를 주지만 조금 더 우아한 방식으로는, Sony CSL의 Interaction Lab.에서 구현한 Lumen (shape-changing display) 을 빼놓을 수 없다. 디스플레이라고 하기에는 픽셀(?)의 크기가 어마어마하고, 모듈의 크기(특히 깊이)는 더욱 더 어마어마하고, 반응속도도 느리지만, 기술의 발전에 대한 막연한 기대에 기대자면 그 궁극적인 발전 가능성은 매우 크다고 하겠다.

Luman by Ivan Poupyrev, Sony CSL Interaction Lab.

음... 기왕 길어진 김에 (이렇게 써제껴놓고 뭘 새삼스럽게;;) 촉각에 대해서 하나만 더 추가하자면, 개인적으로 햅틱의 가장 큰 재미라고 생각하는 것은 촉각 감각에 있어서의 착시(?)라고 할 수 있는 것이다. 다양한 스펙트럼의 빛이 여러가지의 시각적인 색채 자극을 조합해 내는 것과 마찬가지로, 우리가 뜨겁다, 차갑다, 볼록/오목하다, 우둘두툴하다 등등 여러가지로 표현하는 촉감은 사실 다양한 세포들의 조합에서 유추된 것이다. 따라서 세포 감각의 레벨에서 자극을 조작하면, 실제로 물리적인 자극을 만들지 않고도 해당하는 자극을 느끼게 할 수 있는 것이다. 즉 적당한 전기 자극을 줘서 촉각세포를 교란시킬 수도 있고, 특정 주파수의 진동을 줘서 특정 촉각 세포만을 자극할 수도 있다고 한다. (실제로는 상호간섭이 심해서 딱이 성공했다는 사례를 못 봤다.) 최근(?)에 이런 사례로 재미있는 것은 캐나다 McGill 대학 Haptic Lab.피부 늘리기 기법인데, 구체적인 원리는 2000년도의 논문에 나와있으니 관심있는 분은 함 보시길.
PHANTOM Omni

촉각 tactile 에 대해서 이렇게 잔뜩 썼지만, 다른 한 축인 kinesthetic에 대해서는 사실 그렇게 쓸 말이 없다. Immersion 외에도 햅틱 기술의 강자로 꼽히는 회사인 SenAble 에서 만든 PHANTOM이라는 기구는, 화면 상의 가상 물체를 펜이나 다른 도구의 끝으로 꾹꾹 찔러볼 수 있도록 하고 있다. 비슷한 기능을 하는 6 DOF의 force-feedback 입력장치는 여러 회사와 연구소에서 만들어지고 있으며, 특히 의료업계에서 원격수술이나 로봇수술, 미세수술의 입력장치로서 상용화가 되고 있다.



... 자, 이 정도가 지난 3일 동안 짬짬이 -_- 적어본, "햅틱"이라는 UI 기술에 대한 지극히 주관적인 개요이다. (차라리 대형 삼천포라고 하는 게 나을 듯 -_- ) 어쨌든 이런 햅틱 기술을 알고 있는 사람들을 잔뜩 들뜨게 한 위의 동영상 티져 광고에 이어서, 드러난 "햅틱 폰"의 실체는 다음과 같았다.



... 어라? "햅틱"은? 애니콜 홈페이지에 볼 수 있는 햅틱폰의 주요 기능 feature 들도 다음과 같이 나열되어 있다.

Not-so-haptic Features on Samsung Haptic Phone

언제나와 같이 잘 나가는 아이돌 스타들을 총동원해서, "전지현보다 여자친구가 좋은 이유는 만질 수 있기 때문이다" 라든가, "만지면, 반응하리라!" 따위의, 다분히 문제의 소지가 있는 카피로 화려하게 광고를 하고 있지만, 터치스크린이 적용된 제품에서 내장된 진동소자를 이용해서 터치에 대한 feedback을 주는 것은 국내에서도 출시된 적이 있는 방식이다.

물론 진동을 이용한 tactile feedback이 햅틱 기술이 아니라는 게 아니다. 하지만 "햅틱 UI"라고 부르려고 한다면, 단순한 진동 피드백이 아닌 뭔가가 있어야 자격이 있는 거 아닐까? 비교적 쉽게 적용이 가능한 햅틱 기술로는 제품 전체가 아닌 스크린만 진동시키는 방법이라든가, 특히 스크린 중 일부만 특정한 느낌을 주도록 진동시키는 방법이 있다. 아니, 앞서 언급했듯이, 햅틱 기술에는 tactile 외에 kinesthetic 감각을 위한 더 다양한 기술들이 있다. 그런 기술들 중에서 가장 초창기의 것만이 적용된, 그것도 사실은 이전의 적용 사례들과 동일한 UI가 "햅틱 UI"라는 이름을 갖게 된 것이다.

POP Ad for Haptic Phone: Alive UI

"살아있는 User Interface"라니. -_-

"햅틱 UI"라는 건 결국 딱이 정의되거나 공유될 수 있는 개념이 아니라, 사용되고 있는 용어의 정의와 상관 없이 마케팅 상의 필요에 의해 기존의 멋져 보이는 용어를 갖다쓴 것 뿐이다. 물론 뭐 말 좀 갖다썼다고 큰 피해 준 것도 아니고, 이렇게 장광설을 펴는 이유를 모르겠다고?



햅틱이라는 이름이 붙여진 제품이 광고되면서, 기존에 햅틱 기술을 연구하던 사람들이 무척이나 흥분(?)하는 걸 볼 수 있었다. 예전에 햅틱 기술을 이용한 UI를 토론하곤 했던 한 연구원은 이제 햅틱이 유명해지겠다며 "보람을 느낀다"는 말을 하기까지 했다. 사실 회사에서 느끼기에 햅틱은 생소한 용어였기 때문에 무슨 과제 발표를 할 때마다 용어부터 설명을 해야 했고, 심지어 경우에 따라서는 "햅틱"이라는 용어를 사용하지 못해서 - 발표가 강의나 토론으로 끝나는 경우가 많아지기 때문에 - 약자로만 넣기도 했다. 그런데 이제 "햅틱"이라고 하면 사람들이 알아듣고 더이상 그게 뭐냐든가 아리송한 표정을 하지는 않을 거라는 거 였다.

그런데, 위의 웹페이지 설명에서와 보이듯이, 정작 나온 제품에서 볼 수 있었던 햅틱 UI는 기존의 것과 전혀 다르지 않거나, 사실은 터치스크린을 이용한 다른 종류의 입력 방식 - 햅틱과는 상관 없는 - 이 전부였던 것이다. 결국 대중들 사이에서 "햅틱"이라는 단어는, "터치"와 같은 의미가 되어 버렸다.

'Haptic Consumer' article on tabloid

위 5월 20일자 기사에 따르면, 오프라인 매장에서 직접 제품을 만져보고나서 저렴한 인터넷 매장에서 구입을 하는 구매자를 "햅틱형 고객"이라고 한다고 한다. -_-;;; 해당 회사에서 별도의 웹사이트까지 만들어서 광고에 힘쓴 덕택에, 하나의 학술적인 연구 범위를 정의하는 전문 용어 하나가 변화되고, 왜곡되고, 협소해져서 세간에 알려지게 된 것이다.

... 그냥 그 이야기를 하고 싶었다.



이 글을 벌써 일주일 넘게 썼나보다. 이제 슬슬 지치기도 하고... 되돌아 읽으면 읽을수록 추가할 부분만 더 늘어나서 좀 버겁다. 게다가 개인적으로 지난 며칠, 그리고 앞으로 며칠이 굉장히 심란한 시기가 될 것 같고. 그러니 그냥 핑계김에 이 글은 요기까지. 나름 애지중지하던 "햅틱"이라는 단어가 자격 없는 제품의 광고에 사용되어 그 '고아한 학술적인 지위'를 폄하(?) 당한 것 같아서 속상하다... 그냥 그 이야기를 하고 싶었다. 한 줄이면 되는 것을 아는 거 모르는 거 죄다 털어내느라 지저분한 글이 되어 버렸다. 또. ㅡ_ㅡ;;;

그래도 여전히 하고싶은 이야기는 많다... 터치스크린과의 위험한 조합이라든가, 이런 UI를 앞서 적용한 회사들의 다양한 적용 사례라든가, 보조적인 피드백으로서의 역할에서부터 독립적인 UI로서의 가능성까지 재미있는 구석이 많은 기술이다. 햅틱은. 모쪼록 타의에 의한 이번 '유행'이 지나도 "햅틱"이라는 단어와 무엇보다 그 기술에 대한 매력이 주저앉지 않기를 바란다.

오버앤아웃.



[○] 이 글을 올리고 난 직후에...

신고
Posted by Stan1ey
'Haptic Consumer' article on tabloid
마케팅하는 분들한테 볼멘소리를 하는 김에, 마침 오늘(글쓰기 시작한 날짜 기준이니, 지난 20일이다) 아침에 무가지 'metro'에 실린 광고성 기사에 대해서도 한마디 하게 됐다. (여하튼 한번 뭔가 심통이 나면 계속 관련된 게 눈에 밟힌다니깐...)


음성인식을 연구하는 조직에 (물론, 다른 훌륭한 HCI 기술들도 함께) 들어가게 되면서 들었던 이야기 중에, 과거 "본부" 폰의 실패에 대한 언급이 자주 있었다.


TV Ads of Samsung's first speech recognition cell phone (SCH-370)

이 모델(SCH-370)에서 사용된 음성인식 기술은 모든 음성인식 대상 단어(주소록 상의 이름)들에 대해서 각각 발화자의 음성을 수차례 학습시키는 방식으로, 오늘날 음성인식의 가장 기초적인 단계인 "음운분석" 조차도 들어가 있지 않은 단순한 음향패턴 매칭 기술이라고 볼 수 있다. 사용자가 몇번 발성한 "홍길동"이라는 음향과 나중에 발성한 음향을 나란히 비교해서, 두 음향이 비슷한 정도를 가지고 그 음향이 "홍길동"인지 아닌지를 파악하는 것이다. 따라서 다른 사람이 "홍길동"이라고 해도 거의 인식되지 않으며, 굳이 나눈다면 소위 "화자의존 speaker dependent 방식"의 음성인식기에 해당할 것이다.

이 휴대폰 상에서의 최초의 음성인식은 그래도 전례가 없고 상상력을 자극하는 기능이었기 때문에, 나름대로 많은 이야깃꺼리가 되었던 기억이 난다. 이 휴대폰을 소재로 한 한때의 우스갯소리 중에는 지하철 안에서 스님이 휴대폰을 붙잡고 "절!, 절!" 하더라는 이야기도 있었고(음성명령이 짧으면 비교할 정보 자체가 짧으므로 인식률이 더 떨어진다), "개○끼!" 라고 하고나서 "예, 부장님..." 하는 월급쟁이의 비애에 대한 이야기도 나온 적이 있다. (등록된 이름을 바탕으로 한 음운분석을 하는 것이 아니라 아무 음성명령이나 학습시킬 수 있었기에 가능한 사용 사례이다)

문제는 사용자들이 음성 단어를 등록하고 엔진을 훈련시키는 순간의 환경소음과, 실제로 사용할 때의 환경소음이 당연히 다르기 때문에, 실제로 사용하려고 하면 인식이 잘 되지 않는 경우가 비일비재 했다. 게다가 휴대폰 자체의 정보처리 성능이나 마이크의 설계가 지금보다 나빴던 시절이니 인식률은 말 그대로 운에 맡겨야 하는 수준이었다고 한다. 물론 그렇게 제한된 하드웨어 상에서 최선의 결과를 낼 수 있는 방법으로 단순 음향매칭 음성인식기를 사용했지만, SF 영화를 제외하고는 최초로 접하는 음성인식 기능임에도 불구하고 사용자의 평가는 엄정했다.

  "음성인식이요... 전에 본부폰 써 봤는데요, 잘 안 되던데요?"

... Voice UI에 대한 FGI나 다른 사용자 조사를 하면서, 혹은 심지어 사내에서 음성인식 기능의 필요성을 주장하면서, 저 이야기를 얼마나 많이 들었는지 모른다. 음성인식이라고 하면 무조건 "본부폰"을 떠올리기 때문에, 음성인식 기술이 그때보다는 훨씬 좋아졌다고 해봐야 영 믿지를 않더라는 거다. 게다가 당연히 100%에 못미치는 음성인식기가 오류를 내면, "이것 보세요~" 하면서 음성인식에 대한 확정적인 불신을 갖게 되는 모습을 자주 목격하게 되었다.

본부폰 SCH-370 ... 이 모델은 최초의 음성인식 적용 휴대폰으로 역사에 남을지 모르겠지만, Voice UI의 대표적인 실패사례로서 음성인식기술이 다시 적용되기까지 더 많은 시간이 필요하게 만든 장본인이고, 결국 다시 적용되었을 때에조차도 완전하게 복권되어 당당한 대표기능이 아닌 한 구석에 숨겨진 기능으로 들어가게 만든 원흉이라고 본다.

아직 기술적으로 완전히 준비되지 않았음에도 불구하고, "본부폰"은 훌륭한 마케팅으로 제법 주목을 받은 사례이다. 하지만, 바로 그 예상되었던 기술적인 불완전성으로 인해서, 이후에 그 기술이 보다 완성된 후에 그 잠재적인 성장을 고사시킨 가슴 아픈 사례이기도 하다. 예전에 언급했던 첨단 기술의 Hype Curve Model에 비유하자면, 시장의 기대에 비해 턱없이 부족한 기술을 마케팅으로 채워서 물건을 파는 데까지는 성공했으나, 결국 기대에 미치지 못해 "환멸의 골 trough of disillusionment"을 더욱 깊게 했다고 말할 수 있겠다.


쓰다보니 글이 길어졌다. 아무래도 VUI가 나오니 -_-a;;
하려고 했던 말(;;;;;)은 다음 글에 계속 쓰자.
신고
Posted by Stan1ey

몇년 전부터 MS와 Ford가 꾸준히 개발하고 있는 차량 운전자용 음성인식 시스템, SYNC의 시승기(?)이다. 리뷰의 내용은 음성인식의 인식성능에 초점을 맞추고 있어서 일반 영어발음과 한국식, 일본식 영어발음 -_- 도 인식이 된다는 것을 매우 긍정적으로 표현하고 있다. 그외에는 SYNC를 통해서 다른 사람과 전화를 한다든가, 다른 기능들을 나열하고 있는데, 솔직히 뭘 할 수 있는가에 대한 것은 내겐 좀 질린 이야기다. 그냥 스크랩하는 기분으로 최근에 올라온 동영상을 링크.



Voice UI 좀 하려고 했었던 -_- 입장에서 보면, 이 동영상에서 보여주는 VUI는 일반적인 VUI Design Guideline을 잘 따랐으나, 일부 부족한 부분이 있다. 동영상 중의 VUI 대화 사례를 보면 다음 몇가지 "좋은 설계"를 확인할 수 있다.

1. 시작할 때, 메뉴 상의 현재 위치를 알림(orientation)
    - "Main Menu"

2. 사용자 발화를 반복해서 확인(echoing)
    - "Audio System"

3. 인식정확률이 낮으면 재확인
    - 사용자: "사토라이또 라지오!"
    - 시스템: "Satellite Radio: is that correct?"

4. Sound Prompt의 일관된 사용
    - (Ding!)

5. Navigation과 Function의 부드러운 연결
    - 시스템: "USB. Please say your command."

하지만, 다음 몇가지 "나쁜 설계"는 조금 아쉽다. 뭔가 사정이 있었는지는 모르겠지만, 조금 더 수정했더라면 더 낫지 않았을까.

1. Navigation이 depth를 갖는다.
    - "Main Menu" >> "Audio System" >> "User Device"
    = 음성인식의 가장 큰 장점 (겸 단점) 중 하나가 depth 무시하고
      바로 해당 기능으로 들어갈 수 있다는 것인데, 왜 주된 사용방식으로
      3단계 씩이나 되는 위계구조를 넣었는지 모르겠다. 이제 기껏해야
      수십개의 기능 명령을 가지고 인식률이 떨어질 고민을 하거나 그러는
      시대는 지났을 텐데...

2. Echoing 원칙이 무시되는 경우가 있다.
    - 사용자: "User Device"
    - 시스템: "USB"
    = 이러면 안 되지~! 이를테면 "User Device, is, USB" 라고 해야
      사용자가 안 놀라고 계속 사용할 수 있을 거 아니냐고.

3. Sound Prompt와 Confirmation Earcon이 조금 유사하다.
    - Sound Prompt: (Ding!)
    - Confirmation Earcon: (Drring~)
    = 뭐 충분한 비교실험을 거쳤겠지만, 그래도 소음이 많은 상황에서 너무
      비슷한 음향을 사용한 거 아닐까?

4. Sound Prompt의 끄트머리가 살짝 길다.
    = 저러다가 사용자 발화가 sound prompt 끄트머리를 밟을 수 있겠다.

그냥... 요새 Voice UI를 물어오는 전화를 받고 있는데다가, 마침 동호회 게시판에 또 이런 게 뜨길래 한번 보면서 이것저것 되새김질 해 봤다. 이제 슬슬...ㅎㅎ

동호회 게시판 링크
원래 글 링크



리뷰의 말미에, "IT 강국인 우리나라에서 왜 이런 시스템을 개발해 내지 못했는가?" 라며 우리나라 기업의 창의성과 철학에 대한 아쉬움을 매우 강하게 내비치고 있는데, 참 이제 뭐라 할말도 없고 그냥 편안~하다.

신고
Posted by Stan1ey

LG에서 새로운 휴대폰이 나왔다. 일명 "비키니폰" (LG-SH640/KH6400/LH6400).

LG Vikini Phone... or Venus/TouchPad Phone

... 확실히 비, 비키니다. *-_-* 위 이미지는 LG 보도자료의 "유일한" 첨부사진이어서 어쩔 수 없이 넣은 것 뿐이고(정말?), 실제 제품에 대한 정보는 링크된 보도자료를 보면 된다... 그리고 보도자료에도 포함되어 있는 동영상 소개는 아래와 같다.



어이어이. 미국에선 'Venus'로 출시(LG-VX8800)하고 다른 나라에선 'Touch Menu'로 출시(LG-KF600)한 녀석이 왜 우리나라에선 '비키니'로 출시되는 건데? 우리나라가 무슨 성상품화의 왕국이라고 누워서 침뱉기라고 하고 싶었나? ... 마케팅의 센스는 정말, 제품기획은 물론 디자인이나 UI, 엔지니어링 종사자들의 성의를 개무시해 주시는 뭔가가 있다.

일전에 팬텍의 "매직키패드" 폰을 언급하면서도 비슷한 불만을 내비친 적이 있는데, 이번에도 정말 한 소리 안 할 수가 없다. 위 동영상에서 볼 수 있듯이, 이 UI는 이전 매직키패드와 구성을 달리 함으로써 오히려 터치 스크린의 유연함을 좀더 잘 사용할 수 있는 다양한 사례를 제시하고 있는 좋은 HTI 사례가 될 수 있다. 그런데 비너스는 뭐고 비키니는 뭐냔 말이다. -_ㅠ

제발 이 폰이 광고될 때에, 위의 "유일한" 홍보사진에서처럼 비키니 모델만 줄줄이 나오지 않기를 바랄 뿐이다. (바랄 껄 바래야지 -_-;; ) 그런다고 폰이 잘 팔리는 게 아니란 말이야!!! 아저씨들이 티셔츠 바람에 광고모델로 나와서 날개돋힌 듯 팔고 있는 iPhone을 보면서 배우는 게 그렇게 없냐... 응?



... 이 비키니폰을 보면서 사실 진짜 속터지는 부분은 따로 있지만, 그거야 옛 동료분들이 정말 이야기를 들어야 할 분들께 잘 말해주기를 바라는 수 밖에 없겠다. 이것도 이런 식으로 홍보되면 매직키패드 마냥 또 소수의 일탈로 끝날테고, 그걸로 또 실패 사례로서 기억되어 설득은 더욱 힘들어질 수도 있겠지만...

아, 그러고보니 그나마 대부분 나왔던가? 에휴... ( '-')y~oO

신고
Posted by Stan1ey
재미있는 회사가 있다. 자주 가는 (거의 상주하지만) 동호회에 올라온 뉴스를 따라서 들어갔다가 알게 된 "이지인터페이스 EZ interface"라는 회사인데, 음성인식 기술을 독창적으로 개발한 사례가 상당히 돋보인다.

음성인식 기술이라고는 하지만, 사실 이 회사가 가지고 있는 특허 "음악 부분을 자동으로 선별해 저장하는 디지털 음악 재생 장치 및 그 방법"은 엄밀히 말해서 음성인식의 최초 전처리, 즉 입력된 음향(audio) 중에서 음성(voice)이 존재하는지 여부를 판정해서 구간을 정의하는(end point detecton) 과정만을 사용하고 있다. 문제는 이 방식을 기가 막히게 적합한 어플리케이션 - 라디오 방송에서 음악 부분을 찾아내서 저장하는 - 에 적용하는 생각을 했다는 것이다.

회사 웹사이트에 올라와 있는 설명과 위의 특허 청구항에 따르면, 이 기술은 라디오(물론, TV 음성이라고 안 되는 건 아닐 것이다) 방송 중 음성 부분을 제외하고 음악 구간을 인식해서 미리 녹음하고 있다가, 사용자가 '녹음' 버튼을 눌렀을 때 해당 음악을 파일로 저장해 주는 내용이다. 즉 듣고 있는 음악이 좋아서 '녹음'을 누르면 자신의 MP3 Player에서 들을 수 있는 거다.

EZ-R: How to grab a music

얼핏 생각하면, 두가지 의문이 떠오를 수 있다.

우선은 "라디오에서 음악을 녹음한다니, 너무 구태의연한 '테이프 시대' 발상이 아닐까?" 라는 말이 나오는 건 자연스러운 일일 거다. 실제로 나도 소시적에는 라디오에서 나오는 음악을 녹음해 모아놓은 오디오 테이프를 십여개나 가지고 있었지만, 요즘은 그거 녹음할 시간에 인터넷 P2P에서 검색하는 게 훨씬 빠르고, 품질도 좋다고 생각한다. 하지만 우리가 P2P에서 다운 받을 수 있는 녹화된 TV 방송이나 MP3 음악 파일들은 사실 디지털 방송이나 디지털 매체에서 복사된 것이다. 디지털 방송의 잠재력까지 고려한다면, 방송에서 음악을 '다운로드'한다는 건 의외로 많은 문제를 해결할 수 있는 - 개인 감상을 위한 것으로 제한한다면 저작권 문제 없고, 음악 구하기 쉬우므로 사용자도 좋고, 라디오 시청율을 통한 광고수입이 있으므로 돈은 결국 방송국과 음악의 저작권자들에게 흘러갈꺼고 - 좋은 방법일 수 있다.

두번째 의문은, "음악과 멘트를 구분하는 게 음성인식기술이었나?" 라는 건데, 물론 "본부!"라든가 "키트! 빨리와!" 같은 음성명령을 인식하는 것과는 사뭇 차이가 있어 보이는 게 사실이다. 하지만 음성인식기술은 많은 요소기술들의 조합인데, 사실 그 하나하나도 상당 수준의 인공지능을 구현한 것이며, 나름의 쓸모를 찾아보면 괜찮은 어플리케이션이 나올 수 있다.
Nintendo DS - Touch Catch Youshi
  이를테면 닌텐도의 NDS 게임기에서는 마이크에서 들어오는 소리가 어떤 음역에서 들려오는가를 봐서 음성인지 아닌지를 판단하고 있는데, 이걸 반대로 '전 음역에서 소리가 균등하게 들어오는지'를 판단해서 마이크를 입으로 부는 것을 인식하는 데 사용하고 있다. 이를 이용해서 게임에서는 화면 상의 구름이나 낙엽 등을 불어 날리거나, 비누방울을 부는 조작이 가능해졌으며, 독창적이면서도 매력적인 플레이를 제공하는 데에 큰 역할을 하고 있다.

따라서 이 새로운 기술 - EZ-R - 도 음성인식 요소기술을 적절히 활용하여 "음성인지 아닌지", 혹은 "음성 외의 음향이 얼마나 포함되어 있는지"를 판단함으로써 훌륭한 기능(음악만 녹음해 두는)을 구현한 사례라고 생각한다.


물론 모든 다른 인식 기술과 마찬가지로, 이 방식도 실용적으로는 적잖은 문제점을 가지고 있을 것이다. 이를테면 요즘 음악들은 워낙 구성이 다양해서, 음성과 음성 외 음향의 비중은 그야말로 천차만별이다. 즉 노래 앞이나 뒤, 혹은 노래 중에 랩이나 나레이션을 하는 경우에는 왠만해선 음악 구간을 잡는 데에 오류가 있을 수 밖에 없을 것이다.
   또한, 방송의 진행자 역시 남녀노소 다양한 목소리 톤을 가지고 있으며, 개성이 강한 진행자일수록 일반적인 음성대역(100∼5000 Hz 라고들 한다)의 끄트머리를 오가는 발성을 하곤 한다. 그런 진행자를 좀더 포괄하려고 하면 할수록, 음성영역과 음악영역을 구분할 때의 오류는 심해질 것이다.
   인식 기술 상의 오류 외에도, 예전에 테이프로 음악을 녹음해 모아본 사람은 누구나 알고 있듯이, 방송이라는 것이 음성과 음악을 정확히 구분할 수 있도록 제공되지 않는다는 것도, 근본적으로 이 서비스를 어렵게 하는 부분이 될 것이다.

하지만 이 모든 단점에도 불구하고, 2002년 기술 개발 및 특허출원에서부터 시작해서 필요한 기술을 필요한 만큼 찾아내서 훌륭한 적용사례를 만들어 주었다는 점에서, 이 회사에게는 감사와 박수를 보내고 싶다.
신고
Posted by Stan1ey

... 그럴 가능성이 보인다. Voice UI는 다른 GUI나 특히 Web UI와 달리 개인이 직접 입출력 기능을 구현할 수 있는 방법이 없다는 점 때문에 많이 개발되지도 확산되지도 않고 있었는데, 얼마 전에 Tellme에서 iPhone용 SDK를 개발하고 있다는 뉴스가 떴다. iPhone의 경우엔 마이크/스피커 달려있고, Wifi나 다른 데이터 통신도 되고, 무엇보다 많은 개인 개발자들이 이미 온갖 application을 만들어서 대부분 어둠의 경로로, 일부는 iTunes를 통해서 유료 혹은 무료로 배포하고 있는 상황이니만큼 이 SDK가 미칠 영향은 적지 않을 것이다.

이미 iPhone (혹은 iPod Touch)에 달려있는 수많은 센서들을 기발한 방법으로 사용한 많은 사례들이 나오고 있는데, 여기에 음성입출력 기능을 포함시키면 또 어떤 활용이 가능할까? (닌텐도 DS에서 마이크를 이용해서 어떤 기특한 짓을 했는지 생각해봐라!)

일단 기본적인 어플리케이션은 전에 Voice Signal이 보여준 것과 다르지 않겠다.

하지만... 이를테면 (내가 좋아라 하는) 음성대화가 가능한 에이전트 Human Interface Agent (HIA)가 들어간다면, 그 놈은 하루 중의 시간에 따라 눕혔을 때와 들고 있을 때의 반응이 달라질 수 있을꺼다. 심지어 주변 환경에 밝으면 눈부시다고 할 수도 있을테고, iPhone이라면 부르르 떨어서 싫다는 표현을 할 수도 있다! 흔들면 어지러워할테고, 스피커에 손바닥을 가까이 대면 움츠러 들거나 뜀뛰기를 할 수도 있겠다. 무엇보다 iPhone/iPod의 수많은 기능들 - 각종 PIMS application은 물론 인터넷 브라우저, 지도 상에서 내 위치 찾기를 포함한다!! - 과 동조하면서 이런 기능을 할 수 있을 것이다.

iGoldfish - possible agent on iPhone/iPod Touch

이미 화면 상에 에이전트를 띄우는 것은 장난스런 개발자에 의해서 다양하게 개발되어 있다. (사실 파일 시스템에서 보안에 이르기까지 구조가 훤히 드러난 UNIX 기기인만큼 안 되는 게 뭐 있으랴)


[○] 이런 것도 있다. (주의: 야하다)

문제는 누군가 수고스러운 과정을 거쳐 온갖 센서 입력와 데이터베이스 분석을 하나의 서비스로 엮어야 한다는 것 뿐이다. 이 대목에서는 그저 crowdsourcing (혹은 open source) 의 힘을 믿는 수밖에.

이럴 땐 정말 프로그래밍 공부 제대로 안 한게 한스럽다니까. =_=

신고
Posted by Stan1ey
이제는 MS의 전 CEO인 빌 게이츠가 지난 2월 21일 CMU에서 있었던 강연에서, 음성 입출력 방식에 대해서 꽤 강조를 한 모양이다. "5년 내에 사람들은 키보드를 버리고 터치스크린과 음성으로 컴퓨터를 사용해서 웹을 서핑하거나 할 것이다"라고 했다니, 최근의 급변하는 UI 업계를 감안한다고 해도 좀 과격한 예측이다.
(제목은 내가 지은 게 아니라, 원래의 기사에서 베꼈다.)


음성인식과 터치스크린이라... 이름은 많이 달라 보이지만, 사실 이 두가지는 모두 인식 알고리듬을 이용하므로 오인식의 가능성을 가지고 데다가, 기술 자체가 가지고 있는 문제도 무시할 수는 없을 것이다. 90%의 인식성공률을 가지고 있는 음성인식과 97%의 인식성공률을 가지고 있는 터치스크린을 잘만 조합하면 음성인식의 오류를 터치스크린이 보완한다든가 하는 multi-modal disambiguration이 가능하니 이론상 99.7% 의 성공률을 갖는 시스템도 만들 수 있겠지만, 만일 단순한 조합으로 만들어진다면 '사용자의 입력이 잘못 적용될 확률'이 90% 혹은 87.3%로 떨어질 수도 있는 것이다.

뭐 자주 하는 비유로, 키보드를 10번 치면 한번은 다른 글자가 나온다고 생각하면 어떤 느낌인지 알기 쉽지 않을까. ㅡ_ㅡ;;;

그래도 영어 음성인식/합성 기술의 수준을 생각해 보면, 그리고 이미 multi-modal disambiguration에 대한 실용적인 연구/적용 사례가 많이 나와있다는 것을 감안하면, 현재의 기술로도 충분히 usable한 장치를 만들 수 있을 것 같기도 하다. 우리나라도 이제 텔레뱅킹이나 텔레증권(?) 등을 시작으로 Telephony Voice UI (T-VUI) 사례는 좀 늘어나고 있는 것 같지만, 미국과 같이 빠른 속도로 ARS나 call center를 대체하고 있는 상황은 아니다. 이 상황에서 영어를 native 발음으로 하는 사람만 쓸 수 있는 모바일 기기가 나온다면 점점 한국은 그동안 "시장이 작아서"라는 이유로 음성 입출력 기술을 키우지 못한 대가를 치뤄야 하는 게 아닐지 모르겠다.

힘들게 명맥을 이어가고 있는 토종 음성 입출력 기술 업체가 기회를 갖게 될지, 대자본과 든든한 reference sites, 그리고 의외로 많은 한국어 인력을 보유한 외국계 회사가 모든 걸 잠식하게 될지 - 매우 걱정스런 눈으로 - 지켜보는 중이다.
신고
Posted by Stan1ey

오랜 질문에, 뻔한 주장이 담긴 글이다. 단지 음성검색의 장점에 대해서 reference가 궁했더 기억이 있기에 그냥 하나 scrap해 놓고 싶을 뿐이다.


하지만 결국 음성검색이 모바일 기기에 적용되면 좋을 당위성이라는 것이:

  • 수많은 메뉴를 항행할 때 어려운 걸 쉽게 해준다. (메뉴 검색)
  • 작은 창에서 한번에 보이지 않는 긴 목록 중에서의 선택을 쉽게 해 준다. (모바일에서 메뉴 말고 긴 목록이래봐야, 결국 이름이나 주소)

이 둘뿐이라면 영 발전이 없다. 물론 둘 다 음성인식의 근본적인 약점(결국 인식대상 단어 목록에 들어있어야 인식이 되며, 아무 말이나 한다고 죄다 인식하는 방법은 없다)과, '언제나 기대 이하'의 인식률을 그나마 올릴 수 있는 방법(구어로 자주 사용하는 말보다, 잘 사용하지 않는 단어나 고유명사의 인식율이 높다)에 딱 들어맞는 방법이기는 하다.

하지만 이 이야기는 뭐 휴대폰에 음성인식 고려하던 첫날에 한 이야기고, 그외의 많은 꿈같은 이야기 - 휴대폰과 잡담을 한다든가 ㅋㅋ - 는 결국 이루어질 것 같지 않은가보다.

요새 부쩍 VUI 커뮤니티에서 자주 이야기하는 Voice Search... 이걸로라도 음성인식 application이 활성화된다면, modality change에 필요한 cognitive workload를 핑계로 다른 Voice UI도 덩달아 묻어갈 수 있지 않을까? 하는 꿈을 아직도 가지고 있다. ... 이제 와서 무슨 상관이겠냐만. ㅡ_ㅡa;;




P.S. 아놔. 파일 첨부하다 말고 딴짓 하느라 올렸는 줄 알고 하루동안 '이상하다?' 하고 있었다. ㅡ_ㅡ;;;

신고
Posted by Stan1ey

BLOG main image
by Stan1ey

카테고리

분류 전체보기 (347)
HTI in General (45)
User eXperience (11)
Voice UI (50)
Vision UI (14)
Gesture UI (25)
Tangible UI (28)
Robot UI (14)
Public UI (9)
Virtuality & Fun (56)
Visual Language (15)
sCRAP (70)

글 보관함



www.flickr.com
This is a Flickr badge showing public photos and videos from Stan1ey. Make your own badge here.