MWC 행사 덕택에 짧게라도 생각을 정리할만한 글꺼리가 자꾸 생긴다. 긴 글 때문에 복잡해진 머리를 식힐 겸 또 정리해 보자.


Voice UI 디자인에 대해서 고민하면서, 내 멋대로 다음과 같은 표를 그려본 적이 있다. (이게 정확히 맞는지 모르겠지만, 뭐 기억하기엔 이렇다.) 지금도 크게 다르지 않지만, Voice UI와 관련된 다른 비슷한 개념들 간에 영역을 좀 정해보자는 의도였다.

Scope
Auditory UI



Speech UI
Sound UI



Voice UI




Target
Language Paralanguage Audio
Verbal Non-verbal
(아놔. 오랫동안 HTML에서 손을 뗐더니 표 하나 그리는데 이게 왠 뻘짓이냐. ㄷㄷ)

위 표를 들고 다니면서 자주 언급했던 부분은 '언어 language'만을 대상으로 하는 Speech UI와 '준언어 paralanguage'까지도 대상으로 하는 Voice UI를 구분함으로써 VUI에서 고려해 할 점은 이런저런 것까지를 포함한다... 뭐 그런 거 였다. 물론 준언어에 몸짓이 포함되고, Non-Verbal Audio(NVA)도 물론 대상으로 들어가고 어쩌고 하는 문제가 많은 영역구분이지만, 그래도 '왜 내가 이걸 다른 용어가 아닌 VUI라고 부르나'를 설명하는 데에는 나름 유용했다.

이 구분을 만들고 나면 자연스럽게 음성인식(voice recog.)과 발화인식(speech recog.) 사이에도 구분이 들어가게 되는데, 거기서 거기처럼 보이는 이 둘 사이의 차이점을 안다는 것은 더 많은 범위의 음성 입출력을 고려할 수 있게 해준다.


Microsoft Recite - Instruction

이번에 MWC에 나온 Microsoft Recite도 그런 사례로 삼게 되지 않을까 싶다. 우선 데모 동영상을 보면 (앞의 것이 설명은 잘 되어 있고, 실제 상황은 뒤의 동영상이다.) 다음과 같은데, 간단히 설명하자면 왼쪽 버튼을 눌러서 음성메모를 녹음하고, 오른쪽 버튼을 눌러서 그 메모를 음성으로 검색하는 것이다.





공식 웹사이트를 가보면 어느 정도 설명이 있지만, 결국 이건 일반적으로 말하는 음성인식(음성에서 특징점을 찾아서, 인식대상 문자열을 발화할 때의 일반적인 특징점과 비교함으로써, 가장 잘 맞는 문자열을 찾아내는 것)에서 '문자'에 대한 부분을 들어낸 기능이다. 결국 녹음된 음성의 특징점과 입력된 음성의 특징점만을 비교해서, 그 음성이 무슨 내용(문자열)인지와 상관없이 그냥 잘 맞는 내용을 제시하는 거랄까.

이런 방식은 이미 대량의 음성정보(라디오 뉴스 등)의 archive에서 특정 내용을 검색해 내려는 프로젝트에서도 사용되기도 했었으니(미국 워싱톤 근처 어디랑 관련이 있었는데 검색어가 떠오르질 않는다 -_ㅜ 그냥 치매일 뿐) 완전히 새로운 개념은 아니다. 문자열에 따른 특징점을 일반화/DB화 과정이 없으니 같은 사람이 같은 어조로 같은 단어를 말했을 경우에는 적확률이 꽤 높다는 장점이나, 같은 단어라고 해도 다른 사람이 말한 내용은 검색이 잘 안 된다는 단점은 이미 잘 알려져 있기도 하다.

그런데 위 동영상을 보면, 음성과 음성의 특장점을 그냥 일대일로 맞춘 것이 아니라, 검색 음성명령의 특정한 부분 - "What is...?" 라든가 - 은 잘라내고 나머지 부분만으로 matching을 수행하고 있는 걸 볼 수 있다. 이전까지의 voice matching/search가 단순히 특징점 비교였고, 구글의 음성검색이 음성을 문자로 바꿔서 검색하는 거 였다면, 이건 그 중간쯤의 안전한 지역을 선택했다고나 할까. 검색어를 골라내는 것은 음성인식(Speech-to-Text)의 기술을 이용하고, 정작 검색은 적확률이 높은 voice matching을 사용하고 있다.

이 Microsoft Recite는 Voice UI를 디자인할 때 무엇을 고민해야 하고, 어떻게 해결해야 하는지를 보여준 또 하나의 사례라고 생각한다. 비록 휴대기기 안에서만 사용할 수 있다거나 음성메모의 활용성이라든가 하는 단기적인 취약점이 보이긴 하지만, 상정한 범위 안에서 강력한 힘을 발휘하는 게 오히려 HTI의 나아갈 길이라는 점에서는 꽤 의미가 있어 보인다.
신고
Posted by Stan1ey

... 뭐, 그런 논리적이고 설득력 있는 연유로 해서 ( '-')y~, 휴대폰 없는 생활에 지겨워진 어느 날 iPhone을 질러 버렸다. ㅡ_ㅡa;;; 한 이틀 잘 가지고 놀다보니, 인터넷으로 지겹도록 예습한 iPhone 자체의 기능들보다 AppStore에서 다운로드 받을 수 있는 소프트웨어 중에 재미있는 게 너무 많아서 즐거운 비명을 지르는 중이다. 탑재하고 있는 센서와 네트워크 기능, 게다가 뛰어난 그래픽 엔진까지 달려 있으니 뭐 아이디어와 열정과 욕심이 있는 엔지니어들이 얼마나 신이 나서 만들었는지가 보이는 느낌이랄까.

이런저런 재미있는 장난감들이 있지만, 그 중 다음 몇가지 어플은 어떤 식으로든 센서로부터의 입력 신호를 바탕으로 패턴을 인식해서, 그걸 사용자로부터의 암시적 입력으로 사용하는... 뭐 결국은 HTI 어플이라고 할 수 있는 것들이다. AppStore에 올라와 있는 것들 중 전부는 아니겠지만, 그래도 제법 많이 뒤져서 찾아낸 거다.

My Collection of iPhone HTI Apps


1. Movies
iPhone Apps - Movies
iPhone Apps - Movies
영화를 검색하고, 현재 위치에서 가까운 극장에 대한 상영정보와 함께 영화 정보나 예고편을 볼 수 있는 어플이다. 현재 위치를 사용할 수도 있고, 임의의 다른 지역을 '디폴트 지역'으로 설정할 수도 있다. 위치 정보를 이용하는 모든 어플들은 처음 시작할 때 "위치 정보에 대한 접근을 허락하겠느냐"는 확인을 하게 된다. 등록된 영화정보가 많다보니 이 지역과 관련이 적은 영화도 올라와서 걸러내기가 힘들긴 하지만, 그래도 평점 같은 정보는 정말 도움이 많이 될 듯.


2. AroundMe
iPhone Apps - AroundMe
iPhone Apps - AroundMe
마치 LBS의 표본 같은 어플로, 그야말로 사용자의 현재 위치에 기반해서 알려줄 수 있는 유용한 지점 정보를 (구글에 등록된 항목들을 바탕으로) 검색해서 나열해 준다. 카 내비게이션에서 종종 보이는 POI 표시/검색 기능과 비슷하다고 할 수 있는데, GPS로 인해 정확한 위치가 가능하니 얼마나 앞에 있는지를 정확하게 보여주고 구글 맵 지도 위에서 확인할 수 있게 해 준다. 물론 구글 맵 위에는 내 GPS 신호의 위치가 함께 표시가 되니까, 예전에 동영상으로 숱하게 찍어냈던 ubicomp 서비스가 이제 이만큼이나 구현되어 있구나... 하는 느낌이다. 실제로 언젠가 봤던 노키아의 기술비전 동영상 (뭐 왠만한 회사에서는 다 동일한 내용이 있었던 것으로 기억하지만 -_- ) 속에서처럼, 친구들이 서로의 위치를 확인할 수 있다든가 하는 어플도 나와있는데, 무료가 아니라 패쓰. ㅋㅋ


3. SnapTell
iPhone Apps - SnapTell
iPhone Apps - SnapTell
아이폰 어플 중에 영상인식을 사용하는 게 있는 걸 보고 많이 놀랐다. 인식용으로 사용하기에 카메라의 화질도 별로고, 아무래도 모바일 환경에서 찍힌 사진에는 인식을 방해하는 요소가 많이 포함되기 마련이니까. 이 어플은 책/영화포스터/CD표지 등을 찍으면 그에 대한 평과 관련 정보를 보여주는 기능이 있는데, 미국에 출판되었을 법한 책을 하나 집어서 찍어보니 꽤 정확하게 인식하고 있다. 단지 광고와 달리 영화포스터는 몇 개를 해봐도 정보가 없었고, 게임 CD도 인식하지 못했다. 그래도 예전에 언급한 Evolution Robotics사의 기술과 유사한 게 적용되어 있는지, 배경만 깔끔하다면 조금 삐딱하게 찍어도 되는 것 같고, color histogram 같은 게 아니라 제대로 윤곽선 따서 하는 듯 하다. 흑백으로 복사한 책 표시를 인식시켜봐도 똑같이 검색이 되는 걸 보면. ^^; 기왕이면 내가 찍은 사진과 검색된 책 표지를 같이 보여주면 좋을텐데, 검색이 성공했을 경우엔 그걸 확인할 방법이 없으니 간혹 엉뚱한 책이 검색됐을 때 왜 그랬는지를 추정할 수가 없다. (일반 사용자 용의 기능은 아니겠지만 -_- )


4. Evernote
iPhone Apps - Evernote
iPhone Apps - Evernote
사진을 찍어서 저장하면 사진에 포함된 글자를 인식해서 단어로 검색할 수 있게 해준다고 하길래 얼른 설치한 어플이다. 기능은 로컬이지만 결국 영상인식은 위의 SnapTell과 마찬가지로 서버에서 하는 듯, 사진을 등록할 때마다 꽤나 시간이 걸린다. 그런데도, 사실은 인식의 난이도를 넘넘 낮춰가며 여러가지를 시도해봐도 인식이 된 적이 없다. 엔진의 문제인지 뭔지는 몰라도 마치 사장 데모 만큼이나 감감 무소식에 뭐가 잘못 됐는지도 알 수가 없어서 그냥 포기했다.


5. Cactus
iPhone Apps - Cactus
iPhone Apps - Cactus
iPhone Apps - Cactus
iPhone Apps - Cactus
iPhone Apps - Cactus

음성인식 어플이 나와있었다! 그것도 무료로! Cactus Voice Dialer라고 되어 있는 이 어플은 주소록의 이름을 인식해서 전화를 걸어주는데, 전화기에서 VUI의 첫번째 응용이라고 볼 수 있는만큼 좋은 징조라고 생각한다. 무료 어플이긴 하지만 음성인식 다이얼링에 필요한 기능과 옵션들을 두루 잘 갖추고 있고, 음성인식 오류를 최대한 줄이기 위한 지침도 역시나 '아무도 읽지 않을 장문으로' 꼼꼼히 적혀 있다. 실제로 여러 영어이름을 넣어 실험해 보니 처음에는 indexing을 하는지 좀 오래 걸리지만 다음부터는 더 빨리 구동되는 듯 하고(600명 정도 넣었을 경우), 인식률은 그다지 높은 편이 아니었다. 전화번호까지 넣고 해본 게 아니고, 아무래도 실험참가자의 영어 발음이 알아듣기 힘들었던지라 그다지 공정한 판정은 아니라고 해도. -_-
VUI 자체는 가장 일반적인 방식, 즉 Push-to-Talk 방식의 터치 버튼("Speak")을 채용하고 결과를 1개 혹은 옵션에서 선택하면 3개까지 보여주는 식이다. 인식결과에 대해서 무조건 전화를 걸게 한다든가, 인식결과에 나온 사람의 대표 번호를 디폴트 선택으로 할 것인가 라든가 하는 것도 voice dialer를 표방한 이상 들어갈 수 밖에 없는 기능들. 하지만 인식기 자체는 위 그림에서 보이듯이 "Call John Smith's mobile" 따위의 최소한의 구문은 인식할 수 있도록 되어 있다. (IBM에서 VoiceSignal로 넘어오는 대표적인 '전화걸기' 구문 되겠다) 비록 시각적인 (그리고 아마도 인식엔진의) 완성도는 떨어진다고 해도, 이만큼 충실하게 만들어진 어플이 무료로 배포되다니, 정말 유료로 살 정도의 시장은 없는 건가... OTL..


6. CenceMe
iPhone Apps - CenceMe
iPhone Apps - CenceMe
iPhone Apps - CenceMe
이게 또 재미있는 어플이다. 가속도 센서의 입력을 가지고 각 방향으로의 강도와 빈도를 분석해서 사람이 어떤 행동을 하고 있는지, 즉 소위 말하는 "사용자 행동 정황"을 파악하겠다는 시도는 많은 연구가 이루어져 있다. 대부분의 취지는 뭐 휴대단말이 사용자에게 전달할 메시지가 있을 때 그 적절한 '끼어들기' 타이밍을 좀 판단하겠다는 거다. 이메일이 왔다거나, 전화가 왔다거나 하는 메시지가 대표적이고, 소리로 알릴지 진동으로 알릴지 나중에 알릴지 등등의 판단을 유도하곤 한다. 이 어플은 정확히 똑같은 일을 하면서, 그 '정황'을 무려 내 계정의 FaceBook에 연결시켜 보여준다. 이 정황은 2가지 아이콘으로 보여지는데, 앞의 것은 자동으로 업데이트되고, 뒤의 것은 자기가 원하는 아이콘(정황을 보여주는)으로 바꾸거나 사진을 찍어 올릴 수 있다. 덤으로 위치 정보까지 같이 올려주는 모양인데, 어떻게 보면 상당한 사생활 공개라고 하겠다. ㅡ_ㅡa;;;
CenceMe Application on FaceBook
그래도 공짜니까 받아서 여러가지를 테스트해 봤는데, 오른쪽 그림의 몇가지는 어느 정도 잘 인식하고 있었다. (실험 과정에서 룸메이트가 항의하는 사태가 있었다;;;) 이 어플의 문제는 어플이 떠있는 동안에만 센싱 및 업데이트가 된다는 점이 아닐까 한다. FaceBook 업데이트하려고 이 어플만 띄워놓고 다닐 사람은 없을테니까.  그 외에도 아주 심각한 문제를 하나 안고 있는데, 정작 그 사용자는 이런 행동을 하는 동안 자기 FaceBook에 뭐가 표시되고 있는지를 볼 수 없을 거라는 거다. 실제로도 열심히 뛰고 헉헉 거리면서 바로바로 캡춰하지 않으면 위의 장면들도 얻기 힘들었을 거다.


7. WritePad
iPhone Apps - WritePad
iPhone Apps - WritePad
IUI 분야의 선구자 중 한 분라고 생각하는 IBM의 한 연구자가 십년 너머 연구해 온 터치스크린 키보드가 있다. 처음에는 ATOMIK 이라고 부르면서 입력시의 동선을 최적화 시킨 새로운 키보드 배치를 제안했는데, 요즘은 SHARK 라는 이름으로 바뀌고, 배치도 결국 사람들에게 익숙한 QWERTY 자판을 쓰고 있다. 이 연구를 상업화한 것이 ShapeWriter 라는 회사이고, 이 어플은 실제 사용할 수 있도록 개발/공개된 첫번째 상품(?)이다. 아이폰의 다른 기능과 그다지 어울리지 않아서 데모 소프트웨어와 다른 점은 모르겠지만, 그래도 최근 Google Android 위에서도 개발되는 등 활발한 활동을 보이고 있다. 실제로 이 '그려서 글자입력' 방식을 써보면 꽤 편하고 무엇보다 빠르다는 걸 알 수 있는데, 터치스크린이 손가락을 가리는 단점을 잘 극복한다면 (아이폰의 기본 GUI scheme만으로 가능할거다) 이 터치스크린 시대에 잘 맞는 새로운 표준이 될 수도 있을 듯 하다. (뭐 이런 류의 연구가 늘 그렇지만, 한글입력은 아직 지원하지 않는다 -_- ) 위 회사 웹사이트에 가면 상당한 정보가 있으니, 관심 있으신 분은 가봄직하다.


8. PanoLab
iPhone Apps - PanoLab
iPhone Apps - PanoLab
이 어플은 사실 HTI, 혹은 인식기반의 어플이라고는 할 수는 없다. 하지만 여러 장의 사진을 이어붙여 파노라마 사진을 만드는 과정에서, 그냥 평면적인 조합이 아니라 iPhone 카메라의 고정된 화각과 초점거리를 적용해서 구면 상에서 합성하도록 되어 있는 어플이다. 그 덕에 사진 바깥쪽의 왜곡에도 불구하고 좀 더 잘 겹쳐지는 것 같기는 한데, 사실은 아무래도 정확할 수 없어서 뭐 있으나 마나 하다. 그래도 그렇게 합성한 사진을 저장하고 바로 보낼 수 있는 점은 확실히 장점이어서, 돌아다니다가 본 풍경을 공유하거나 할 때 유용할 듯.


9. LlamaLight
iPhone Apps - LlamaLight
PDA를 쓰던 시절에 가장 유용한 필수어플이었던 PalmMirror (화면을 검게 표시해서 얼굴이 비친다;;)와 PalmLight (화면을 하얗게 표시해서 조명으로 쓸 수 있다;;)를 기억한다면, 이 어플에 대한 설명은 왼쪽 화면 만큼이나 단순하다. 단지, 터치하는 위치에 따라 색과 밝기를 바꿀 수 있다는 정도가 다른 점이랄까. 하지만 이 "가장 단순한" 기능을 HTI 기반 어플로 언급하는 이유는 그 플래시 기능 때문이다. 한가지 색상을 선택한 후에 다른 색상 위치를 서너번 같은 간격으로 tap 하면, 그걸 인식해서 그 간격대로 두 색을 번쩍번쩍하는 기능인데, 그냥 버튼 하나 둔다든가 한 게 아니라 터치 간격을 입력으로 받아들이게 한 게 재미있다. 사용법이 너무 숨겨져 있다든가, 사실은 뭐 인식이랄 것도 없을 정도로 단순한 기술이라는 게 좀 그렇지만, 그래도 기능의 단순함에 비하면 훌륭한 HTI 적용이라고 본다.




여기까지가, 현재의 Apple AppStore에서 무료로 구할 수 있었던 9가지 HTI 어플들이다. 정도의 차이는 있고 어쩌면 못 본 어플이 있었을지도 모르겠지만 그래도 꽤 재미있는 콜렉션이라고 생각해서 한번 정리해 봤다. 이 외에도 게임들을 보면 재미있는 기능들이 넘치도록 많지만, 오히려 너무 많아서 뭘 어떻게 봐야 할지 모르겠다.

Chinese Character Input on iPhone
한편으론 기본적인 iPhone 기능 중에서도 GPS를 지도 상에 표시하는 방법이라든가 (정확도에 따라 표시가 다르고, 지도 상의 길을 기준으로 위치를 보정하는 것 같다.), 중국어 입력에 한해서는 필기입력이 가능하다든가 (왼쪽 그림) 하는 점도 HTI의 적용이라고 볼 수 있겠지만, 뭐 너무 널리 알려진 기능들은 또 말하는 재미가 없으니까.

신고
Posted by Stan1ey

필립 스탁 Philippe Starck 의 "내가 디자인을 죽였노라. I killed design." 발언을 보고 이제 미적인 면을 추구하는 디자인의 근원 자체가 바뀌고 있다고 생각하는 나 같은 사람들이 더 있다면, <Interactions>지의 이번 호(9~10월 통합본)를 눈여겨 볼 필요가 있다.

Cover of <Interactions> Sep-Oct edition, 2008

디자인 교육에 대한 내용인가 싶어서 당장 안 읽고 뒤늦게 들춰본게 아쉬울 정도로, 이번 호에 실린 대부분의 기사들은 그 행간을 꼼꼼히 읽어야 할 필요가 있는 내용들이다. 이번 호의 많은 기사들이 오늘날 디자인의 기본 명제들을 다루고 있기 때문이다. 그 명제들은 둘로 요약될 수 있는데, 그것은 "편의성/효율성 이상으로 미학적 경험에 주목해야 한다."는 주장(A)과 "형태 만들기 중심에서 서비스와 전략 중심의 디자인 시대가 왔다"는 주장(B)이다.

UI/HCI를 전문적으로 다루는 학술지에서 내노라 하는 필자들이 왠지 살짝 UI 적이지 않은 주장들을 한꺼번에 기고했다는 것도 참 생경하거니와, 그 주장도 어쩌면 극단적이고 어쩌면 두리뭉수리한지라 몇번이나 다시 읽어봐야 했다. 주요 글들을 내멋대로 대충 띄엄띄엄 얼렁뚱땅 설렁설렁 요약하자면 이렇다. (2주도 넘게 붙잡고 있었음에도, 제대로 이해하지 못했음을 이렇게 강조할 수 밖에 없는 건 원본을 읽으면 이해해 주리라 생각한다. 어찌나 행간에만 의미가 있는지 -_-;;; )

Experiential Aesthetics: A Framework for Beautiful Experience
(A) by Uday Gjendar

- 미(美; beauty)를 미학적 경험으로서, ① Integrative (단지 표면적인 것이 아니라 요소의 조화에 의해 기억에 남고 소구하게 되는 작용), ② Aesthetic (감각부터 지능까지 다양한 수준에서의 가치), ③ Experience (디자인의 주요 대상인 개인이 기술이나 시스템을 접하는 경험)의 세 가지로 분류
- 미(美)를 둘러싸고 있는 프레임워크의 네 가지 요소로, ① Style (How does it look & feel?), ② Performance (Does it work?), ③ Utility (Can I use it?), ④ Story (How does it all connect? What is the purpose?) 를 제시

Toto, I've Got a Feeling We're Not in Kansas Anymore...
(B) by Meredith Davis

- 디자인 실무와 교육의 갭이 점점 커지고 있음
- 디자인 개념이 "know-how"에서 "know-that"으로, 혹은 "공예로서의 디자인"에서 "학문분야로서의 디자인"으로 변화
- 최근 사례들을 통해 5가지 트렌드를 짚어볼 수 있음
  ① 디자인을 통해 풀어야할 문제가 점점 크고 복잡해짐
  ② 디자인을 사용할 사람들을 디자인 과정에 함께 참여하게 함
  ③ 새로 등장하는 기술들과 그 조합에 대한 지식이 필요해짐
  ④ 커뮤니티를 이해해야 할 중요성이 높아짐
  ⑤ 새로운 디자인 실무에 대한 지식 체계가 요구됨
- (솔직히 이 글은 사례 중심의 논리라서 요약할 수가 없었다 -_- )

Design in the Age of Biology: Shifting From a Mechanical-Object Ethos to an Organic-Systems Ethos
(B) by Hugh Dubberly

- 지난 30년간 전자공학의 발전과 디지털 기술은, "생산 도구로서의 컴퓨터"와 "매체로서의 컴퓨터 네트워크"에 기반한 디자인 개념의 변화를 야기
- 이러한 변화에는 ① 근본 개념 (기계공학적 관점에서 디자인을 제시하는 것에서 생태학적/유기적 관점에서 해결안 모색을 보조하는 역할로), ② 사용자에 대한 관심, ③ 서비스 디자인의 등장, ④ 기존 제품에 대한 서비스의 차별화, ⑤ 지속가능한 디자인에 주목 등이 포함
- 이러한 움직임은 60년대 포스트모더니즘과 유사한 측면이 있음

Simplicity Is Not the Answer
(A) by Donald A. Norman

- 모두가 극단적인 단순함을 원함에도 불구하고 실제로 그런 제품은 없음
- 많은 부가기능(feature)이 있는 제품을 사면서도 단순한 조작을 원함
- 원하는 것은 단순함이 아니라, 많은 기능으로 인한 좌절을 피하고 싶은 것
- 부가기능(feature)을 유용성(capacity)과 혼동하거나, 단순함(simplicity)을 사용편의성(ease of use)으로 혼동하고 있어 논란이 잘못 이루어지고 있음
- 좋은 디자인은 복잡함(complexity)을 올바로 다루는 디자인
- 복잡함을 다루는 방법으로는 규격화/표준화(modularization), 매핑(mapping), 개념모델(conceptual models) 등이 있다.

이 글들은 어떻게 보면 해묵은 논박("design" vs "Design")의 반복으로 볼 수도 있지만, 그 내용을 잘 읽어보면 사실 비슷한 주장을 자신의 관점에서 풀어낸, 논박이라기보다 하나의 통일된 의견으로 보이기도 한다.

특히 위 두번째 글의 제목은 이번 호 서문의 제목이기도 한데, 우리가 최근 경험하고 있는 디자인이라는 것이 전통적으로 배워왔던 원래의 모습("Kansas")이 아니라는 것에 동조하는 것 같다. 말하자면 예술과 구분되는 의미에서의 디자인을 배우고 가르치던 사람들로서는 신비한 마법의 나라 "오즈 Oz"에 떨어져 버렸다는 뜻일까. 비록 글에서 담고 있는 주장(A)들은 디자인이 공업화된 제품에 "고급 취향"을 불어넣는다는 산업혁명 시대 디자이너의 주장과 전혀 다르지 않고, 주장(B)들 역시 1994년 Design Management Journal에 실렸던 <Designing Strategic Interface> 라는 논문이나 벌써 10여년전 User-Centered Design의 초창기에 수많은 논문들에서 다룬 것과 비슷하긴 하지만, 최소한 이런 글들이 한꺼번에 경쟁하듯 실리고 또 나름의 타협점을 모색하는 자세를 취하고 있다는 것은 최소한 앞으로 디자인계에는 오즈에 떨어진 도로시 만큼이나 많은 모험이 있으리라는 생각이 들게 한다.

전통적인 UI 디자인계를 떠나 있어서 잘못 느껴지는 것일지도 모르겠지만, 개인적인 경험으로는 이런 논란이 점점 더 심해지다가 이번에 선이 그어져 양대진영으로 나뉜 것 같은 느낌이다. 작년쯤 학계에 있는 동문들과 이야기를 하다가, 어떤 사람은 디자인의 '예술로의 회귀'라고 여겨질 정도의 방향을 잡고 있는가 하면 어떤 사람은 디자인을 순수한 '엔지니어링'으로 접근하고 있는 걸 본 적이 있다. 그때 느꼈던, 디자인이 하나의 분야로 자리잡는 게 아니라 두개의 흐름으로 분화되는 듯한 모습이 이번 호 <Interactions>지에서도 보이고 있는 것이다.

사실 디자인 역사를 공부한 사람이라면, 장식미술에서 디자인이 탄생한 이래에 양산기술에 맞춘 디자인에 대항한 아르누보, 다시 바우하우스와 팝아트 경향, 다시 미니멀리즘과 모던 디자인으로 이어진 갈짓자 트렌드가 우리 세대에서도 어김없이 일어나는구나... 라고 생각할 수 있을 것 같다. 어쩌면 후세에서는 이 사건을 (사실 앞의 문장을 쓰려고 찾아본 블로그의 글에서 차용하자면) "디지털화로 저하된 경험 디자인의 질과 예술적 가치의 복원"이라고 평할지도 모르는 일이다.

하지만 디자인이 태초에 공학과 자본의 세상, 즉 대량생산을 통한 이윤을 전제로 한 "산업"에 뛰어들어 대중을 위한 "예술"의 대변자를 자처하면서, 스스로 공학과 예술의 중간자를 자청했던 것을 생각하면, 다시 그 둘의 입장으로 각각 돌아가는 이런 모습은 심지어 디자인 자체가 애당초 굳이 분화될 필요가 없었던 건 아닌가 하는 생각까지 드는 게 사실이다. 이런 흐름이 - 만일 진짜 존재하는 거라면 - 전통적인 디자이너인 필립 스탁의 발언과 함께 정점을 찍은 "이성적인 디자인" 측면과 (약간 섣부르긴 하지만) 심리학자인 도날드 노먼 Don Norman의 <Emotional Design>을 기점으로 한켠에서 슬슬 고개를 들던 "감성적인 디자인"의 균형이라고 보는 게 맞을지, 아니면 디자인"이라는" 한때 유행한 개념이 다시 각각 원래의 자리로 돌아가는 계기가 될지... 그건 앞으로 지켜볼 일이다.

... 아놔. 그래서 요지가 뭐냐. ㅡ_ㅡ;;; 어쨋든;;



개인적으로 좀더 관심을 끈 쪽은 주장(A) - 미학적 경험 - 쪽이다.

나름 HTI 라는 분야를 표방하는 입장에서 보자면, 이제서야 공학 - 특히 UI 기반기술들 - 이 원숙한 단계에 이르고 디자이너들이 마음껏 그 기술들을 활용할 수 있는 시기가 왔다는 신호탄으로 볼 수도 있을텐데, 솔직히 그렇게 생각하기엔 조금 이르다는 생각이 든다. 그런 기술들이 (순수?) 예술가들에 의해서 이제서야 깊이 이해되어 공예 수준으로 만들어지고 있는 상황에서, 그보다 훨씬 더 철저한 분석과 이해, 그리고 책임이 요구되는 디자인 분야와 무엇보다 이를 받아줘야 할 소비자 시장에 반영되려면 좀 더 시간이 필요한 건 아닐까?

그럼에도 불구하고, "미학적 경험"에 주목하자는 위의 글들에서 예시로 들고 있는 제품들은, 대부분 단지 제품이나 화면 상의 형상이 아닌 다양한 '새로운' 경험을 주는 사례들이다. 앞으로도 다양한 센서와 온갖 화려한 표시방법을 동원하는 UI가 등장하리라는 것은 자명한 사실이고, 단지 그런 센서와 표시방법들을 "미학적 경험"의 측면에서 접근해야 한다는 것은 좀 더 HTI의 영역과 활동범위, 그리고 시야를 넓혀야 한다는 방향성을 제시하고 있다.

... 이쯤해서, 누군가 "너 사실은 암 생각 없지?" 라고 해도 사실 할 말 없겠다.

예전에 한 직장동료가 만든 (물론 다양한 센서와 표시방법으로 구현된) 새로운 방식의 컨트롤러를 사용해 보면서, "이거 정말 쿨하다... 근데 왜 쿨한지 설명하기가 어렵네..."라고 하며 "이걸 어떻게 보고하지 -_-a "라고 머리를 긁적였던 적이 있다. 미디어 아트 분야가 제품의 UI를 선도할 거라면서 미디어 아트에 대한 UI 관점의 프레임워크가 필요하다는 고민을 하던 동료도 있었고. 그 친구들, 이제는 슬슬 날개를 펼 수 있을지 모르겠다. 미학적 경험이래잖냐. 화이팅. :)

신고
Posted by Stan1ey
영국의 TV 광고를 보다가, 이런 멋진 작품을 만났다.



방향제로 유명한 Glade사에서 만든 "Sense & Spray"라는 신제품인데, 모션센서를 이용해서 사람이 앞에서 활동하는 순간에만 효율적으로 방향제를 뿌리도록 되어 있는 듯 하다. 즉 화장실에 있는 일정 시간 간격으로 방향제를 살포하는 기계에 비해서 진일보한 형태라고나 할까. 남자 화장실의 소변기에 붙어있는 방향제가 passive한 형태라면, 이건 좀 active한 형태의 intelligent UI를 보여주고 있다. 뭐 사실 여기까지는 소위 스마트 가전, 지능형 제품을 이야기할 때 몇번이나 나옴직한 응용사례인데, 이 광고의 내용은 그런 제품을 소비자가 창의적으로 활용하는 모습을 보여주고 있어서 재미있다.

Screenshot from Glade Sense & Spray TV Ads

센서를 이용하는 제품이 나오면, 사실 흥미있는 것은 그 제멋대로인 - 결코 디자인할 때 의도한 대로만 동작하지 않는다 - 물건들과 사용자가 어떻게 공존할 것인가에 대한 것이다. 예전에 청소로봇을 사무실에 풀어놓았을 때에도 목격했지만, 처음에는 거부감을 나타내는 사람도 과도한 기대를 갖는 사람도 있겠고, 그게 개인의 경험에 따라 나중에 어떻게든 반대로 발전하는 경우도 있지만, 제공하는 기능이 진짜 유용한 기능이라면 이 광고에서처럼 어떻게든 자신에게 맞는 가장 좋은 조합을 찾아낼 것이다. 그 청소로봇이 앵벌이를 하게 만들고 장애물을 건널 수 있는 빗면을 만들어줬던 것처럼.

어떤 지능형 제품이든지 사용자로 하여금 그 "공존의 조건"을 빨리 찾아낼 수 있도록 하는 방법이 주어진다면, 그게 그 제품이 uncanny valley를 빨리 건너 일상의 제품으로 자리잡을 수 있는 지름길이 되지 않을까.
신고
Posted by Stan1ey

an Introduction to HRI

2008.08.12 00:17

Human-Robot Interaction에 대한 연구가 한창 싹이 터서 물이 오를 무렵, HCI Journal의 HRI 특별호의 소개문이 어쩌다 구글 검색에 떴다. 2004년이니 이젠 곰팡내가 날만도 하지만, 내가 그동안 공부를 하지 않은지라 이런 자료도 고맙기 그지 없다. 그래서 스크랩.


게임에서도 HRI의 지식을 이용할 날이 올까? 분명히 올꺼라고 호언장담하긴 했지만, 솔직히 그게 언제가 될지는 잘 모르겠다. 혹은, 이미 HRI의 허상에 대해서 게임이 증명해 버린 후에야 이러고 있는 건 아닐까 싶기도 하고.

신고
Posted by Stan1ey

Exoskeleton for Sale

2008.07.03 21:41

외골격계 로봇 강화복...하면 내게 떠오르는 이미지는 이렇다.

Exoskeleton from Bubblegum Crisis
Exoskeleton from Iron Man

(왼쪽은 내가 강화복을 처음으로 - Starship Troopers보다 먼저 - 접한 애니메이션 Bubblegum Crisis ^^* , 오른쪽은 가장 최근의 영화 Iron Man이다.)

뭐 이런저런 SF 매니아로서의 소회는 접어두고, 이게 슬슬 실제로 팔리나보다. 몇년전 버클리 대학에서 BLEEX라는 미군용 강화복을 만든다며 크고 무겁고 뜨겁고 시끄러운 배낭을 맨 군인복장의 사진을 돌렸을 때는 참 돈이 많으니 별 걸 다 하는구나 싶었고, 얼마 후 일본의 츠쿠바 대학에서 HAL이라는 물건을 만든다며 쌀가마니나 여성관객을 번쩍번쩍 들어올리는 시범 동영상이 돌 때는 그냥 쇼를 한다고 생각했던 것 같다.

BLEEX from UC Berkeley
HAL from Cyberdyne


그런데, 오른쪽 강화복 HAL - Hybrid Assistive Limb - 이 일본 내 판매를 시작했다. 물론 시장에서 쌓아놓고 누구나 살 수 있는 가격으로 파는 건 아니지만, 실제로 판매를 담당하는 회사가 생기고 구매상담을 할 수 있는 웹페이지가 있다!

Screenshot of Cyberdyne Website

마치 소니에서 로봇 강아지 AIBO를 처음 팔기 시작했을 때의 느낌이다. 한편으로는 이 사람들이 미쳤나? 이게 시장성이 있나? 싶고, 한편으로는 UFO를 주웠나? 미래에서 온 거 아냐? 라는 생각도 든다. 어느 쪽이든 이 회사 - Cyberdyne - 는 역사 속에 외골격계 로봇 강화복을 최초로 상용화한 회사가 될테지만. (그나저나 회사 이름은 영화 <Terminator>에서 인류절멸을 추진?한 컴퓨터를 만든 회사의 이름이고, 상품의 이름은 영화 <2001: A Space Odyssey>에서 승무원을 모조리 살해하려 했던 우주선 컴퓨터의 이름이다. 도대체 뭘 생각하고 있는거야... ㅡ_ㅡ; )

위의 두 물건 다, 사실 별도의 사용자 인터페이스라고 할만한 것은 없다. 아니, 정확히 말하자면, '전통적인 의미의' 사용자 인터페이스는 없다고 해야 하겠다. "사용" 전에 세밀한 설정 등을 어딘가 붙어있을 무슨 버튼과 화면을 통해서 미리 해야 할지는 모르겠지만, 중요한 사용법은 그냥 "움직이고 싶은대로 움직이면" 나머지는 기계가 알아서 지원해주는... 그야말로 Intelligent UI의 궁극적인 모습을 보여주고 있는 것이다. 사실 내 팔다리를 움직이는 데에 하나하나의 움직임을 명시적으로 지시할 수는 없다고 하더라도, 저렇게 많은 관절들을 동시에 움직이는 데 [예비]동작을 통한 암묵적인 지시가 과연 안정적인 사용성을 제공할 수 있을까? 그것도 이 말 한마디 통하지 않는 - 굳이 분류하자면 - '로봇'을 대상으로 말이다.



VTAS: Visual Tracking Acquisition System
Cyberdyne사의 HAL처럼 근전도도를 이용한 명령방식이나, 전투기 조종사의 안구추적을 이용해서 목표를 조준하는 선택방식은 IUI의 사례 중에서도 아주 특별히 성공적인 사례다. (몸의 기울임으로 전진/후진/회전을 조정하는 방식은 반대로 명백한 실패사례다.) 성공 사례들의 공통적인 특징이라면 역시 주어진 분야에 특화된 극히 제한된 영역을 사용했다는 것이 되려나? 그 제한된 영역이 굳이 "틀려도 상관없는 기능"이라는 주장은 이제 "비겁한 변명"으로 치부될 수 있을 것 같다.

사실은 뭐 눈엔 뭐만 보인다는 좋은 예시일지도 모르겠지만... 아무래도 센서 기반의 암묵적 입력과 인공지능 기반의 인식 알고리듬이 결합된 앞으로의 HTI에서는, 인간과 기계 간의 기능 분배와 협업(Autonomy vs. Control)이 UI 디자인의 핵심이 될 것 같은 생각이 든다.

신고
Posted by Stan1ey
급고백. 나는 애니메이션 <공각기동대>에 나온 "다치코마"라는 로봇을 좀 과하게 좋아한다. -_-;; 사무실 책상에는 작은 피규어 인형이 숨어있고, 집에는 조립하다 만 프라모델도 있다. 한동안 PC 배경으로 다치코마를 깔아두기도 했고.

Tachikoma Welcoming

애니메이션을 본 사람이라면 공감하겠지만, 인간적인 상호작용과는 전혀 동떨어지게 생긴 이 로봇(들)은 독특한 장난스런 말투와 동작, 그리고 무엇보다도 더없이 인간적으로 만드는 그 호기심으로 인해 그야말로 사랑스러운 캐릭터라고 할 수 있다.

하지만 내가 다치코마를 좋아하는 건 거기에 더해서, <공각기동대>에서 다치코마가 맡고 있는 '캐릭터' 때문이다. 다치코마는 '대체로 인간'인 (세부 설명 생략;;) 특수부대 요원을 태우고 달리거나, 그들과 함께 작전에 투입되어 어려운 일(이를테면, 총알받이)을 도맡는다. 이들은 인간에 준하는 지능을 갖고 인간을 돕지만, 자신들이 로봇임을 알고 있고 부상이나 죽음에 대한 두려움이 불필요함을 안다. 하지만 시리즈가 거듭될수록 다치코마의 집단지능이 높아지고, 이들은 점차 사유라고 할 수 있는 수준의 대화를 하게 된다.

Tachikoma Discussing

"인간보다 뛰어난 인공지능이, 왜 인간에 의해 통제되어야 하는가?"
"전뇌를 가진 인간이 왜 여전히 비효율적인 언어를 사용하는가?"
"로봇에게 죽음은 아무 의미가 없는가?"
"남을 위해서 자발적으로 자신을 희생한다는 이유는 무엇인가?"

이런 '담론'들은 아주 조금만 과장하자면, 이미 우리 생활에 들어와있는 많은 자동화 기기와 Intelligent UI의 이슈인 Autonomy vs. Control 에서 다뤄져야 할 내용이다. 청소로봇의 사례까지 갈 것도 없이, 사람이 가까이 가면 열리는 자동문에서부터 이러한 이슈는 크고 작은 사용성 논쟁을 벌일 수 있는 소재가 된다. 실제로 <공각기동대>의 어떤 에피소드들은, 보다가 자꾸 HRI 이슈가 등장하는 바람에 몇번이나 되돌려 보곤 한다.


실은, 이 다치코마를 간단한 대화와 제스처가 가능한 정도로 만든 '프로토타입'이 공개되어서 이런저런 생각이 들어 한번 적어 보았다.



물론 위의 '더미'에는 별 관심이 없다. (판매용이 아니라고도 하고;;) 하지만 미래에 다치코마의 머리가 될 인공지능의 발달과, 그 훨씬 전단계인 오늘날의 상용화된 인공지능들 - 다양한 센서와, 단순하더라도 무언가를 판단하는 중첩된 if 문들 - 은 아무래도 굉장히 많은 숙제를 던져주려고 저 멀리서 성큼성큼 걸어오고 있는 게 분명하다. 이제는 발소리가 들릴 정도로 아주 가까우니까 말이다.

Tachikoma Exhausted

신고
Posted by Stan1ey

Pre.Script.
이런... 페이지가 넘어가는 바람에, 이 글을 쓰다가 만 걸 잊고 있었다. 어느새 한달이 다 되어가는 ㅡ_ㅡ;;; 그냥 대충 끄적거려 스크랩 삼아 띄워두자.


참고: <터치스크린 제품, 불편하다는 응답 90% 넘어> from AVING (05.23)

... 지난 4월24일에 열린 '터치스크린 패널 애플리케이션 & 테크놀러지(Touch Screen Panel Applications & Technologies)' 컨퍼런스 참석자를 대상으로 한 '터치스크린의 강점 및 상품성' 관련 설문 조사에 따르면 터치스크린 제품 사용시 불편 사항을 묻는 질문에 96.3%가 불편한 점이 있다고 답했으며, 사유로는 오작동이 79.0%, 문자 입력시가 54.3%, UI가 37.0%로 뒤를 이었다.
   (중략)
디스플레이뱅크(대표 권상세)가 조사한 이번 설문조사에서 응답자 218명중 84.6%는 터치스크린이 적용된 제품을 보유하고 있었으며, 이중 27.7%는 2개 이상의 제품을 보유하고 있는 것으로 나타났다. 터치스크린 탑재 제품의 강점으로 디스플레이 공간 활용 증대 및 스타일리쉬한 디자인 등을 꼽았다. ...

결국 이런 기사가 뜨고 말았다.

터치 패널(on-screen이든 아니든)을 처음 연구할 때에도, 가장 문제가 되고 풀어야 할 숙제였던 것이 이른바 "오터치(惡-Touch)"라고 불렀던, 사용자가 의도하지 않은 터치입력 현상이었다. 어떻게 보면 센서기반 Intelligent UI의 대표적인 문제점 - 명확한 명령이 아닌 함축적인 의도파악에 의해 동작 - 을 보여준다고 할 수 있는 이 상황은, 또한 전형적으로 불완전한 해결방법들을 제시하고 있다.

이 '의외의 터치'를 막기 위한 방법으로 상업적으로 제시된 것은:
① 어느 정도 이상 사용하지 않으면 터치 입력을 disable 한다.
   : 특히 모바일기기에서, 기본적으로 적용되는 방식
② 하드웨어 상에 Hold 버튼을 넣고, 눌러서 Unlock해야 터치를 사용한다.
   : 대부분의 터치 기반 휴대폰에서 제공하는 방식
③ 중요 기능에 대해서는 Touch(Tap)가 아닌 Drag를 이용한다.
   : Apple의 터치기반 제품에서 위의 Unlock 기능을 위해 쓰는 방식
   : Neonode의 터치 휴대폰에서 명령을 위해 쓰는 방식

... 등이 있지만, 사실 그 어떤 것도 좀더 불편하게 만듦으로써 오류를 줄인 것일 뿐이고 Touch의 편리함을 유지해주지 못한다. 이외에 제스처를 이용하거나 다른 센서를 추가해서 터치 외의 방법으로 해결하려는 사례는 그야말로 연구실마다 하나씩 가지고 있는 것 같지만.

이게 터치라는 새로운 입력방법의 대세로 넘어가기까지의 과도기적 현상일까? 아니면 GUI 시대의 끄트머리에 잠깐 지나가는 유행의 종말을 예견하는 현상일까? 여러가지 생각이 드는 기사였다.

신고
Posted by Stan1ey

예전 웹툰들을 들춰보다가, 지난 2006년 11월 28일자 와탕카를 보고 그냥 스크랩해 놓으려고 한다. 전체를 갖다놓는 건 요즘은 좀 위험할 것 같고, 그냥 로봇의 궁극적인 '인공지능'에 대해서 가장 인간적인 부분 - 게으름과 눈치 - 이 구현되었을 때의 로봇 청소기를 상상한 장면이 재미있다. (전체 스토리는 위 링크를 참조할 것)

와탕카 685호 (06.11.28)

로봇의 인공지능에 빗대어 인간의 "지능적인" 속성을 이야기하는 것은 웹툰에서도 자주 보이는 모습이다. 일전에 컴퓨터 대 인간의 카드 게임에서 인간이 인간 만이 가지고 있는 특징 - bluffing - 을 이용해서 컴퓨터를 이겼다는 뉴스와 맞물려서, 참 이런 로봇이 나온다면 나름대로 귀엽겠다는 생각이 든다.

물론 그 수준의 인공지능을 영화 <I, Robot>이나 <The Matrix>에서처럼 사용하지 않는다는 보장은 전혀 없지만. ㅡ_ㅡ;;;

신고
Posted by Stan1ey
저녁을 먹으면서 사무실에 굴러다니는 Dr. Dobb's Journal을 보다가, "Getting Better Search Results: Human-aided filtering can make the difference" 라는 기사를 보게 됐다. (어라. 이거 2008년 5월호다 -_-;;; 미래에서 배달왔나... 그래선지 인터넷에서는 검색이 안 된다. 이거 뭐야.. 몰라 무서워 ;ㅁ; )

Human-Aided 라... 내가 이런 표현을 본 적은 대학에서 배웠던 Computer-Aided Design (CAD) 이라든가 Manufacturing (CAM), Engineering (CAE) 같은 명칭을 통해서 였다. 학과 과정 중에 Computer-Aided Industrial Design (CAID) 라는 강의를 두세번 들어야 했기도 했고. 어쨋든 "aided"라는 단어 앞에서는 "computer"만 있는 줄 알았는데, "Human-Aided"라니 재미있다.

이거 새로운 흐름인가?

그래서 구글신께 여쭤봤더니, 이미 골백년전부터 있는 개념이라고 나무라신다. 특히 검색 분야에 있어서 human-aided search 라는 건 인터넷의 태초부터 yahoo에서 쓴 거고, naver에서도 쓰고 있는 거고, 그 외에도 컴퓨터에 의존한 지능에 만족하지 못하는 많은 분야에서 쓰는 방식이라는 거다.

풀이 죽어 있다가 발견한, 첫번째 링크. "Human-Aided Computing" ... 이거 이름 섹시하다. 들어가보니 Microsoft에서 두뇌를 읽어서 인공지능의 부족한 부분을 채우려한다는 내용이다. 짜식들 돈이 많으니 별 걸 다... 그나저나 참 황당생소불쾌한 연구네... 하고 읽다가, 뜻밖에 아는 이름을 발견했다.

Desney Tan

이번 CHI 2008 학회에 무려 5편의 논문에 이름을 올리면서, 내 레이더에 걸린 사람이다. 알고보니 학회 committee 중의 한명이었고, 마지막 날에는 연단에서 paper review process를 총괄했는데 힘들었다고 푸념하던 젊은 남자다. 그런 사람이 HCI와는 다소 거리가 있는 EEG 연구라니?

위 기사에 링크된 홈페이지를 보니 재미있는 연결고리가 계속 나온다. Microsoft에서는 BCI 팀을 이끌고 있고, IUI 관련 연구를 많이 해온 Eric Horvitz도 거기에 참여하고 있고, 닌텐도 Wii Remote로 신나게 뜨고 있는 Johnny Lee와도 연결이 있다. 전공은 HCI 지만, BCI 는 물론 위 기사와 같은 인지공학 (혹은, 응용 인지과학) 분야의 연구도 하고 있는 거다.

이 사람... 눈여겨 봐야겠다.



P.S.
Detecting faces with human-aided computing

참고로 위의 "
Human-Aided Computing" 기사는, 인간의 두뇌 중 특정영역이 사람 얼굴을 볼 때 활동이 많아진다는 것을 이용해서 (여기까지는 뇌과학 혹은 인지과학 분야에서 이미 잘 알려진 사실이다) 이미지 속에 사람 얼굴이 있는지 없는지를 컴퓨터 대신 인간이(!) 판별해 낸다는 것이다. 특히 같은 이미지를 2번씩 보면 정확률은 98%까지 나온다고 하니 사실 꽤 쓸만한 시스템인 셈이다.

물론 무슨 영화 <매트릭스>도 아니고 실제로 인간을 프로세서로 쓰는 것이 최종 목적은 아니고, 그 결과를 reference로 해서 컴퓨터를 학습시킨다면 컴퓨터의 성능 향상에도 기여할 수 있을 것이라는 내용이다. ... 물론 두뇌를 실시간으로 정밀하게 읽기위한 fMRI 라든가 하는 방식이 더욱 더 개발된다면, facial lobe 같은 눈에 띄는 영역뿐 아니라 모든 종류의 tagging에 인간 프로세서를 쓰는 편이 훨씬 효율적이겠지만. ... ㅎㄷㄷ.
신고
Posted by Stan1ey

BLOG main image
by Stan1ey

카테고리

분류 전체보기 (347)
HTI in General (45)
User eXperience (11)
Voice UI (50)
Vision UI (14)
Gesture UI (25)
Tangible UI (28)
Robot UI (14)
Public UI (9)
Virtuality & Fun (56)
Visual Language (15)
sCRAP (70)

글 보관함



www.flickr.com
This is a Flickr badge showing public photos and videos from Stan1ey. Make your own badge here.