마이크로소프트에서 Surface Computing을 가지고 구형으로 뿌리나 싶더니 이번에는 SecondLight라는 개념을 추가했다고 한다. 첫번째 소식을 듣고는 저걸 어떻게 만들었을까를 이리저리 그려봤었는데, 동영상에서는 2개의 프로젝터와 액정필름을 이용했다는 것만 이야기하고 있다.



저 위의 손으로 들어 옮기는 '스크린'은 그냥 기름종이라고 하니, 결국 거기서 뭔가 하지는 않을테고, 결국 뭐 프로젝터에서 나오는 광선을 하나는 가로방향, 하나는 세로방향의 편광필터를 통과시켜서 역시 편광필터가 있는 스크린에 투과해서 편광 방향이 일치하는 화면은 상이 맺히지 않고 통과, 일치하지 않는 화면은 상이 맺히는 거 아닐까라는 게 첫번째 생각이었다.

그랬다가 다른 곳에서 접한 동영상은 좀 더 자세한 설명이 포함되어 있었다.



결국 대충은 생각한 것과 비슷하지만 테이블 스크린의 편광 필터도 액정으로 동작하는 전자식이었다는 건 좀 의외다. SecondLight를 이용하지 않을 경우에는 전원을 꺼서 (즉, 빛을 거르지 않음으로써) 화면 밝기를 확보하거나, 아니면 그냥 두가지 화면이 모두 맺히는 걸 보면서 두 화면의 X, Y축 좌표를 맞추고 디버깅하는 용도로 쓰이는 거 아닐까 싶다. (원래 AR 계열 연구는 뭐 하나 세팅하려면 이 가상세계와 현실세계를 서로 calibration하는 게 큰 일이다. ㅡ_ㅡ;; )

SecondLight Explained from Microsoft

... 근데 고해상도 카메라라는 게 얼마나 고해상도인지 모르겠지만, 일반 사람들이 생각하는 고해상도 - 요새는 1600×1200 해상도의 디카사진도 고해상도로 안 치는 듯 - 라면 이 뒤에는 데스크탑 PC 본체가 2대는 연결되어 있어야 할 거다. 어쩌면 그 둘에서 인식한 영상을 연동해주는 정보처리 PC가 하나 더 필요할지도 모르고. 그게 아니라 영상인식에서 말하는 고해상도 - 640×480이나 요새는 혹시나 800×600 정도도 가능하려나 - 라면 멀티코어 PC 한 대로 어떻게 될 것도 같고. 어쨋든 PC가 빠지는 바람에 이 그림이 많이 간단해진 것 같다.



잠시 딴 이야기로 새자면, 2005년 쯤인가 HelioDisplay라는 '공중에 투사되는 화면'이 꽤나 주목받은 적이 있다.



내가 이 제품을 직접 볼 기회가 있었던 것은 2006년 6월에 있었던 전시회에서 였는데, 아래와 같은 사진을 찍으면서 이 제품의 '숨겨진 모습'을 볼 수 있었다.

3D Projection in the Air ... and the wall behind.3D Projection in the Air ... and the wall behind.

위 그림에서의 3D 공간 상의 스크린(사실은 수증기로 만든 2D 막으로, 특수한 노즐이 달린 가습기라고 생각하면 된다. 실제로도 물을 리필해줘야 하는데, 회사 광고에는 그런 소리 절대로 안 나온다. ㅎㅎㅎ )에 화면을 투사하는 방식으로 적당한 거리(이론 상 약 3m 떨어지면 양안시차로 구분할 수 있는 물리적/지각적 입체감은 거의 의미가 없고, 이미지 상의 패턴을 인지적으로 해석함으로써 입체감을 느끼게 된다.)에서 떨어져서 보면 실제 뭔가가 입체적으로 떠있는 듯한 느낌이 들기도 한다.

HelioDisplay with Somehow-Black Background
하지만 저 수증기 스크린은 투사되는 빛을 제대로 잡아주지 못하기 때문에 화면이 어둡고 화면 자체도 반투명하다. 그러다보니 회사 웹사이트의 이미지도 교묘하게 배경을 검게 만들었고, 위의 동영상이나 전시장도 검은배경을 만드는 게 관건이었던 것 같다. 위의 직찍 사진 중 한장은 일부러 비스듬하게 찍어서 흰색 배경을 넣었는데, 화면이 전혀 보이지 않는 걸 볼 수 있다.

저 위의 사진을 찍고 뒤돌아 서다가 본 광경은 좀 더 놀라왔는데, 스크린의 투과성이 높다 보니 화면에 뿌려지는 내용이 그대로 뒷쪽에도 뿌려지고 있었던 거다.



... 다시 Microsoft의 SecondLight로 돌아와서 -_-a;;

이 놀라운 시스템도, 결국은 테이블 스크린를 반투명하게 한 장치이고, 두번째 화면만 생각하자면 거의 대부분이 테이블 표면을 통과하기 때문에 그냥 투명하다고 할 수도 있겠다. 결국 동영상에서 보이는 두번째 화면은 사실 작은 화면(기름종이)에만 뿌려지는 게 아니라 천정과 발표자의 얼굴에도 뿌려지고 있을 것 같다. 그것만 해결한다면 실용적으로도 쓸모가 있을텐데, 지금으로선 천정이 높거나 검은 곳에서만 사용해야 할 것 같은 시스템이다. 특히 누군가가 테이블에 붙어서 열심히 쓰고 있다면 다른 사람은 모두 사용자의 얼굴에 비춰진 두번째 화면을 볼 수 있을지도. ㅎㅎ
신고
Posted by Stan1ey

얼마 전 대한항공을 타고 오다가, 기내 VOD 시스템의 UI가 터치스크린 기반으로 대대적인 개편을 했길래 한번 이것저것 찔러 봤다. 새로운 터치스크린 시스템은 좌석에 부착된 리모컨과 함께 사용할 수 있어서, 커서를 움직이고 클릭하기 위해서 손가락을 이용할 수도 있고, 리모컨의 상하좌우/선택 키를 이용할 수도 있었다.



그런데 뭔가 이상하다... -_-+ (마음에 들었으면 왜 이러고 있겠냐 ㅡ_ㅡa;; )

어떤 화면에서는 터치를 하면 그게 클릭가능한 영역이든 아니든 커서가 따라오는데, 어떤 화면에서는 클릭가능한 영역이 아니면 커서가 따라오지 않는다. 그런데 커서가 따라오지 않는 영역에서도 터치한 후에 리모컨을 조작해보면, 뒤늦게 그 위치로 커서가 따라오는 것을 볼 수 있다.

또 어떤 화면으로 진입할 때에는 커서의 위치가 이전 화면에서의 위치가 아닌, '디폴트 선택' 위치로 훌쩍 이동해 있기도 하다.
 
잠자는 사람을 위해서 기내에 불을 꺼둔 시간에 찍은 관계로 화질은 매우 열악하지만, 두번째 상황에 대한 사용 sequence를 몇개 예로 들자면 다음과 같다. (첫번째 상황은 동영상으로 보는 수 밖에 없겠다;)

GUI of In-flight VOD System for KALGUI of In-flight VOD System for KALGUI of In-flight VOD System for KAL
(2-1) 커서가 클릭한 지점으로 이동해 있다.

GUI of In-flight VOD System for KALGUI of In-flight VOD System for KALGUI of In-flight VOD System for KAL
(2-2) 커서가 이동한 화면의 첫번째 항목('디폴트 선택')으로 이동해 있다.

조작과 반응이 이렇게 따로 움직이는 듯하게 구현된 이유는, 분명히 조작 레이어(커서)가 시스템 레이어에서 구현된 게 아니라 반응 레이어(GUI)의 일부로서 구현되었기 때문일 것이다. 즉 터치입력이 들어오면 시스템 수준에서 커서가 이동하든가 하면서 그 좌표값이 기능을 수행하고 반응을 보여야 하는데, 이 경우에는 터치입력에 따라 기능이 수행되고 반응하면서 비로서 커서를 표현하도록 되어 있는 것이다.

Design suggestion for VOD GUI
도대체 왜 이렇게 만들어야 했을까? 특히 터치스크린에서 커서는 별 소용이 없는데다가, 위 GUI 들에서 볼 수 있듯이 리모컨으로 커서를 픽셀 단위로 힘겹게 움직여 버튼을 클릭하기보다, 버튼 테두리를 커서로 활성화 시키고 한번 누르면 한 항목씩 움직이는 방식이 좀더 효율적이지 않았을까?



몇년 전, 터치스크린 기반의 ATM 기기를 위한 UI를 만들면서 onMouseOver 이벤트를 사용한 후배에게 잔소리를 했던 기억이 난다. 터치스크린 UI는 일반적인 GUI와 다른 점이 있을텐데, 그걸 생각하지 않았다고 말이다. 내가 만일 이 VOD 시스템의 UI를 만든 사람을 만난다면, 그 때의 열배 정도는 잔소리를 쏟아부을 것 같다. 여기에도 onMouseOver 이벤트가 있는 건 물론이지만, 시스템 전체에 걸쳐서 어느 한 곳에서도 픽셀 단위의 좌표입력이 필요한 곳이 없는데 (있다고 해도 그 부분만 그렇게 만들면 될 일이다) 왜 그냥 머릿속에서 나오는대로, 혹은 심지어 만들기 간편한 대로 이런 UI를 만들었냐고 말이다.

대한항공에서야 새로 개편한 GUI가 이전보다 "예쁘니까", 그리고 이전보다 "많은 컨텐트"를 제공하니까 뭔가 큰 일을 했다고 생각할지 모르겠지만, 난 수많은 승객이 침침한 기내에서 리모컨 버튼을 꾹 누른채 참을성있게 커서가 날라가는 터치스크린 화면을 응시하는 모습을 목격한 입장에서, 이걸 만들기 위해서 투자된 돈이 어느 개념없는 UI 디자이너에게 흘러갔을 걸 생각하면 좀 속이 쓰리다.
신고
Posted by Stan1ey
예전에 "햅틱폰"이라는 마케팅에 대해서 투덜거린 적이 있었는데, 이게 생각보다 더 안 좋은 방향으로 발전하고 있다. 포털에 실린 기사에 따르면, 모 회사에서 내비게이션에 햅틱 방식을 적용했다고 한다.

EnNavi 3.0 by SK Energy (with So-sold Haptic UI)

처음엔 굉장히 반가운 소식인 줄 알았다. 햅틱 기술의 문제점 중 하나가 그 구동부가 크고 전력소모가 크다는 건데, 자동차의 경우엔 이 두 가지 문제에 대해서 무척 관대해질 수 있기 때문에 예전에도 잠깐 언급했던 iDrive 같은 응용사례가 나타날 수 있었던 것이다. 자동차 안에 들어가는 정보기기라면 햅틱 기술이 적용되는 데에 다른 모바일 기기보다 제약이 훨씬 적을테고, 나름 재미있는 햅틱 UI가 등장하는 거 아닐까 싶었다.

그러나... 기사 중의 이 문장을 보고는 정말 울화가 치밀었다.

'엔나비 3.0'은 햅틱 방식을 적용해 운전 중에 자주 쓰는 메뉴를 드래그를 통해 불러올 수 있다.

진동도 아니고, 그냥 드래그란다. 물론 기자가 만든 문장이기보다는 회사의 홍보자료이 있던 내용이겠지만, 이 무슨 "다께시마는 일본 땅"에 비견될만한 발언이란 말이냐. 이 문장 앞뒤로 펼쳐진 내용을 보면 일전의 내 우려를 훨씬 뛰어넘는, 터치를 이용한 UI, 혹은 터치를 이용해서 화면 구성을 바꿀 수 있는 UI를 그냥 싸잡아 "햅틱"이라고 부르고 있다.

... '햅틱' 연구자 여러분, 다른 단어를 찾아야 하겠습니다. '택타일 tactile'은 왠지 자존심 상하고 '키네스테틱 kinesthetic'은 잘 안 팔릴 것 같으니 그냥 '키네틱 kinetic' 어때요?
신고
Posted by Stan1ey
대부분 노트북에 달려있는 터치패드를 공급하고 있는 시냅틱스 Synaptics 사에서 단순한 터치 외에 그동안 Apple 제품에서만 상용화되었던 손가락 제스처들을 속속 구현하고 상용화하고 있다고 한다.

Samsung K7 MP3 Player with Circular Finger Gesture
작년 10월에 발표된 카이럴모션 ChiralMotion 은 이미 삼성의 MP3 Player에 적용된 기술이고 다른 몇가지 제품에 적용되어 있는데, 사실 Apple의 터치휠과 같은 동작을 일반적인 터치패드에서 사용할 수 있게 만든 것이다. 구현을 위해서 몇가지 알고리듬이 들어갔다고 하지만, 수많은 학생 프로젝트에서 봤던 것과 얼마나 다를지는 미지수다. 함께 발표된 Momentum 이라는 기법도 논문은 물론이고 다양한 소프트웨어(특히 게임)에서 자체적으로 구현된 기능이다. 오히려 주목할만한 것은 물론 Apple iPhone에도 들어갔던 pinch gesture 라고 하겠다. 물론 시기적으로 "따라하기"라는 게 역력히 보이는 관계로 좀 쯔쯔..싶지만, 어차피 애플도 그 개념을 처음 만든 게 아니니까 뭐.

YouTube에 올린 홍보 동영상도 심각한 면이 없이 재미있다. ㅎㅎ



Two-Finger Flick
지난 9월 30일자로 발표된 ChiralRotate 와 Two-Finger Flick도, 조금 더 복잡한 알고리듬을 필요로 하지만, Two-Finger Flick의 경우 기존에 Apple의 MacBook에 오래전부터 구현되어 있었고 (원래 오른쪽 클릭을 대신하는 선택적인 기능이었다가 최근 스크롤 등이 추가되긴 했지만), ChiralRotate은 최근에서야 부가된 기능이라는 차이가 있을 뿐이다.

Advanced Touch Control, Commercialized by SynapticsAdvanced Touch Control, Commercialized by Synaptics



애플에서 이미 다 구현한 기술임에도 불구하고 시냅틱스 사의 발표에 주목하게 되는 것은, 이 회사의 터치패드가 대부분의 노트북에 들어가기 때문일 것이다. 애플에서 이런저런 제스처 입력 기술을 상용화한 것은 특정한 노트북과 OS를 사용하는 사람에게만 의미가 있을지 몰라도, 시냅틱스의 터치패드에 다양한 제스처 입력 기술이 적용되는 것은 분명 그보다 더 큰 파급효과를 가져올 것이다. 어쩌면 오늘날 많은 소프트웨어에서 마우스의 휠 조작을 당연하게 사용하는 것처럼 (마우스에 휠이 도입된 것이 1995년이라는 걸 생각하면, 얼마나 빨리 정착한 UI인지 놀라운 일이다), 간단한 제스처 입력들이 널리 사용되게 될 날이 의외로 가까운 시일 내에 올지도 모르겠다.

애플 같은 회사가 시장에 가능성을 보이고, 시냅틱스 같은 회사가 이를 대중화한다. 대부분의 기술이 뭐 이렇게 발전하기는 한다. 애플이라는 촉매가 있었기에 멀티터치라는 생경한 조작 방법이 마치 정말 편한 것처럼 포장(?)되어 Hype Curve를 쉽게 넘을 수 있었던 것 같기는 하지만.



10월 15일 추가:
어제 시냅틱스 한국지사에서 설명회를 한 모양이다. 링크된 사이트에서 자세한 이야기를 들을 수 있지만, 위에서 설명한 제스처 입력에 대한 슬라이드가 있어서 하나 훔쳐(ㅈㅅ) 왔다.

사용자 삽입 이미지

자세한 이야기는 원래 사이트의 기사에서 보시기를. ㅎㅎ
신고
Posted by Stan1ey

벌써 보름쯤 전의 일이지만서도, Sony에서 PlayStation3의 조종기에 끼워서 쓰는 QWERTY 키보드를 내놓았다.

QWERTY keyboard for PS3 ControllerQWERTY keyboard for PS3 Controller

조금 가오리처럼 생겼지만, 조종기에 꼽혀있는 모습을 보면 게임 컨트롤과 키보드 입력을 같이 지원하려면 사실 적당한 디자인(=위치선정)이라는 생각도 든다. PS3에서도 웹서핑이라든가 게임에서 이름을 넣는다든가 하는 식으로 문자입력이 종종 필요하다는 점에서, QWERTY 키보드가 들어간다는 건 환영할만한 일이다.


Touch Pad mode button on PS3 QWERTY keyboard
... 뭐 그런가보다 하고 넘어가려다 보니, 위에 링크한 기사에서 언급한 "Touch Pad mode"가 마음에 턱하니 걸렸다. 자세히 보면, 키보드 아랫부분에 손가락 아이콘과 함께 On/Off로 터치패드모드 상태를 알려주는 듯한 LED가 있는 버튼이 있다. 기사에서 말한대로 터치패드가 있다면 웹서핑 같은 순간에 꽤 쓸모가 있겠지만, 저 제품의 어디에 터치패드가 있다는 걸까? ㅡ_ㅡa;;;

그냥 답이 나오지 않았다는 이유로 이걸 멋대로 수수께끼로 생각하자면, 이 모드에서 무엇이 "마우스를 대신하는" 포인팅 기능을 할지에 대해서는 몇가지 예측을 해볼 수 있겠다.


1. 아날로그 스틱
PS3 컨트롤러에 붙어있는 2개의 아날로그 스틱은 평소에 다양한 용도로 각각 쓰이기 때문에, 일부러 "터치패드 모드"를 두어서 마우스 조정에 사용하도록 만들 거라는 예상을 해볼 수도 있다. 하지만 웹서핑과 같은 모드에서는 3D 게임에서처럼 많은 입력이 동시에 필요하지 않으므로, 굳이 스틱을 다른 용도와 함께 나누어 쓰지 않아도 될 것이다. 따라서 가장 간단하게 생각할 수 있는 이 조합은, 사실은 아무래도 아니지 않을까 싶다. ㅎㅎ


2. 터치-키보드 조합
사실 소니는 키보드를 동시에 터치로 사용하는 기술을 이미 특허로 가지고 있으며, 심지어 일부는 상품화되어 있다. 원래 "PreSense" 라는 이름으로 몇차례 논문화되었던 이 아이디어는, 키보드 자체를 전기가 (조금이라도) 통하는 물질도 만들어서 그 자체가 터치패드로 기능할 수 있도록 만든 것이다, 이 방법을 이용하면 버튼을 누르기 전에 터치여부를 알 수 있으므로, 사용자는 버튼을 누르지 않고 버튼 표면만을 살살 문질러서 터치패드처럼 사용할 수 있는 것이다. (가끔 인간이 손가락의 압력을 얼마나 자유롭게 조절할 수 있는지를 생각해보면 새삼스럽게 놀라곤 한다.) 게다가 클릭이 가능한 영역에 손가락을 올렸을 때 화면에 시각적 피드백을 줄 수가 있고, 그대로 누르면 되기 때문에 상당히 직관적이고 자연스럽게 사용할 수 있다.

PreSense - OverviewPreSense - Applications

Sony VGF-AP1 with G-Sense
하지만 이 방식을 사용하면, 사실 화면좌표 상에서의 정확한 포인팅이나 클릭은 어렵다고 봐야 한다. 버튼과 버튼 사이의 영역은 터치가 안 되거나 별도의 계산이 필요하고 오류가 많기 때문에, 결국 버튼영역에 공간적으로 매핑되는 별도의 UI를 만들어야 하는 것이다. PreSense를 "G-Sense"라는 이름으로 최초로 상용화했던 Sony의 MP3 플레이어 VGF-AP1 같은 경우에도 5x5의 버튼배치에 일대일로 매핑되는 UI를 만들어서 적용해야 했다.

따라서, 웹브라우저에서의 사용을 목표로 하는 위의 컨트롤러 키보드에 이 방식이 쓰이려면 웹브라우저에서의 링크를 그때그때 모두 QWERTY 배치에 맞춰 매핑시켜야 하는 불편+위험이 따른다. 아무리 소니라지만 이렇게 무모한 시도는 안 하지 않을까?


3. 뒷면 터치패드

Backside Touch Pad from Sony's Flexible Computer, Gummi
기기의 앞면을 사용할 수 없는 경우, 소니에서는 뒷면에 터치패드를 달아 입력장치로 쓰는 방법을 특허낸 바 있다. 이 기술은 이미 Gummi라는 휘어지는 컴퓨터에 적용되어 공개된 적이 있으며, 실제로 절대적인 포인팅이 아닌 상대적인 포인팅, 즉 특정한 방향으로 dragging gesture를 한다든가 할 때에는 앞면에서 터치하는 방식과 진배없는 사용성을 보여준다.

문제는 웹브라우저에서 사용할 것은 특정한 아이콘을 클릭한다든가 하는, 주로 절대적인 포인팅이라는 거다. 그냥 스크롤만 할 게 아니라면, 손가락 끝을 보지 못하는 상태에서 뒷면으로 클릭을 한다던가 하는 것은 직관적이지도 못할 뿐더러 실제로도 어려운 일이다.

Touch Pad mode button on PS3 QWERTY keyboard
단지, 이 대목에서, 확대된 터치모드 버튼 위로 어색하게도 스페이스 버튼 좌우에 놓여있는 좌우 화살표가 마음에 걸린다. 혹시 터치패드 모드에서는 뒷면으로 상대적인 포인팅을 하면서, 좌우 클릭을 저 화살표키로 할 수 있도록 하는 게 아닐까? 컨트롤러를 잡은 상태에서 좌우의 방아쇠 trigger 버튼의 조작을 방해하지 않으면서 터치패드를 사용하게 하려면 뒷면의 디자인이 좀 까다로우니까, 사실 그 상황이라면 컨트롤러를 떼고 저 가오리 모양의 키보드만 따로 들고 입력하는 게 훨씬 편하겠다. (그런 경우라면 저 안에 배터리와 통신장비가 들어가 있어야 하겠다.)




... 흠, 이래저래 생각해보니 뒷면터치가 나올 법한 조합이긴 한데, 그렇다면 정확한 절대 포인팅이 불가능한 포인팅 장치의 특성상 다소 특이한 UI가 나올 수도 있겠다. 이를테면 웹브라우저를 조작할 때에도 우선은 전체 웹페이지를 TV 화면에 띄우고 그 중 일정영역을 표시하는 사각형을 뒷면터치로 대충 원하는 곳으로 이동, 버튼으로 선택한 다음... 커서는 화면 중앙에 고정된 채로, 뒷면터치로 화면을 이동하는 방식을 채용하지 않을까 싶다. Gummi의 UI가 그런 방식이기도 했지만, 중앙의 커서에 가까와지는 링크를 활성화시키는 방식이라면 사용하기도 편하지 않을까?

Combined Scrolling and Selection, from Sony's Gummi Prototype, CHI 2004 Presentation

어떤 방식의 UI가 나오든, 소니가 뭔가 새로운 시도를 준비하고 있다는 소식만으로도 기대가 된다. 도대체 저 제품이 나온다는 "later this year"라는 건 언제가 될런지, 일단은 조마조마 하면서 기대해 봐야겠다.



... 심심하니까 참 별 걸 다 궁리하고 앉았다. ( '-')a


며칠 전 이 키보드의 출시가 임박했다는 기사를 봤는데, 오늘 시내 -_- 에 갔다가 게임샵에 갔더니 떡하니 팔리고 있다. ㅡ_ㅡa;; 뭐 크리스마스를 맞이하여 채팅이라고 하라는 건지 뭔지. 여하튼 덕택에 좀 요모조모 살펴보고 사진도 찍었는데, 정작 사진은 접사불가의 아이폰인지라 나만 간직하기로 하고, 결국 확인된 내용만 (기사에서 훔친 사진과 함께) 간단히 정리하자면 이렇다.

Sony PS3 Wireless Keyboard Sold NowSony PS3 Wireless Keyboard Sold Now

우선 이 기계는 독립적인 컨트롤러로, 그냥 집게로 기존 컨트롤러에 집어놓는 방식이다. 별도로 mini USB 케이블(별매 --;;; 혹은 기존 컨트롤러에 있는 놈과 교대로 사용해야 한다)를 이용해서 충전시키고, 본체와는 역시 별도의 Bluetooth 모듈로 연동하는 방식. 일반적인 모양새로 잡아서는 손가락이 키보드에 제대로 닿지 않기 때문에, 위에 말한대로 결국 키보드만 떼어서 따로 쓸 수도 있는 셈이다.

뒷면의 저 네모는 잠시 나를 두근거리게 했으나 결국 그냥 상품표시 레이블에 불과하다. ㅎㅎ 결국 위에 링크한 리뷰기사에서 언급되었듯이 위 글에서 적었던 두번째 방법 - PreSense 특허를 또 울궈먹기로 한 모양 - 을 사용하고 있고, 우려했던 문제도 그대로 발생하는 듯 하다. 에헤라.

재미있었던 것은 이 키보드 컨트롤러에도 좌우에 버튼이 하나씩 더 달려 있다는 건데, 이게 용도가 뭔지는 잘 모르겠다. L1, L2, L3까지 다 썼는데 저 단추 많은 걸 달면서 왜 굳이 L4(?)와 R4(응??) 넣은 걸까? 그거 없으면 안 되는 게임 따위 만들어서 억지로 구매하게 하다가 욕먹고 뭐 그러는 거 아닌지 몰라... -_-+

이상. 12월 22일 업데이트.



 

신고
Posted by Stan1ey

일전에 햅틱UI에 대해서 볼멘소리를 하면서 Immersion사가 MS와 계약을 체결하고 이후의 특허분쟁도 MS가 맡기로 했다는 얘기를 한 적이 있는데, 정작 소니로부터 배상금을 받은 것은 MS가 아니라 Immersion사였던 모양이다. MS가 어느 샌가Immersion에게 소니로부터 받은 돈을 뱉어내라고 소송을 해서 이겼단다. -_-a;;

[소스 1] http://www.electronista.com/articles/08/08/27/immersion.settles.with.ms/
[소스 2] http://www.dailytech.com/Immersion+Agrees+to+Pay+Microsoft+2075M/article12785.htm

Immersion이라는 회사, 진동 하나 잘 잡아서 떼돈 버는 줄 알고 꽤 똑똑하다고 생각했는데, 이런 초보적인 실수를 하다니 의외다. 그래도 1억달러가 넘는 돈을 챙겼으니 '변호사비, 소송비 외 제비용' 이상의 소득은 올린 셈인가.

이제 슬슬 꿍쳐놓은 다음 haptic UI 아이템을 좀 펼쳐놓았으면 좋겠는데 말이지. 심심하단 말이다! (솔직히 그 모체인 McGill 대학 연구실의 최근 연구성과를 보면 그다지 기대는 되지 않는다. 연구성과가 나쁘다는 게 아니라, 이 분야에 새로운 게 남아있기는 할까 싶은 생각이 드는 거다. OTL..  )

신고
Posted by Stan1ey
마이크로소프트에서 멀티터치 스마트 테이블를 들고 나오면서 한동안 소위 'Surface Computing'이라는 요상한 용어를 뿌리더니(예전에 같이 일했던 어떤 분은 분명히 "표면이 computing하는 것도 표면을 computing하는 것도 아닌데 무슨 surface computing이냐!!!"라고 하고 계실 거다), 이번엔 'Sphere'라는 코드명을 들고 나왔다. 요컨대 멀티터치가 되는 구형의 화면이다.



흠. 결국 했구나. ㅡ_ㅡa;;

데모하고 있는 사람 너머로 보이는 화면을 보면, 왼쪽의 큰 화면은 결국 프로젝션 되고 있는 화면으로 원형으로 투사될 수 있도록 미리 왜곡되어 있고, 오른쪽 화면에 보이는 모습들 중 가운데 화면은 적외선 반사에 의한 포인팅을 인식하는 모습을 보여주고 있다. (특히 아래 장면에서는 두 손가락이 화면에 찍혀 있는 모습을 볼 수 있다... 잘 보면 =_= )

Sphere Computing(?) of Microsoft

결국 Surface 시스템에 있던 입출력 장치 앞에 어안렌즈를 하나 넣어서, 프로젝션도 카메라도 180도 가까이 퍼지게 만든 것으로 보이는데, 사실 그럼에도 불구하고 몇가지 의문이 남는 부분이 있다. 이를테면 프로젝션의 초점거리 같은 경우가 대표적인데, 180도 퍼지게 만든 화면을 투사한다고 해도 구체 아랫쪽의 투사면과 맨 위쪽의 투사면까지의 거리는 크게 다르기 때문에 골고루 또렷한 영상을 맺히게 하기 힘들 거다. (초점거리 개념이 없는 프로젝터가 개발되어 있기는 하지만, 저렇게 바깥쪽으로 사람을 향해서 투사할 수는 없는 물건이다 -_- )

그 외에 적외선 반사를 이용한 인식의 해상도라든가, 상을 왜곡시키기 위해 평면 좌표계를 실시간으로 구좌표계로, 또 반대로 계산하는 번거로움이라든가 하는 것들도 문제가 될 수 있겠지만, 사실 실용성 측면에서 볼 때 가장 큰 문제는 역시 투사된 화면의 위치에 따른 해상도 차이라고 본다.




... 사실은 그게 내가 못 풀었던 문제다. 그래서 난 @#$%@%@#$%^$#^&#%^&렇게 피해서 도망갔더랬는데, 얘네들은 혹시 풀었는지, 풀었다면 어떻게 풀었는지가 아주 궁금해 죽겠다. ~_~ ㅎㅎ
신고
Posted by Stan1ey
누군가 이런 걸 만들었나보다. 화면에 "붙이는" 물리적인 조작 장치. ㅡ_ㅡ;; 이름하여 SenseSurface 다.

SenseSurface Concept by Girton Labs

이렇게 구현될 수 있는 Tangible UI의 장점은 사실상 매우 크다. 원래 마우스로 커서를 조작해서 뭔가를 사용한다는 개념이 마치 작대기 하나를 손에 들고 사물을 움직이는 것과 같아서 불편하기 그지 없는데, 실제로 다양한 조작과 그를 위한 자연스러운 affordance를 제공해주는 tangible widget들은 같은 조작을 마우스로 하는 것보다 훨씬 자연스러운 interaction을 제공해 줄 것이다.
Prototype of SenseSurface

위 SenseSurface의 실제로 동작하는 프로토타입은 역시 위의 컨셉 사진보다는 크지만, 동작하는 동영상을 보면 사실 그 크기는 손에 넉넉히 잡힐 정도로 큼직한 것도 좋겠다는 생각이 든다.



Concept Prototype for SenseSurface
SenseSurface를 연구개발하고 있는 연구소의 홈페이지의 문구를 자세히 들여다보면, 사실 이 기술은 아직 해결해야 할 문제가 많은 것으로 보인다. 선전(?)문구 중간중간에 있는 자기장 관련 언급을 보면 결국 절대로 보여주지 않고 있는 저 LCD 스크린의 뒷면에는 자기장의 방향과 세기를 측정할 수 있는 센서가 가로세로로 줄지어 붙어있는 금속판이 있고, 지금은 다이얼 knob만 구현되어 있는 조작 장치들은 LCD 화면을 뚫고 그 금속판에 붙을 정도로 강력한 자석인 것 같다. 결국 다이얼을 돌리면 자기장의 방향에 변화가 생기고, 그로 인해 물리적인 입력이 센서 입력으로 바뀌어 뒤에 연결된 USB 케이블을 통해서 PC를 조작하는 신호로 제공되는 걸 꺼다.

그럼 결국 컨셉 사진처럼 센서를 다닥다닥 붙이면 서로 간의 간섭도 만만치 않을 듯 하고, 그게 특히 (홈페이지의 계획처럼) On-Off 스위치 같은 경우에는 더욱 민감하게 반응할 수도 있을꺼다. 일단 자석으로 스크린에 붙어야 하니까 서로 차폐하기도 쉽지 않을테고... 결국 센서에서 알고리듬으로 서로 간의 간섭을 보정해야 하는데, 그게 얼마나 정확하게 가능한 일일지 모르겠다.


그럼에도 불구하고, On-screen tangible control knob 이라는 건 상당히 매력적인 컨셉이다. 비록 그 제한적인 (오른쪽 회전 vs 왼쪽 회전) 입력에도 불구하고 손끝으로 미묘하게 조작하는 그 아날로그적인 느낌 때문에 영상이나 음악을 전문적으로 편집하는 사람들은 Jog Shuttle이 달린 조작 장치를 반드시라고 할 정도로 사용하고 있고, Griffin Technology의 PowerMate라는 장치는 단순히 음량을 조절하는 목적으로도 - 사용자가 다른 기능에 연동시킬 수도 있지만, 다이얼 돌리기에 적합한 기능이 달리 어떤 게 있을까? - 인기를 끌고 있다.

Video Editting Controller by Sony
PowerMate by Griffic Technology


그러니 만일 SenseSurface가 탑재된 노트북이 나와서, 화면에 뭔가 컨트롤을 턱턱 붙여서 tangible control을 할 수 있다면 어떨까? 뭐 사실 음량 조절 같은 것은 이미 많은 노트북에서 (물론 화면 밖이지만) 다이얼 등으로 조작할 수 있으니 제외하고, YouTube 동영상 옆에 붙여서 영상을 앞뒤로 돌려볼 수 있는 다이얼이라든가, 웹페이지를 보다가 붙여서 북마크로 저장할 수 있는 버튼이라든가, Google Earth에 붙일 수 있는 조이스틱이나 트랙볼 같은 것을 상상해 보면, 어쩌면 작대기 하나만 들고 한번에 한 클릭으로만 조작해야 했던 이 답답함이라는 것이 문득 몸서리쳐지게 불편해져서 tangible control에 대한 큰 니즈가 떠오를지도 모를 일이다.
신고
Posted by Stan1ey
제목은 거짓말이다. -_-;;; 적어도 현재까지의 Touch UI는 시각장애인이 사용할 수 있는 방법이 전혀 없다. 전맹인은 물론이고, 다소 눈이 어두운 정도로도 사용이 불가능한 것인 현재의 터치 스크린이다.

http://www.foodsister.net/1021

티스토리의 관리메뉴에는 무슨 검색들을 하다가 이 블로그에 방문하게 됐는지를 보여주는 기능이 있어서, 가끔 들여다보면서 참 각양각색의 검색어로도 들어오는구나..하고 보곤 하는데, 그러다가 링크를 따라가서 발견한 글이다.

일단은 Touch UI와 Universal Design에 관심이 많은 사람으로서의 그냥 스크랩이지만, 일전에 쓰다만 Touch or NOT Touch를 이제 더이상 미루면 안 되겠다.
신고
Posted by Stan1ey

요즘의 '터치' 유행은 GUI의 작은 변용이라고 생각한다. GUI의 역사와 함께 시작했던 digitizer가 처음에 화면 위에서 직접 위치를 입력하는 것 - light pen은 1957년부터 쓰였다고 한다 - 에서 시작했다가, 마우스(1963)그래픽 타블렛(1964)의 형태로 발전하면서 공간적으로 매핑되는 다른 표면에서 간접적으로 입력하는 방식으로 변형되었고, 기술의 발전에 힘입어 터치패널을 화면에 직접 장착한 터치스크린(1971)이나 최근의 타블렛 LCD까지 오게 된 것이다. 이런 흐름에서 생각해보면, 최근의 터치 UI는 사실 딱히 새로운 UI의 흐름이 아닌 기존 GUI 입력 방식 중 유난히 주목 받고 있는 한 가지일 뿐이라고 생각되기도 하는 것이다.

Light pen
First computer mouse
Early digitizer tablet, or graphics tablet
Wacom Citiq 21UX, tablet LCD screen


Apple iPhone에 적용되어 있는 "터치 UI"가 훌륭한 이유는, 사실 터치 입력을 사용했다는 것이 아니라 - 심지어 손가락 기반의 터치 UI를 디자인할 때의 기준에 대해서는, 기존의 PDA UI 관련연구에서 도출된 가이드라인을 그대로 답습하고 있기도 하다 - 기존 GUI에 없던 새로운 관점을 제시했다는 데에 있다. 그 중 대표적인 것이 GUI에 물리적인 metaphor와 tangibility를 좀더 제공하고, 그로 인해 몇가지 widget들을 창안하고 상업적으로 증명했다는 데에 있겠다. (이것도 어쩌면 상업적인 목적으로 UI에 이름 붙이기의 일환일지도...)

그래서 이 블로그에서는 터치 UI에 관한 글들이 죄다 "Tangible UI" (이하 TUI)로 분류되어 있고, 여기에 대해서 궁금해하는 사람들에게 위와 같은 이야기를 해주면서도 사실 이게 대세를 거스르기 위해서 조금 과격하게 왜곡된 생각이 아닐까 하는 것이 내내 마음에 걸렸다.


그런데,

터치 다음의 UI가 뭘까?에 대한 이전 글을 쓰고 나서 (정확하게는, 쓰다가 지쳐버려서 내팽개치고 나서) 이 분야에 대한 의견이 종종 눈에 띈다. 내가 앞의 글의 두번째를 쓰면서 가지고 있던 키워드는 소위 'deep touch' 라는 거 였는데, 사람들은 좀더 확실하고 커다란 next step을 지향하고 있는 듯 하다. 연달아 눈에 밟히길래 한번 정리해 봤다.


(1) 현실기반 인터랙션 (RBI: Reality-Based Interaction)
2006년 CHI 학회에서 논의를 시작해서 지난 4월의 CHI 학회에서 정리된 이 개념은, 기본적으로 "현실에서 생활하면서 습득한 주변과의 상호작용 방식을 그대로 확장하여 사용할 수 있는 상호작용"을 뜻한다. 처음 들었을 때에는 직관적으로 tangible interaction과 동일한 것으로 생각이 되었지만, RBI를 'framework'으로 정리하면서 연구자들이 주장하는 범위는 TUI를 포함하면서 그보다 훨씬 넓다.

주로 미국 Tufts University 사람들로 이루어진 RBI 연구자들은, UI는 명령어 방식(1세대; command-line)에서 그래픽 방식(2세대; GUI or WIMP)으로, 그리고 현실기반 방식(3세대;RBI)로 바뀌고 있다고 주장한다. 조금 너무 단순화되는 과정에 중요한 몇가지가 빠진 느낌이 들긴 하지만, 그렇게 GUI 뒤를 이을 RBI는 다음과 같은 체계(framework)로 연구개발될 수 있다고 한다.

Four RBI Themes

위의 RBI 연구주제에서 각각의 의미와 그것이 포괄하고 있는 UI 연구사례는 다음과 같이 제시되고 있다. (위 논문과 학회발표에서 요약함)

① Naive Physics (NP)
사람들이 물리적 세상에 대해서 공통의 지식을 갖고 있음을 전제하는 것으로, TUI 에서 특별한 형태의 슬롯을 사용해서 사용방법을 가이드하는 것이라든가, Apple iPhone에서 적용한 UI (터치를 이용해서 물리적 조작을 모사한 것이라든가 중력방향을 인식하는 것 등)가 해당된다.

② Body Awareness & Skills (BAS)
자신의 신체에 대한 인식을 바탕으로 신체를 움직이고 조정하는 기술을 갖고 있음을 전제하는 것으로, 예를 들어 가상현실(virtual reality)에서 몸을 이동시키기 위해서 실제로 특별한 시설이나 런닝머신(treadmill)을 걷게 하는 것과 같이 전신을 이용한 UI 들이 포함된다.

③ Environment Awareness & Skills (EAS)
주변 환경의 존재를 인지하고 환경 안에서 대안을 찾고, 조작하고, 돌아다닐 수 있는 기술을 갖고 있음을 전제한다. 많은 가상현실(VR), 혼합현실(MR), 증강현실(AR)에서 공간적 조작을 보조하기 위해서 사용되는 widget들이나, 위치기반서비스(LBS?)와 같은 맥락 기반(context-awareness) 연구 등이 이 분류에 포함된다.

④ Social Awareness & Skills (SAS)
공간 안에 있는 다른 사람들을 파악하고, 그 사람들과 상호작용할 수 있는 능력을 갖고 있다는 것을 전제한다. 이를테면 TUI는 다른 사람과 작업맥락을 공유(CSCW?)할 수 있는 좋은 방법이며, Second Life와 같은 가상세계(VW) 혹은 가상환경(VE)에서도 아바타를 통해 이러한 방법을 지원한다.

... 조금 과하게 넓다. -_-;;; 결국 현재 Post-GUI (혹은 논문이 주장하는대로, Post-WIMP)의 대안으로서 연구되고 있는 모든 UI를 실용화가 멀든 가깝든 모두 하나의 지식체계 안에 몰아넣고 이해해 보자는 건데, 조금은 욕심이 아니었나 싶다. 물론 저자들의 주장처럼 이렇게 함으로써 "중구난방으로 연구되는 각각의 주제를 하나의 관점으로 정리할 수 있다"는 건 십분 동의하지만, 연구 자체에 도움을 주는 건 아니지 않을까 라는 생각이 발표를 듣는 내내 들었다.

한가지 재미있었던 점이라면, 이런 다양한 접근 방식을 "현실기반 reality-based"라는 키워드로 묶음으로써 UI 설계의 방향성 같은 게 하나 제시될 수 있다는 거다.

RBI as Artificial Extension of Reality

RBI as Artificial Extension of Reality - Examples

발표에서 말한 "Real + Extension"이라는 것은, RBI를 위한 UI 설계에서는 일상의 행동은 그 원래의 역할에 부합하는 기능과 연동되고, 그보다 좀더 확장된 행동을 통해서 일상행동으로 할 수 없었던 슈퍼-기능을 수행할 수 있게 함으로써 자연스러운 조작이 가능하다는 것이다. 이를테면 위 슬라이드에 예시되었듯이 대상을 좀더 집중해서 주시하는 것으로 투사(X-ray vision) 기능을 구동한다면 별도의 메뉴나 버튼을 이용하는 것보다 더 자연스러운 interaction을 기대할 수 있다.

물론 발표 직후의 질의응답에서 이러한 analogy가 일반적으로 사용될 수 없음을 지적하는 질문들이 꽤 격하게 이어졌지만, 그럼에도 불구하고 RBI 라는 관점에서 볼 수 있는 UI 설계 방향성 중 하나는 되리라고 생각한다.


(2) 유기적 사용자 인터페이스 (OUI: Organic User Interface)
CACM 200806 - Organic User Interfaces
미국 전산학계의 흐름을 잘 보여주는 <Communications of ACM> 잡지의 지난 6월호에서는, OUI라는 개념을 커버 스토리로 다루고 있다. (ACM: Association of Computing Machinary의 약자로, 전산 분야의 가장 큰 학술단체) 이 이슈의 커버스토리는 유명한 여러 연구자들이 한 꼭지씩 맡아서 기사를 올렸는데, 그 면면을 보면 다음과 같다.

Organic User Interfaces (Communications of ACM, June 2008)

- Introduction / Roel Vertegaal and Ivan Poupyrev
- The Tangible User Interface and Its Evolution / Hiroshi Ishii
- Organic Interaction Technologies: From Stone to Skin / Jun Rekimoto
- Emerging Display Technologies for Organic User Interfaces
  / Elise Co and Nikita Pashenkov
- Organic User Interfaces: Designing Computers in Any Way, Shape, or Form / David Holman and Roel Vertegaal
- Sustainability Implications of Organic User Interface Technologies: An Inky Problem / Eli Blevis
- Designing Kinetic Interactions for Organic User Interfaces / Amanda Parkes, Ivan Poupyrev, and Hiroshii Ishii
- What Makes an Interface Feel Organic? / Carsten Schwesig
- Interactions With Proactive Architectural Spaces: The Muscle Projects / Mas Oosterhuis and Nimish Biloria
- Dynamic Ferrofluid Sculpture: Organic Shape-Changing Art Forms / Sachiko Kodama

첫번째 글("Introduction")에 따르면, OUI는 e-Paper나 다른 flexible display를 중심으로 얇고 작고 유연해진 전자소재(배터리, 스피커, SoC, 회로기판 등)에 의해 기대되는 무한한 자유도가 HCI 디자인에 미칠 영향을 예견한 개념이다. (사실 정확한 '정의'는 나와있지 않고, "Such phenominal technological breakthroughs are opening up entirely new design possibilities for HCI, to an extent perhaps not seen since the days of the first GUIs." 라든가 "A future led by disruptive change in the way we will use digital appliances: where the shape of the computing device itself becomes one of the key variables of interactivity." 라는 표현이 그나마 가까운 듯 하다.)

같은 글에서 제시하고 있는 OUI의 연구주제는 다음과 같다. (역시 요약)

① Input Equals Output: Where the display is the input device.
마우스나 조이스틱이 아닌 터치스크린으로 UI를 보다 직접적으로 조작할 수 있게 된 것을 언급하며, 멀티터치나 압력센서 등 터치스크린 입력을 좀더 정밀하게 다룰 수 있는 방법이 해당한다. (위 기사 중 Jun Rekimoto의 글 참조)

② Function Equals Form: Where the display can take on any shape.
기존의 사각평면 형태의 화면이 아니라, 그 용도에 따라 필요한 모양으로 재단할 수 있는 화면으로 e-Paper 외에도 프로젝션, OLED, EPD, 광섬유, 혹은 전기적으로 발광하는 도료 등을 언급하고 있다. (위 기사 중 David Holman 글과 Elice Co의 글 참조)

③ Form Follows Flow: Where displays can change their shape.
사용 순간의 작업내용과 상황에 따라 제품이나 화면의 크기와 형태가 바뀌는 제품의 가능성을 제시하고 있다. (위 기사 중 Amanda Parkes의 글 참조. Kas Oosterhuis의 글에서는 심지어 형태가 바뀌는 건물도 나온다.)

... 사실 글 제목과 각각의 분야에서 상당히 유명한 저자의 이름들을 봐서도 예측할 수 있었지만, 이 일련의 "Organice User Interfaces" 기획기사를 아무리 꼼꼼히 읽어봐도 기존에 자신들이 하던 연구주제 - 이시이 교수님의 TUI, 레키모토의 AR, Poupyrev의 3D UI - 를 한번 더 큰 틀에서 묶고자 했다는 느낌이 든다. 아니 사실은, 묶을까 하고 모였다가 결국 합의점을 찾지 못하고, 각자가 골백번 했던 똑같은 이야기들을 그냥 스크랩해 놓은 느낌이라는 게 더 맞겠다. OUI라는 개념에서 뭔가 새로운 지평이 열린 것도 아닌 것 같고, 아래와 같은 도표가 나오긴 하지만 사실 다른 기사의 내용과는 엄청나게 상충되는 관점이다. -_-;;;

from GUI to OUI - by Display Breakthrough

그나마 이 OUI 기사 중에 맘에 드는 (생각이 일치하는) 대목은, Carsten Schwesig의 "What Makes an Interface Feel Organic?"이라는 글이다. 이 글에서는 사실은 이 기사들 중 거의 유일하게 기존의 natural한 UI와 organic한 UI가 뭐가 다르길래? 라는 문제를 제시하고 있으며, 또 나름의 관점을 제시하고 있다. Carsten에 따르면, "유기적인 인터페이스 디자인은 - 문자 그대로의 의미와는 다소 다르지만 - 물리적 개체나 그 은유에 집중하기보다 물리적 현실과 인간적 경험에 대한 아날로그적이고 지속적이며 변화하는 속성을 강조하는 접근이다."

Organic interface design represents a less literal approach which, rather than focusing on physical objects or metaphors, emphasizes the analog, continuous, and transitional nature of physical reality and human experience. By combining sensitive analog input devices with responsive graphics, we can create user experiences that acknowledge the subtleties of physical interaction.
(from "What Makes an Interface Feel Organic?" by Carsten Schwesig)

위 인용문에서와 같이, Carsten은 이러한 나름의 정의(?)와 함께 Sony CSL의 Gummi Prototype, Nintendo의 Wii, Apple의 iPhone 등을 예로 들면서 아날로그 센서를 통한 미묘한 조작의 중요성을 강조하고 있다.

이런 관점은 사실 내가 HTI를 떠올리면서 가지고 있던 미래 UI의 모습에 상당히 근접한다. 센서와, 물리적인 피드백과, 자유로운 정보표시 방법과... 그러고보면 이 OUI라는 개념도 어느 정도 공감되긴 하지만, 역시 이 글 외에는 전혀 개념을 통일하려는 노력이 보이지도 않는 다는 것이 무.척. 아쉬울 따름이다.



이상과 같이 "GUI 이후 UI"의 주도권을 잡을 두가지 개념이 고작 2개월 간격으로 연달아 제시되는 것을 보면서, 사실 이번만큼은 예외적으로 좀 착잡해지는 기분이다. 왠지 몰라도 내 눈에는, RBI도 OUI도 뭔가 이슈가 필요하다는 니즈에 의해서 준비되지도 않은 것을 억지로 쥐어짜낸 개념으로 보이는 것이다. 게다가 하나같이 지난 몇년간 유행하던 연구주제들을 그냥 엮어서 자기들 나름대로의 framework에 구겨넣은 게 빤히 보이고, 그것마저도 제대로 정리되지 않아 삐져나오고 헐겁고... 조금이라도 이해해 보려고 읽으면 읽을수록 난리도 아니다.

결국, 블로그를 핑계삼아 정리하면서 내려진 나의 결론은:

① 세계 모든 UI 연구자들이 "다음 이슈"를 찾고 머리를 싸매고 있다.
② 이미 나온 것들 - TUI, AR, e-Paper, ... - 외에는 특별한 게 없다.
③ 결국 적합한 기술을 찾아 그 중 하나를 상용화하면, 그게 "다음"이 된다.
④ Multi-Touch를 봐라.
⑤ 따라서, HTI 연구가 중요하다.

이게 바로 "我田引水"라는 거다. 움홧홧! s(^0^)z


P.S. (자수하여 광명찾자) 근데 글의 시작과 결말이 미묘하지 들어맞지 않는다? ㅋㅋㅋ 뭐 맞추려면 맞추겠지만 말 바꾸기 귀찮다. ㅡ_ㅡ 또 다음 기회에.;;;

신고
Posted by Stan1ey

BLOG main image
by Stan1ey

카테고리

분류 전체보기 (347)
HTI in General (45)
User eXperience (11)
Voice UI (50)
Vision UI (14)
Gesture UI (25)
Tangible UI (28)
Robot UI (14)
Public UI (9)
Virtuality & Fun (56)
Visual Language (15)
sCRAP (70)

글 보관함



www.flickr.com
This is a Flickr badge showing public photos and videos from Stan1ey. Make your own badge here.