회사에서 SIGGRAPH 다녀온 사람들로부터 CD를 받아서 후다닥 훑어보니, 앞의 글에서 소개된 소위 '미래적인 인터페이스' 외에도 개인적으로 관심을 끄는 연구가 있었다. 죄다 포스터 세션으로 간소하게 발표된 것 같기는 하지만, 점심시간을 틈타서 후딱 정리해 보자.

(1) 오색장갑을 이용한 손 모양 학습/인식
손 모양을 영상인식하는 것은 살색(인종차별 논란은 필요없는)을 배경에서 구분하는 방식에서부터 아예 각각의 손가락마다 표식을 붙이는 방식에 이르기까지 다양한 시도가 있었다. 살색을 인식하기가 다소 까다롭기 때문에 그냥 손가락마다 색깔이 다른 장갑을 낀다든가, 화려한 손목 밴드를 낀다든가, 심지어 그냥 벙어리 장갑을 끼워 인식을 시도한 경우도 있었다. -_-a;; 이런 방식들의 문제점은 다양한 손동작에 따라 들어오는 신호가 unique하지 않기 때문에 몇가지 아주 특징적인 동작 외에는 오인식의 가능성이 있었다.

Hand Tracking with Color Glove

그런데 이 연구의 경우에는, 독특한 색상배치를 가진 장갑을 이용해서 다양한 손모양들을 미리 학습시킨 다음에, 그 패턴에 가장 근접한 손모양을 3D로 재구성하는 방식을 제시하고 있다. 다른 연구들에서 손바닥 뒤집힘이라든가 손가락 하나하나의 움직임이라든가 하는 것을 어떻게 오류없이 인식할지를 고민했던 것에 비해서, 이 연구는 어차피 일반적인 손모양 중에서 인식해서 제시하므로 손가락이 이상하게 꺾이거나 하는 경우는 없을 듯 하다. 특히 손동작이라는 것이 의외로 (이제서야 깨달았지만) 다양하지 않다는 걸 생각해 보면, 실제 적용의 관점에서 볼 때 최소한 안정성 측면은 월등할 것 같다.

아무래도 실제로 저렇게 오색장갑을 끼고 작업하게 되지는 않겠지만, 장갑에 적외선이든 가시광선이든 불규칙한 패턴을 넣어서 똑같은 방식으로 학습/인식하게 한다면 의외로 재미있는 쪽으로 발전할 것 같은 연구다. 아니, 적외선 패턴을 임시로 손에 직접 착색하는 방식이라면 어떨까.


(2) 움찔거리는 햅틱 펜
펜 형태의 haptic display 장치는 대표격인 PHANTOM 이외에도 여러가지 형태로 재가공되고 있다. 실제로 없는 물체를 마치 있는 것처럼 공중에 펜을 멈추게 하려면 아무래도 책상이든 어디든 고정된 형태가 좋지만, 모처럼 마우스를 버리고 3차원 공간 상의 가상물체를 만지겠다는 데 기계팔이 달린 물건을 쓰는 건 아무래도 아쉬웠던 것이다. 우리나라에서도 2차원 화면 상의 사례이긴 하지만, ETRI의 Ubi-Pen 같은 사례가 나온 적이 있다.

Pen de Touch

나름 멋지려고 애쓴듯한 제목의 이 연구 - Pen de Touch - 는 3차원 공간 상에서 펜 끝에 달린 적외선 마커(회색 공)로 위치를 찾고, 그 역감을 펜에 달린 4개의 모터로 전달하게 되어 있다. (온라인에서 검색이 안 된다!) 적외선 마커를 쓴 방식은 언급할만한 내용이 아니지만, 4개의 모터가 펜을 움찔움찔 움직이게 하는 방식은 상당히 재미있는 접근이라고 생각한다. 펜을 공간에서 멈추게 할 수 없으니까, 펜의 앞부분을 끌어당김으로써 사용자가 비슷한 감각을 느끼게 한 것이다. 실제로 그 역감을 느끼는 것이 손가락의 근육감각이라는 걸 생각하면 실제로 물체에 부딪혀 멈추는 것과 유사한 느낌이 들지 않을까. 진동모터를 사용한 경우보다 좀더 실제감각에 가까운 해법이라는 생각이 든다.

문제는 4개의 모터와 펜촉이 도드래와 스프링으로 연결된, 저 내부구조가 영 조악하다는 건데, 뭐 그 정도는 가능성만 검증되면 전자석을 이용한다든가 하는 나름의 방법이 생기리라 생각한다.


(3) 휴대용 프로젝터/카메라를 이용한 인터페이스
이건 그냥 I/O Bulb 개념의 팬으로서 스크랩해 두고 싶은 연구라고 하는 게 좋겠다. 휴대용 프로젝터가 드디어 상용화되면서 이제는 꽤 대중적인 관심사가 된 모양이지만, 역시 아직은 프로젝터를 사진이나 동영상 감상용으로 이용하는 데에 급급한 것 같다. 사실 이 '화면'은 휴대용이라는 특성을 감안하면 독특한 UI가 많이 나올 수 있는 방식인데...

Handheld Projector

Twinkle이라는 애칭을 붙여놓은 이 연구에서는 그 중 몇가지를 제안하고 있다. 아직 진행 중인 것 같긴 하지만, 비슷한 방향으로 보고 있는 것 같아서 반가운 연구였다. 뭐 직접 시도해 보고 개선하고 그러다보면, 상상했던 내용 쯤이야 금새 훌쩍 앞서버리겠지만.



앞의 글에서 언급한 연구 중에도 동경대에서 나온 게 있었는데, 앞의 세가지 사례 중에서 (2), (3)은 동경대가 관련되어 있는 연구다. 이 학교에서 뭔가 재미있는 일이 많이 일어나려나보다.

이번 시그라프 관련 포스팅은 요기까지만. 아마도.
신고
Posted by Stan1ey

어제 막을 내린 ACM SIGGRAPH에 대한 소식 중에서, 따로 '미래적인 인터페이스'라고 모아놓은 기사를 보게됐다. ACM 웹사이트에 올라온 기사라고 해도 얼마나 대표성이 있는지는 모르겠으나, 일단 좀 보자면 다음과 같다.

(1) 초음파 간섭을 이용한 공간 상의 촉각 디스플레이

Tangible Holography
동경대에서 만든 거라는데, 이건 작년이었나 재작년에도 발표했던 걸로 기억을 한다. 초음파 스피커를 가로세로로 잔뜩 붙여놓고 공간 상의 특정한 위치에 맥놀이 파장이 맺히도록 조절하면 그 위치에서만 상대적인 저음이 들리게 할 수 있는데, 여기서 상대적인 저음은 가청주파수거나 공기압을 느낄 정도의 저음일 수 있다. MIT에서는 가청주파수를 조합함으로써 특정방향으로만 소리가 전파되는 지향성 스피커를 만들기도 했는데, 동경대에서는 저음을 이용한 모양이다. 클럽에서 우퍼스피커 앞에 있으면 몸이 밀리는 듯한 파동을 느끼는데, 그것과 같은 현상을 특정한 한 점에 집중시키는 기술이라고 보면 될 듯 하다.



기술적으로는 한꺼번에 몇군데에 압력을 생성할 수 있는지, 그리고 그 해상도가 얼마나 되는지 등등은 좀 확인해볼 필요가 있겠다. 사람이 디스플레이 안에 머리를 들이밀면 안 된다든가 (그 압력이 고막이나 안구에 적용된다면 상당히 끔찍할꺼다), 압력은 좀 느껴지지만 결국은 바람에 지나지 않는다든가, 무엇보다 압력의 방향이 한쪽뿐이라는 건 약점이 되겠지만.


(2) 다중카메라의 입체시를 이용한 실시간 3차원 모델링 장치
Virtualization Gate
Virtualization Gate라는 제목으로 발표된 이 장치는, 결국 단색배경에서 전경을 구분해내는 크로마키 촬영을 여러군데에서 동시에 해서 합성하는 방식으로 보인다. 영상에서 특징을 추출해서 삼각법으로 모델링을 하고, 촬영된 영상으로 매핑까지 해주는 시스템일 듯. 어쩌면 영상들을 삼각측량한 게 아니라 2.5차원 거리센서 같은 걸 썼을지도 모르지만, 그러기엔 모델링 해상도가 좀 낮아 보인다. 적외선이든 초음파든 거리센서든 여러 개를 함께 사용하기가 아주 어렵다는 문제도 있고.



꽤 어마어마한 규모의 장비가 들어가야 하니 상용화는 쉽지 않겠지만, 사람을 실시간으로 3차원 공간에 놓을 수 있게 되면서 여러가지 재미있는 인터랙션을 구현한 것은 무척 재미있다. 어쩌면 일전에 소개했던 Oblong의 시스템에 맞물려 재미있는 결과가 나올 수도 있지 않을까.


(3) 증강현실을 이용한 게임
AR Toy
증강현실 게임은 요새 참 열심히도 나오고 있기 때문에 사실 가장 심드렁한 내용이 되겠다. 게다가 그냥 AR Tag를 조금 어거지로 조합해서 보드게임을 만들었다는 건데 그럼으로써 게임이 재미있어지거나 한 면은 딱이 보이지 않는다. 일부러 잔뜩 갖다붙인 그래픽 효과들은 영상의 오덕스러움만 더해주고 있을 뿐이고. 진정한 오덕은 이렇게 오버하지 않아!




(4) 긁는 소리의 패턴으로 긁은 모양을 유추하는 기술
벽에 터치를 하는 소리로 터치 유무와 위치를 알아낸다든가, 특정한 패턴이 있는 물체를 긁는 소리를 인식해서 어느 부위를 긁는지 알아낸다든가 하는 기술에 이어서, 이번에는 벽을 긁는 고주파음의 패턴 - 손톱이 지나가는 속력에 따라서 달라지는 일차원적인 음높이의 변화 - 을 인식하는 기술을 들고나온 팀이 있다.



단순한 만큼 확장가능성은 높지만, 사용자가 의도하지 않은 오인식의 가능성은 높을 것 같다. 음성인식 때에도 그랬듯이, 먼저 특정하게 정해진 패턴에 이어서 조작명령을 입력한다든가 하는 사용법이 필요할 수 있을 듯. (예를 들면 항상 똑똑 두들긴 후에 명령에 해당하는 문자를 입력한다든가.) 결국은 동작 UI이기 때문에 많은 명령을 한꺼번에 적용할 수 없고 사람마다 차이가 크다는 문제는 있겠지만, 특히 마이크 하나만 있으면 적용이 가능하다는 점을 생각해 보면 아주 간단한 조작 - 이를테면 조명등이라든가, 데모에 나온대로 간단한 휴대폰 기능 등 - 에 대해서는 꽤나 가능성 높아 보이는 제안이다.


(5) 입체영상을 이용한 다자간 영상통화
HeadSPIN for Teleconference
마치 영화 <마이너리티 리포트>의 맨 앞에 나왔던 장면이다. Teleconference에 참석한 사람의 얼굴을 거리센서로 만든 입체영상에 입혀서 여러 명이 대화할 때에 시선을 마주치는 걸 가능하게 한 기술인데, 비교적 간단한 구현이라는 생각은 들지만 그래도 이제껏 이 상황에서 시선처리를 해결하려 했던 시도 중에서는 세련된 편에 속한다. (최소한 영화 <Judge Dredd>에서의 회의실 장면 보다는 백배 낫지 않을까. -_- )



따로 CSCW라고 불리는 분야가 있을 정도로, 여러 사람이 동시에 하나의 컴퓨터 시스템을 사용하는 상황은 자주 연구되는 주제이다. 하지만 군대 작전통제실과 같은 경우를 제외하고, 그런 상황이 실제로 자주 필요한 경우는 없는 것도 사실인 것 같다. 그동안 좋은 솔루션이 많이 나왔음에도 실용화된 사례는 거의 본 적이 없다. 아마 이 기술도 당분간은 그렇지 않을까나.



아... 시그라프 가보고 싶다... ( '-')




이건 번역 블로깅도 아니고 전문 블로깅도 아니여~

신고
Posted by Stan1ey

BLOG main image
by Stan1ey

카테고리

분류 전체보기 (347)
HTI in General (45)
User eXperience (11)
Voice UI (50)
Vision UI (14)
Gesture UI (25)
Tangible UI (28)
Robot UI (14)
Public UI (9)
Virtuality & Fun (56)
Visual Language (15)
sCRAP (70)

글 보관함



www.flickr.com
This is a Flickr badge showing public photos and videos from Stan1ey. Make your own badge here.