본문 바로가기
Virtuality & Fun

Futuristic Interfaces in SIGGRAPH 2009

by Stan1ey 2009. 8. 8.

어제 막을 내린 ACM SIGGRAPH에 대한 소식 중에서, 따로 '미래적인 인터페이스'라고 모아놓은 기사를 보게됐다. ACM 웹사이트에 올라온 기사라고 해도 얼마나 대표성이 있는지는 모르겠으나, 일단 좀 보자면 다음과 같다.

(1) 초음파 간섭을 이용한 공간 상의 촉각 디스플레이

Tangible Holography
동경대에서 만든 거라는데, 이건 작년이었나 재작년에도 발표했던 걸로 기억을 한다. 초음파 스피커를 가로세로로 잔뜩 붙여놓고 공간 상의 특정한 위치에 맥놀이 파장이 맺히도록 조절하면 그 위치에서만 상대적인 저음이 들리게 할 수 있는데, 여기서 상대적인 저음은 가청주파수거나 공기압을 느낄 정도의 저음일 수 있다. MIT에서는 가청주파수를 조합함으로써 특정방향으로만 소리가 전파되는 지향성 스피커를 만들기도 했는데, 동경대에서는 저음을 이용한 모양이다. 클럽에서 우퍼스피커 앞에 있으면 몸이 밀리는 듯한 파동을 느끼는데, 그것과 같은 현상을 특정한 한 점에 집중시키는 기술이라고 보면 될 듯 하다.



기술적으로는 한꺼번에 몇군데에 압력을 생성할 수 있는지, 그리고 그 해상도가 얼마나 되는지 등등은 좀 확인해볼 필요가 있겠다. 사람이 디스플레이 안에 머리를 들이밀면 안 된다든가 (그 압력이 고막이나 안구에 적용된다면 상당히 끔찍할꺼다), 압력은 좀 느껴지지만 결국은 바람에 지나지 않는다든가, 무엇보다 압력의 방향이 한쪽뿐이라는 건 약점이 되겠지만.


(2) 다중카메라의 입체시를 이용한 실시간 3차원 모델링 장치
Virtualization Gate
Virtualization Gate라는 제목으로 발표된 이 장치는, 결국 단색배경에서 전경을 구분해내는 크로마키 촬영을 여러군데에서 동시에 해서 합성하는 방식으로 보인다. 영상에서 특징을 추출해서 삼각법으로 모델링을 하고, 촬영된 영상으로 매핑까지 해주는 시스템일 듯. 어쩌면 영상들을 삼각측량한 게 아니라 2.5차원 거리센서 같은 걸 썼을지도 모르지만, 그러기엔 모델링 해상도가 좀 낮아 보인다. 적외선이든 초음파든 거리센서든 여러 개를 함께 사용하기가 아주 어렵다는 문제도 있고.



꽤 어마어마한 규모의 장비가 들어가야 하니 상용화는 쉽지 않겠지만, 사람을 실시간으로 3차원 공간에 놓을 수 있게 되면서 여러가지 재미있는 인터랙션을 구현한 것은 무척 재미있다. 어쩌면 일전에 소개했던 Oblong의 시스템에 맞물려 재미있는 결과가 나올 수도 있지 않을까.


(3) 증강현실을 이용한 게임
AR Toy
증강현실 게임은 요새 참 열심히도 나오고 있기 때문에 사실 가장 심드렁한 내용이 되겠다. 게다가 그냥 AR Tag를 조금 어거지로 조합해서 보드게임을 만들었다는 건데 그럼으로써 게임이 재미있어지거나 한 면은 딱이 보이지 않는다. 일부러 잔뜩 갖다붙인 그래픽 효과들은 영상의 오덕스러움만 더해주고 있을 뿐이고. 진정한 오덕은 이렇게 오버하지 않아!




(4) 긁는 소리의 패턴으로 긁은 모양을 유추하는 기술
벽에 터치를 하는 소리로 터치 유무와 위치를 알아낸다든가, 특정한 패턴이 있는 물체를 긁는 소리를 인식해서 어느 부위를 긁는지 알아낸다든가 하는 기술에 이어서, 이번에는 벽을 긁는 고주파음의 패턴 - 손톱이 지나가는 속력에 따라서 달라지는 일차원적인 음높이의 변화 - 을 인식하는 기술을 들고나온 팀이 있다.



단순한 만큼 확장가능성은 높지만, 사용자가 의도하지 않은 오인식의 가능성은 높을 것 같다. 음성인식 때에도 그랬듯이, 먼저 특정하게 정해진 패턴에 이어서 조작명령을 입력한다든가 하는 사용법이 필요할 수 있을 듯. (예를 들면 항상 똑똑 두들긴 후에 명령에 해당하는 문자를 입력한다든가.) 결국은 동작 UI이기 때문에 많은 명령을 한꺼번에 적용할 수 없고 사람마다 차이가 크다는 문제는 있겠지만, 특히 마이크 하나만 있으면 적용이 가능하다는 점을 생각해 보면 아주 간단한 조작 - 이를테면 조명등이라든가, 데모에 나온대로 간단한 휴대폰 기능 등 - 에 대해서는 꽤나 가능성 높아 보이는 제안이다.


(5) 입체영상을 이용한 다자간 영상통화
HeadSPIN for Teleconference
마치 영화 <마이너리티 리포트>의 맨 앞에 나왔던 장면이다. Teleconference에 참석한 사람의 얼굴을 거리센서로 만든 입체영상에 입혀서 여러 명이 대화할 때에 시선을 마주치는 걸 가능하게 한 기술인데, 비교적 간단한 구현이라는 생각은 들지만 그래도 이제껏 이 상황에서 시선처리를 해결하려 했던 시도 중에서는 세련된 편에 속한다. (최소한 영화 <Judge Dredd>에서의 회의실 장면 보다는 백배 낫지 않을까. -_- )



따로 CSCW라고 불리는 분야가 있을 정도로, 여러 사람이 동시에 하나의 컴퓨터 시스템을 사용하는 상황은 자주 연구되는 주제이다. 하지만 군대 작전통제실과 같은 경우를 제외하고, 그런 상황이 실제로 자주 필요한 경우는 없는 것도 사실인 것 같다. 그동안 좋은 솔루션이 많이 나왔음에도 실용화된 사례는 거의 본 적이 없다. 아마 이 기술도 당분간은 그렇지 않을까나.



아... 시그라프 가보고 싶다... ( '-')




이건 번역 블로깅도 아니고 전문 블로깅도 아니여~

반응형