모든 HCI 기술들은 거기에 걸맞는 어플리케이션을 만났을 때 비로서 빛을 발한다. 그렇다면 비교적 최근에 가까스로(ㅎ) 상용화됐다고 할 수 있는 증강현실의 진정한 효용가치는 뭘까. AR의 상용화에 가장 큰 영향을 줬다고 할 수 있는 휴대폰 시장초창기 AR앱들만 보면 대세는 주변지역에 대한 정보를 주는 용도인데, 한편으로 광고계에서는 이와 조금 다른 응용사례들이 여럿 나오고 있다. 바로 플래시 플러그인에서 AR 태그 인식이 가능하게 되면서다.


웹기반 증강현실
개인적으로 처음 접한 웹사이트 상의 AR 실용사례(연구실에서나 개인이 기술시연용으로 만든 게 아니라)는, 2009년 미국 우체국에서 발송할 물건에 따라 소포상자의 크기를 가늠할 수 있게 해주려고 만든 Virtual Box Simulator이다.


(사족이지만, 이 서비스를 기획한 광고 에이전시인 AKQA는 좀 눈여겨 볼 가치가 있는 집단이다. 뭐 여러가지로. ^^; )

사용자 컴퓨터에 웹캠만 달려 있다면, 웹페이지에 포함된 Flash을 통해서 간단한 증강현실을 보여줄 수 있게 된 거다. 이 방식은 별도의 특별한 센서나 모바일 기기나 어플리케이션을 신경써야 할 필요가 없기 때문에, 가히 "범용 AR 플랫폼"이라고 생각하고 있다. 이 조합은 증강현실이 퍼지는 데 상당한 파급력이 있을 거라고 생각하는데, 점점 더 많은 사례들이 온라인에 등장하고 있다.

위 미국 우체국의 사례를 발견한 이후에 재미있는 Flash AR 사례를 짬짬이 모았는데, 대부분의 응용사례들은 광고쪽에서 나오고 있다. 글 쓰는 걸 1년 가까이 차일피일 미루다보니 이젠 모두 나열하기도 벅차게 많아졌고, 그동안 이미 온라인에서 사라져버린 것도 있다. 그러니 그냥 최근의 사례나 몇 가지 소개하고 말기로 하자.


최근의 Flash AR 사례
AR Tag on KitKat
우선 킷캣. -_-; 좋아하는 과자인데, 얼마전 집어들다가 뜻밖에 뒷면에 AR 태그가 인쇄되어 있는 걸 발견했다. 함께 인쇄되어 있는 웹사이트로 들어가서 카메라를 태그를 비추면 뭔가가 나온단다. 결과는 아래 동영상과 같다.



딸랑 저 한 곡뿐이긴 하지만, 손바닥 위에서 돌려가며 볼 수 있는 뮤직비디오라니 나름 신선하다. 이 경우와 같이 가장 단순한 형태인 흑백 도형을 태그로 사용한 경우는 그야말로 우후죽순처럼 많다. 아래는 작년에 발행된 <Desktop>지의 AR 특집의 경우.



찾아본 바로는, 플래시 기반의 AR들은 모두 흑백태그를 사용하고 있는 것같다. 영상처리라든가 하는 데에 제약이 있는 걸까. 반면에 범용성을 포기하고라도 별개의 플러그인을 설치하는 방식을 채택한 경우에는 보다 자유로운 응용이 가능하다.


별도의 AR Plug-in을 사용한 경우
아래의 나이키 LunarGlide 광고 캠페인이라든가 스포츠 수집품 Topps의 경우에는보통의 인쇄물이 태그대신 사용된 경우로, 이 경우엔 별도의 플러그인을 깔고 브라우저를 다시 시작해야 하므로 반칙. 이런 식으로는 과거 연구실 기술시연에 비해서 크게 범용화됐다고 말할 수 없겠다. 하지만 이 플로그인을 개발한 회사 Total Immersion의 경우에는 그동안 여기저기에서 수없이 홍보하고 다닌 효과를 나름대로 거두는 것 같다.





아마 플래시에서 이런 수준의 물체인식이 가능해지면 웹 상에서 구현되는 온라인 AR도 훨씬 더 재미있는 사례가 많겠지만, 현재로선 AR을 적용한 어플리케이션을 최소한의 진입장벽으로 퍼뜨릴 수 있게 해주는 건 Flash AR이고, 그렇다면 결국 크고 단순화된 AR 태그를 사용하는 수 밖에 없어 보인다. 굳이 흑백일 필요는 없을 거라고 생각하지만.


Better Flash AR
그렇다면 Flash AR이라는 그 접근성 좋은 조합은, 그냥 이렇게 그닥 보기도 좋지 않은 흑백 태그를 포장지나 잡지나 광고에 인쇄해 놓고 웹캠을 통해서 홍보용 입체 컨텐츠를 보여주는... 이게 최선입니까? 확실해요?

가장 최근에 눈에 띈, 곧 출범한다는 아이다스의 광고 캠페인을 보면 그렇지도 않은 것같다. 이름하여 무려 "Augmented Reality Shoes" 시리즈라는. ㅡ_ㅡ;;; 우선 동영상.



Adidas Original - Augmented Reality Shoes
위에 링크한 웹페이지에 걸려있는 왼쪽 사진을 잘 보면, 운동화 발등부분에 떡하니 AR태그가 찍혀있다. (솔직히 헉! 내 생전에 AR 태그가 패션 아이템이 되는 모습을 보는 건가!!! ;ㅁ; 싶은 상황이다.) 도대체 무슨 일을 꾸미는 걸까? 위 동영상의 마지막에 나오는 다섯 개 태그를 가지고 뭔가 "AR Game Pack"이라는 개념으로 접근하려나 본데, 위 동영상에서 나온 것처럼 신발의 색이 변하고 구조를 보여주고 거창한 장식이 가상적으로나마 표현되는 거라면 꽤 재미있겠다.

AR Tags for Adidas Originals Augmented Reality Shoes

물론 고정되지 않은 부분에 태그를 달았으니까 화면상에서 실제 신발의 위치/방향과 가상물체를 정확히 일치시킬 수는 없겠지만, 진짜 신발을 들고 움직임으로써 가상신발을 그냥 가상배경 위에서 돌려보고 확대해보고 부분부분의 색상을 바꿔볼 수 있다면 그것만으로도 꽤 재미있지 않을까? 나이키에서 했던 자신만의 신발 디자인하기를 실제 신발을 손에 들고 돌려보면서 해볼 수도 있을 것이다.

이런 사례를 잘 응용한다면 휴대폰 화면에 태그를 띄우고 웹사이트에서 케이스 색상이나 무늬를 선택할 수 있게 한다든가, PC를 연결한/내장한 TV에 웹캠을 달아서 인쇄광고나 태그를 비춤으로써 뭔가 입체적인 홍보영상을 볼 수 있게 하는 등도 가능해질꺼다. 어쨌든 플래시는 여기저기 적용되고 있으니까.

그리고 무엇보다 Adobe에서도 분명히 이 흐름을 보고 있을테니, 앞으로는 영상인식 부분을 강화해서 tag-free AR 수준까지도 가능하도록 해줄지 모르는 일이다.


Accessible AR
휴대기기에 카메라가 들어간 지는 십여년이 지났지만, 그 OS가 표준화되면서 비로서 온갖 증강현실 어플리케이션들이 시장에 쏟아지기 시작했다. 비슷한 시기에 보편화된 웹캠도, 이제 Flash라는 보편적인 플랫폼과 연결이 됐으니 뭔가 재미있는 걸 쏟아내지 않을까하고 상당히 기대하고 있다.




... 해묵은 이슈를 가지고 글을 쓰려니, 이미 김새서 신선한 맛이 없을 뿐이고... 재미도 없고 감동도 없고 딱히 뚜렷한 방향도 주장도 없고... 휴.

앞으론 정말 짧게 써야지. ㅡ_ㅡ

신고
Posted by Stan1ey
Nintendo 3DS
닌텐도에서 NDS, NDSi의 후속으로 parallex barrier를 덧씌워서 맨눈으로도 입체영상을 볼 수 있게 해주는 게임기 Nintendo 3DS를 곧 출시한다고 한다. 기술의 잠재력을 십분 발휘하는 능력이 있는 닌텐도지만, 이번의 입체영상 적용에 대해서는 조금 무리라는 생각이 들었는지 깊이감을 사용자 임의로 조절할 수 있는 슬라이더(3D Depth Slider)를 장착하고 6세 이하 어린이의 입체영상 관람에 대해서 경고문구를 삽입하는 등 소심한 행보를 보이고 있다.

모바일 기기에서 이 방식의 3D 화면을 구현한 게 이번이 처음은 아니지만, 그래도 풍부한 컨텐츠를 보유하고 있는 닌텐도의 움직임이니만큼 주목하게 되는 건 어쩔 수 없다. 그래서 관련된 뉴스가 나오면 뒤적이게 된다. 입체영상을 적용한 게임, 가속도 센서와 전면 카메라로 사용자의 움직임에도 반응하고, 평면영상으로는 불가능했던 퍼즐도 가능하다. 음성에도 반응할 수 있는 것 같고, 당연히 터치스크린을 이용한 Tangible UI도 구현되겠지. 흠... 만들기 재미있겠다. 부럽.

그런데, 개인적으로는 이 입체화면을 통한 게임이라는 것보다도, 이 N3DS 화면 뒷면에 떡하니 붙어있는 한 쌍의 카메라에 더 관심이 간다.

Binocular Camera on Nintendo 3DS

최근에는 소니에서 하나의 렌즈로 입체영상을 찍을 수 있는 방식도 나왔지만, 많은 3D 카메라들은 두 개의 렌즈를 갖고 있다. 3DS에 붙어있는 저 카메라도 보아하니 딱 입체영상을 찍기위한 거라는 건 당연한 일. 근데 의외로 여기에 대한 코멘트는 자주 보이지 않는다. ... 입체화면이 있는 장치에 입체영상을 기록할 수 있는 장치. 너무 당연해서 그런가? 그래도 이 조합이면 뭔가 재미있는 일이 있을 것도 같은데...


(1) 증강현실
이젠 모바일 기기에 AR이 들어가는 건 당연한 이야기가 된 듯. 신기해하는 사람조차 없다. 언제 이렇게 됐는지... 신기술에 대한 사회의 반발과 적응의 과정은 정말이지 종잡을 수가 없다. 어쨋든 입체화면 모바일 장치라면 AR도 당연히 입체여야 할 터. 여기에 대해서는 이미 최근의 Nintendo World 행사를 통해 동영상이 올라오기도 했다. (아래 동영상은 앞부분에 일본어로만 진행되는 부분이 쫌 길다. 재미없으면 앞의 10분은 넘어가도 좋고, 실제 AR에 대한 부분은 21분쯤 나온다.)



위 동영상에서 눈치챌 수 있듯이, 아직은 그냥 '이런 것도 됩니다'라는 느낌에 Wii에서 구축해 놓은 Mii 시스템을 모바일 세상으로, 그리고 실제 세상으로 끌고 나오겠다는 욕심을 보이는 데 그치고 있다.

한가지 궁금한 것은, 저렇게 AR "렌즈" 역할을 하는 기계를 들고 쓰다보면 카메라가 AR 카드 위치를 보는 시야각/거리감하고 사람이 그 가상의 렌즈를 통해서 기대하는 시야각/거리감이 완전히 다를텐데 어지럽지 않으려나? 하는 부분이다.
eyeMagic Book Project from HIT Lab NZ
이를테면 이전의 비슷한 사례 중 하나인 HIT Lab NZ의 <eyeMagic Book>은 눈앞에 화면과 카메라를 갖다붙이는 방식이니까 카메라의 시야각이나 사용자의 시야각이나 별 차이가 없었지만, 만일 닌텐도 3DS를 들고 AR Tag 주변을 맴돌면서 역동적인 AR 게임을 하라고 하면 조금 괴로울지도 모르겠다.

게다가 사실은, 저렇게 기기를 들고 가상의 "물체" 주위로 돌려가면서 봐야하는 상황에서는 parallex barrier 방식(혹은, 모든 맨눈으로 보는 입체화면)의 치명적인 결점 - 화면을 정면+특정거리+똑바로 보지 않으면 깊이감이 뒤섞이거나, 심지어 뒤집히거나, 급기야 화면이 안 보인다는 - 이 그대로 드러나게 된다. 이제까지 나온 그나마 성공적인 AR 앱들도 그렇고, 채용한 입체화면 방식의 장단점을 고려해서도 그렇고, 결국은 위치정보를 바탕으로 주변의 "환경"에 정보를 입히고 그걸 기기를 휘둘러가며 탐색하는 방향으로 가게 되리라 생각한다. 이미 휴대폰에서 나온 "재미있지만 쓸모가 빈약한" 어플리케이션들과 차별점이 없어 보일런지 몰라도, 게임 컨텐츠 개발에 탁원한 닌텐도라면 이런 제약들 속에서도 뭔가 재미있는 뜻밖의 사례 하나쯤 들고나와 주리라 믿어보자.
 

(2) 거리측정
카메라가 인간의 눈보다 잘할 수 있는 일이 있다면, 그건 시야 내의 모든 점들을 동시에 지속적으로 볼 수 있다는 거다. 카메라가 두 개 있을 때 인간의 두 눈보다 요긴한 점이 있다면, 양쪽 카메라에서 본 점들을 맞춰보면서 각 지점까지의 거리를 알 수 있다는 거다. 물론 그 정확도야 입력영상의 해상도나 복잡도, 영상정보의 처리속도 등에 의해서 좌우되겠지만, 영상의 각 지점까지 거리를 안다는 것은 세상을 입체적으로 이해하는 데에 큰 도움이 될 수 있다.

실제로 구현된 사례가 없으니 섣부른 추측이겠지만, 아마도 닌텐도 3DS에 달린 두 개의 카메라로 영상 내에 등장한 물체까지의 거리를 분석할 수 있다면, 그 결과는 마이크로소프트의 키넥스(Kinect) 시스템에서 나온 데이터와 크게 다르지 않을꺼다. 아래 왼쪽의 그림은 기존 stereo vision 분야의 결과 중 하나고, 오른쪽은 해킹된 Kinect 시스템으로부터의 신호다. 일단 거리 데이터로 변환된 후에는, 장점도 약점도 비슷하리라는 걸 알 수 있다. (적외선을 이용한 active sensing의 장단점과 별도의 영상처리를 해야하는 passive sensing의 장단점은 비교해봄직 하겠지만, 걍 다음으로 넘기고 건너뛰자.)

Distance Measurement from Stereo VisionDistance Measurement from Kinect

물론 닌텐도 3DS의 경우는 모바일 기기이고, 카메라와 화면의 방향이 반대니까 Kinect와는 응용방법이 완전히 달라야 한다. 그리고 오히려 그런 의미에서 기대가 된다. 이를테면, 기존의 AR이 현실의 영상 위에 가상의 물체를 단순히 덮어 씌우는 방식이었다면, 물체인식이 되는 AR은 가까이 있는 실제 물체 "뒤에" 가상의 물체를 놓을 수도 있을 거다. 거기에 가속도 센서를 이용해서 Kinect처럼 "바닥"을 인식하는 기본 알고리듬이 추가된다면 단지 카드에 인쇄된 AR Tag를 기준으로 불안불안하게 이루어지던 상호작용이 훨씬 자연스러워 질 수 있다.

잠깐, 입체인식이 된다면 굳이 인쇄된 카드를 쓸 필요가 있나? 스테레오 비전을 이용한 물체인식 연구라면 로봇 분야에서 꽤 오랫동안 이루어진 분야다. 물체를 인식해서 그 물체에 맞는 증강현실 효과를 덧붙여줄 수 있다면 최근의 AR 유행을 한 수준 뛰어넘는 응용사례가 될 지도 모르겠다. 예를 들면 손가락 모양(手印)에 따라 특정 기술을 구사할 수 있는 동양적 판타지 게임이라든가. (지가 만들 꺼 아니라고 막 말하고 있다... -_-;;; )


(3) 3D 컨텐츠
하지만 역시 세상에 가장 큰 파급효과가 되라라고 생각하는 것은 3D 입체사진과 입체동영상의 양산이다. 입체사진을 찍는다며 눈이 두개 달린 카메라를 사는 건 웬만한 얼리어답터가 아니면 엄두를 못낼 일이지만, 이미 검증된 게임 컨텐츠가 딸려오는 게임기는 그런 구매장벽이 없다. 일단 사서 이것저것 찍고 인터넷에 올리고 하다보면, 여러가지 3D 컨텐츠가 퍼지게 될꺼다. 일단은 3DS을 갖고 있거나 3D TV에서 보려고 굳이 애쓰는 사람들 중심으로 퍼지겠지만, 일단 데이터가 많으면 일반 사용자들을 위한 3D Viewer를 만드는 사람도 있을테고... (단순히 좌우영상을 교대로 보여주기만 해도 상당한 입체감이 느껴진다) 결국 3D 컨텐츠가 일반시장에 퍼지는 데에 꽤 큰 역할을 하게 될 것같다.

물론 이미 3D 동영상에 대해서는 나름의 데이터 표준이 합의되어 있고, 일반 사용자들이 모르는 사이에 고민도 많았던 모양이다. 하지만 이렇게 한가지 기기에서 대량으로 입체사진/영상이 퍼진다면 그것 자체가 하나의 경쟁력 있는 시장표준이 되어버리지 않을까? 일단 니코니코동화YouTube 3D에서부터 시작해서, 세상의 잉여력이 또다시 뭉쳐져 새로운 3D 시각문화의 장이 열리리라고 기대하고 있다.



... 뭐 이렇게 기대야 내멋대로 할 수 있지만, 사실 모바일 기기에서 게임이든 어플이든 개발하는 게 말처럼 녹녹치는 않다. 제약조건도 많고 따로 영상처리를 할 여유도 없고. 하지만 곧 Nintendo 3DS가 출시되고 나면 조만간 해킹 소식이 날라올테고, 그걸 기반으로 또 이런저런 장난을 치는 사람이 나오게 될꺼다. 그 다음에는 카메라 두 개로 입체 AR을 구현한다거나 영상의 깊이감을 측정한다거나 입체 동영상을 공유한다거나 하는 게 금방 또 당연해질테고.

지금 키넥트의 적외선 거리센서 보면서 아쉬워하고 있을 때가 아니라는 거다.





그나저나, 3DS라고 하면 Autodesk 3D Studio가 생각나는 사람, 손!!! ^0^/
... 우린 이제 공식적으로 한물간 겁니다. ㅠ_ㅠ
저작자 표시 비영리 변경 금지
신고
Posted by Stan1ey
지난 CES 이후에 3D 디스플레이3D TV 방송에 대한 관심이 부쩍 높아졌나보다. 이와 관련해서 이런저런 정보가 인터넷에 쏟아져 들어오고 있는데, 어쩌다 오늘 출근 길에 본 팟캐스트 내용 중에 여기에 대한 내용이 많아서, 이것도 인연이려니 하고 한데 모아두기로 했다.

우선 GeekBrief.TV의 지난 1월 11일 에피소드:

... 뭔가 긴가민가한 내용도 있지만, 어쨋든 흥미있는 소식들.

그리고 NY Times의 컬럼리스트(이 사람의 정체에 대해서는 좀 논란이 있는 게 사실이다...) David Pogue의 지난 1월 14일 비디오 컬럼:

... 이 아저씨의 동영상은 늘 내용이 좋은데, 그만 저질개그 때문에 논점을 흐리는 듯. 뭐 그래서 인기가 좋은 거라니 할 말은 없다만. 어쨋든 하고싶은 말이 뭔지는 알 것 같다.


Video Log UI from Avatar
아직은 그 장치 자체에 대한 이야기와 그게 시장에 매력적이냐 아니냐 정도의 논란만 있을 뿐 3D UI에 대한 이야기는 없는 듯. 사실 위 GBTV에 인용된 영화 <Avatar>의 경우에도 동영상은 3D인데 거기에 사용되는 UI는 2D 전통의 tab을 사용하는 경우도 있었으니. (아, 물론 다른 장면에서 사용된 몇몇 UI 혹은 '정보표현' 방식은 나름 획기적이긴 했다... 실용성과 별개로.)

뭐 그래도 충분히 두근두근하지 않은가 말이다. ㅎㅎ
신고
Posted by Stan1ey
요새 아이폰에서 증강현실 Augmented Reality 기술의 실용화 사례가 급격하게(!) 늘어난다 싶더니만, 급기야 <Business Week>지에서 Special Report까지 발행했다.

CEO Report on AR, from Business Week

위 목차에서 볼 수 있듯이 이 리포트의 내용은 주로 iPhone이 AR를 mainstream으로 격상시켰다는 이야기로 시작해서 (BW답게도) 그 사업적인 가치와 사업사례, 미래의 가능성, 그리고 CEO를 위한 기술개요 요약본으로 구성되어 있다.

AR이 벌써 mainstream 운운할 정도로 커졌나? ... 흠, 솔직히 HTI를 내세우면서 신기술 적용에 목을 매는 나로서도 그건 좀 부정적이다. iPhone으로 대표되는 모바일 AR이라면 딱히 높은 상업적인 가치를 갖는 물건이 안 나오고 있으니 더욱 그렇고, 그나마 똑부러지지 않아도 재미있으면 팔린다는 게임에서도 화면과 현실의 괴리감을 극복할만한 아이디어는 보이지 않고 있다.

이게 주요 UI로 떠오르려면 아직은 갈 길이 멀 것 같은데, 샴페인이 조금 일찍 터지는 듯. 그래도 이게 CEO Report 라는 이름으로 비지니스 위크에 등장했으니 이미 관련 연구실에는 '그게 뭔데 보고해봐라'는 지시가 떨어졌을게다. 오랫동안 회사에서 눈치보면서 연구하던 분들이 이번 기회를 잘 살려서 회사 내에서라도 mainstream 조직으로 떠오르기를 기대해 본다. AR이니 뭐니 해도 결국은 영상인식 기술이고, 영상인식 기술만큼은 조만간 주요 UI 기술이 되리라는 데에 전혀 이의가 없다.

AR이 실제로 mainstream이 되기 위해서 빠진 부분이 무엇일까?

개인적으로는 영상인식과 더불어 모바일 프로젝션이 그 열쇠라고 생각한다. 결국 virtuality만으로는 먹히지 않을테니 가상의 것을 실제 세계에 쏟아내는 수 밖에. SIGGRAPH에서 발표된 그 수많은 프로젝션 기술들, 이제 슬슬 날개를 펼 때가 되기도 했다. 어차피 그걸로 영화 보여주겠다고 해도, 해상도도 부족하고 휘도도 떨어져서 제대로 안 보인다니깐...
신고
Posted by Stan1ey
크리스마스 시즌이 가까와지면서 (11월초부터 거리마다 크리스마스 장식에 아주 난리가 아니다 -_- ) 온갖 상점에서 선물용품을 홍보하고 있다. 그 중에 아이들이 좋아할만한... 혹은 내가 좋아라 하는 ^^; 종류의 게임을 발견했다.

EyePet for Sony PlayStation 3

EyePet이라는 이름의 게임이 PlayStation Eye (EyeToy의 이름을 바꾼 듯) 사진과 같이 나왔길래 그냥 예전의 아이토이와 비슷한 물건인 줄 알았는데, 카메라가 관련된다면 뭐든 심상찮은 타이밍이라 한번 동영상을 찾아봤다.



일단 위 홍보영상으로만 보기엔 완전 대박이다. 좀더 자세한 내용을 찾아보니, 아래의 실제 게임 플레이 동영상을 볼 수 있었다.
 


보통 AR 시스템에서는 다양한 역할을 하는 여러 개의 AR tag를 사용하는데, 이 시스템에서는 시종일관 하나의 태그(이름하여 "매직 카드")만 사용하고 있는 점이 재미있다. 덕택에 등장한 메뉴 시스템은 손을 좌우로 움직여서 목록을 움직이고 아이템을 선택한 후에는 잠시 기다림으로써 확정하는 소위 dwell 방식을 채택하고 있다. 방바닥을 인식하려면 아무래도 카메라를 초기화하는 작업이 필요할텐데, 아마 그것도 같은 태그로 마치 안구추적 영역을 초기화하듯이 하게 될 듯.

그 외에 같은 태그를 캐릭터 상태를 보기 위한 목적으로 쓰게 하는 접근이라든가, 결국 EyeToy와 똑같이 손을 흔들어 동작시키는 방식과 가상 물체를 이용한 UI를 혼합한 방식 등은 많은 고민이 있었음을 알 수 있게 해준다.

첫번째 홍보 동영상에 나오는, 사용자가 한 낙서를 바탕으로 비행기를 만들어 준다는 것은 획기적이지만... 역시 약간의 문제는 있는 듯. 아래 동영상을 보자.



몇가지 폐곡선을 그린 후에 그 안에 그려넣는 모양에 따라 각 관절을 연결하는 듯 한데, 그렇다고 각 모양의 의미를 인식하는 기능까지는 없다보니 조합방식에 따라 위와 같은 상황도 벌어질 수 있나보다.

하지만 어떻게 이상하게 조합된 것이든 내가 그린 그림으로 만들어진 가상물체를 사랑스러운 가상의 애완동물이 타고, 내가 그걸 컨트롤러로 조정할 수 있다는데, 기술적으로 완벽하지 않다고 불평할 사람이 있을까. 게다가 이건 결국 게임기에서 동작하는 소프트웨어이기 때문에, 사용자도 게임을 대하는 마음가짐 - 재미있으면 장땡 - 을 갖고 있을 것이다. 새로운 기술을 시험해 보기엔 좋은 기회인 셈.

어떻게 보면 기존의 기술들을 이것저것 조합한 물건이지만, 그 조합 방법에 있어서 최적의 방법을 찾기 위해서 여러가지 고민을 많이 한 것으로 보인다. 실제 공간에는 안 보이고 화면 상에만 보이는 가상 애완동물을 맨바닥에 헛손질하면서 귀여워해 주는 게임 자체가 얼마나 상업적으로 성공할 지 모르겠지만, 그 기술의 조합 방식만큼은 한번 찬찬히 감상해 볼만한 작품이라고 생각한다.
신고
Posted by Stan1ey

어제 막을 내린 ACM SIGGRAPH에 대한 소식 중에서, 따로 '미래적인 인터페이스'라고 모아놓은 기사를 보게됐다. ACM 웹사이트에 올라온 기사라고 해도 얼마나 대표성이 있는지는 모르겠으나, 일단 좀 보자면 다음과 같다.

(1) 초음파 간섭을 이용한 공간 상의 촉각 디스플레이

Tangible Holography
동경대에서 만든 거라는데, 이건 작년이었나 재작년에도 발표했던 걸로 기억을 한다. 초음파 스피커를 가로세로로 잔뜩 붙여놓고 공간 상의 특정한 위치에 맥놀이 파장이 맺히도록 조절하면 그 위치에서만 상대적인 저음이 들리게 할 수 있는데, 여기서 상대적인 저음은 가청주파수거나 공기압을 느낄 정도의 저음일 수 있다. MIT에서는 가청주파수를 조합함으로써 특정방향으로만 소리가 전파되는 지향성 스피커를 만들기도 했는데, 동경대에서는 저음을 이용한 모양이다. 클럽에서 우퍼스피커 앞에 있으면 몸이 밀리는 듯한 파동을 느끼는데, 그것과 같은 현상을 특정한 한 점에 집중시키는 기술이라고 보면 될 듯 하다.



기술적으로는 한꺼번에 몇군데에 압력을 생성할 수 있는지, 그리고 그 해상도가 얼마나 되는지 등등은 좀 확인해볼 필요가 있겠다. 사람이 디스플레이 안에 머리를 들이밀면 안 된다든가 (그 압력이 고막이나 안구에 적용된다면 상당히 끔찍할꺼다), 압력은 좀 느껴지지만 결국은 바람에 지나지 않는다든가, 무엇보다 압력의 방향이 한쪽뿐이라는 건 약점이 되겠지만.


(2) 다중카메라의 입체시를 이용한 실시간 3차원 모델링 장치
Virtualization Gate
Virtualization Gate라는 제목으로 발표된 이 장치는, 결국 단색배경에서 전경을 구분해내는 크로마키 촬영을 여러군데에서 동시에 해서 합성하는 방식으로 보인다. 영상에서 특징을 추출해서 삼각법으로 모델링을 하고, 촬영된 영상으로 매핑까지 해주는 시스템일 듯. 어쩌면 영상들을 삼각측량한 게 아니라 2.5차원 거리센서 같은 걸 썼을지도 모르지만, 그러기엔 모델링 해상도가 좀 낮아 보인다. 적외선이든 초음파든 거리센서든 여러 개를 함께 사용하기가 아주 어렵다는 문제도 있고.



꽤 어마어마한 규모의 장비가 들어가야 하니 상용화는 쉽지 않겠지만, 사람을 실시간으로 3차원 공간에 놓을 수 있게 되면서 여러가지 재미있는 인터랙션을 구현한 것은 무척 재미있다. 어쩌면 일전에 소개했던 Oblong의 시스템에 맞물려 재미있는 결과가 나올 수도 있지 않을까.


(3) 증강현실을 이용한 게임
AR Toy
증강현실 게임은 요새 참 열심히도 나오고 있기 때문에 사실 가장 심드렁한 내용이 되겠다. 게다가 그냥 AR Tag를 조금 어거지로 조합해서 보드게임을 만들었다는 건데 그럼으로써 게임이 재미있어지거나 한 면은 딱이 보이지 않는다. 일부러 잔뜩 갖다붙인 그래픽 효과들은 영상의 오덕스러움만 더해주고 있을 뿐이고. 진정한 오덕은 이렇게 오버하지 않아!




(4) 긁는 소리의 패턴으로 긁은 모양을 유추하는 기술
벽에 터치를 하는 소리로 터치 유무와 위치를 알아낸다든가, 특정한 패턴이 있는 물체를 긁는 소리를 인식해서 어느 부위를 긁는지 알아낸다든가 하는 기술에 이어서, 이번에는 벽을 긁는 고주파음의 패턴 - 손톱이 지나가는 속력에 따라서 달라지는 일차원적인 음높이의 변화 - 을 인식하는 기술을 들고나온 팀이 있다.



단순한 만큼 확장가능성은 높지만, 사용자가 의도하지 않은 오인식의 가능성은 높을 것 같다. 음성인식 때에도 그랬듯이, 먼저 특정하게 정해진 패턴에 이어서 조작명령을 입력한다든가 하는 사용법이 필요할 수 있을 듯. (예를 들면 항상 똑똑 두들긴 후에 명령에 해당하는 문자를 입력한다든가.) 결국은 동작 UI이기 때문에 많은 명령을 한꺼번에 적용할 수 없고 사람마다 차이가 크다는 문제는 있겠지만, 특히 마이크 하나만 있으면 적용이 가능하다는 점을 생각해 보면 아주 간단한 조작 - 이를테면 조명등이라든가, 데모에 나온대로 간단한 휴대폰 기능 등 - 에 대해서는 꽤나 가능성 높아 보이는 제안이다.


(5) 입체영상을 이용한 다자간 영상통화
HeadSPIN for Teleconference
마치 영화 <마이너리티 리포트>의 맨 앞에 나왔던 장면이다. Teleconference에 참석한 사람의 얼굴을 거리센서로 만든 입체영상에 입혀서 여러 명이 대화할 때에 시선을 마주치는 걸 가능하게 한 기술인데, 비교적 간단한 구현이라는 생각은 들지만 그래도 이제껏 이 상황에서 시선처리를 해결하려 했던 시도 중에서는 세련된 편에 속한다. (최소한 영화 <Judge Dredd>에서의 회의실 장면 보다는 백배 낫지 않을까. -_- )



따로 CSCW라고 불리는 분야가 있을 정도로, 여러 사람이 동시에 하나의 컴퓨터 시스템을 사용하는 상황은 자주 연구되는 주제이다. 하지만 군대 작전통제실과 같은 경우를 제외하고, 그런 상황이 실제로 자주 필요한 경우는 없는 것도 사실인 것 같다. 그동안 좋은 솔루션이 많이 나왔음에도 실용화된 사례는 거의 본 적이 없다. 아마 이 기술도 당분간은 그렇지 않을까나.



아... 시그라프 가보고 싶다... ( '-')




이건 번역 블로깅도 아니고 전문 블로깅도 아니여~

신고
Posted by Stan1ey

일전에 Bandai의 <Catcha Beast> 라는 게임에 대해서 몇마디 쓴 적이 있는데, 그 때는 AR을 이용한 몬스터 잡기라는 화려한 개념을 참으로 반다이스럽게 구현했다는 이야기를 했더랬다. 이번의 E3에서는 같은 개념을 참으로 소니스러운 화려함으로 구현한 사례가 발표되었다.



게임의 기획/디자인은 반다이의 제품과 그야말로 판박이라고 해도 될 정도다. 어딘가에 있는 안 보이는 몬스터를 모호한 신호를 바탕으로 찾아내고, 그걸 미니 게임을 통해서 포획한 다음, 포획한 몬스터를 길들여서 다른 플레이어의 몬스터와 결투하게 한다. ... 하지만 역시 진작부터 증강현실 기술을 가지고 이것저것 해 본 소니답게, 단지 태그를 인식해서 화면에 몬스터를 합성하는 것 이상으로 다양한 인터랙션을 통해 게임성을 높이고 있다.

이를테면 PSP에는 조이스틱과 버튼 외에는 센서라고 할 수 있는 게 없는데, (개인적인 생각으로는 도대체 무슨 생각인지 모르겠다. 이제 PS 계열과 PSP 계열 간의 호환성은 물 건너간 이야기인 것 같은데, 이번에 새로 발표된 PSP Go에도 센서의 흔적은 찾아볼 수가 없다. 닌텐도 흉내낸다는 소리는 죽어도 듣기 싫었으려나. -_-;; ) 그럼에도 영상인식을 통해서 몇가지 손동작을 인식하고, 심지어 본체를 흔드는 동작(영상 내에서 태그의 흔들림을 인식하는 듯)으로 지진을 일으키고, 손으로 그림자를 만들어서 (이건 솔직히 인식하기 힘들텐데, 두 사람이 게임할 때 문제도 될테고) 구름을 만드는 인터랙션은 정말 고민 많이 했겠구나... 싶은 대목이다. 카메라에 덩달아 붙은 마이크도 열심히 활용해 주시고.

이미 Nintendo DSi 에는 카메라가 앞뒤로 달려있으니 이런 구성의 게임은 언제든지 (하드웨어 추가 없이) 넣을 수 있을테지만, 역시 화면의 품질이라는 게 있으니 또 어떻게 될런지 모르겠다. NDS에서 세로화면을 수첩처럼 사용하면서 플레이하게 했던 <Hotel Dusk>라는 게임이 있었는데, 이 상태로 돌아다니면서 귀신 잡기 같은 걸 하게 한다면 꽤나 재미있지 않을까나.

그런데, 이 게임에서 AR 기술이 기여한 정도는 얼마나 될까? 몬스터의 존재감을 현실 속의 공간으로 끌어내어 상당히 올린 부분은 꽤 도움이 됐겠지만, 일단 포획한 후에 그걸 통해서 게임을 한다든가 하는 부분은 장점만큼이나 단점 - PSN을 통한 온라인 게임 같은 게 불가능해 진다거나, 최소한 플레이가 제한되는 느낌이라든가 - 도 있을 수 있겠다. 맘 같아선 AR이든 다른 UI 기술이든 뭔가 한 가지 게임 분야의 주류가 되는 HTI 사례가 나와주면 좋겠지만, 아예 가상현실(VR) 기술이 전제되지 않는 한, 주류로의 편입은 아직 힘들 것 같은 느낌이다.

그나저나... 재미있는 아이디어는 어째 죄다 작은 게임들에게서 나오고, 정작 발등에 떨어진 프로젝트 같이 덩치 큰 MMOG에서는 이런 HTI 아이디어를 추가할 수 있는 상황이 아니니 이를 어쩌면 좋다냐... -_-a;;

신고
Posted by Stan1ey
전에 AR 기술을 이용해서 가상 피규어를 만든 소프트웨어를 보고 뒤집어진 적이 있었는데, 역시나 언제나 이런 기술을 가장 먼저 도입하는 곳은 인간의 원초적인 본능에 충실한 산업인 것 같다. (개인적으로도 JavaScript가 처음 도입되던 시점에 가장 훌륭한 소스는 '그런' 사이트들이었다;;;) 이번에는 무려 얼굴인식(detection)을 이용해서 좀더 3D스러운 경험을 제공해주는 제품이 소개되었다. (자주 가는 커뮤니티;;;에서 보게 됐다.)



Greeting Sequence of Tech48, by Tea Time
<Tech48> 이라는 다소 촌스러운 이름의 이 제품은 웹캠 영상을 통해서 사람 얼굴의 존재여부와 그 위치를 파악한 다음, 그 방향에 따라 화면 속의 '미소녀' 캐릭터를 상좌우로 돌려주는 방식이다. 동영상 중에는 눈을 마주치네 뭐네 하지만, 사실 눈은 사람 얼굴 여부를 판단하는 특징적/일반적인 특징이기 때문에 인식하는 것 뿐이고, 실제로 "시선"을 인식하는 수준은 아닌 것으로 보인다. (물론 이것도 현재 기술적으론 충분히 가능한 일이고 실제 데모도 많이 나왔다. 실제 눈동자 굴리는 걸 인식하는 게임도 금방 나와줄 듯. 사실 표정인식 기술이나 음성인식도 이런 수준의 상용화라면 얼마든지 대박을 칠 수 있는 준비가 되어 있는 기술이다.)

어쨋든 이전의 ARis와 달리, 사용자가 PC 앞에 앉으면 바로 반응을 보이며 쪼르르 달려와 반겨준다든가 하는 점은 정말 모에~한 면이 없잖아 있다. 하지만 이렇게 그 자체만으로도 훌륭한 기술응용사례를 역사에 남을 걸작으로 만드는 것은 기술 설명 페이지에 들어있는 기술 설명에 사용된 그림들이다.

How Tech48 works, horizontally.How Tech48 works, VERTICALLY!!!

... 조, 좋은 응용이다. OTL... 과연 오타쿠는 위대하다는 생각이 든다. 어쩌면 이 블로그에서 줄창 외치고 있는 UI 입출력 기술과 응용사례의 적절한 만남이 중요하다는 가장 훌륭한 사례일런지도 모르겠다.



Wide-angle Webcam T-CAM for Tech48

이 위대한 HTI 사례를 놓고 (쿨럭 ;ㅁ; ) 감히 기술적인 분석까지 한다는 건 안될 말일지 모르겠으나, 이 사례에는 의외로 재미있는 기술적 트릭이 포함되어 있다. 모니터 자원자를 모집하는 페이지를 보면 위와 같T-CAM이라는 전용(?) 웹캠을 나눠준다고 되어 있는데, 이 웹캠은 광각을 찍을 수 있도록 따로 렌즈를 만들어 박아넣은 모양이다. 웹캠 양쪽에 LED 스러운 부분이 보여서 혹시 IR을 사용하나 싶었지만, 위 동영상 중에 나오는 분석화면이라든가 동영상 중에 IR LED 특유의 색이 나타나지 않는 점 등으로 미루어볼 때 일단은 "증거불충분"에 해당한다.

Face Detection of Tech48

아마 단지 광각렌즈를 채용함으로서 사용자의 얼굴이 극단적으로 상좌우로 움직이는 경우도 대응할 수 있도록 만든 것으로 보인다. 정말 보면 볼수록, 오래간만에 감탄을 금치 못하게 하는 적절한 기술의 적절한 응용사례다.

참고로, 위 웹사이트를 잘 찾아보면 데모버전도 다운로드 받을 수 있다는...
신고
Posted by Stan1ey
MWC 2009 개막…휴대폰시장 `새 트렌드` 분석
(디지털 타임즈 2009-02-16)

◇불붙은 3D UI경쟁=터치 인터페이스 이후의 차기 UI의 핵심으로 부상하는 기술은 바로 3D UI다. 3D UI는 각종 센싱기술과 접목돼 UI효용을 극대화할 잠재력을 지닌 것으로 평가받고 있다.실제 16일 스페인에서 개막된 MWC 2009는 3D UI를 둘러싼 제조사간 경쟁을 암시하는 최전선이 되고 있다. (본문 중 발췌)

얼마전 LG에서 휴대폰에 "S 클래스" 3D UI를 얹었다고 대대적으로 선전하는 걸 보고, 그 충격적인 이름짓기에 잠시 아뜩해진 정신을 추스리고 동영상이 나오기를 엄청 기다렸더랬다. 결국 며칠 전부터 이런저런 동영상이 많이들 돌아다니고 있는데, 모처럼 주절거릴 내용이 생기나 싶었던 마음이 온데간데 없어져 버렸다. ㅠ_ㅠ 그럼에도 불구하고 저렇게 기사가 떴으니 그냥 이것저것 링크나 걸어보자는 심정으로 오래간만에 두드려보자. (기사 알려주신 분 감사합니다. 꾸벅 o_o; )

3D UI는, 물론, 3D 프로그램으로 렌더링된 (2D) 아이콘을 쓰는 것도 아니고, 2D 아이콘에 그림자를 넣는 것도 아니지만, 그렇다고 화면전환이나 목록을 3D로 했다고 3D UI라고 할 수 있는 것도 아니다. (아 물론 그렇게 말할 수는 있겠지만. -_- ) 2D에서 레이아웃과 그룹핑이 큰 GUI 이슈였다면, 3D에서도 그에 상응하는 GUI 이슈가 있을텐데, 적어도 이번에 공개한 부분에 대해서는 차라리 2D로 하는 게 좀더 깔끔하고 픽셀낭비가 적을 것을 왜 굳이 3D로 했는가 싶은 아쉬움이 남을 지경이다.

내가 생각하는 3D UI는 Sun Microsystems의 Looking Glass 프로젝트 (이거 이제 10년은 되지 않았나?), 그리고 그걸 잘 벤치마킹해서 3D가 의미있는 부분에서만 활용한 iPhone/iPod Touch에서의 Cover Flow와, 다양한 어플에서의 '까뒤집기' 인터랙션이다. (까뒤집는다는 데에 의미가 있다. -,.- ) 아래 동영상을 보면 3D UI가 표면적인 interface 표현으로 남지 않고 3D UX 랄까 3D interaction을 포괄하려면 어떻게 해야 할지를 조금 알 것도 같다.



다시 "S 클래스" 3D UI로 돌아가서, 그럼에도 불구하고 일단 삼성의 햅틱폰(흑;ㅁ;)으로 인해서 "대세는 터치 UI"라고 되어 버린 것을 '어떻게 됐든' 저렇게 기사를 통해서 공공연히 "이제 대세는 3D UI"로 홍보하기까지의 실무자 분들의 고생은 정말 안 봐도 뻔하다. UI 싸움에 마케팅이 거드는 건지, 마케팅 싸움에 UI가 쓰이는 건지는 몰라도, 그래도 이런 경쟁을 통해서 다른 회사들보다 먼저 좋은 차세대 UI를 찾아낼 수 있는 기반이 닦인다면 나름 큰 의미가 있다고 생각한다. 진짜루.



3D 사용자 인터페이스...는 사실 개인적으로도 큰 화두이고, Fun과 UI의 조합을 찾아 게임업계로 뛰어들면서 특히 이 회사의 이 프로젝트를 선택하게 된 계기가 되기도 했다. 언젠가 다른 사람들이 이미 말하지 않은 부분이 눈에 뜨이면 좀 더 주절거리게 될 일이 있을지도 모르지. -_-a

혹시 3D UI에 대해서 관심이 생겨 2D와 개념상의 차이점부터 들여다보고 싶은 사람이 있다면, 10여년 전 IBM에서 일단의 연구팀이 잘 갈고 닦아놓은 길을 감사한 마음으로 따라가 보자. <IBM RealThings Design Guideline>과 <RealPlaces Design Guideline>이라는 이 두 가지 3D UI Design Guideline은 요새 기준으로 가이드라인이라기는 좀 덜 구체적이지만, 그래도 3D 상의 레이아웃과 그룹핑이라는 것에 대해서, 그리고 사용자의 행동과 3D 공간 - 2D에 표현된 - 이 어떤 "추가적인" 상호작용을 일으킬 수 있는지에 대한 가능성을 잘 설명하고 있다. 오히려 최근에 잠깐씩 이루어졌던, 외부에는 많이 공개되지 않은 연구들은 과하게 학술적이거나 세부적인 반면에 3D 사용환경의 장단점과 사람들의 사용행태를 이만큼 잘 설명한 문서는 여지껏 없었다고 생각한다.

RealPhone - from IBM Realthings Guideline on 3D UIRealPhone - from IBM Realthings Guideline on 3D UI
RealBook - from IBM Realthings Guideline on 3D UISpatial metaphor from IBM RealPlaces Guideline on 3D UI
(다음날, 예전에 논문에 실었던 그림을 찾아서 추가함)

아쉬운 점은, IBM의 UCD Lab에서 선행연구 역할이 없어지면서 벌써 몇년전부터 이 프로젝트에 대한 링크가 끊겼다는 거다. 예전에 웹페이지로 공개되어 있던 것을 연구실에서 엄청 눈치보면서 죄다 이면지에 뽑아서 제본해 놓은 게 있는데, 지금 생각하면 정말 잘 한 것 같다. 그림파일을 따로 저장해 놓은 게 몇장 없다거나, 무엇보다도 그 연구가 더이상 발전하지 못했다는 건 아쉽지 그지 없지만. -_ㅜ



원래 이 블로그를 시작하면서 메모해 두었던 것들 중에 3D UI에 대한 글을 좀 쓰던 게 있는데, 아무래도 내 생각으로 채우기엔 글이 부족하고, 다른 사람 생각으로 채우기엔 좀 조심스럽다. 그냥 이렇게 때우고 넘어가자. 아래는 그 글에 넣으려고 저장해 두었던 그림이다. 이름하여:

[O] 일반 모니터에서 3D UI를 입체감 있게 구현할 수는 없을까?


신고
Posted by Stan1ey
얼마전 CES 행사를 통해서, 삼성전자에서 작은 프로젝터 모듈을 탑재한 휴대폰과 PMP(?)를 발표했다.

Samsung Pico Projector (with PMP Functionality)Samsung Pico Projector Phone
Samsung Pico Projector PhoneSamsung Pico Projector PhoneSamsung Pico Projector (with PMP Functionality)

'Pico Projector'라는 이 모듈은 이미 시장에 나와있는 'Pocket Imager'와 같이 LED 광원을 쓰는 프로젝터지만 결국 내부에서 개발하던 것이 아닌 Texas Instrument의 DLP 모듈을 적용했다고 한다. 한편으로는 아쉬운 일이지만, 그래도 세계적인 영향력을 갖는 기업에서 프로젝터 + 휴대기기라는 꿈을 이만큼 구현해서 곧 출시해준다니 좋은 일이다. Pocket Imager 계열은 '들고 다닐 수 있는 고해상도 프로젝터'라는 개념으로 당분간 계속 개발될 것 같기도 하고.
 
Samsung MicroProjector MBP-100Samsung Pocket Imager SP P300MESamsung Pocket Imager SP P400

C-King's Projector Phone
이미 작년에 중국의 C-King 이라는 곳에서 같은 형태의 휴대폰을 선보이기도 했고, 애당초 모듈을 만든 TI에서도 목업이지만 휴대폰이 제안되기도 했기 때문에 사실 혁신적이라든가 할 부분은 아닐지 모른다. 단지 이제까지 1~2년전부터 점점 소형화되고 고해상도를 지원하는 휴대기기용 프로젝터가 드디어 가시권에 들어오는 듯 해서 기대가 된다.



모바일 프로젝션은 오래전부터 꿈꿔온 디스플레이 기술이다. 모바일 기기는 작아야 하고, 그럼에도 화면은 커야 한다. 어떤 집단을 모셔다가 아이디어 회의(브레인스토밍이든 FGI든 T/F든)해도 결국 나오는 게 '둘둘 말 수 있는 디스플레이'와 '프로젝션 스크린'이다. Flexible display도 점차 현실화 되어가고 있긴 하지만, 프로젝션 모듈을 소형화하는 것보다는 더 많은 기간이 필요할 것 같다.

모바일 프로젝션의 기술데모야 보통 위의 사진들처럼 영화나 파워포인트처럼 네모반듯한 멀티미디어 화면을 흰색 벽에 뿌리는 걸로 하지만, 실제로 "모바일 프로젝션"이라고 할 때에는 뭔가 다른 사용상황이 되지는 않을까? 사실 이 네모난 화면은 CRT나 FPD라는 기술의 기술적 제한 내에서 단순히 효율성을 위한 형태였을지도 모른다.

CB感 Reborn 001
개인적으로, 휴대기기용 프로젝터라고 하면 늘 떠오르는 이미지가 있다. 인터넷을 아무리 찾아봐도 "모터사이클 만화"라고만 소개되는 <CB感 REBORN>이라는 SF만화에 보면, 스크린이 아예 사라진 '영상통화 휴대폰'의 사용장면이 나온다. 물론 모바일 프로젝션을 이용해서.

만화 <CB感>에 등장하는 모바일 프로젝션 장면

이때의 모습은 화면이 투사되는 영역이 벽이거나 손바닥, 앞사람 옷 등으로 다양하게 나오고, 영상통화의 맥락도 이동 중이라든가 어딘가에 기대어 있다든가 하는 등 가지각색이다. 요컨대 모바일 프로젝션이 회의실에 설치되어 모두가 하나의 자료 화면을 공유하기 위한 프로젝션이 아닌 것이다.

물론 기존에 PC와 커다란 화면을 통해서 문서와 자료를 함께 보면서 협업한다든가, 영화관과 같은 환경을 꾸며놓고 고화질의 대형 화면에 펼쳐지는 영화를 감상한다든가 하는 것을 휴대폰에 넣을 수 있다면 그것도 분명 기다려지는 미래이다. 하지만 이렇게 이미 비교될 수 있는 완벽한 사례가 있는 분야는 사실 아무리 상대적인 장점을 강조해봐야 결국 무슨 매니아 시장으로 치부되기가 딱 좋은 구도다. 작은 프로젝션 화면을 같이 보려면 거의 머리를 나란히 맞대고 2~3명 정도가 볼 수 있으려나? 그 이상은 힘들 것이다. 아마 5분을 참지 못하고 "그냥 회의실로 가서 봅시다"라고 하는 게 가장 그럴듯한 시나리오가 되지 않을까. 특히 휴대기기는 늘 움직이는 상황에 있기 쉽기 때문에 화면이 안정적으로 벽면에 뿌려지기 위한 색상/위치 calibration 기술(모두 단순히 풀릴 수 없는 문제들이다) 등이 또 추가되어야 할테고 말이다.

그에 비해서 위 만화에서 제안(?)된 UX는 그 용도가 너무 심각하지도 않고 부족하면 부족한대로도 잘 사용할 수 있기 때문에 오히려 휴대기기의 매력을 더해주는 것으로 보인다. 모바일 프로젝션의 사용상황을 좀 더 고민해 본다면, 이번 제품들은 기존 중국회사나 그 모듈을 공급한 회사의 데모를 똑같이 답습하기 보다는 훨씬 더 기대되는 장면도 많이 그려낼 수 있지 않았을까.. 라는 아쉬움이 남는다.



그리고, 사실 모바일 프로젝션은 LED 광원과 DLP 방식의 프로젝션보다 적합한 방식이 있을지도 모른다. 아직 공공연하게 논의되지는 않는 듯 하지만. 일단 LED/DLP 방식이 어느 정도 시장을 증명해준 후에, 그 방식이 후딱 상용화되어 준다면 모바일 사용상황에 보다 적합한 제품이 등장할 수 있을 것 같다.
신고
Posted by Stan1ey

BLOG main image
by Stan1ey

카테고리

분류 전체보기 (347)
HTI in General (45)
User eXperience (11)
Voice UI (50)
Vision UI (14)
Gesture UI (25)
Tangible UI (28)
Robot UI (14)
Public UI (9)
Virtuality & Fun (56)
Visual Language (15)
sCRAP (70)

글 보관함



www.flickr.com
This is a Flickr badge showing public photos and videos from Stan1ey. Make your own badge here.