Flash AR에 대한 글을 쓰다가 문뜩 생각난 아이디어: 휴대폰 화면에 AR tag를 표시하는 거라면, 터치스크린이나 버튼을 이용해서 "조작"이 가능한 interactive AR을 만들 수 있지 않을까? 그냥 재미있을 것 같아서 한번 생각해 봤다.

Interactive AR using Mobile Screen

그러니까 첫번째 화면을 띄운채로 PC 웹캠에 보여주면 뭔가 3D 형상이 나타나거나 휴대폰 케이스 디자인 같은 게 나타나고, 터치스크린에 나타난 버튼을 누름으로써 AR 태그 안에 있는 모양이 바뀌면서 다음 3D 형상/애니메이션/디자인이 드러나는 거다. 어쩌면 사용자가 계속 PC 화면을 보면서 터치스크린 상의 제스처를 통해서 조작하도록 하는 게 안정적일지도 모르겠다.

태그 바깥쪽의 두꺼운 네모는 항상 띄워두고 안쪽의 indentifier만 바꿔준다면, 위치좌표가 흔들리지 않으니 3D 영상이 바뀔 때의 transition 효과도 넣을 수 있을 거다.


근데 이걸 뭐에 쓰나.

이미 세상에는 홍보용으로 만들어진 모바일 앱들이 많다. 그런 앱들은 판촉하고 있는 물건을 멋있게 보여주는 게 중요한 목적인데, 잠재 소비자가 자신의 휴대폰 위에 그 입체모형을 올려놓고 직접 돌려가면서 볼 수 있다면 그냥 평평한 화면에서 표시하는 것보다 훨씬 효과적이지 않을까. 모바일 앱에서는 AR 태그와 함께 PC에 띄울 웹사이트 주소를 알려주고, 그 웹사이트에서는 Flash AR을 통해서 3차원 컨텐츠를 보여주는 방식이 될 거다.

Screenshot from M르노삼성 iPhone AppScreenshot from MINI Time Machine iPhone App

어쩌면 반대로, PC용 웹사이트에서 인터넷 쇼핑몰을 운영할 때도, 어떤 항목의 3차원 형태를 보여주는 게 중요하다면 AR 태그를 방문자 이메일로 보내 휴대폰 화면에 띄우게 할 수 있겠다. 이 경우에 얻을 수 있는 부가적인 장점은, 굳이 각양각색의 화면 상에서 "실제 크기"를 역설할 필요없이 휴대폰 크기와 비교할 수 있도록 함께 띄울 수 있다는 거다. 특히 휴대폰 액세서리같은 경우에는 그 효과가 꽤 클 거다.

Screenshot from LG Website on Mobile Phone Accessories

입체형상이 중요한 상품을 다루고 있다면 이런 식으로 모바일 앱을 통해서, 혹은 그냥 이메일 등을 통해서 Flash AR을 입체적으로 적용해 보는 것도 좋지 않을까?

아니, 사실은 이런 걸 이용해서 온전히 3차원으로 구성된 서비스를 만드는 것도 재미있겠다. AR 태그의 한계를 생각하면 방대한 컨텐츠를 집어넣기는 힘들지 몰라도, 실제로 그 공간을 이리저리 돌려가면서 서비스를 사용할 수 있다면 꽤 재미있을지도. 일전에 소개했던 입체 웹사이트/컨텐츠와 연결해서 생각해보면 정말 흥미로운 사례를 만들 수 있을지도!

이런 아이디어, 어쩌면 진작에 나와있는 걸지도 모르고 누군가 이미 개발 중일 수도 있겠지만... 그래도 생각난 김에 한번 정리해 두고 싶었다. 어차피 금방 썩어날 아이디어고 난 당장 쓸데가 없어서 말이지.



... 뭐 이 정도까지 읽은 사람들은 다들 눈치챘으리라 생각한다: "이 인간 요 며칠 꽤나 심심했군... ㅡ_ㅡ+ "

딩동댕~ 아~ 뭐 재미있는 일 좀 없나. ;ㅁ;
저작자 표시 비영리 변경 금지
신고
Posted by Stan1ey
모든 HCI 기술들은 거기에 걸맞는 어플리케이션을 만났을 때 비로서 빛을 발한다. 그렇다면 비교적 최근에 가까스로(ㅎ) 상용화됐다고 할 수 있는 증강현실의 진정한 효용가치는 뭘까. AR의 상용화에 가장 큰 영향을 줬다고 할 수 있는 휴대폰 시장초창기 AR앱들만 보면 대세는 주변지역에 대한 정보를 주는 용도인데, 한편으로 광고계에서는 이와 조금 다른 응용사례들이 여럿 나오고 있다. 바로 플래시 플러그인에서 AR 태그 인식이 가능하게 되면서다.


웹기반 증강현실
개인적으로 처음 접한 웹사이트 상의 AR 실용사례(연구실에서나 개인이 기술시연용으로 만든 게 아니라)는, 2009년 미국 우체국에서 발송할 물건에 따라 소포상자의 크기를 가늠할 수 있게 해주려고 만든 Virtual Box Simulator이다.


(사족이지만, 이 서비스를 기획한 광고 에이전시인 AKQA는 좀 눈여겨 볼 가치가 있는 집단이다. 뭐 여러가지로. ^^; )

사용자 컴퓨터에 웹캠만 달려 있다면, 웹페이지에 포함된 Flash을 통해서 간단한 증강현실을 보여줄 수 있게 된 거다. 이 방식은 별도의 특별한 센서나 모바일 기기나 어플리케이션을 신경써야 할 필요가 없기 때문에, 가히 "범용 AR 플랫폼"이라고 생각하고 있다. 이 조합은 증강현실이 퍼지는 데 상당한 파급력이 있을 거라고 생각하는데, 점점 더 많은 사례들이 온라인에 등장하고 있다.

위 미국 우체국의 사례를 발견한 이후에 재미있는 Flash AR 사례를 짬짬이 모았는데, 대부분의 응용사례들은 광고쪽에서 나오고 있다. 글 쓰는 걸 1년 가까이 차일피일 미루다보니 이젠 모두 나열하기도 벅차게 많아졌고, 그동안 이미 온라인에서 사라져버린 것도 있다. 그러니 그냥 최근의 사례나 몇 가지 소개하고 말기로 하자.


최근의 Flash AR 사례
AR Tag on KitKat
우선 킷캣. -_-; 좋아하는 과자인데, 얼마전 집어들다가 뜻밖에 뒷면에 AR 태그가 인쇄되어 있는 걸 발견했다. 함께 인쇄되어 있는 웹사이트로 들어가서 카메라를 태그를 비추면 뭔가가 나온단다. 결과는 아래 동영상과 같다.



딸랑 저 한 곡뿐이긴 하지만, 손바닥 위에서 돌려가며 볼 수 있는 뮤직비디오라니 나름 신선하다. 이 경우와 같이 가장 단순한 형태인 흑백 도형을 태그로 사용한 경우는 그야말로 우후죽순처럼 많다. 아래는 작년에 발행된 <Desktop>지의 AR 특집의 경우.



찾아본 바로는, 플래시 기반의 AR들은 모두 흑백태그를 사용하고 있는 것같다. 영상처리라든가 하는 데에 제약이 있는 걸까. 반면에 범용성을 포기하고라도 별개의 플러그인을 설치하는 방식을 채택한 경우에는 보다 자유로운 응용이 가능하다.


별도의 AR Plug-in을 사용한 경우
아래의 나이키 LunarGlide 광고 캠페인이라든가 스포츠 수집품 Topps의 경우에는보통의 인쇄물이 태그대신 사용된 경우로, 이 경우엔 별도의 플러그인을 깔고 브라우저를 다시 시작해야 하므로 반칙. 이런 식으로는 과거 연구실 기술시연에 비해서 크게 범용화됐다고 말할 수 없겠다. 하지만 이 플로그인을 개발한 회사 Total Immersion의 경우에는 그동안 여기저기에서 수없이 홍보하고 다닌 효과를 나름대로 거두는 것 같다.





아마 플래시에서 이런 수준의 물체인식이 가능해지면 웹 상에서 구현되는 온라인 AR도 훨씬 더 재미있는 사례가 많겠지만, 현재로선 AR을 적용한 어플리케이션을 최소한의 진입장벽으로 퍼뜨릴 수 있게 해주는 건 Flash AR이고, 그렇다면 결국 크고 단순화된 AR 태그를 사용하는 수 밖에 없어 보인다. 굳이 흑백일 필요는 없을 거라고 생각하지만.


Better Flash AR
그렇다면 Flash AR이라는 그 접근성 좋은 조합은, 그냥 이렇게 그닥 보기도 좋지 않은 흑백 태그를 포장지나 잡지나 광고에 인쇄해 놓고 웹캠을 통해서 홍보용 입체 컨텐츠를 보여주는... 이게 최선입니까? 확실해요?

가장 최근에 눈에 띈, 곧 출범한다는 아이다스의 광고 캠페인을 보면 그렇지도 않은 것같다. 이름하여 무려 "Augmented Reality Shoes" 시리즈라는. ㅡ_ㅡ;;; 우선 동영상.



Adidas Original - Augmented Reality Shoes
위에 링크한 웹페이지에 걸려있는 왼쪽 사진을 잘 보면, 운동화 발등부분에 떡하니 AR태그가 찍혀있다. (솔직히 헉! 내 생전에 AR 태그가 패션 아이템이 되는 모습을 보는 건가!!! ;ㅁ; 싶은 상황이다.) 도대체 무슨 일을 꾸미는 걸까? 위 동영상의 마지막에 나오는 다섯 개 태그를 가지고 뭔가 "AR Game Pack"이라는 개념으로 접근하려나 본데, 위 동영상에서 나온 것처럼 신발의 색이 변하고 구조를 보여주고 거창한 장식이 가상적으로나마 표현되는 거라면 꽤 재미있겠다.

AR Tags for Adidas Originals Augmented Reality Shoes

물론 고정되지 않은 부분에 태그를 달았으니까 화면상에서 실제 신발의 위치/방향과 가상물체를 정확히 일치시킬 수는 없겠지만, 진짜 신발을 들고 움직임으로써 가상신발을 그냥 가상배경 위에서 돌려보고 확대해보고 부분부분의 색상을 바꿔볼 수 있다면 그것만으로도 꽤 재미있지 않을까? 나이키에서 했던 자신만의 신발 디자인하기를 실제 신발을 손에 들고 돌려보면서 해볼 수도 있을 것이다.

이런 사례를 잘 응용한다면 휴대폰 화면에 태그를 띄우고 웹사이트에서 케이스 색상이나 무늬를 선택할 수 있게 한다든가, PC를 연결한/내장한 TV에 웹캠을 달아서 인쇄광고나 태그를 비춤으로써 뭔가 입체적인 홍보영상을 볼 수 있게 하는 등도 가능해질꺼다. 어쨌든 플래시는 여기저기 적용되고 있으니까.

그리고 무엇보다 Adobe에서도 분명히 이 흐름을 보고 있을테니, 앞으로는 영상인식 부분을 강화해서 tag-free AR 수준까지도 가능하도록 해줄지 모르는 일이다.


Accessible AR
휴대기기에 카메라가 들어간 지는 십여년이 지났지만, 그 OS가 표준화되면서 비로서 온갖 증강현실 어플리케이션들이 시장에 쏟아지기 시작했다. 비슷한 시기에 보편화된 웹캠도, 이제 Flash라는 보편적인 플랫폼과 연결이 됐으니 뭔가 재미있는 걸 쏟아내지 않을까하고 상당히 기대하고 있다.




... 해묵은 이슈를 가지고 글을 쓰려니, 이미 김새서 신선한 맛이 없을 뿐이고... 재미도 없고 감동도 없고 딱히 뚜렷한 방향도 주장도 없고... 휴.

앞으론 정말 짧게 써야지. ㅡ_ㅡ

신고
Posted by Stan1ey
Nintendo 3DS
닌텐도에서 NDS, NDSi의 후속으로 parallex barrier를 덧씌워서 맨눈으로도 입체영상을 볼 수 있게 해주는 게임기 Nintendo 3DS를 곧 출시한다고 한다. 기술의 잠재력을 십분 발휘하는 능력이 있는 닌텐도지만, 이번의 입체영상 적용에 대해서는 조금 무리라는 생각이 들었는지 깊이감을 사용자 임의로 조절할 수 있는 슬라이더(3D Depth Slider)를 장착하고 6세 이하 어린이의 입체영상 관람에 대해서 경고문구를 삽입하는 등 소심한 행보를 보이고 있다.

모바일 기기에서 이 방식의 3D 화면을 구현한 게 이번이 처음은 아니지만, 그래도 풍부한 컨텐츠를 보유하고 있는 닌텐도의 움직임이니만큼 주목하게 되는 건 어쩔 수 없다. 그래서 관련된 뉴스가 나오면 뒤적이게 된다. 입체영상을 적용한 게임, 가속도 센서와 전면 카메라로 사용자의 움직임에도 반응하고, 평면영상으로는 불가능했던 퍼즐도 가능하다. 음성에도 반응할 수 있는 것 같고, 당연히 터치스크린을 이용한 Tangible UI도 구현되겠지. 흠... 만들기 재미있겠다. 부럽.

그런데, 개인적으로는 이 입체화면을 통한 게임이라는 것보다도, 이 N3DS 화면 뒷면에 떡하니 붙어있는 한 쌍의 카메라에 더 관심이 간다.

Binocular Camera on Nintendo 3DS

최근에는 소니에서 하나의 렌즈로 입체영상을 찍을 수 있는 방식도 나왔지만, 많은 3D 카메라들은 두 개의 렌즈를 갖고 있다. 3DS에 붙어있는 저 카메라도 보아하니 딱 입체영상을 찍기위한 거라는 건 당연한 일. 근데 의외로 여기에 대한 코멘트는 자주 보이지 않는다. ... 입체화면이 있는 장치에 입체영상을 기록할 수 있는 장치. 너무 당연해서 그런가? 그래도 이 조합이면 뭔가 재미있는 일이 있을 것도 같은데...


(1) 증강현실
이젠 모바일 기기에 AR이 들어가는 건 당연한 이야기가 된 듯. 신기해하는 사람조차 없다. 언제 이렇게 됐는지... 신기술에 대한 사회의 반발과 적응의 과정은 정말이지 종잡을 수가 없다. 어쨋든 입체화면 모바일 장치라면 AR도 당연히 입체여야 할 터. 여기에 대해서는 이미 최근의 Nintendo World 행사를 통해 동영상이 올라오기도 했다. (아래 동영상은 앞부분에 일본어로만 진행되는 부분이 쫌 길다. 재미없으면 앞의 10분은 넘어가도 좋고, 실제 AR에 대한 부분은 21분쯤 나온다.)



위 동영상에서 눈치챌 수 있듯이, 아직은 그냥 '이런 것도 됩니다'라는 느낌에 Wii에서 구축해 놓은 Mii 시스템을 모바일 세상으로, 그리고 실제 세상으로 끌고 나오겠다는 욕심을 보이는 데 그치고 있다.

한가지 궁금한 것은, 저렇게 AR "렌즈" 역할을 하는 기계를 들고 쓰다보면 카메라가 AR 카드 위치를 보는 시야각/거리감하고 사람이 그 가상의 렌즈를 통해서 기대하는 시야각/거리감이 완전히 다를텐데 어지럽지 않으려나? 하는 부분이다.
eyeMagic Book Project from HIT Lab NZ
이를테면 이전의 비슷한 사례 중 하나인 HIT Lab NZ의 <eyeMagic Book>은 눈앞에 화면과 카메라를 갖다붙이는 방식이니까 카메라의 시야각이나 사용자의 시야각이나 별 차이가 없었지만, 만일 닌텐도 3DS를 들고 AR Tag 주변을 맴돌면서 역동적인 AR 게임을 하라고 하면 조금 괴로울지도 모르겠다.

게다가 사실은, 저렇게 기기를 들고 가상의 "물체" 주위로 돌려가면서 봐야하는 상황에서는 parallex barrier 방식(혹은, 모든 맨눈으로 보는 입체화면)의 치명적인 결점 - 화면을 정면+특정거리+똑바로 보지 않으면 깊이감이 뒤섞이거나, 심지어 뒤집히거나, 급기야 화면이 안 보인다는 - 이 그대로 드러나게 된다. 이제까지 나온 그나마 성공적인 AR 앱들도 그렇고, 채용한 입체화면 방식의 장단점을 고려해서도 그렇고, 결국은 위치정보를 바탕으로 주변의 "환경"에 정보를 입히고 그걸 기기를 휘둘러가며 탐색하는 방향으로 가게 되리라 생각한다. 이미 휴대폰에서 나온 "재미있지만 쓸모가 빈약한" 어플리케이션들과 차별점이 없어 보일런지 몰라도, 게임 컨텐츠 개발에 탁원한 닌텐도라면 이런 제약들 속에서도 뭔가 재미있는 뜻밖의 사례 하나쯤 들고나와 주리라 믿어보자.
 

(2) 거리측정
카메라가 인간의 눈보다 잘할 수 있는 일이 있다면, 그건 시야 내의 모든 점들을 동시에 지속적으로 볼 수 있다는 거다. 카메라가 두 개 있을 때 인간의 두 눈보다 요긴한 점이 있다면, 양쪽 카메라에서 본 점들을 맞춰보면서 각 지점까지의 거리를 알 수 있다는 거다. 물론 그 정확도야 입력영상의 해상도나 복잡도, 영상정보의 처리속도 등에 의해서 좌우되겠지만, 영상의 각 지점까지 거리를 안다는 것은 세상을 입체적으로 이해하는 데에 큰 도움이 될 수 있다.

실제로 구현된 사례가 없으니 섣부른 추측이겠지만, 아마도 닌텐도 3DS에 달린 두 개의 카메라로 영상 내에 등장한 물체까지의 거리를 분석할 수 있다면, 그 결과는 마이크로소프트의 키넥스(Kinect) 시스템에서 나온 데이터와 크게 다르지 않을꺼다. 아래 왼쪽의 그림은 기존 stereo vision 분야의 결과 중 하나고, 오른쪽은 해킹된 Kinect 시스템으로부터의 신호다. 일단 거리 데이터로 변환된 후에는, 장점도 약점도 비슷하리라는 걸 알 수 있다. (적외선을 이용한 active sensing의 장단점과 별도의 영상처리를 해야하는 passive sensing의 장단점은 비교해봄직 하겠지만, 걍 다음으로 넘기고 건너뛰자.)

Distance Measurement from Stereo VisionDistance Measurement from Kinect

물론 닌텐도 3DS의 경우는 모바일 기기이고, 카메라와 화면의 방향이 반대니까 Kinect와는 응용방법이 완전히 달라야 한다. 그리고 오히려 그런 의미에서 기대가 된다. 이를테면, 기존의 AR이 현실의 영상 위에 가상의 물체를 단순히 덮어 씌우는 방식이었다면, 물체인식이 되는 AR은 가까이 있는 실제 물체 "뒤에" 가상의 물체를 놓을 수도 있을 거다. 거기에 가속도 센서를 이용해서 Kinect처럼 "바닥"을 인식하는 기본 알고리듬이 추가된다면 단지 카드에 인쇄된 AR Tag를 기준으로 불안불안하게 이루어지던 상호작용이 훨씬 자연스러워 질 수 있다.

잠깐, 입체인식이 된다면 굳이 인쇄된 카드를 쓸 필요가 있나? 스테레오 비전을 이용한 물체인식 연구라면 로봇 분야에서 꽤 오랫동안 이루어진 분야다. 물체를 인식해서 그 물체에 맞는 증강현실 효과를 덧붙여줄 수 있다면 최근의 AR 유행을 한 수준 뛰어넘는 응용사례가 될 지도 모르겠다. 예를 들면 손가락 모양(手印)에 따라 특정 기술을 구사할 수 있는 동양적 판타지 게임이라든가. (지가 만들 꺼 아니라고 막 말하고 있다... -_-;;; )


(3) 3D 컨텐츠
하지만 역시 세상에 가장 큰 파급효과가 되라라고 생각하는 것은 3D 입체사진과 입체동영상의 양산이다. 입체사진을 찍는다며 눈이 두개 달린 카메라를 사는 건 웬만한 얼리어답터가 아니면 엄두를 못낼 일이지만, 이미 검증된 게임 컨텐츠가 딸려오는 게임기는 그런 구매장벽이 없다. 일단 사서 이것저것 찍고 인터넷에 올리고 하다보면, 여러가지 3D 컨텐츠가 퍼지게 될꺼다. 일단은 3DS을 갖고 있거나 3D TV에서 보려고 굳이 애쓰는 사람들 중심으로 퍼지겠지만, 일단 데이터가 많으면 일반 사용자들을 위한 3D Viewer를 만드는 사람도 있을테고... (단순히 좌우영상을 교대로 보여주기만 해도 상당한 입체감이 느껴진다) 결국 3D 컨텐츠가 일반시장에 퍼지는 데에 꽤 큰 역할을 하게 될 것같다.

물론 이미 3D 동영상에 대해서는 나름의 데이터 표준이 합의되어 있고, 일반 사용자들이 모르는 사이에 고민도 많았던 모양이다. 하지만 이렇게 한가지 기기에서 대량으로 입체사진/영상이 퍼진다면 그것 자체가 하나의 경쟁력 있는 시장표준이 되어버리지 않을까? 일단 니코니코동화YouTube 3D에서부터 시작해서, 세상의 잉여력이 또다시 뭉쳐져 새로운 3D 시각문화의 장이 열리리라고 기대하고 있다.



... 뭐 이렇게 기대야 내멋대로 할 수 있지만, 사실 모바일 기기에서 게임이든 어플이든 개발하는 게 말처럼 녹녹치는 않다. 제약조건도 많고 따로 영상처리를 할 여유도 없고. 하지만 곧 Nintendo 3DS가 출시되고 나면 조만간 해킹 소식이 날라올테고, 그걸 기반으로 또 이런저런 장난을 치는 사람이 나오게 될꺼다. 그 다음에는 카메라 두 개로 입체 AR을 구현한다거나 영상의 깊이감을 측정한다거나 입체 동영상을 공유한다거나 하는 게 금방 또 당연해질테고.

지금 키넥트의 적외선 거리센서 보면서 아쉬워하고 있을 때가 아니라는 거다.





그나저나, 3DS라고 하면 Autodesk 3D Studio가 생각나는 사람, 손!!! ^0^/
... 우린 이제 공식적으로 한물간 겁니다. ㅠ_ㅠ
저작자 표시 비영리 변경 금지
신고
Posted by Stan1ey
요새 아이폰에서 증강현실 Augmented Reality 기술의 실용화 사례가 급격하게(!) 늘어난다 싶더니만, 급기야 <Business Week>지에서 Special Report까지 발행했다.

CEO Report on AR, from Business Week

위 목차에서 볼 수 있듯이 이 리포트의 내용은 주로 iPhone이 AR를 mainstream으로 격상시켰다는 이야기로 시작해서 (BW답게도) 그 사업적인 가치와 사업사례, 미래의 가능성, 그리고 CEO를 위한 기술개요 요약본으로 구성되어 있다.

AR이 벌써 mainstream 운운할 정도로 커졌나? ... 흠, 솔직히 HTI를 내세우면서 신기술 적용에 목을 매는 나로서도 그건 좀 부정적이다. iPhone으로 대표되는 모바일 AR이라면 딱히 높은 상업적인 가치를 갖는 물건이 안 나오고 있으니 더욱 그렇고, 그나마 똑부러지지 않아도 재미있으면 팔린다는 게임에서도 화면과 현실의 괴리감을 극복할만한 아이디어는 보이지 않고 있다.

이게 주요 UI로 떠오르려면 아직은 갈 길이 멀 것 같은데, 샴페인이 조금 일찍 터지는 듯. 그래도 이게 CEO Report 라는 이름으로 비지니스 위크에 등장했으니 이미 관련 연구실에는 '그게 뭔데 보고해봐라'는 지시가 떨어졌을게다. 오랫동안 회사에서 눈치보면서 연구하던 분들이 이번 기회를 잘 살려서 회사 내에서라도 mainstream 조직으로 떠오르기를 기대해 본다. AR이니 뭐니 해도 결국은 영상인식 기술이고, 영상인식 기술만큼은 조만간 주요 UI 기술이 되리라는 데에 전혀 이의가 없다.

AR이 실제로 mainstream이 되기 위해서 빠진 부분이 무엇일까?

개인적으로는 영상인식과 더불어 모바일 프로젝션이 그 열쇠라고 생각한다. 결국 virtuality만으로는 먹히지 않을테니 가상의 것을 실제 세계에 쏟아내는 수 밖에. SIGGRAPH에서 발표된 그 수많은 프로젝션 기술들, 이제 슬슬 날개를 펼 때가 되기도 했다. 어차피 그걸로 영화 보여주겠다고 해도, 해상도도 부족하고 휘도도 떨어져서 제대로 안 보인다니깐...
신고
Posted by Stan1ey
크리스마스 시즌이 가까와지면서 (11월초부터 거리마다 크리스마스 장식에 아주 난리가 아니다 -_- ) 온갖 상점에서 선물용품을 홍보하고 있다. 그 중에 아이들이 좋아할만한... 혹은 내가 좋아라 하는 ^^; 종류의 게임을 발견했다.

EyePet for Sony PlayStation 3

EyePet이라는 이름의 게임이 PlayStation Eye (EyeToy의 이름을 바꾼 듯) 사진과 같이 나왔길래 그냥 예전의 아이토이와 비슷한 물건인 줄 알았는데, 카메라가 관련된다면 뭐든 심상찮은 타이밍이라 한번 동영상을 찾아봤다.



일단 위 홍보영상으로만 보기엔 완전 대박이다. 좀더 자세한 내용을 찾아보니, 아래의 실제 게임 플레이 동영상을 볼 수 있었다.
 


보통 AR 시스템에서는 다양한 역할을 하는 여러 개의 AR tag를 사용하는데, 이 시스템에서는 시종일관 하나의 태그(이름하여 "매직 카드")만 사용하고 있는 점이 재미있다. 덕택에 등장한 메뉴 시스템은 손을 좌우로 움직여서 목록을 움직이고 아이템을 선택한 후에는 잠시 기다림으로써 확정하는 소위 dwell 방식을 채택하고 있다. 방바닥을 인식하려면 아무래도 카메라를 초기화하는 작업이 필요할텐데, 아마 그것도 같은 태그로 마치 안구추적 영역을 초기화하듯이 하게 될 듯.

그 외에 같은 태그를 캐릭터 상태를 보기 위한 목적으로 쓰게 하는 접근이라든가, 결국 EyeToy와 똑같이 손을 흔들어 동작시키는 방식과 가상 물체를 이용한 UI를 혼합한 방식 등은 많은 고민이 있었음을 알 수 있게 해준다.

첫번째 홍보 동영상에 나오는, 사용자가 한 낙서를 바탕으로 비행기를 만들어 준다는 것은 획기적이지만... 역시 약간의 문제는 있는 듯. 아래 동영상을 보자.



몇가지 폐곡선을 그린 후에 그 안에 그려넣는 모양에 따라 각 관절을 연결하는 듯 한데, 그렇다고 각 모양의 의미를 인식하는 기능까지는 없다보니 조합방식에 따라 위와 같은 상황도 벌어질 수 있나보다.

하지만 어떻게 이상하게 조합된 것이든 내가 그린 그림으로 만들어진 가상물체를 사랑스러운 가상의 애완동물이 타고, 내가 그걸 컨트롤러로 조정할 수 있다는데, 기술적으로 완벽하지 않다고 불평할 사람이 있을까. 게다가 이건 결국 게임기에서 동작하는 소프트웨어이기 때문에, 사용자도 게임을 대하는 마음가짐 - 재미있으면 장땡 - 을 갖고 있을 것이다. 새로운 기술을 시험해 보기엔 좋은 기회인 셈.

어떻게 보면 기존의 기술들을 이것저것 조합한 물건이지만, 그 조합 방법에 있어서 최적의 방법을 찾기 위해서 여러가지 고민을 많이 한 것으로 보인다. 실제 공간에는 안 보이고 화면 상에만 보이는 가상 애완동물을 맨바닥에 헛손질하면서 귀여워해 주는 게임 자체가 얼마나 상업적으로 성공할 지 모르겠지만, 그 기술의 조합 방식만큼은 한번 찬찬히 감상해 볼만한 작품이라고 생각한다.
신고
Posted by Stan1ey
가상현실(VR)/증강현실(AR)/혼합현실(MR) 분야에 종사하는 사람들에게 요즘처럼 흥분되는 시기가 또 있었나 싶다. 한때 꿈같은 이야기로 치부되던 '현실공간과 가상정보의 유기적인 연결'이 지난 몇주동안에는 그야말로 쏟아져 나오고 있는 것이다. 한참을 미뤄두었다가, 오늘 일본발 뉴스도 추가되고 해서 그냥 스크랩이라도 해두기로 했다.

(1) Nearest Tube
Nearest Tube
영국에 있으니 영국이야기부터. -_-;; 가까운 지하철역을 찾아주는 이 어플리케이션은, 잘 디자인되어 있는 것으로 유명한 런던 지하철 시스템 덕택에 가장 완성도가 높아 보인다.

iPhone 기반으로 만들어진 이 어플리케이션은 일반적인 AR UI(?)가 적용되어 있고, 손떨림에 대해서는 그닥 강인하지 못한 듯. 차라리 refresh를 좀 덜 하거나 일정구간에 대한 평균값을 대입하는 게 좋겠다는 생각이 들기는 한다. 홍보 동영상도 올라와 있다.



Nearest Tube
세상에, 드디어 아이폰을 통한 AR 어플리케이션이 출시된 것이다! 꿈에 그리던 그 모습과 크게 다르지 않다니!!!

하지만 역시 현실의 벽이라는 건 조금 느껴진다. 런던 지하철역 관련해서는 많은 모바일 어플리케이션들이 나와있는데, 사실 이 Nearest Tube는 그걸 대체한다기 보다 그냥 부가기능 정도로 적당할 것 같다. 쩝.


(2) Layar
Layar
다음으로 가까운 네델란드에서는, 구글의 안드로이드를 기반으로 한 AR 어플리케이션이 나와있다. 카메라를 통해서 보이는 방향의 부동산 매물 -_-;;; 을 보여주는 Layar 라는 물건인데, 현실적으로 쓸모가 좀 더 있어보이긴 한다. 웹사이트에 따르면 앞으로는 여기에 layer를 추가할 예정이라고 한다.



Layar
실제적인 쓸모라든가 확장 가능성 등을 생각한다면 좀더 고민을 많이 한 프로젝트같지만, 실제로 안드로이드 마켓에서 얼마나 팔릴지 아직은 모르겠다. 앞으로 어떤 레이어를 추가할런지, 그리고 그 레이어들을 인터넷 접속을 통해서 공개할 수 있도록 할지 자기들이 만들 레이어만 보게 할지에 따라서 사업의 내용과 범위가 크게 달라질 수 있겠다. (개인적으로는 당연히 전자를 기대하지만...)

이 회사에서는 또 자신들이 최초로 AR 브라우저를 만들었노라고 공언하고 있다. 뭐 누가 최초인지는 관심없고, 그냥 열심히들 치고받으면서 다른 것들도 많이 만들어주면 좋겠다. ㅎㅎ


(3) NTT Docomo, KDDI
급기야 일본에서도 Wireless Japan 행사와 함께 비슷한 소식이 들린다.

AR application by NTT Docomo
NTT 도코모에서 역시 안드로이드 기반으로 개발한 이 AR 어플리케이션은 주변의 식당이나 관광명소 등을 알려주는 모양인데, 일본스러운 UI는 귀엽지만 현실의 복잡함 속에서 정보를 전달하기는 조금 어수선한 감이 없잖아 있다.

어쩌면 우리나라에서는 기껏 떠오른 3D UI의 이슈가 정작 3D라고 할 수 있는 AR 환경에서는 가시성을 이유로 어울리지 않는 유행이 될 수도 있겠다. ㅡ_ㅡa;;;

사용자 삽입 이미지
KDDI에서 개발했다는 다른 AR 어플리케이션은 사람들이 촬영한 사진에 붙어있는 geo tag를 검색하는 물건으로, 사실 상용화를 목적으로 했는지 연구실에서 바로 집어들고 나왔는지는 모르겠다. ^^; 그래도 다른 사람들이 다른 시야, 다른 시간대에 찍은 사진들을 본다는 것은 재미있을지도 모르겠다. (재미만 있고 쓸모가 없으면 안 되는데, 우씨 -_- )

한가지 재미있는 것은, 도코모에서 전시하고 있는 장면을 보면 받침대에 "직감검색"이라고 적혀있다는 거다. "눈으로 보고, 몸으로 조작한다"는 설명도 그렇지만, AR이라는 jargon을 재미있게 풀어놓았다는 생각이 든다.



일부 폰이나 iPhone에 지자기 센서가 들어간다기에 AR 어플이 나올지도..? 라는 생각이야 하고 있었지만, 이렇게 또 주구장창 쏟아져 나와주시니 좀 당혹스럽다. 아직은 그냥 위치(GPS)와 방향(digital compass)만 갖고 정보를 표시하는 정도지만, 이미 OpenCV를 이용해서 AR tag를 처리하는 어플도 나온 적이 있으니 (실시간은 아니지만) 영상인식을 추가하는 건 시간문제가 아닐까 싶다.

X-Mas Camera 2X-Mas Camera 2

앞으로 수시로 초기화해야 하는 지자기 센서의 안정성 문제라든가 GPS 위치정보의 오차라든가 영상정보의 처리속도라든가 뭐 넘어야 할 산은 많겠지만, 그래도 AR을 이용한 어플리케이션이 말그대로 "하루가 다르게" 생활 속으로 들어오는 것 같은 요즘이다.


다음날 추가.
Nearest Tube를 만든 회사에서 추가로 동영상을 발표했다. 얼굴을 이용한 인증에 얼굴의 움직임에 따라 그 '사람'에 대한 관련 tag가 따라다니는 엄청난 설정.



물론 아침에 얼굴을 업데이트한다는 내용이 포함되어 있기는 하지만, 이건 아직 요원한 이야기라고 생각한다. 얼굴을 인식(detection; 유무를 파악)하고 따라다닌(tracking; 거리/방향을 측정) 것과 인증(verification; 누구인지 확인)하는 것은 완전히 차원이 다른 기술인데, AR에 얼굴인식을 넣은 경우는 수년 전에 발표된 적이 있지만 거기에 인증까지 덧붙인 경우는 없다. (뭐, 당연한 전제는 '내가 알기로는' 이겠지만) 특히 얼굴인증은 변수가 많은 영상처리의 한계 때문에 여러가지 제약 - 이를테면, 설정된 조명과 배경 하의 정면얼굴 - 이 따르는데, 그러자면 AR의 장점과 여러가지로 상충되는 것이다.

뭐 VR이든 AR이든, MR하는 사람들이 괜히 tag기반의 영상처리에 매달려 있는 게 아니라는 거다. 그나저나 이 회사에서 이렇게까지 구라영상을 뿌리면서 매달리는 걸 보면 모바일과 AR의 접목이 이제 점차 현실의 업계에 자리잡고 있다는 생각은 들어 기대는 된다.

왜 글을 쓰면 며칠 내로 업데이트를 해야만 하는 상황이 되는 걸까? -_-;;




Metal Detecting using iPhone digital compass
... 아 그리고 지자기 센서 이야기가 나와서 말인데, 지자기 센서를 금속탐지기로 이용할 생각을 한 사람도 여럿 등장한 모양이다. 정말 기발하다. 심지어 그걸 이용해서 iPhone을 마술도구("동전이 어느 쪽에 있는지 맞춥니다!")로 탈바꿈 시킨 사람도 있다. =_=;; 이런 게 가능하다는 것 자체가 지자기 센서의 단점을 드러내는 사실이지만, 그래도 훌륭한 발상의 전환이다. 짝짝짝.

... 처음부터 스크랩만 한다고 했잖아요... ㅠ_ㅠ


신고
Posted by Stan1ey

일전에 Bandai의 <Catcha Beast> 라는 게임에 대해서 몇마디 쓴 적이 있는데, 그 때는 AR을 이용한 몬스터 잡기라는 화려한 개념을 참으로 반다이스럽게 구현했다는 이야기를 했더랬다. 이번의 E3에서는 같은 개념을 참으로 소니스러운 화려함으로 구현한 사례가 발표되었다.



게임의 기획/디자인은 반다이의 제품과 그야말로 판박이라고 해도 될 정도다. 어딘가에 있는 안 보이는 몬스터를 모호한 신호를 바탕으로 찾아내고, 그걸 미니 게임을 통해서 포획한 다음, 포획한 몬스터를 길들여서 다른 플레이어의 몬스터와 결투하게 한다. ... 하지만 역시 진작부터 증강현실 기술을 가지고 이것저것 해 본 소니답게, 단지 태그를 인식해서 화면에 몬스터를 합성하는 것 이상으로 다양한 인터랙션을 통해 게임성을 높이고 있다.

이를테면 PSP에는 조이스틱과 버튼 외에는 센서라고 할 수 있는 게 없는데, (개인적인 생각으로는 도대체 무슨 생각인지 모르겠다. 이제 PS 계열과 PSP 계열 간의 호환성은 물 건너간 이야기인 것 같은데, 이번에 새로 발표된 PSP Go에도 센서의 흔적은 찾아볼 수가 없다. 닌텐도 흉내낸다는 소리는 죽어도 듣기 싫었으려나. -_-;; ) 그럼에도 영상인식을 통해서 몇가지 손동작을 인식하고, 심지어 본체를 흔드는 동작(영상 내에서 태그의 흔들림을 인식하는 듯)으로 지진을 일으키고, 손으로 그림자를 만들어서 (이건 솔직히 인식하기 힘들텐데, 두 사람이 게임할 때 문제도 될테고) 구름을 만드는 인터랙션은 정말 고민 많이 했겠구나... 싶은 대목이다. 카메라에 덩달아 붙은 마이크도 열심히 활용해 주시고.

이미 Nintendo DSi 에는 카메라가 앞뒤로 달려있으니 이런 구성의 게임은 언제든지 (하드웨어 추가 없이) 넣을 수 있을테지만, 역시 화면의 품질이라는 게 있으니 또 어떻게 될런지 모르겠다. NDS에서 세로화면을 수첩처럼 사용하면서 플레이하게 했던 <Hotel Dusk>라는 게임이 있었는데, 이 상태로 돌아다니면서 귀신 잡기 같은 걸 하게 한다면 꽤나 재미있지 않을까나.

그런데, 이 게임에서 AR 기술이 기여한 정도는 얼마나 될까? 몬스터의 존재감을 현실 속의 공간으로 끌어내어 상당히 올린 부분은 꽤 도움이 됐겠지만, 일단 포획한 후에 그걸 통해서 게임을 한다든가 하는 부분은 장점만큼이나 단점 - PSN을 통한 온라인 게임 같은 게 불가능해 진다거나, 최소한 플레이가 제한되는 느낌이라든가 - 도 있을 수 있겠다. 맘 같아선 AR이든 다른 UI 기술이든 뭔가 한 가지 게임 분야의 주류가 되는 HTI 사례가 나와주면 좋겠지만, 아예 가상현실(VR) 기술이 전제되지 않는 한, 주류로의 편입은 아직 힘들 것 같은 느낌이다.

그나저나... 재미있는 아이디어는 어째 죄다 작은 게임들에게서 나오고, 정작 발등에 떨어진 프로젝트 같이 덩치 큰 MMOG에서는 이런 HTI 아이디어를 추가할 수 있는 상황이 아니니 이를 어쩌면 좋다냐... -_-a;;

신고
Posted by Stan1ey
며칠 후에 일본에서 발매되는 반다이 장난감 중에 "Tuttuki Bako"라는 게 있다. 일본어 잘 하는 친구에게 물어보니 "찌르기 상자"라는 이름이라고. 스카이벤처에 소개되어 있는 글을 보고 웹사이트를 찾아가 보니, 이게 참 재미있어 보이는 장난감이다.

[▶] 동영상 보기 (주의: 시작하면 소리와 함께 반복재생)




 

ㅎㅎ 왠지 코후비기나 귀파기 같은, '구멍에 손가락 찔러넣기' 본능을 충족시켜 줄 것도 같고, 무엇보다 상자 안에 넣은 손가락이 디지털화되어 가상으로 화면에 나타난다는 발상이 기발하다. "아날로그와 디지털이 통하는 커뮤니케이션 토이"란다. 박수박수!! 디지털 세상에 집어넣은 손가락 끝으로 디지털 물체들과 물리적 인터랙션을 할 수 있다니. 와우.

이제까지의 증강현실 AR... 혹은 이 경우엔 그냥 혼합현실 Mixed Reality 이라는 용어를 갖다쓰는 게 적당하려나. 어쨋든 기존에는 주로 공간에서 뭘 하겠다든가 환경에서 뭘 하는 경우가 많았고, 실내에서도 늘상 테이블 위라든가 벽면이라든가 하는 커다란 작업공간을 제공하고 몸이나 물건들을 이리저리 움직이는 걸 추적해서 뭔가를 하겠다고 궁리하곤 했다. 하지만 그렇게 비싼 HMD라든가 카메라와 프로젝터를 사용하지 않고도, 상자 안에 손가락 하나 찔러넣는 걸로도 이렇게 현실과 가상현실을 훌륭하게 섞어버릴 수 있는 거 였다.

솔직히 위 동영상에서 소개하고 있는, 내장된 게임들은 발상에 비해서 좀 생각이 짧았던 것 같지만, 어차피 입력이 복잡한 게 아니니 이런 거야 말로 게임을 만들 수 있는 API를 공개해서 사람들한테 만들게 하면 재미있고 위험한(쿨럭 ;ㅁ; ) 게임까지도 많이 나올 수 있지 않을까?

Tuttuki Baxo from AsoVision

그런데, 한가지 HTI 쟁이스러운 의문이 있다면 이걸 어떻게 구현했느냐는 거다. -_-a;;; 분명 게임기니까 무슨 영상인식같은 고급기술은 애당초 힘들고, 적외선 광원이나 광센서를 이용하기엔 배터리가 신경쓰였을꺼다. 결국 passive sensor 중에서 2D 상의 위치를 비교적 자유롭게 잡을 수 있는 방법이...

... ...모르겠다. OTL...

한가지 가능한 거라면 저 손가락이 실제 사용자 손가락의 재현이 아니고, 사실은 손가락 끝만 찾은 다음에 구멍과의 거리/위치를 바탕으로 대충 맞게 그리는 방식인데, 그렇다면 스프링에 연결된 물리적인 센서 2개(X, Y축)만으로도 어떻게든 구현은 될 것 같다. 슬라이더 센서나 회전 센서를 쓰면 ... 그래도 비싸고 durability가 걱정되는데...

아무래도 확신은 없다. ㅎㅎ 일본 갈 일이 있으면 하나 사봐야지. (즉, 아무래도 볼 기회가 없을 것 같다는 소리다. ㅠ_ㅠ )
신고
Posted by Stan1ey
증강현실 augmented reality 기술을 제품화에 적용해 보려고 애쓰던 시절, 수많은 제약과 인식오류의 가능성에도 불구하고 이걸 제품화할 수 있는 분야가 뭘까...라는 고민이 나오면, 음성이나 동작인식에서와 같이 결국은 업무와는 어떤 식으로든 연결되지 않고, 필요보다 많은 시간을 투자하는 데에 거부감이 없고, 지극히 개인적인 용도의 분야 - 즉 게임이나 섹스산업으로 이야기가 전개되었고, 당시로선 게임 회사가 아니었던지라 (물론 그쪽도 아니고 -_- ) 결국 이야기는 거기까지. "그렇지만 어쨋든 찾아내야 한다"는 식으로 독려당하거나 독려하는 입장으로 돌아가야 했다.

그러다가 얼마전에 아래 동영상을 보고 정말 박장대소를 해 버렸다.



오타쿠 만세. ^0^/ 진짜 누군가가 결국은 만들어 냈구나. 사실 우리가 이야기했던 응용처는 이것보다 조금 더 돈을 많이 벌 수 있는 (-_-;; ) 분야였지만, 적어도 이게 유투브에 올라왔다는 얘기는 누군가는 이미 같은 기술을 좀더 본격적으로 (-_-;;;; ) 적용할 준비를 하고 있을 거라는 짐작을 하게 한다.

비록 기본적인 AR Toolkit의 태그를 사용했기 때문에 오덕 학생이 제출한 과제같은 느낌이 드는 것도 사실이지만, (이거 특허는 괜찮은 건가? 워싱턴 대학에서 상업적인 이용은 금한 걸로 아는데? 주요 시장은 일본일테니 상관없으려나...) 그래도 그런 세세한 부분도 금방 나아지지 않을까. 어쩌면 드디어 상업적으로 응용가능한 분야(-_-;;;;;;; )를 발견했으니 말이다. 아직 덜 성숙한(pre-mature) AR 기술을 이용해서 성인용(mature) 컨텐트(일본식 연령 기준이야 어쨋든)를 만들었다는 것도 재미있는 일이지만, 이로서 기술 자체가 성숙하는 데에는 큰 도움이 되리라 생각한다.

군사산업과 섹스산업. 이 둘이 없었다면 기술의 발전이란 얼마나 방향성 없이 힘든 일이었을까. 모두 깊이 감사하자. ㅋㅎㅎ
신고
Posted by Stan1ey
서울시립미술관에서 전시 중인 "서울 국제 미디어 아트 비엔날레"를 다녀왔다. 서울을 '미디어 시티'로 만들겠다는 계획 덕택에 종종 재미있는 걸 보게 되는데, 아무래도 행정조직을 끼고 하는 일이다보니 소재나 규모, 형식 같은 측면에서 한계는 좀 보인다고 해도 여전히 감사한 일이다.

Seoul International Media Art Biennale - Turn and Widen, Light / Communication / Time

전환과 확장, 그리고 빛/소통/시간이라는 두가지 주제(어느 쪽이든 하나만 할 것이지 -_- )를 가지고 전시되고 있는 이번 전시에서는 기존의 미디어 아트 작품들에 비해 기술이 훨씬 다양하게 적용된 작품이 많아서 재미있었다. 특히 센서나 다른 기술들이 적용되기 시작할 때의 미디어 아트는 기술을 있는 그대로 - 즉, 센서는 스위치 대신, 프로젝터는 화면 대신, 홀로그램은 실체 대신 - 사용하고 있었지만, 이번의 전시에서는 그러한 기술들을 "작품 상의 표현"을 위해서 어떻게 사용해야 할 지에 대해서 많은 고민을 한 흔적을 보여주고 있다.

이번 전시에서 특히 흥미롭게 본 몇 가지가 인터넷에 올라와 있길래 올려본다.
... YouTube 대단하다... -.-+



우선, Pablo Valbuena라는 스페인 작가의 "증강된 조각 Augmented Sculpture" 이라는 시리즈 작품이다.



제목 자체가 'augmented'를 포함하고 있는 걸 봐도, 이 조각가(?)는 증강현실(AR) augmented reality 기술을 통해 작품을 고안해낸 게 분명하다. 흰색 물체 위에 프로젝터를 이용해서 표면질감을 투사하는 것은 AR 분야의 응용분야에서 많이 사용하는 방법이기도 하고. 이 조각에서는 프로젝션이 가능한 3면으로만 이루어진 입체 위에 빛과 색이 표현할 수 있는 모든 것을 "가상으로" 투사함으로써 그 존재감을 극대화하고 있다.

이 전시에서 개인적으로 가장 좋았던 장면은, 동영상에서는 뒷부분에 나오는 가상 광원이다. 조각이 있는 공간 어딘가에 가상의 광원이 있어서, 그로부터 나오는 빛이 조각을 비추는 모습을 투사하여 마치 그 광원이 눈에 잡히는 듯 하다. 멀리서 쏟아지는 빛으로 인해서 생기는 그림자도 멋있는 연출이었지만.

사실 (아마도) 간단한 3D 모델링 프로그램과 기본적인 애니메이션 도구만 가지고 만든 것 같은 영상물이지만, 그 연출이나 기술의 응용 측면에서는 정말 박수가 나오는 작품이었다. 기왕 하는 거, 이제 카메라를 이용한 인터랙티브한 측면을 보여주면 어떨까? ㅎㅎ



다음으로 인상적이었던 - 그리고 YouTube에 올라와 있는 - 작품은, Christa Sommerer와 Laurent Mignoneau라는 유럽 작가들의 "생명을 쓰는 타자기 Life Writer"라는 작품이다.



화질이 안 좋아서 느낌이 별로 안 오긴 하지만, 오래된 타자기의 자판과 종이를 앞뒤로 움직이는 다이얼, 좌우로 움직이는 레버에 각각 센서를 달아서 연결된 종이(스크린)에 투사하는 내용을 조작할 수 있도록 한 작품이다. 실제로 타이핑을 하면 글자가 찍히는데, 그걸 종이 끝에서 기어오는 "가상의" 벌레들이 집어 먹는다. 곧 벌레가 마구 몰려와서 글자를 치는 족족 집어 먹는데, 이럴 땐 다이얼을 돌려 종이를 올려보내면 벌레가 같이 밀려가기 때문에 잠시동안이나마 편하게 글자를 칠 수 있다.

... 이렇게 만들어 놓고 "Life Writer"라는 제목을 붙인 작가의 센스도 참 마음에 들거니와, 타자기를 치거나 다이얼을 돌리거나 레버로 타자기를 원위치 시킬 때, 각각 그에 맞는 동작과 소리를 내도록 한 그 노고가 참 훌륭하다. 다양하고 많은 수의 센서를 조합하는 것도 힘들었을 텐데, 그러면서도 완성도가 참 높은 구현사례랄까. (예술작품을 예술작품이라 부르지 못하고... OTL... )



끝으로, 우리나라 작가 중에서는 서효정 작가의 "테이블 위의 백설공주 Snow White on the Table"라는 작품이 눈에 띄었다.



흠... 사실은 동영상을 찾지 못했다. 위 동영상에서는 테이블 위의 터치센서 혹은 광센서를 이용해서 그냥 다양한 배경이 그려진 흰 테이블 위에 그림자 애니메이션 같은 것을 보여주고 있는데, 이번에 전시된 작품은 배경이 마치 소박한 무대배경처럼 두툼한 판으로 만들어져 세워져 있었고, 손으로 터치하는 방식이 아니라 직접 백설공주의 인형(피규어 샵에서 구입한 것을 바탕으로 만들어서, 하얗게 칠한 듯한 형태였다) 을 움직여 적당한 장소에 갖다놓으면, 광센서가 이를 인식해서 위 동영상과 같은 이야기를 보여주는 방식이었다.

프로젝션을 이용하면 어차피 쏟아지는 빛과 광센서를 조합하는 건 종종 있었던 일이라고 해도, 흰색의 백설공주 인형을 이용함으로써 진짜 기가 막힌 연출이 가능하게 되었다. 인형을 센서 위치에 올려놓으면, 그 인형의 "그림자"가 투사되고, 그 백설공주의 그림자가 움직여 그림자 애니메이션 속으로 들어가는 것이다. 그럼으로써 내가 움직인 인형이 로봇처럼 움직이지 않아도, 그 그림자를 매개로 이야기 속의 공간과 내가 사는 공간은 아주 잘 연결되어져 버린다.



그 외에도 국내 포털의 동영상 사이트를 뒤져봐도 많은 동영상이 나온다. 그 중에는 프로젝션을 복잡하게 구성해서 존재하지 않는 스크린을 마치 존재하는 듯이 보여주는 작품도 있고, 심지어 심박센서를 이용해서 그림을 그리는 듯 보여주는 (사실 작년에 HCI 학회에서 본 작품의 좀더 큰 버전이었지만) 작품도 있다. 하지만 우리나라로부터의 동영상 스트리밍은 영국의 느려터진 인터넷으로는 볼 방법이 없으니 올려봐야 뭐. ㅡ_ㅡa;;;

예술 분야에서도 이제 이런 입출력 기술을 마음대로 활용하고 있다는 생각이 든다. 예전처럼 그냥 가까이 가면 움직인다든가 하는 수준이 아니라, 그걸 이용해서 정말 인간의 감성을 건드리는 작품, 진짜 그 기술이 아니면 이런 걸 어떻게 표현할까 싶은 그런 작품이 나오고 있는 것이다.

예전에 터치스크린을 이용해서 연못과 금붕어들을 표현한 작품이 국내에 전시되고 2~3년쯤 뒤에 터치스크린 휴대폰을 위한 UI 기반기술 연구에 들어가면서, 그와 유사한 바탕화면 특허들이 국내외에서 확인이 되고 그 아이디어가 꽤나 칭찬받았던 적이 있다. 애당초 그 작품을 만들었던 작가가 그와 매우 유사한 휴대폰 바탕화면을 보고 어떤 생각을 했는지는 모를 일이지만, 앞으로 2~3년... 아니 그보다 훨씬 짧게, 이번 전시에 사용된 센싱 및 정보표시 방법들이 어느 곳에서 어떤 반응을 일으키게 될지 궁금하다. 남이 뿌린 씨앗이더라도 그게 싹을 틔우고 자라는 걸 보는 건 흐뭇한 법이니까. ㅎㅎㅎ (쩝 :d )
신고
Posted by Stan1ey

BLOG main image
by Stan1ey

카테고리

분류 전체보기 (347)
HTI in General (45)
User eXperience (11)
Voice UI (50)
Vision UI (14)
Gesture UI (25)
Tangible UI (28)
Robot UI (14)
Public UI (9)
Virtuality & Fun (56)
Visual Language (15)
sCRAP (70)

글 보관함



www.flickr.com
This is a Flickr badge showing public photos and videos from Stan1ey. Make your own badge here.