닌텐도에서 NDS, NDSi의 후속으로 parallex barrier를 덧씌워서 맨눈으로도 입체영상을 볼 수 있게 해주는 게임기 Nintendo 3DS를 곧 출시한다고 한다. 기술의 잠재력을 십분 발휘하는 능력이 있는 닌텐도지만, 이번의 입체영상 적용에 대해서는 조금 무리라는 생각이 들었는지 깊이감을 사용자 임의로 조절할 수 있는 슬라이더(3D Depth Slider)를 장착하고 6세 이하 어린이의 입체영상 관람에 대해서 경고문구를 삽입하는 등 소심한 행보를 보이고 있다.
모바일 기기에서 이 방식의 3D 화면을 구현한 게 이번이 처음은 아니지만, 그래도 풍부한 컨텐츠를 보유하고 있는 닌텐도의 움직임이니만큼 주목하게 되는 건 어쩔 수 없다. 그래서 관련된 뉴스가 나오면 뒤적이게 된다. 입체영상을 적용한 게임, 가속도 센서와 전면 카메라로 사용자의 움직임에도 반응하고, 평면영상으로는 불가능했던 퍼즐도 가능하다. 음성에도 반응할 수 있는 것 같고, 당연히 터치스크린을 이용한 Tangible UI도 구현되겠지. 흠... 만들기 재미있겠다. 부럽.
그런데, 개인적으로는 이 입체화면을 통한 게임이라는 것보다도, 이 N3DS 화면 뒷면에 떡하니 붙어있는 한 쌍의 카메라에 더 관심이 간다.
최근에는 소니에서 하나의 렌즈로 입체영상을 찍을 수 있는 방식도 나왔지만, 많은 3D 카메라들은 두 개의 렌즈를 갖고 있다. 3DS에 붙어있는 저 카메라도 보아하니 딱 입체영상을 찍기위한 거라는 건 당연한 일. 근데 의외로 여기에 대한 코멘트는 자주 보이지 않는다. ... 입체화면이 있는 장치에 입체영상을 기록할 수 있는 장치. 너무 당연해서 그런가? 그래도 이 조합이면 뭔가 재미있는 일이 있을 것도 같은데...
(1) 증강현실
이젠 모바일 기기에 AR이 들어가는 건 당연한 이야기가 된 듯. 신기해하는 사람조차 없다. 언제 이렇게 됐는지... 신기술에 대한 사회의 반발과 적응의 과정은 정말이지 종잡을 수가 없다. 어쨋든 입체화면 모바일 장치라면 AR도 당연히 입체여야 할 터. 여기에 대해서는 이미 최근의 Nintendo World 행사를 통해 동영상이 올라오기도 했다. (아래 동영상은 앞부분에 일본어로만 진행되는 부분이 쫌 길다. 재미없으면 앞의 10분은 넘어가도 좋고, 실제 AR에 대한 부분은 21분쯤 나온다.)
위 동영상에서 눈치챌 수 있듯이, 아직은 그냥 '이런 것도 됩니다'라는 느낌에 Wii에서 구축해 놓은 Mii 시스템을 모바일 세상으로, 그리고 실제 세상으로 끌고 나오겠다는 욕심을 보이는 데 그치고 있다.
한가지 궁금한 것은, 저렇게 AR "렌즈" 역할을 하는 기계를 들고 쓰다보면 카메라가 AR 카드 위치를 보는 시야각/거리감하고 사람이 그 가상의 렌즈를 통해서 기대하는 시야각/거리감이 완전히 다를텐데 어지럽지 않으려나? 하는 부분이다. 이를테면 이전의 비슷한 사례 중 하나인 HIT Lab NZ의 <eyeMagic Book>은 눈앞에 화면과 카메라를 갖다붙이는 방식이니까 카메라의 시야각이나 사용자의 시야각이나 별 차이가 없었지만, 만일 닌텐도 3DS를 들고 AR Tag 주변을 맴돌면서 역동적인 AR 게임을 하라고 하면 조금 괴로울지도 모르겠다.
게다가 사실은, 저렇게 기기를 들고 가상의 "물체" 주위로 돌려가면서 봐야하는 상황에서는 parallex barrier 방식(혹은, 모든 맨눈으로 보는 입체화면)의 치명적인 결점 - 화면을 정면+특정거리+똑바로 보지 않으면 깊이감이 뒤섞이거나, 심지어 뒤집히거나, 급기야 화면이 안 보인다는 - 이 그대로 드러나게 된다. 이제까지 나온 그나마 성공적인 AR 앱들도 그렇고, 채용한 입체화면 방식의 장단점을 고려해서도 그렇고, 결국은 위치정보를 바탕으로 주변의 "환경"에 정보를 입히고 그걸 기기를 휘둘러가며 탐색하는 방향으로 가게 되리라 생각한다. 이미 휴대폰에서 나온 "재미있지만 쓸모가 빈약한" 어플리케이션들과 차별점이 없어 보일런지 몰라도, 게임 컨텐츠 개발에 탁원한 닌텐도라면 이런 제약들 속에서도 뭔가 재미있는 뜻밖의 사례 하나쯤 들고나와 주리라 믿어보자.
(2) 거리측정
카메라가 인간의 눈보다 잘할 수 있는 일이 있다면, 그건 시야 내의 모든 점들을 동시에 지속적으로 볼 수 있다는 거다. 카메라가 두 개 있을 때 인간의 두 눈보다 요긴한 점이 있다면, 양쪽 카메라에서 본 점들을 맞춰보면서 각 지점까지의 거리를 알 수 있다는 거다. 물론 그 정확도야 입력영상의 해상도나 복잡도, 영상정보의 처리속도 등에 의해서 좌우되겠지만, 영상의 각 지점까지 거리를 안다는 것은 세상을 입체적으로 이해하는 데에 큰 도움이 될 수 있다.
실제로 구현된 사례가 없으니 섣부른 추측이겠지만, 아마도 닌텐도 3DS에 달린 두 개의 카메라로 영상 내에 등장한 물체까지의 거리를 분석할 수 있다면, 그 결과는 마이크로소프트의 키넥스(Kinect) 시스템에서 나온 데이터와 크게 다르지 않을꺼다. 아래 왼쪽의 그림은 기존 stereo vision 분야의 결과 중 하나고, 오른쪽은 해킹된 Kinect 시스템으로부터의 신호다. 일단 거리 데이터로 변환된 후에는, 장점도 약점도 비슷하리라는 걸 알 수 있다. (적외선을 이용한 active sensing의 장단점과 별도의 영상처리를 해야하는 passive sensing의 장단점은 비교해봄직 하겠지만, 걍 다음으로 넘기고 건너뛰자.)
물론 닌텐도 3DS의 경우는 모바일 기기이고, 카메라와 화면의 방향이 반대니까 Kinect와는 응용방법이 완전히 달라야 한다. 그리고 오히려 그런 의미에서 기대가 된다. 이를테면, 기존의 AR이 현실의 영상 위에 가상의 물체를 단순히 덮어 씌우는 방식이었다면, 물체인식이 되는 AR은 가까이 있는 실제 물체 "뒤에" 가상의 물체를 놓을 수도 있을 거다. 거기에 가속도 센서를 이용해서 Kinect처럼 "바닥"을 인식하는 기본 알고리듬이 추가된다면 단지 카드에 인쇄된 AR Tag를 기준으로 불안불안하게 이루어지던 상호작용이 훨씬 자연스러워 질 수 있다.
잠깐, 입체인식이 된다면 굳이 인쇄된 카드를 쓸 필요가 있나? 스테레오 비전을 이용한 물체인식 연구라면 로봇 분야에서 꽤 오랫동안 이루어진 분야다. 물체를 인식해서 그 물체에 맞는 증강현실 효과를 덧붙여줄 수 있다면 최근의 AR 유행을 한 수준 뛰어넘는 응용사례가 될 지도 모르겠다. 예를 들면 손가락 모양(手印)에 따라 특정 기술을 구사할 수 있는 동양적 판타지 게임이라든가. (지가 만들 꺼 아니라고 막 말하고 있다... -_-;;; )
(3) 3D 컨텐츠
하지만 역시 세상에 가장 큰 파급효과가 되라라고 생각하는 것은 3D 입체사진과 입체동영상의 양산이다. 입체사진을 찍는다며 눈이 두개 달린 카메라를 사는 건 웬만한 얼리어답터가 아니면 엄두를 못낼 일이지만, 이미 검증된 게임 컨텐츠가 딸려오는 게임기는 그런 구매장벽이 없다. 일단 사서 이것저것 찍고 인터넷에 올리고 하다보면, 여러가지 3D 컨텐츠가 퍼지게 될꺼다. 일단은 3DS을 갖고 있거나 3D TV에서 보려고 굳이 애쓰는 사람들 중심으로 퍼지겠지만, 일단 데이터가 많으면 일반 사용자들을 위한 3D Viewer를 만드는 사람도 있을테고... (단순히 좌우영상을 교대로 보여주기만 해도 상당한 입체감이 느껴진다) 결국 3D 컨텐츠가 일반시장에 퍼지는 데에 꽤 큰 역할을 하게 될 것같다.
물론 이미 3D 동영상에 대해서는 나름의 데이터 표준이 합의되어 있고, 일반 사용자들이 모르는 사이에 고민도 많았던 모양이다. 하지만 이렇게 한가지 기기에서 대량으로 입체사진/영상이 퍼진다면 그것 자체가 하나의 경쟁력 있는 시장표준이 되어버리지 않을까? 일단 니코니코동화와 YouTube 3D에서부터 시작해서, 세상의 잉여력이 또다시 뭉쳐져 새로운 3D 시각문화의 장이 열리리라고 기대하고 있다.
... 뭐 이렇게 기대야 내멋대로 할 수 있지만, 사실 모바일 기기에서 게임이든 어플이든 개발하는 게 말처럼 녹녹치는 않다. 제약조건도 많고 따로 영상처리를 할 여유도 없고. 하지만 곧 Nintendo 3DS가 출시되고 나면 조만간 해킹 소식이 날라올테고, 그걸 기반으로 또 이런저런 장난을 치는 사람이 나오게 될꺼다. 그 다음에는 카메라 두 개로 입체 AR을 구현한다거나 영상의 깊이감을 측정한다거나 입체 동영상을 공유한다거나 하는 게 금방 또 당연해질테고.
지금 키넥트의 적외선 거리센서 보면서 아쉬워하고 있을 때가 아니라는 거다.
그나저나, 3DS라고 하면 Autodesk 3D Studio가 생각나는 사람, 손!!! ^0^/
... 우린 이제 공식적으로 한물간 겁니다. ㅠ_ㅠ
모바일 기기에서 이 방식의 3D 화면을 구현한 게 이번이 처음은 아니지만, 그래도 풍부한 컨텐츠를 보유하고 있는 닌텐도의 움직임이니만큼 주목하게 되는 건 어쩔 수 없다. 그래서 관련된 뉴스가 나오면 뒤적이게 된다. 입체영상을 적용한 게임, 가속도 센서와 전면 카메라로 사용자의 움직임에도 반응하고, 평면영상으로는 불가능했던 퍼즐도 가능하다. 음성에도 반응할 수 있는 것 같고, 당연히 터치스크린을 이용한 Tangible UI도 구현되겠지. 흠... 만들기 재미있겠다. 부럽.
그런데, 개인적으로는 이 입체화면을 통한 게임이라는 것보다도, 이 N3DS 화면 뒷면에 떡하니 붙어있는 한 쌍의 카메라에 더 관심이 간다.
최근에는 소니에서 하나의 렌즈로 입체영상을 찍을 수 있는 방식도 나왔지만, 많은 3D 카메라들은 두 개의 렌즈를 갖고 있다. 3DS에 붙어있는 저 카메라도 보아하니 딱 입체영상을 찍기위한 거라는 건 당연한 일. 근데 의외로 여기에 대한 코멘트는 자주 보이지 않는다. ... 입체화면이 있는 장치에 입체영상을 기록할 수 있는 장치. 너무 당연해서 그런가? 그래도 이 조합이면 뭔가 재미있는 일이 있을 것도 같은데...
(1) 증강현실
이젠 모바일 기기에 AR이 들어가는 건 당연한 이야기가 된 듯. 신기해하는 사람조차 없다. 언제 이렇게 됐는지... 신기술에 대한 사회의 반발과 적응의 과정은 정말이지 종잡을 수가 없다. 어쨋든 입체화면 모바일 장치라면 AR도 당연히 입체여야 할 터. 여기에 대해서는 이미 최근의 Nintendo World 행사를 통해 동영상이 올라오기도 했다. (아래 동영상은 앞부분에 일본어로만 진행되는 부분이 쫌 길다. 재미없으면 앞의 10분은 넘어가도 좋고, 실제 AR에 대한 부분은 21분쯤 나온다.)
위 동영상에서 눈치챌 수 있듯이, 아직은 그냥 '이런 것도 됩니다'라는 느낌에 Wii에서 구축해 놓은 Mii 시스템을 모바일 세상으로, 그리고 실제 세상으로 끌고 나오겠다는 욕심을 보이는 데 그치고 있다.
한가지 궁금한 것은, 저렇게 AR "렌즈" 역할을 하는 기계를 들고 쓰다보면 카메라가 AR 카드 위치를 보는 시야각/거리감하고 사람이 그 가상의 렌즈를 통해서 기대하는 시야각/거리감이 완전히 다를텐데 어지럽지 않으려나? 하는 부분이다. 이를테면 이전의 비슷한 사례 중 하나인 HIT Lab NZ의 <eyeMagic Book>은 눈앞에 화면과 카메라를 갖다붙이는 방식이니까 카메라의 시야각이나 사용자의 시야각이나 별 차이가 없었지만, 만일 닌텐도 3DS를 들고 AR Tag 주변을 맴돌면서 역동적인 AR 게임을 하라고 하면 조금 괴로울지도 모르겠다.
게다가 사실은, 저렇게 기기를 들고 가상의 "물체" 주위로 돌려가면서 봐야하는 상황에서는 parallex barrier 방식(혹은, 모든 맨눈으로 보는 입체화면)의 치명적인 결점 - 화면을 정면+특정거리+똑바로 보지 않으면 깊이감이 뒤섞이거나, 심지어 뒤집히거나, 급기야 화면이 안 보인다는 - 이 그대로 드러나게 된다. 이제까지 나온 그나마 성공적인 AR 앱들도 그렇고, 채용한 입체화면 방식의 장단점을 고려해서도 그렇고, 결국은 위치정보를 바탕으로 주변의 "환경"에 정보를 입히고 그걸 기기를 휘둘러가며 탐색하는 방향으로 가게 되리라 생각한다. 이미 휴대폰에서 나온 "재미있지만 쓸모가 빈약한" 어플리케이션들과 차별점이 없어 보일런지 몰라도, 게임 컨텐츠 개발에 탁원한 닌텐도라면 이런 제약들 속에서도 뭔가 재미있는 뜻밖의 사례 하나쯤 들고나와 주리라 믿어보자.
(2) 거리측정
카메라가 인간의 눈보다 잘할 수 있는 일이 있다면, 그건 시야 내의 모든 점들을 동시에 지속적으로 볼 수 있다는 거다. 카메라가 두 개 있을 때 인간의 두 눈보다 요긴한 점이 있다면, 양쪽 카메라에서 본 점들을 맞춰보면서 각 지점까지의 거리를 알 수 있다는 거다. 물론 그 정확도야 입력영상의 해상도나 복잡도, 영상정보의 처리속도 등에 의해서 좌우되겠지만, 영상의 각 지점까지 거리를 안다는 것은 세상을 입체적으로 이해하는 데에 큰 도움이 될 수 있다.
실제로 구현된 사례가 없으니 섣부른 추측이겠지만, 아마도 닌텐도 3DS에 달린 두 개의 카메라로 영상 내에 등장한 물체까지의 거리를 분석할 수 있다면, 그 결과는 마이크로소프트의 키넥스(Kinect) 시스템에서 나온 데이터와 크게 다르지 않을꺼다. 아래 왼쪽의 그림은 기존 stereo vision 분야의 결과 중 하나고, 오른쪽은 해킹된 Kinect 시스템으로부터의 신호다. 일단 거리 데이터로 변환된 후에는, 장점도 약점도 비슷하리라는 걸 알 수 있다. (적외선을 이용한 active sensing의 장단점과 별도의 영상처리를 해야하는 passive sensing의 장단점은 비교해봄직 하겠지만, 걍 다음으로 넘기고 건너뛰자.)
물론 닌텐도 3DS의 경우는 모바일 기기이고, 카메라와 화면의 방향이 반대니까 Kinect와는 응용방법이 완전히 달라야 한다. 그리고 오히려 그런 의미에서 기대가 된다. 이를테면, 기존의 AR이 현실의 영상 위에 가상의 물체를 단순히 덮어 씌우는 방식이었다면, 물체인식이 되는 AR은 가까이 있는 실제 물체 "뒤에" 가상의 물체를 놓을 수도 있을 거다. 거기에 가속도 센서를 이용해서 Kinect처럼 "바닥"을 인식하는 기본 알고리듬이 추가된다면 단지 카드에 인쇄된 AR Tag를 기준으로 불안불안하게 이루어지던 상호작용이 훨씬 자연스러워 질 수 있다.
잠깐, 입체인식이 된다면 굳이 인쇄된 카드를 쓸 필요가 있나? 스테레오 비전을 이용한 물체인식 연구라면 로봇 분야에서 꽤 오랫동안 이루어진 분야다. 물체를 인식해서 그 물체에 맞는 증강현실 효과를 덧붙여줄 수 있다면 최근의 AR 유행을 한 수준 뛰어넘는 응용사례가 될 지도 모르겠다. 예를 들면 손가락 모양(手印)에 따라 특정 기술을 구사할 수 있는 동양적 판타지 게임이라든가. (지가 만들 꺼 아니라고 막 말하고 있다... -_-;;; )
(3) 3D 컨텐츠
하지만 역시 세상에 가장 큰 파급효과가 되라라고 생각하는 것은 3D 입체사진과 입체동영상의 양산이다. 입체사진을 찍는다며 눈이 두개 달린 카메라를 사는 건 웬만한 얼리어답터가 아니면 엄두를 못낼 일이지만, 이미 검증된 게임 컨텐츠가 딸려오는 게임기는 그런 구매장벽이 없다. 일단 사서 이것저것 찍고 인터넷에 올리고 하다보면, 여러가지 3D 컨텐츠가 퍼지게 될꺼다. 일단은 3DS을 갖고 있거나 3D TV에서 보려고 굳이 애쓰는 사람들 중심으로 퍼지겠지만, 일단 데이터가 많으면 일반 사용자들을 위한 3D Viewer를 만드는 사람도 있을테고... (단순히 좌우영상을 교대로 보여주기만 해도 상당한 입체감이 느껴진다) 결국 3D 컨텐츠가 일반시장에 퍼지는 데에 꽤 큰 역할을 하게 될 것같다.
물론 이미 3D 동영상에 대해서는 나름의 데이터 표준이 합의되어 있고, 일반 사용자들이 모르는 사이에 고민도 많았던 모양이다. 하지만 이렇게 한가지 기기에서 대량으로 입체사진/영상이 퍼진다면 그것 자체가 하나의 경쟁력 있는 시장표준이 되어버리지 않을까? 일단 니코니코동화와 YouTube 3D에서부터 시작해서, 세상의 잉여력이 또다시 뭉쳐져 새로운 3D 시각문화의 장이 열리리라고 기대하고 있다.
... 뭐 이렇게 기대야 내멋대로 할 수 있지만, 사실 모바일 기기에서 게임이든 어플이든 개발하는 게 말처럼 녹녹치는 않다. 제약조건도 많고 따로 영상처리를 할 여유도 없고. 하지만 곧 Nintendo 3DS가 출시되고 나면 조만간 해킹 소식이 날라올테고, 그걸 기반으로 또 이런저런 장난을 치는 사람이 나오게 될꺼다. 그 다음에는 카메라 두 개로 입체 AR을 구현한다거나 영상의 깊이감을 측정한다거나 입체 동영상을 공유한다거나 하는 게 금방 또 당연해질테고.
지금 키넥트의 적외선 거리센서 보면서 아쉬워하고 있을 때가 아니라는 거다.
그나저나, 3DS라고 하면 Autodesk 3D Studio가 생각나는 사람, 손!!! ^0^/
... 우린 이제 공식적으로 한물간 겁니다. ㅠ_ㅠ
반응형