Nintendo 3DS
닌텐도에서 NDS, NDSi의 후속으로 parallex barrier를 덧씌워서 맨눈으로도 입체영상을 볼 수 있게 해주는 게임기 Nintendo 3DS를 곧 출시한다고 한다. 기술의 잠재력을 십분 발휘하는 능력이 있는 닌텐도지만, 이번의 입체영상 적용에 대해서는 조금 무리라는 생각이 들었는지 깊이감을 사용자 임의로 조절할 수 있는 슬라이더(3D Depth Slider)를 장착하고 6세 이하 어린이의 입체영상 관람에 대해서 경고문구를 삽입하는 등 소심한 행보를 보이고 있다.

모바일 기기에서 이 방식의 3D 화면을 구현한 게 이번이 처음은 아니지만, 그래도 풍부한 컨텐츠를 보유하고 있는 닌텐도의 움직임이니만큼 주목하게 되는 건 어쩔 수 없다. 그래서 관련된 뉴스가 나오면 뒤적이게 된다. 입체영상을 적용한 게임, 가속도 센서와 전면 카메라로 사용자의 움직임에도 반응하고, 평면영상으로는 불가능했던 퍼즐도 가능하다. 음성에도 반응할 수 있는 것 같고, 당연히 터치스크린을 이용한 Tangible UI도 구현되겠지. 흠... 만들기 재미있겠다. 부럽.

그런데, 개인적으로는 이 입체화면을 통한 게임이라는 것보다도, 이 N3DS 화면 뒷면에 떡하니 붙어있는 한 쌍의 카메라에 더 관심이 간다.

Binocular Camera on Nintendo 3DS

최근에는 소니에서 하나의 렌즈로 입체영상을 찍을 수 있는 방식도 나왔지만, 많은 3D 카메라들은 두 개의 렌즈를 갖고 있다. 3DS에 붙어있는 저 카메라도 보아하니 딱 입체영상을 찍기위한 거라는 건 당연한 일. 근데 의외로 여기에 대한 코멘트는 자주 보이지 않는다. ... 입체화면이 있는 장치에 입체영상을 기록할 수 있는 장치. 너무 당연해서 그런가? 그래도 이 조합이면 뭔가 재미있는 일이 있을 것도 같은데...


(1) 증강현실
이젠 모바일 기기에 AR이 들어가는 건 당연한 이야기가 된 듯. 신기해하는 사람조차 없다. 언제 이렇게 됐는지... 신기술에 대한 사회의 반발과 적응의 과정은 정말이지 종잡을 수가 없다. 어쨋든 입체화면 모바일 장치라면 AR도 당연히 입체여야 할 터. 여기에 대해서는 이미 최근의 Nintendo World 행사를 통해 동영상이 올라오기도 했다. (아래 동영상은 앞부분에 일본어로만 진행되는 부분이 쫌 길다. 재미없으면 앞의 10분은 넘어가도 좋고, 실제 AR에 대한 부분은 21분쯤 나온다.)



위 동영상에서 눈치챌 수 있듯이, 아직은 그냥 '이런 것도 됩니다'라는 느낌에 Wii에서 구축해 놓은 Mii 시스템을 모바일 세상으로, 그리고 실제 세상으로 끌고 나오겠다는 욕심을 보이는 데 그치고 있다.

한가지 궁금한 것은, 저렇게 AR "렌즈" 역할을 하는 기계를 들고 쓰다보면 카메라가 AR 카드 위치를 보는 시야각/거리감하고 사람이 그 가상의 렌즈를 통해서 기대하는 시야각/거리감이 완전히 다를텐데 어지럽지 않으려나? 하는 부분이다.
eyeMagic Book Project from HIT Lab NZ
이를테면 이전의 비슷한 사례 중 하나인 HIT Lab NZ의 <eyeMagic Book>은 눈앞에 화면과 카메라를 갖다붙이는 방식이니까 카메라의 시야각이나 사용자의 시야각이나 별 차이가 없었지만, 만일 닌텐도 3DS를 들고 AR Tag 주변을 맴돌면서 역동적인 AR 게임을 하라고 하면 조금 괴로울지도 모르겠다.

게다가 사실은, 저렇게 기기를 들고 가상의 "물체" 주위로 돌려가면서 봐야하는 상황에서는 parallex barrier 방식(혹은, 모든 맨눈으로 보는 입체화면)의 치명적인 결점 - 화면을 정면+특정거리+똑바로 보지 않으면 깊이감이 뒤섞이거나, 심지어 뒤집히거나, 급기야 화면이 안 보인다는 - 이 그대로 드러나게 된다. 이제까지 나온 그나마 성공적인 AR 앱들도 그렇고, 채용한 입체화면 방식의 장단점을 고려해서도 그렇고, 결국은 위치정보를 바탕으로 주변의 "환경"에 정보를 입히고 그걸 기기를 휘둘러가며 탐색하는 방향으로 가게 되리라 생각한다. 이미 휴대폰에서 나온 "재미있지만 쓸모가 빈약한" 어플리케이션들과 차별점이 없어 보일런지 몰라도, 게임 컨텐츠 개발에 탁원한 닌텐도라면 이런 제약들 속에서도 뭔가 재미있는 뜻밖의 사례 하나쯤 들고나와 주리라 믿어보자.
 

(2) 거리측정
카메라가 인간의 눈보다 잘할 수 있는 일이 있다면, 그건 시야 내의 모든 점들을 동시에 지속적으로 볼 수 있다는 거다. 카메라가 두 개 있을 때 인간의 두 눈보다 요긴한 점이 있다면, 양쪽 카메라에서 본 점들을 맞춰보면서 각 지점까지의 거리를 알 수 있다는 거다. 물론 그 정확도야 입력영상의 해상도나 복잡도, 영상정보의 처리속도 등에 의해서 좌우되겠지만, 영상의 각 지점까지 거리를 안다는 것은 세상을 입체적으로 이해하는 데에 큰 도움이 될 수 있다.

실제로 구현된 사례가 없으니 섣부른 추측이겠지만, 아마도 닌텐도 3DS에 달린 두 개의 카메라로 영상 내에 등장한 물체까지의 거리를 분석할 수 있다면, 그 결과는 마이크로소프트의 키넥스(Kinect) 시스템에서 나온 데이터와 크게 다르지 않을꺼다. 아래 왼쪽의 그림은 기존 stereo vision 분야의 결과 중 하나고, 오른쪽은 해킹된 Kinect 시스템으로부터의 신호다. 일단 거리 데이터로 변환된 후에는, 장점도 약점도 비슷하리라는 걸 알 수 있다. (적외선을 이용한 active sensing의 장단점과 별도의 영상처리를 해야하는 passive sensing의 장단점은 비교해봄직 하겠지만, 걍 다음으로 넘기고 건너뛰자.)

Distance Measurement from Stereo VisionDistance Measurement from Kinect

물론 닌텐도 3DS의 경우는 모바일 기기이고, 카메라와 화면의 방향이 반대니까 Kinect와는 응용방법이 완전히 달라야 한다. 그리고 오히려 그런 의미에서 기대가 된다. 이를테면, 기존의 AR이 현실의 영상 위에 가상의 물체를 단순히 덮어 씌우는 방식이었다면, 물체인식이 되는 AR은 가까이 있는 실제 물체 "뒤에" 가상의 물체를 놓을 수도 있을 거다. 거기에 가속도 센서를 이용해서 Kinect처럼 "바닥"을 인식하는 기본 알고리듬이 추가된다면 단지 카드에 인쇄된 AR Tag를 기준으로 불안불안하게 이루어지던 상호작용이 훨씬 자연스러워 질 수 있다.

잠깐, 입체인식이 된다면 굳이 인쇄된 카드를 쓸 필요가 있나? 스테레오 비전을 이용한 물체인식 연구라면 로봇 분야에서 꽤 오랫동안 이루어진 분야다. 물체를 인식해서 그 물체에 맞는 증강현실 효과를 덧붙여줄 수 있다면 최근의 AR 유행을 한 수준 뛰어넘는 응용사례가 될 지도 모르겠다. 예를 들면 손가락 모양(手印)에 따라 특정 기술을 구사할 수 있는 동양적 판타지 게임이라든가. (지가 만들 꺼 아니라고 막 말하고 있다... -_-;;; )


(3) 3D 컨텐츠
하지만 역시 세상에 가장 큰 파급효과가 되라라고 생각하는 것은 3D 입체사진과 입체동영상의 양산이다. 입체사진을 찍는다며 눈이 두개 달린 카메라를 사는 건 웬만한 얼리어답터가 아니면 엄두를 못낼 일이지만, 이미 검증된 게임 컨텐츠가 딸려오는 게임기는 그런 구매장벽이 없다. 일단 사서 이것저것 찍고 인터넷에 올리고 하다보면, 여러가지 3D 컨텐츠가 퍼지게 될꺼다. 일단은 3DS을 갖고 있거나 3D TV에서 보려고 굳이 애쓰는 사람들 중심으로 퍼지겠지만, 일단 데이터가 많으면 일반 사용자들을 위한 3D Viewer를 만드는 사람도 있을테고... (단순히 좌우영상을 교대로 보여주기만 해도 상당한 입체감이 느껴진다) 결국 3D 컨텐츠가 일반시장에 퍼지는 데에 꽤 큰 역할을 하게 될 것같다.

물론 이미 3D 동영상에 대해서는 나름의 데이터 표준이 합의되어 있고, 일반 사용자들이 모르는 사이에 고민도 많았던 모양이다. 하지만 이렇게 한가지 기기에서 대량으로 입체사진/영상이 퍼진다면 그것 자체가 하나의 경쟁력 있는 시장표준이 되어버리지 않을까? 일단 니코니코동화YouTube 3D에서부터 시작해서, 세상의 잉여력이 또다시 뭉쳐져 새로운 3D 시각문화의 장이 열리리라고 기대하고 있다.



... 뭐 이렇게 기대야 내멋대로 할 수 있지만, 사실 모바일 기기에서 게임이든 어플이든 개발하는 게 말처럼 녹녹치는 않다. 제약조건도 많고 따로 영상처리를 할 여유도 없고. 하지만 곧 Nintendo 3DS가 출시되고 나면 조만간 해킹 소식이 날라올테고, 그걸 기반으로 또 이런저런 장난을 치는 사람이 나오게 될꺼다. 그 다음에는 카메라 두 개로 입체 AR을 구현한다거나 영상의 깊이감을 측정한다거나 입체 동영상을 공유한다거나 하는 게 금방 또 당연해질테고.

지금 키넥트의 적외선 거리센서 보면서 아쉬워하고 있을 때가 아니라는 거다.





그나저나, 3DS라고 하면 Autodesk 3D Studio가 생각나는 사람, 손!!! ^0^/
... 우린 이제 공식적으로 한물간 겁니다. ㅠ_ㅠ
저작자 표시 비영리 변경 금지
신고
Creative Commons License
Posted by Stan1ey
요새 아이폰에서 증강현실 Augmented Reality 기술의 실용화 사례가 급격하게(!) 늘어난다 싶더니만, 급기야 <Business Week>지에서 Special Report까지 발행했다.

CEO Report on AR, from Business Week

위 목차에서 볼 수 있듯이 이 리포트의 내용은 주로 iPhone이 AR를 mainstream으로 격상시켰다는 이야기로 시작해서 (BW답게도) 그 사업적인 가치와 사업사례, 미래의 가능성, 그리고 CEO를 위한 기술개요 요약본으로 구성되어 있다.

AR이 벌써 mainstream 운운할 정도로 커졌나? ... 흠, 솔직히 HTI를 내세우면서 신기술 적용에 목을 매는 나로서도 그건 좀 부정적이다. iPhone으로 대표되는 모바일 AR이라면 딱히 높은 상업적인 가치를 갖는 물건이 안 나오고 있으니 더욱 그렇고, 그나마 똑부러지지 않아도 재미있으면 팔린다는 게임에서도 화면과 현실의 괴리감을 극복할만한 아이디어는 보이지 않고 있다.

이게 주요 UI로 떠오르려면 아직은 갈 길이 멀 것 같은데, 샴페인이 조금 일찍 터지는 듯. 그래도 이게 CEO Report 라는 이름으로 비지니스 위크에 등장했으니 이미 관련 연구실에는 '그게 뭔데 보고해봐라'는 지시가 떨어졌을게다. 오랫동안 회사에서 눈치보면서 연구하던 분들이 이번 기회를 잘 살려서 회사 내에서라도 mainstream 조직으로 떠오르기를 기대해 본다. AR이니 뭐니 해도 결국은 영상인식 기술이고, 영상인식 기술만큼은 조만간 주요 UI 기술이 되리라는 데에 전혀 이의가 없다.

AR이 실제로 mainstream이 되기 위해서 빠진 부분이 무엇일까?

개인적으로는 영상인식과 더불어 모바일 프로젝션이 그 열쇠라고 생각한다. 결국 virtuality만으로는 먹히지 않을테니 가상의 것을 실제 세계에 쏟아내는 수 밖에. SIGGRAPH에서 발표된 그 수많은 프로젝션 기술들, 이제 슬슬 날개를 펼 때가 되기도 했다. 어차피 그걸로 영화 보여주겠다고 해도, 해상도도 부족하고 휘도도 떨어져서 제대로 안 보인다니깐...
신고
Creative Commons License
Posted by Stan1ey
Olympus EP-2 Digital Camera
올림푸스에서 EP-2라는 카메라가 새로 나온다고 한다. 개인적으로 디카의 화질을 많이 따지지 않는지라 이전에 나왔던 EP-1 모델이 좋다는 소문은 들었어도 뭐가 좋은지 모르고 있었는데, 이번 EP-2를 소개하는 podcast를 듣다가 귀가 쫑긋해지는 경험을 했다. 이 카메라에는 3차원 개체 추적 기술이 "Auto Focus Tracking"이라는 이름으로 들어간다는 것이다.

Auto Focus Tracking in EP-2

관련 기사에서는 새 모델에 대해서 "Almost No New Features"라고까지 했지만, 디지털 카메라에 점점 더 추가되는 영상분석 기술에 관심을 가지고 있는 사람에게는 굉장히 흥미로운 소식이다. 위 그림에서도 나와있듯이, 반셔터를 누른 상태에서 어떤 물체(=영상패턴)에 초점을 맞추면 그 물체가 상하좌우앞뒤로 움직여도 계속 그 물체에 맞춰 초점을 바꿔준다는 것이다. 움직이는 물체를 찍을 때 계속 반셔터를 눌러대면서 초점을 유지해야 했던 걸 생각하면 그야말로 장족의 발전이다.

물론 물체를 추적하려다가 엉뚱한 곳으로 초점을 옮기는 오류가 있을 수는 있겠지만, 요즘의 디지털 카메라는 워낙 고해상도이고 아예 영상처리 전용의 칩셋을 사용하다보니 PC에서 웹캠으로 하는 영상인식보다 오히려 빠르고 정확한 것 같다. 미래의 UI가 영상인식 기술로 귀결될 거라는 5년전 Thad Starner 교수의 예측은 영상관련 인프라가 가장 잘 구축된 wearable/portable computer인 디지털 카메라에서 점점 더 현실이 되고 있다고 생각한다. 그동안 카메라의 해상도나 CPU 속도를 핑계로 실험실의 장난으로 미뤄왔던 내용이 어느새 빠른 속도로 하나 둘씩 생활 속으로 들어오고 있는 것이다.

디지털 카메라 혹은 캠코더와 관련된 분야의 실무자들은 아마 지난 십여년 간의 영상인식 연구내용을 되짚어가며 각각의 상품가능성을 고민하고 있을듯. 그거 재미있겠다. ㅎㅎㅎ



바로 며칠 후에 또 재미있는 물건이 나와서 그냥 덧붙이기로. 새로 출시되는 Casio Exlim EX-FS10 에는 골프 자세를 영상분석해 주는 소프트웨어를 탑재했다고 한다.
Casio Exlim EX-FS10 with Posture Analyzer for Golfers
이건 농담으로나 말하던 물건이 실제로 나와 버리다니. -_-a;; 아무리 앞에서 그간의 영상인식 연구를 상품화할 때라고 했다고 하지만, 요건 좀 안 맞는 거 아닌가 싶다. 물론 중요한 배경은 대체로 녹색이기 때문에 그런 점에서 영상인식의 좋은 적용사례라고 볼 수도 있다. 하지만 자세를 본다는 건 카메라와 사람 사이의 위치나 방향이 조금만 틀어져도 꽤 문제가 될테고, 3배줌 밖에 지원하지 않는다고는 하지만 렌즈의 설정에 따라 왜곡도 있을게다.

실제로 트레이너가 조목조목 교정하는만큼 효과는 없겠지만, 일본도 우리나라처럼 골프가 귀족 스포츠라는 인식이 있어서 살 사람은 사리라고 생각했던 걸까. 뭐 여하튼 재미있는 디카에서의 영상인식 사례임은 분명하다. :)

신고
Creative Commons License
Posted by Stan1ey
딱이 UI에 대한 내용은 아닐지 몰라도, 여러 유용한 기술의 작동원리를 알아둔다는 것은 두고두고 도움이 된다. 특히 기술을 앞장서서 적용하는 HTI의 관점을 생각해 보면 더욱 더. 일전에 iPhone 카메라에 초점조절이 들어간 걸 보고 액체렌즈가 벌써 상용화됐나 하면서 호들갑을 떤 적이 있는데, 얼마전 관련기사를 읽다가 "아이폰에 카메라 센서를 공급한 'OmniVision'사..."라는 대목을 보고 뒷조사(라고 쓰고 구글링이라고 읽는다)에 들어갔다.

Touch to Focus - in iPhone 3GS
인터넷을 보니 이 회사가 아이폰에 카메라 센서(CMOS Image Sensor)를 독점적으로 제공하고 있는 것에 대해서는 오래전부터 많은 기사가 있었던 듯. 단지 그 모든 기사들이 아이폰의 다른 전자부품들과 마찬가지로 그냥 그걸 어느 회사가 공급하기로 계약했다더라..라는 점만 언급할 뿐, 왜 옴니비전이 선택됐는지는 자세히 나와있지 않다.

OmniVision Technologies의 웹사이트를 구석구석 읽어보면, 중간중간 나타나는 TrueFocus(TM)라는 기술이 아마도 그 핵심이 아닐까 싶다. 이 기술에 대해서는 뭐 당연히... 웹사이트에 친절하게 설명되어 있지는 않지만, 사이트 한 구석을 보면 자회사로 등록되어 있는 OmniVision CDM Optics Inc.에서 Wavefront Coding(TM) Technology 라는 걸 이용해서 소형 카메라의 초점범위를 넓히는 기술을 특허로 가지고 있다는 걸 알 수 있다. 그래도 바로 특허검색.

... 결과는, 앞서 액체렌즈 운운했던 내가 바보같이 느껴지는 내용들이다.




특허 내용 자체는 일주일 넘게 껴안고 짬짬이 읽어봤지만 나로서는 100% 이해하는 게 불가능. 예전 같으면 광학 전문가가 같은 건물 어딘가에 있어서 도움을 받았겠지만, 지금은 주변 동료들의 전문분야가 훨씬 더 다양해지는 바람에 공학 전문가를 찾기가 오히려 힘든 상황이니 뭐. ㅡ_ㅡa;; ... 해서 포기하고, 그냥 몇가지 그림이나 따다놓고 내가 이해한 내용이나 정리해 두기로 했다. 기술에 대한 자세한 (그리고 아마도 올바른) 설명은 위키피디아CDM Optics사 웹사이트에 설명되어 있으며, 관련논문(1, 2)도 올라와 있다.

wavefront coding에 대한 그나마 해독 -_- 가능했던 설명은 위 CDM Optics사에서 찾아볼 수 있었는데, "특별하게 깎은 렌즈를 통과해서 의도적으로 산란시킨(encoding) 빛을, 그 렌즈의 산란을 역으로 계산하는 알고리듬으로 다시 원래의 영상으로 변환함으로써(decoding), 초점의 깊이/심도를 소프트웨어 적으로 유연하게 조절하고 사진의 전반적인 품질을 높일 수 있는 기술"인 듯 하다.

Wavefront Coding Technology Diagram

웹사이트에 나와있는 사진은 위와 같이 렌즈 부분을 구체적으로 표시하지 않았고, 다른 특허에서도 "optically-powered unit" 따위의 표현을 쓰고 그냥 단순하게 표시하고 있지만, 좀더 초창기의 문서나 특허를 보면 아래 그림에서의 102번 부품이 말하자면 wavefront encoder 역할을 하는 렌즈임을 알 수 있다.

Wavefront Coding: Patent Image

보통의 렌즈라면 아래 첫번째 그림처럼 초점면에 영상이 제대로 맺히겠지만, 위와 같이 꾸불꾸불한 렌즈를 쓰면, 두번째 그림(빨간 네모 부분을 확대한 것이 세번째 그림)처럼 따로 초점이 없이 산란된 이미지가 입력된다.

Ray from Ordinary LensRay from Wavefront-Encoded LensRay from Wavefront-Encoded Lens: Extended View

이렇게 입력된 디지털 정보를 원래 렌즈의 미리 입력된 곡률을 바탕으로 다양한 초점거리에 따라 다시 펼 수 있다는 건데. ... 솔직히 나는 여기에서 딱 막혔다. 도대체 이게 어떻게 가능한 건지, 빛의 속도보다 빠른 프로세서가 있다면 모를까 완전히 이해불능. 혹시 이 블로그에 오신 분들 중에서 광학이나 영상처리에 대해서 잘 아시는 분 있다면 꼭(!!!) 좀 설명 달아주기 바란다. ㅡmㅡ

어쨋든 이렇게 된단다. (앞에서 미리 이해가 부족하다고 이실직고 했으니 이 정도로 넘어가 주시길.) 실제로 구동부 하나없이 - 액체렌즈도 없이 ;ㅁ; - 초점조절을 하고 있는 걸 직접 봤으니 뭐 할 말 없다.

... 이 정도는 돼야 Breakthrough라고 할 수 있겠지. 휴. 대단하다. 액체렌즈 따위는 저멀리 날려버린 기술인 듯. 아무리 비교해봐도 액체렌즈 연구가 계속될만한 이유를 못 찾겠다. (개인적으로 지지하던 기술이었는데! z(T^T)s )

기술과 관련된 3개의 특허들은 2004년과 2006년에 출원된(filed) 것들로 비교적 최근의 기술이라고 볼 수 있겠다. 콜로라도 대학에서 두 교수가 발명한 기술로 CDM Optics 라는 회사를 차리고, 이 회사가 2005년 OmniVision에 합병되면서 본격적인 제품화가 시작되었던 듯. 특허는 콜로라도 대학 소유지만 이 교수들이 창업한 회사에서 독자적인 행사권을 가지고 있다고 한다.

Touch to Focus: from patent application
개인적으로 흥미로운 것은 2006년 출원된 다른 하나의 특허가 바로 iPhone에 적용된 터치스크린과 초점변동을 다루고 있는데, 그 발명자 이름이 Jess Jan Young Lee로 한국사람이 아닐까 싶다는 점이다. 일전에도 말했듯이 터치스크린으로 초점영역을 설정하는 것 자체는 2005년에 나온 기술이고 특허는 단순히 조합하는 정도의 내용이므로 이 특허가 최종적으로 등록될 것 같지는 않아 보이지만서도. -_-a;;




굳이 Wavefront Coding을 이용한 TrueFocus 기술이 아니더라도, 이 회사의 다른 특허들이나 홍보자료를 보면 카메라가 저조도에 민감하게 하는 방법을 포함해서 꽤 많은 수가 검색되고 있다. 위와 같은 특허를 가지고 있다면 Apple사와 계약할 때 배타적인 조건을 안 넣었거나 시한부로 넣었을 것 같은데, 어떤 경우든지 소형 카메라 센서를 넣어야 하는 제조사에서는 이미 상당히 높은 관심을 가지고 있을 것 같은 기업이다.

최근의 홍보자료를 보면 HD화면을 입력받을 수 있는 카메라 센서도 만들었다고는 하는데, 이 센서들에서도 TrueFocus 기술은 들어간 것 같으니 한번 기대해 봄직 하겠다. 아무리 iPhone 3GS라고 해도 HD 화면이라면 실시간 처리는 어렵겠고, 아마 촬영화면 따로, 저장할 이미지는 나중에 따로 처리하게 될지도 모르겠지만, 그런 뒷단의 애환은 사용자에겐 (그리고 UI 디자이너에겐) 그저 고마울 뿐 큰 관심은 없는 영역이니까. ^^*  (엔지니어 분들 지못미 ;ㅁ; ㅈㅅ )
신고
Creative Commons License
Posted by Stan1ey
전에 AR 기술을 이용해서 가상 피규어를 만든 소프트웨어를 보고 뒤집어진 적이 있었는데, 역시나 언제나 이런 기술을 가장 먼저 도입하는 곳은 인간의 원초적인 본능에 충실한 산업인 것 같다. (개인적으로도 JavaScript가 처음 도입되던 시점에 가장 훌륭한 소스는 '그런' 사이트들이었다;;;) 이번에는 무려 얼굴인식(detection)을 이용해서 좀더 3D스러운 경험을 제공해주는 제품이 소개되었다. (자주 가는 커뮤니티;;;에서 보게 됐다.)



Greeting Sequence of Tech48, by Tea Time
<Tech48> 이라는 다소 촌스러운 이름의 이 제품은 웹캠 영상을 통해서 사람 얼굴의 존재여부와 그 위치를 파악한 다음, 그 방향에 따라 화면 속의 '미소녀' 캐릭터를 상좌우로 돌려주는 방식이다. 동영상 중에는 눈을 마주치네 뭐네 하지만, 사실 눈은 사람 얼굴 여부를 판단하는 특징적/일반적인 특징이기 때문에 인식하는 것 뿐이고, 실제로 "시선"을 인식하는 수준은 아닌 것으로 보인다. (물론 이것도 현재 기술적으론 충분히 가능한 일이고 실제 데모도 많이 나왔다. 실제 눈동자 굴리는 걸 인식하는 게임도 금방 나와줄 듯. 사실 표정인식 기술이나 음성인식도 이런 수준의 상용화라면 얼마든지 대박을 칠 수 있는 준비가 되어 있는 기술이다.)

어쨋든 이전의 ARis와 달리, 사용자가 PC 앞에 앉으면 바로 반응을 보이며 쪼르르 달려와 반겨준다든가 하는 점은 정말 모에~한 면이 없잖아 있다. 하지만 이렇게 그 자체만으로도 훌륭한 기술응용사례를 역사에 남을 걸작으로 만드는 것은 기술 설명 페이지에 들어있는 기술 설명에 사용된 그림들이다.

How Tech48 works, horizontally.How Tech48 works, VERTICALLY!!!

... 조, 좋은 응용이다. OTL... 과연 오타쿠는 위대하다는 생각이 든다. 어쩌면 이 블로그에서 줄창 외치고 있는 UI 입출력 기술과 응용사례의 적절한 만남이 중요하다는 가장 훌륭한 사례일런지도 모르겠다.



Wide-angle Webcam T-CAM for Tech48

이 위대한 HTI 사례를 놓고 (쿨럭 ;ㅁ; ) 감히 기술적인 분석까지 한다는 건 안될 말일지 모르겠으나, 이 사례에는 의외로 재미있는 기술적 트릭이 포함되어 있다. 모니터 자원자를 모집하는 페이지를 보면 위와 같T-CAM이라는 전용(?) 웹캠을 나눠준다고 되어 있는데, 이 웹캠은 광각을 찍을 수 있도록 따로 렌즈를 만들어 박아넣은 모양이다. 웹캠 양쪽에 LED 스러운 부분이 보여서 혹시 IR을 사용하나 싶었지만, 위 동영상 중에 나오는 분석화면이라든가 동영상 중에 IR LED 특유의 색이 나타나지 않는 점 등으로 미루어볼 때 일단은 "증거불충분"에 해당한다.

Face Detection of Tech48

아마 단지 광각렌즈를 채용함으로서 사용자의 얼굴이 극단적으로 상좌우로 움직이는 경우도 대응할 수 있도록 만든 것으로 보인다. 정말 보면 볼수록, 오래간만에 감탄을 금치 못하게 하는 적절한 기술의 적절한 응용사례다.

참고로, 위 웹사이트를 잘 찾아보면 데모버전도 다운로드 받을 수 있다는...
신고
Creative Commons License
Posted by Stan1ey
Nintendo DSi가 일본 외의 지역에서도 팔리기 시작하는 가운데, 관련된 게임을 소개하는 기사에서 뒤늦게서야 아래 그림을 보게 됐다.

WareWare: Snapped! for Nintendo DSi

얼레? 저 전형적인 영상인식 결과 layer는 뭐란 말이냐... 하고, 알아보니 NDS에서는 다양한 터치조작을 미니게임으로 승화시켰던 <WarioWare> 게임 시리즈가 영상인식 미니게임으로도 나왔나 보다. 참 빨리도 알았다... 하며 유투브를 뒤져보니 아니나 다를까 꽤 많은 동영상이 올라와 있다. 아래는 지난 달 말 GDC에서 발표하고 있는 모습.



그냥 간단한 살색인식(살색이라는 표현의 정치적 중립성 여부가 여기서는 문제되지 않는다 ㅋㅋ)을 이용한 게임이지만, 그래도 이전 버전의 <WarioWare>에서 보여줬던 터치입력의 다양한 응용처럼 다양한 가능성을 보여줄 듯 해서 기대가 된다. 혹시 상위 레벨로 넘어갈수록 마이크며 터치며 버튼까지 이용한 멀티모달 미니게임으로 발전이 되는 건 아닐까 싶긴 하지만, 직접 게임을 해보기 전까지는 뭐 그냥 상상해 보는 수 밖에.

GameBoy Advance나 GameCube 같은 예전부터 다양한 미니게임을 모아놓은 게임팩을 발표하더니, 이제 터치에 이어 영상인식까지 넣어서 계속하는 걸 보면 참 대단하다는 생각이 든다. 전통을 꿋꿋하게 이어나가는 점도 멋지고, 그 안에 계속해서 새로운 것을 넣어 발전시키는 것도 그렇고. 다 성공했으니 할 수 있는 일이겠지만, 그 성공의 문턱이라는 것과 이런 근성/자부심/신바람 등은 어느 정도만큼은 닭과 달걀의 문제로 봐야 하지 않을까?

... 이게 과연 Vision UI에 대한 글이어도 되는 걸까?
신고
Creative Commons License
Posted by Stan1ey
얼마전 CES 행사를 통해서, 삼성전자에서 작은 프로젝터 모듈을 탑재한 휴대폰과 PMP(?)를 발표했다.

Samsung Pico Projector (with PMP Functionality)Samsung Pico Projector Phone
Samsung Pico Projector PhoneSamsung Pico Projector PhoneSamsung Pico Projector (with PMP Functionality)

'Pico Projector'라는 이 모듈은 이미 시장에 나와있는 'Pocket Imager'와 같이 LED 광원을 쓰는 프로젝터지만 결국 내부에서 개발하던 것이 아닌 Texas Instrument의 DLP 모듈을 적용했다고 한다. 한편으로는 아쉬운 일이지만, 그래도 세계적인 영향력을 갖는 기업에서 프로젝터 + 휴대기기라는 꿈을 이만큼 구현해서 곧 출시해준다니 좋은 일이다. Pocket Imager 계열은 '들고 다닐 수 있는 고해상도 프로젝터'라는 개념으로 당분간 계속 개발될 것 같기도 하고.
 
Samsung MicroProjector MBP-100Samsung Pocket Imager SP P300MESamsung Pocket Imager SP P400

C-King's Projector Phone
이미 작년에 중국의 C-King 이라는 곳에서 같은 형태의 휴대폰을 선보이기도 했고, 애당초 모듈을 만든 TI에서도 목업이지만 휴대폰이 제안되기도 했기 때문에 사실 혁신적이라든가 할 부분은 아닐지 모른다. 단지 이제까지 1~2년전부터 점점 소형화되고 고해상도를 지원하는 휴대기기용 프로젝터가 드디어 가시권에 들어오는 듯 해서 기대가 된다.



모바일 프로젝션은 오래전부터 꿈꿔온 디스플레이 기술이다. 모바일 기기는 작아야 하고, 그럼에도 화면은 커야 한다. 어떤 집단을 모셔다가 아이디어 회의(브레인스토밍이든 FGI든 T/F든)해도 결국 나오는 게 '둘둘 말 수 있는 디스플레이'와 '프로젝션 스크린'이다. Flexible display도 점차 현실화 되어가고 있긴 하지만, 프로젝션 모듈을 소형화하는 것보다는 더 많은 기간이 필요할 것 같다.

모바일 프로젝션의 기술데모야 보통 위의 사진들처럼 영화나 파워포인트처럼 네모반듯한 멀티미디어 화면을 흰색 벽에 뿌리는 걸로 하지만, 실제로 "모바일 프로젝션"이라고 할 때에는 뭔가 다른 사용상황이 되지는 않을까? 사실 이 네모난 화면은 CRT나 FPD라는 기술의 기술적 제한 내에서 단순히 효율성을 위한 형태였을지도 모른다.

CB感 Reborn 001
개인적으로, 휴대기기용 프로젝터라고 하면 늘 떠오르는 이미지가 있다. 인터넷을 아무리 찾아봐도 "모터사이클 만화"라고만 소개되는 <CB感 REBORN>이라는 SF만화에 보면, 스크린이 아예 사라진 '영상통화 휴대폰'의 사용장면이 나온다. 물론 모바일 프로젝션을 이용해서.

만화 <CB感>에 등장하는 모바일 프로젝션 장면

이때의 모습은 화면이 투사되는 영역이 벽이거나 손바닥, 앞사람 옷 등으로 다양하게 나오고, 영상통화의 맥락도 이동 중이라든가 어딘가에 기대어 있다든가 하는 등 가지각색이다. 요컨대 모바일 프로젝션이 회의실에 설치되어 모두가 하나의 자료 화면을 공유하기 위한 프로젝션이 아닌 것이다.

물론 기존에 PC와 커다란 화면을 통해서 문서와 자료를 함께 보면서 협업한다든가, 영화관과 같은 환경을 꾸며놓고 고화질의 대형 화면에 펼쳐지는 영화를 감상한다든가 하는 것을 휴대폰에 넣을 수 있다면 그것도 분명 기다려지는 미래이다. 하지만 이렇게 이미 비교될 수 있는 완벽한 사례가 있는 분야는 사실 아무리 상대적인 장점을 강조해봐야 결국 무슨 매니아 시장으로 치부되기가 딱 좋은 구도다. 작은 프로젝션 화면을 같이 보려면 거의 머리를 나란히 맞대고 2~3명 정도가 볼 수 있으려나? 그 이상은 힘들 것이다. 아마 5분을 참지 못하고 "그냥 회의실로 가서 봅시다"라고 하는 게 가장 그럴듯한 시나리오가 되지 않을까. 특히 휴대기기는 늘 움직이는 상황에 있기 쉽기 때문에 화면이 안정적으로 벽면에 뿌려지기 위한 색상/위치 calibration 기술(모두 단순히 풀릴 수 없는 문제들이다) 등이 또 추가되어야 할테고 말이다.

그에 비해서 위 만화에서 제안(?)된 UX는 그 용도가 너무 심각하지도 않고 부족하면 부족한대로도 잘 사용할 수 있기 때문에 오히려 휴대기기의 매력을 더해주는 것으로 보인다. 모바일 프로젝션의 사용상황을 좀 더 고민해 본다면, 이번 제품들은 기존 중국회사나 그 모듈을 공급한 회사의 데모를 똑같이 답습하기 보다는 훨씬 더 기대되는 장면도 많이 그려낼 수 있지 않았을까.. 라는 아쉬움이 남는다.



그리고, 사실 모바일 프로젝션은 LED 광원과 DLP 방식의 프로젝션보다 적합한 방식이 있을지도 모른다. 아직 공공연하게 논의되지는 않는 듯 하지만. 일단 LED/DLP 방식이 어느 정도 시장을 증명해준 후에, 그 방식이 후딱 상용화되어 준다면 모바일 사용상황에 보다 적합한 제품이 등장할 수 있을 것 같다.
신고
Creative Commons License
Posted by Stan1ey

Car that Sees.

2009.01.13 09:53

이 블로그에서 (아마도) 다루고 있는 이런저런 기술들을 도입하는 첫번째 플랫폼으로, 배터리 걱정도 기구부 걱정도 적으면서도 여전히 개인 최적화가 가능한 자동차가 적합하리라는 얘기를 한 적이 있다. 그런 사례가 하나 더 생긴 듯 해서 그냥 간단히 적어보려고 한다. 요새 글이 너무 적기도 하고.

Vauxhall (Opel) Insignia

위 사진은 최근 열심히 광고하고 있는 Vauxhall (유럽 다른 국가에서는 Opel 브랜드)의 Insignia라는 자동차의 새로운 모델이다.



TV 광고에 영상인식을 통한 표지판 읽기(사실은 아주 규격화된 속도제한 표시를 중심으로 읽는 것 같으니, 방향표시 같은 건 못 읽을 듯)를 보여주길래, embedded computer가 많이 빨라졌나보네... 하면서 웹사이트에 들어가봤다.


우선은, 광고에 실린 '표지판 읽기' 기능.
Vision Recognition on Insignia
영상인식 기능은 룸미러 뒤에 있는 카메라를 통해서 진행되는데, 밤낮으로 된다고 하는 건 좀 신기하다. 밤에 적외선 영상을 쓸만한 조건은 안 되어 보이는데, 그냥 저런 표시판은 보통 난반사 재질에 그려져 있고 밤에는 전조등을 켜고 다닐테니 어쨋든 보일꺼라는 배짱일까? -_-a;; 게다가 이 모델의 웹사이트를 가보면 전조등이 유달리 좌우로 퍼져있는 모습으로 다시 디자인되어 있기도 하다. -_-+a;;;;;

어쨋든 이 표지판 읽기는 읽어진 표지판을 기억하는 기능을 포함하고 있기 때문에 (그냥 표지판이 지나간 후에도 표시를 지우지 않는 것 뿐이지만;;;) "지금 달리고 있는 도로가 제한속도가 몇이었지?"라는 생각이 들 때 표지판이 나오지 않아도 계기판에 가장 최근에 지나친 속도표지판이 떠 있으므로 편리하다고 하고 있다.


그런데, 그 외에도 '차선 읽기' 기능이 역시 영상인식을 통해 포함되어 있다.
Vision Recognition on Insignia
같은 카메라를 통해서 구현된 이 기능은 자동차의 속도가 40mph (대략 64km/h) 에 다다르면 동작하는데, 차선을 제대로 따라가고 있으면 녹색 등이, 차선을 벗어나고 있으면 붉은 등이 켜진다. 저 분명히 차선을 벗어나고 있는 모양의 아이콘에 녹색이라고 해도 일단 불이 켜지면 사용자는 차선을 벗어나고 있다고 느낄 것 같기는 하지만, 뭐 좋은 UI 기술에 항상 좋은 UI가 따라붙는 건 아니니 아쉽지만 어쩔 수 없겠다.
땅덩어리 넓어 오랜시간 뻥 뚫린 길을 운전해야 하는 나라에서는 비싼 차부터 차선을 따라서 자동으로 핸들을 움직여 주고 앞차와의 거리에 따라 속도를 조절해주는 크루즈 컨트롤 cruise control 기능이 붙은지 오래지만, 아마 이 모델에 포함된 '차선 벗어나면 경고' 기능은 그런 고급 기능이 가지고 있는 책임소재 문제 등을 고려한 적용으로 보인다. 일종의 scalable AI라고 생각되는 건 뭐 눈에 뭐만 보이는 격일까.



어쨋든, 마빡에 카메라 붙이고 (오오... 전두엽으로 퇴화되었다는 제3의 눈인 거냐!!!) 앞길을 보는 자동차가 나왔다.

얼마나 오래전에 나왔는지는 잘 모르겠으나 일단 지금 눈에 띄었으니 스크랩.

신고
Creative Commons License
Posted by Stan1ey

몇시간 전에 끝난 맥월드 키노트는 솔직히 실망이었다. 루머로 돌았던 것들은 (심지어 iPhone nano는 내노라하는 업체에서 벌써 케이스까지 발매하고 있었는데) 하나도 안 나왔는데, 그 덕택에 수많은 블로그 작가들과 YouTube 동영상들은 별 소리를 다 해가면서 실망을 감추지 않고 있다. 개인적으로도 스티브 잡스가 발표장에 안 나서자마자 이렇게 김빠지는 모습을 보이는 것에 대해서는 안쓰럽게 생각한다.

그런데, 전체적으로 맥빠지는 모습에도 불구하고, 발표된 제품 중 한가지는 정말 내 눈을 잡아 끌었다. (아마 이 블로그를 보신 분들은 예상하리라 생각하지만. :)

iPhoto 09 with Face Recognition

바로 iPhoto 09 버전에 얼굴인식("Faces")과 위치조회("Places") 기능이 포함되었다는 소식이다. 이미 iPhoto 08 에서부터 포함된, 촬영시간에 따른 자동 그룹핑 기능("Events")과 함께, 촬영된 사람을 얼굴로 판단해서 검색할 수 있게 해준다거나 지도 상에서 사진이 찍힌 위치를 표시해 주는 기능은 개인이 사진을 관리하기 위해 필요한 이상적인 기능을 마침내 모두 상용화 수준으로 구현했다고 하겠다.

이미 나만 해도 GPS가 달린 iPhone으로 사진을 찍어서 올리면 자동으로 Flickr 지도에 이미지가 표시되도록 하고 있고, 사진 중에서 같은 사람의 얼굴을 찾는 온라인 서비스는 벌써 몇년 전에 나온 적이 있었고(Riya.com인 줄 알았는데, 가보니 뭔가 이미지 검색 중심의 서비스로 바뀌어 있다), Flickr에 올린 사진들을 얼굴 중심으로 대신 tagging해 주겠다는 서비스라든가, Google의 Picasa Web Album에서 같은 기능을 제공하기 시작한지도 1년이 다 되어가는 등... 이 기능들 자체는 아주 새로운 게 아니다. 딱이 대용량 DB 같은 걸 다뤄야 하는 것도 아니니 기존에 서버 기반으로 하던 것을 PC 프로그램으로 만들었다고 호들갑 떨 것도 아니다.

어떤 기능들인지 한번 찬찬히 보자면, 다음과 같다.



결국 Places 기능은 iPhoto 프로그램 자체에 적당한 해상도까지 제공하는 전 지구의 지도를 넣어둔 것 같은데, 이건 참 용단이었다고 생각한다. 쉽게 Google이나 Microsoft와 제휴하는 수도 있었을 테지만, 사실 요즘의 Apple 같아서는 세간의 이목이 있어 그러기도 쉽지 않으려나. Flickr의 Geotagging 서비스를 사용해본 경험으로는 이게 사실 정확하게 찍히지 않던데(일정하게 한쪽으로 밀리는데, 그 방향이 지역마다 다르다. 아마 건물에 의한 GPS 전파 반사와 WiFi hotspot과의 잘못된 조합이 그 원인인 듯), iPhoto 09에서는 얼마나 정확할지가 궁금하다. 사실 데모만으로는 그다지 고해상도 지도까지 zoom in 해주지 않는 것 같고, 그렇다면 10~20m 차이는 눈에 띄지 않을 가능성이 높지만. (잔머리 굴린 거냐, 애플! -_-+ 훌륭하다!! )
(이 부분은 - 아래 리플에서 지적해 주신 것이 맞다 - 완전히 잘못 적었다. 구글 로고가 떡하니 박혀 있는데 뭔 헛소리;;; 단지 구글 맵을 온라인 상태에서만 쓰게 만들었을 것 같지는 않은데, 그렇다면 구글로서는 처음으로 그 DB를 로컬 장치에 저장하도록 한 사례가 될 꺼다. 만일 아니라면 온라인 상태에서만 지도를 볼 수 있을테니 그게 또 문제가 될테고.)

특히 이 Places 기능 중에서 지역들 간의 위계구조를 만들어서 incremental search를 할 수 있게 한 건 정말 훌륭한 발상이라고 생각한다. 단지 GPS 정보가 사진에 들어있다니 그걸로 멋진 기능 하나 만들어보세~라는 생각만으로는 나올 수 없는 부가적인 노력이고, 탁월한 선택이었다고 생각한다.


그에 비해 Faces 기능은 딱이 뭐 꼬집어 말할 게 없다. 얼굴인식을 이용한 사진 정리...라는 걸 생각하고 얼굴인식 엔진을 위한 효율적인 학습방법을 생각한다면, 가장 효율적으로 사용할 수 있는 방법을 잘 제시했다고나 할까. 얼굴인식을 하기 위한 UX(사용방법; UI; 기능)는 다음과 같이 설계되어 있다. (자세한 내용은 위 동영상이나, 애플 웹사이트에서의 동영상 안내를 보는 게 좋겠다.)

① 사진을 보면, 얼굴 위치는 자동으로 찾아져 있다.
--> 얼굴을 못 찾거나 위치가 잘못됐다면 수동으로 영역을 지정할 수 있다.
② 사용자가 얼굴 아래에 이름을 넣는다.
③ 한번 등록된 얼굴은 다른 사진에서 인식되면 이름이 나오지만, 사용자가 확정(confirm)하지 않은 상태로 표시된다.
--> 사용자는 확정버튼을 클릭하거나, 올바른 이름을 다시 등록할 수 있다.
④ 각각의 사진에 들어있는 각각의 얼굴들은 자동으로 인식/표시되며, 사용자는 여러 장의 사진/얼굴을 손쉽게 확정할 수 있다.

iPhoto 09 with Face RecognitioniPhoto 09 with Face RecognitioniPhoto 09 with Face Recognition

사실 주어진 조건 - 영상인식은 조명조건, 촬영각도, 그림자 등 많은 요인에 의해서 영향을 받는데, 특히 대동소이하게 생긴 인류의 얼굴을 판별해야 하는 얼굴인식은 두말할 필요 없이 어려운, 오인식이 발생하기 쉬운 상황이다 - 에서, 상당히 깔끔하게 잘 풀어낸 UI 디자인이라고 생각한다. 데모에서야 대부분 정면을 보고 있는 모습이니 인식이 잘 되고 있고, 딱 한번 보여주는 오류는 옆모습이니 그런가보다 하지만, 실제로는 어느 정도 돌아가거나 (누워있는 사진이라든가) 드라마틱한 각도에서 찍었거나 멀리서 찍었다거나 하는 경우에는 인식오류가 점점 문제시될 거고, 미안한 얘기지만 흑인 같은 경우에는 배경에 피부색과 비슷한 어두운 색이 많을 경우에는 실제로 인식률이 많이 떨어질 수 있다. 업계라면 이걸 보정하려고 적외선도 쓰고 카메라를 2개도 쓸 수 있지만, 일반적인 디지털 사진에 그런 정보가 있을리 없으니까. (사실 DSLR 같은 기기에서 쓰는 raw 포맷을 분석하면 적외선 대역이 조금씩은 들어있을 수도 있지만... 뭐 귀찮고 쓸 수 있는 수준이 아닐 수 있으니 통과 -_- )

하지만 뭐 이런저런 뻔히 예상되는 인식오류와 거기에 대한 거부감(Apple 쯤 되면 인종차별 소송 하나쯤 터지지 않을까나)에도 불구하고, 이런 기능을 가진 소프트웨어가 사용자의 PC에 깔릴 거라는 건 HTI의 긍정적인 측면에서도 부정적인 측면에서도 기대되는 사건임에 틀림이 없다.



얼굴인식과 위치인식을 이용한 사진앨범 관리 서비스... 사실은 같은 내용으로 6년 전쯤에 특허를 냈다가 담당자한테 퇴짜맞은 적이 있는데, 그 때의 지적이 맞는지 아직까지도 이 당연하고 훌륭한 조합에 대해서 제대로 아우르는 특허가 없다. 분명히 이 경우에도 상호보완 multimodal disambiguration 이 가능할테고, 즉 그 장소에 없을 것 같은 얼굴이 인식되거나 하면 그 적확률을 좀 낮춰본다든가 하는 내용(4차원 데이터 구조라도 나와야 하는건가... ㄷㄷㄷ )은 특허가 될 텐데 말이지. 뭐 그것도 그때라면 모를까 지금은 '이미 나온 서비스에 단순한 부가 조합'이 되겠네.

어쨋든 이런 특허 없는 서비스조차도, 왜 우리나라 기업에서 먼저 만들었다는 소리를 듣지 못하는지 모르겠다. 뭐가 IT 강국이야... 남들이 만든 표준에 남들이 제시한 방향으로 죽어라 따라잡기 바쁜데.

아 맞다. 이제 정부에서 IT 분야는 도움 안 된다고 지원 줄인댔지. ㅎㅎㅎ
신고
Creative Commons License
Posted by Stan1ey

PhotoSynth in CSI NY

2008.10.29 18:09
CSI 라는 미국 드라마 시리즈에서는 많은 과학적 지식을 범죄수사에 활용하는 장면이 나온다. 추리극도 SF도 좋아하는 나로서는 꽤나 좋아라하며 챙겨보고 있다. 얼마 전 TV에서 해주는 CSI NY을 보다가, Microsoft PhotoSynth가 사용되고 있는 걸 보고 재미있다 싶어서 스크랩해 두려고 한다.

이곳으로선 이미 한참 늦은 방영이기 때문에, 구글을 뒤져보니 이미 이 장면에 대한 많은 글들이 올라와 있다. 심지어 YouTube에는 해당 장면의 동영상이 올라와 있을 정도. 감사히 가져다 쓰자. -_-;;;



Microsoft PhotoSynth in CSI NY s04x18
인터넷을 박박 뒤져보니 시즌 4의 18번째 에피소드라고 한다. PhotoSynth에 대한 설명이야 따로 필요 없겠고, 단지 선배의 한 마디 "Build me high school gym."에 저렇게 서로 다른 사양의 디카/폰카들에서 사진을 뽑아서, PhotoSynth를 설치하고 업로드하고 사진들을 연결하는 고된 과정을 거친 저 쫄따구가 불쌍하다는 생각은 들었다. 어떻게 저렇게 많은 사람이 우글거리는 (즉, 사진마다 위치가 달라지는) 상황에서 모두가 가만히 있는 것처럼 3D 영상이 만들어질 수 있는지는 뭐 극적인 재미를 위해서 그럴 수도 있겠다 싶지만. 아마 실제 촬영시에는, 모두 움직이지 말라고 하고 여러 사람이 디카 들고 돌아다니면서 찍어대지 않았을까 싶다. ㅎㅎㅎ
신고
Creative Commons License
Posted by Stan1ey

BLOG main image
by Stan1ey

카테고리

분류 전체보기 (347)
HTI in General (45)
User eXperience (11)
Voice UI (50)
Vision UI (14)
Gesture UI (25)
Tangible UI (28)
Robot UI (14)
Public UI (9)
Virtuality & Fun (56)
Visual Language (15)
sCRAP (70)

글 보관함



www.flickr.com
This is a Flickr badge showing public photos and videos from Stan1ey. Make your own badge here.