PhotoSynth in CSI NY

2008.10.29 18:09
CSI 라는 미국 드라마 시리즈에서는 많은 과학적 지식을 범죄수사에 활용하는 장면이 나온다. 추리극도 SF도 좋아하는 나로서는 꽤나 좋아라하며 챙겨보고 있다. 얼마 전 TV에서 해주는 CSI NY을 보다가, Microsoft PhotoSynth가 사용되고 있는 걸 보고 재미있다 싶어서 스크랩해 두려고 한다.

이곳으로선 이미 한참 늦은 방영이기 때문에, 구글을 뒤져보니 이미 이 장면에 대한 많은 글들이 올라와 있다. 심지어 YouTube에는 해당 장면의 동영상이 올라와 있을 정도. 감사히 가져다 쓰자. -_-;;;



Microsoft PhotoSynth in CSI NY s04x18
인터넷을 박박 뒤져보니 시즌 4의 18번째 에피소드라고 한다. PhotoSynth에 대한 설명이야 따로 필요 없겠고, 단지 선배의 한 마디 "Build me high school gym."에 저렇게 서로 다른 사양의 디카/폰카들에서 사진을 뽑아서, PhotoSynth를 설치하고 업로드하고 사진들을 연결하는 고된 과정을 거친 저 쫄따구가 불쌍하다는 생각은 들었다. 어떻게 저렇게 많은 사람이 우글거리는 (즉, 사진마다 위치가 달라지는) 상황에서 모두가 가만히 있는 것처럼 3D 영상이 만들어질 수 있는지는 뭐 극적인 재미를 위해서 그럴 수도 있겠다 싶지만. 아마 실제 촬영시에는, 모두 움직이지 말라고 하고 여러 사람이 디카 들고 돌아다니면서 찍어대지 않았을까 싶다. ㅎㅎㅎ
신고
Posted by Stan1ey
본의 아니게 시리즈물이 되어 버렸다. ㅡ_ㅡa;;

PC World에서, 며칠 전에 언급했던 G1 폰에서의 15개 주요 어플리케이션에 대해서 소개했다. 알고보니 구글에도 소프트웨어를 구입할 수 있는 서비스(Android Market)가 있어서 현재 50개의 어플을 다운로드 받을 수 있고, 1년간은 공짜라고 하니 어쩌면 전에 지적했던 것과 iPhone에 비한 단점은 좀더 적을지도 모르겠다. 게다가 공짜 어플이라고 해도, 이 어플들이 예전에 Android 어플개발 컨테스트를 위해서 전세계 개발자들이 열심히 만들어 제출한 거라는 걸 생각해 보면 그 품질도 Apple AppStore의 공짜 어플과는 격차가 있을지도.

링크된 기사에서 소개하고 있는 어플 중에도 HTI 어플이라고 할 수 있는 게 꽤 있는데, 이를테면 홍채인식으로 주인을 확인한다던가 (근데 이게 모바일 폰 카메라의 해상도로 제대로 가능한 건가? -_-a;; ), 바코드를 영상인식해서 비교쇼핑과 연결한다든가 (clever.. 가게에선 싫어하겠다 -_- ) 하는 서비스가 그렇다. 자신의 GPS 위치정보나 심지어 친구/주변사람들의 정보를 이용한 LBS 서비스들은 당연히 다양하게 제공되고 있고. (왠지 LBS가 벌써 유행 지난 것처럼 말하고 있잖아 -_-a;; )

Google Android Apps - BioWallet with Iris Verification

BioWallet (홍채인증)

Google Android Apps - ShopSavvy with Barcode Recognition

ShopSavvy (바코드인식)


여전히 멀티터치나 가속도센서를 잘 쓰고 있지 않은 건 좀 의아하기도 한 부분이지만, 어쨌든 구글이 Android Market을 애플의 AppStore 만큼 활성화시킬 수 있을지 기대가 된다. OS를 낱낱이 공개한만큼 더 강력한 어플이 나타나줄 것 같기도 하고, 반대로 너무 공개해 버려서 인터넷 그 자체처럼 그냥 그대로의 쓰레기장이 될까봐 걱정되기도 하고. 자세한 건 Android Market을 좀더 자세히 보고 moderation 방식을 좀 알아봐야 하겠으나... 쉽게 알아볼 수 있는 방법도 없으니 그냥 접기로 했다. ㅋㅎㅎ
신고
Posted by Stan1ey

... 뭐, 그런 논리적이고 설득력 있는 연유로 해서 ( '-')y~, 휴대폰 없는 생활에 지겨워진 어느 날 iPhone을 질러 버렸다. ㅡ_ㅡa;;; 한 이틀 잘 가지고 놀다보니, 인터넷으로 지겹도록 예습한 iPhone 자체의 기능들보다 AppStore에서 다운로드 받을 수 있는 소프트웨어 중에 재미있는 게 너무 많아서 즐거운 비명을 지르는 중이다. 탑재하고 있는 센서와 네트워크 기능, 게다가 뛰어난 그래픽 엔진까지 달려 있으니 뭐 아이디어와 열정과 욕심이 있는 엔지니어들이 얼마나 신이 나서 만들었는지가 보이는 느낌이랄까.

이런저런 재미있는 장난감들이 있지만, 그 중 다음 몇가지 어플은 어떤 식으로든 센서로부터의 입력 신호를 바탕으로 패턴을 인식해서, 그걸 사용자로부터의 암시적 입력으로 사용하는... 뭐 결국은 HTI 어플이라고 할 수 있는 것들이다. AppStore에 올라와 있는 것들 중 전부는 아니겠지만, 그래도 제법 많이 뒤져서 찾아낸 거다.

My Collection of iPhone HTI Apps


1. Movies
iPhone Apps - Movies
iPhone Apps - Movies
영화를 검색하고, 현재 위치에서 가까운 극장에 대한 상영정보와 함께 영화 정보나 예고편을 볼 수 있는 어플이다. 현재 위치를 사용할 수도 있고, 임의의 다른 지역을 '디폴트 지역'으로 설정할 수도 있다. 위치 정보를 이용하는 모든 어플들은 처음 시작할 때 "위치 정보에 대한 접근을 허락하겠느냐"는 확인을 하게 된다. 등록된 영화정보가 많다보니 이 지역과 관련이 적은 영화도 올라와서 걸러내기가 힘들긴 하지만, 그래도 평점 같은 정보는 정말 도움이 많이 될 듯.


2. AroundMe
iPhone Apps - AroundMe
iPhone Apps - AroundMe
마치 LBS의 표본 같은 어플로, 그야말로 사용자의 현재 위치에 기반해서 알려줄 수 있는 유용한 지점 정보를 (구글에 등록된 항목들을 바탕으로) 검색해서 나열해 준다. 카 내비게이션에서 종종 보이는 POI 표시/검색 기능과 비슷하다고 할 수 있는데, GPS로 인해 정확한 위치가 가능하니 얼마나 앞에 있는지를 정확하게 보여주고 구글 맵 지도 위에서 확인할 수 있게 해 준다. 물론 구글 맵 위에는 내 GPS 신호의 위치가 함께 표시가 되니까, 예전에 동영상으로 숱하게 찍어냈던 ubicomp 서비스가 이제 이만큼이나 구현되어 있구나... 하는 느낌이다. 실제로 언젠가 봤던 노키아의 기술비전 동영상 (뭐 왠만한 회사에서는 다 동일한 내용이 있었던 것으로 기억하지만 -_- ) 속에서처럼, 친구들이 서로의 위치를 확인할 수 있다든가 하는 어플도 나와있는데, 무료가 아니라 패쓰. ㅋㅋ


3. SnapTell
iPhone Apps - SnapTell
iPhone Apps - SnapTell
아이폰 어플 중에 영상인식을 사용하는 게 있는 걸 보고 많이 놀랐다. 인식용으로 사용하기에 카메라의 화질도 별로고, 아무래도 모바일 환경에서 찍힌 사진에는 인식을 방해하는 요소가 많이 포함되기 마련이니까. 이 어플은 책/영화포스터/CD표지 등을 찍으면 그에 대한 평과 관련 정보를 보여주는 기능이 있는데, 미국에 출판되었을 법한 책을 하나 집어서 찍어보니 꽤 정확하게 인식하고 있다. 단지 광고와 달리 영화포스터는 몇 개를 해봐도 정보가 없었고, 게임 CD도 인식하지 못했다. 그래도 예전에 언급한 Evolution Robotics사의 기술과 유사한 게 적용되어 있는지, 배경만 깔끔하다면 조금 삐딱하게 찍어도 되는 것 같고, color histogram 같은 게 아니라 제대로 윤곽선 따서 하는 듯 하다. 흑백으로 복사한 책 표시를 인식시켜봐도 똑같이 검색이 되는 걸 보면. ^^; 기왕이면 내가 찍은 사진과 검색된 책 표지를 같이 보여주면 좋을텐데, 검색이 성공했을 경우엔 그걸 확인할 방법이 없으니 간혹 엉뚱한 책이 검색됐을 때 왜 그랬는지를 추정할 수가 없다. (일반 사용자 용의 기능은 아니겠지만 -_- )


4. Evernote
iPhone Apps - Evernote
iPhone Apps - Evernote
사진을 찍어서 저장하면 사진에 포함된 글자를 인식해서 단어로 검색할 수 있게 해준다고 하길래 얼른 설치한 어플이다. 기능은 로컬이지만 결국 영상인식은 위의 SnapTell과 마찬가지로 서버에서 하는 듯, 사진을 등록할 때마다 꽤나 시간이 걸린다. 그런데도, 사실은 인식의 난이도를 넘넘 낮춰가며 여러가지를 시도해봐도 인식이 된 적이 없다. 엔진의 문제인지 뭔지는 몰라도 마치 사장 데모 만큼이나 감감 무소식에 뭐가 잘못 됐는지도 알 수가 없어서 그냥 포기했다.


5. Cactus
iPhone Apps - Cactus
iPhone Apps - Cactus
iPhone Apps - Cactus
iPhone Apps - Cactus
iPhone Apps - Cactus

음성인식 어플이 나와있었다! 그것도 무료로! Cactus Voice Dialer라고 되어 있는 이 어플은 주소록의 이름을 인식해서 전화를 걸어주는데, 전화기에서 VUI의 첫번째 응용이라고 볼 수 있는만큼 좋은 징조라고 생각한다. 무료 어플이긴 하지만 음성인식 다이얼링에 필요한 기능과 옵션들을 두루 잘 갖추고 있고, 음성인식 오류를 최대한 줄이기 위한 지침도 역시나 '아무도 읽지 않을 장문으로' 꼼꼼히 적혀 있다. 실제로 여러 영어이름을 넣어 실험해 보니 처음에는 indexing을 하는지 좀 오래 걸리지만 다음부터는 더 빨리 구동되는 듯 하고(600명 정도 넣었을 경우), 인식률은 그다지 높은 편이 아니었다. 전화번호까지 넣고 해본 게 아니고, 아무래도 실험참가자의 영어 발음이 알아듣기 힘들었던지라 그다지 공정한 판정은 아니라고 해도. -_-
VUI 자체는 가장 일반적인 방식, 즉 Push-to-Talk 방식의 터치 버튼("Speak")을 채용하고 결과를 1개 혹은 옵션에서 선택하면 3개까지 보여주는 식이다. 인식결과에 대해서 무조건 전화를 걸게 한다든가, 인식결과에 나온 사람의 대표 번호를 디폴트 선택으로 할 것인가 라든가 하는 것도 voice dialer를 표방한 이상 들어갈 수 밖에 없는 기능들. 하지만 인식기 자체는 위 그림에서 보이듯이 "Call John Smith's mobile" 따위의 최소한의 구문은 인식할 수 있도록 되어 있다. (IBM에서 VoiceSignal로 넘어오는 대표적인 '전화걸기' 구문 되겠다) 비록 시각적인 (그리고 아마도 인식엔진의) 완성도는 떨어진다고 해도, 이만큼 충실하게 만들어진 어플이 무료로 배포되다니, 정말 유료로 살 정도의 시장은 없는 건가... OTL..


6. CenceMe
iPhone Apps - CenceMe
iPhone Apps - CenceMe
iPhone Apps - CenceMe
이게 또 재미있는 어플이다. 가속도 센서의 입력을 가지고 각 방향으로의 강도와 빈도를 분석해서 사람이 어떤 행동을 하고 있는지, 즉 소위 말하는 "사용자 행동 정황"을 파악하겠다는 시도는 많은 연구가 이루어져 있다. 대부분의 취지는 뭐 휴대단말이 사용자에게 전달할 메시지가 있을 때 그 적절한 '끼어들기' 타이밍을 좀 판단하겠다는 거다. 이메일이 왔다거나, 전화가 왔다거나 하는 메시지가 대표적이고, 소리로 알릴지 진동으로 알릴지 나중에 알릴지 등등의 판단을 유도하곤 한다. 이 어플은 정확히 똑같은 일을 하면서, 그 '정황'을 무려 내 계정의 FaceBook에 연결시켜 보여준다. 이 정황은 2가지 아이콘으로 보여지는데, 앞의 것은 자동으로 업데이트되고, 뒤의 것은 자기가 원하는 아이콘(정황을 보여주는)으로 바꾸거나 사진을 찍어 올릴 수 있다. 덤으로 위치 정보까지 같이 올려주는 모양인데, 어떻게 보면 상당한 사생활 공개라고 하겠다. ㅡ_ㅡa;;;
CenceMe Application on FaceBook
그래도 공짜니까 받아서 여러가지를 테스트해 봤는데, 오른쪽 그림의 몇가지는 어느 정도 잘 인식하고 있었다. (실험 과정에서 룸메이트가 항의하는 사태가 있었다;;;) 이 어플의 문제는 어플이 떠있는 동안에만 센싱 및 업데이트가 된다는 점이 아닐까 한다. FaceBook 업데이트하려고 이 어플만 띄워놓고 다닐 사람은 없을테니까.  그 외에도 아주 심각한 문제를 하나 안고 있는데, 정작 그 사용자는 이런 행동을 하는 동안 자기 FaceBook에 뭐가 표시되고 있는지를 볼 수 없을 거라는 거다. 실제로도 열심히 뛰고 헉헉 거리면서 바로바로 캡춰하지 않으면 위의 장면들도 얻기 힘들었을 거다.


7. WritePad
iPhone Apps - WritePad
iPhone Apps - WritePad
IUI 분야의 선구자 중 한 분라고 생각하는 IBM의 한 연구자가 십년 너머 연구해 온 터치스크린 키보드가 있다. 처음에는 ATOMIK 이라고 부르면서 입력시의 동선을 최적화 시킨 새로운 키보드 배치를 제안했는데, 요즘은 SHARK 라는 이름으로 바뀌고, 배치도 결국 사람들에게 익숙한 QWERTY 자판을 쓰고 있다. 이 연구를 상업화한 것이 ShapeWriter 라는 회사이고, 이 어플은 실제 사용할 수 있도록 개발/공개된 첫번째 상품(?)이다. 아이폰의 다른 기능과 그다지 어울리지 않아서 데모 소프트웨어와 다른 점은 모르겠지만, 그래도 최근 Google Android 위에서도 개발되는 등 활발한 활동을 보이고 있다. 실제로 이 '그려서 글자입력' 방식을 써보면 꽤 편하고 무엇보다 빠르다는 걸 알 수 있는데, 터치스크린이 손가락을 가리는 단점을 잘 극복한다면 (아이폰의 기본 GUI scheme만으로 가능할거다) 이 터치스크린 시대에 잘 맞는 새로운 표준이 될 수도 있을 듯 하다. (뭐 이런 류의 연구가 늘 그렇지만, 한글입력은 아직 지원하지 않는다 -_- ) 위 회사 웹사이트에 가면 상당한 정보가 있으니, 관심 있으신 분은 가봄직하다.


8. PanoLab
iPhone Apps - PanoLab
iPhone Apps - PanoLab
이 어플은 사실 HTI, 혹은 인식기반의 어플이라고는 할 수는 없다. 하지만 여러 장의 사진을 이어붙여 파노라마 사진을 만드는 과정에서, 그냥 평면적인 조합이 아니라 iPhone 카메라의 고정된 화각과 초점거리를 적용해서 구면 상에서 합성하도록 되어 있는 어플이다. 그 덕에 사진 바깥쪽의 왜곡에도 불구하고 좀 더 잘 겹쳐지는 것 같기는 한데, 사실은 아무래도 정확할 수 없어서 뭐 있으나 마나 하다. 그래도 그렇게 합성한 사진을 저장하고 바로 보낼 수 있는 점은 확실히 장점이어서, 돌아다니다가 본 풍경을 공유하거나 할 때 유용할 듯.


9. LlamaLight
iPhone Apps - LlamaLight
PDA를 쓰던 시절에 가장 유용한 필수어플이었던 PalmMirror (화면을 검게 표시해서 얼굴이 비친다;;)와 PalmLight (화면을 하얗게 표시해서 조명으로 쓸 수 있다;;)를 기억한다면, 이 어플에 대한 설명은 왼쪽 화면 만큼이나 단순하다. 단지, 터치하는 위치에 따라 색과 밝기를 바꿀 수 있다는 정도가 다른 점이랄까. 하지만 이 "가장 단순한" 기능을 HTI 기반 어플로 언급하는 이유는 그 플래시 기능 때문이다. 한가지 색상을 선택한 후에 다른 색상 위치를 서너번 같은 간격으로 tap 하면, 그걸 인식해서 그 간격대로 두 색을 번쩍번쩍하는 기능인데, 그냥 버튼 하나 둔다든가 한 게 아니라 터치 간격을 입력으로 받아들이게 한 게 재미있다. 사용법이 너무 숨겨져 있다든가, 사실은 뭐 인식이랄 것도 없을 정도로 단순한 기술이라는 게 좀 그렇지만, 그래도 기능의 단순함에 비하면 훌륭한 HTI 적용이라고 본다.




여기까지가, 현재의 Apple AppStore에서 무료로 구할 수 있었던 9가지 HTI 어플들이다. 정도의 차이는 있고 어쩌면 못 본 어플이 있었을지도 모르겠지만 그래도 꽤 재미있는 콜렉션이라고 생각해서 한번 정리해 봤다. 이 외에도 게임들을 보면 재미있는 기능들이 넘치도록 많지만, 오히려 너무 많아서 뭘 어떻게 봐야 할지 모르겠다.

Chinese Character Input on iPhone
한편으론 기본적인 iPhone 기능 중에서도 GPS를 지도 상에 표시하는 방법이라든가 (정확도에 따라 표시가 다르고, 지도 상의 길을 기준으로 위치를 보정하는 것 같다.), 중국어 입력에 한해서는 필기입력이 가능하다든가 (왼쪽 그림) 하는 점도 HTI의 적용이라고 볼 수 있겠지만, 뭐 너무 널리 알려진 기능들은 또 말하는 재미가 없으니까.

신고
Posted by Stan1ey
일전에 소개했던 Fraunhofer 연구소의 iPointer Presenter (iPP)라는 동작기반 UI가, NextFest 2008에서 실체를 좀더 드러낸 모양이다. 연구소 홈페이지를 보면 제법 자세한 이야기와 함께 동작원리를 설명하는 동영상을 볼 수 있다.



iPoint Presenter in box
흠, 결국 전송거리가 짧은 적외선의 특성을 이용해서, 하얗게 반사된 손 영상을 영상처리를 통해 인식하고 그 동작이나 포인팅을 인식한다는 건데... 사실 이건 그동안 국내외 대학은 물론 영상처리 한다는 곳에서는 모두 다 하고 있던 방식인지라, 그걸 굳이 하나의 상자 안에 넣었다는 것 외에는 (embedded인지 그냥 안에 PC가 들어있는 건지조차도 모르겠다) 차이가 전혀 없어 보인다.

뭔가 새로운 방식을 기대했던 입장으로는 조금 맥이 빠질 정도이고, 저 방식이라면 어차피 해상도 문제, 초기조정 calibration 문제, 햇빛이 들어오면 어쩔건데 등등 쉽게 해결되지 않을 문제가 여전히 산재해 있으므로 관심도 싹 사라질 지경이다. 비록 동영상은 그럴 듯 하게 만들어져 있지만, Y축 방향의 포인팅 측정과 실제 초기화는 어떻게 하고 있을까 걱정이 다 된다. 알아서 "잘" 하겠지만서도.

어쨌든, 더이상 뭔가 나오지 않는다면 이 연구과제에 대한 이야기는 여기까지.
신고
Posted by Stan1ey
서울시립미술관에서 전시 중인 "서울 국제 미디어 아트 비엔날레"를 다녀왔다. 서울을 '미디어 시티'로 만들겠다는 계획 덕택에 종종 재미있는 걸 보게 되는데, 아무래도 행정조직을 끼고 하는 일이다보니 소재나 규모, 형식 같은 측면에서 한계는 좀 보인다고 해도 여전히 감사한 일이다.

Seoul International Media Art Biennale - Turn and Widen, Light / Communication / Time

전환과 확장, 그리고 빛/소통/시간이라는 두가지 주제(어느 쪽이든 하나만 할 것이지 -_- )를 가지고 전시되고 있는 이번 전시에서는 기존의 미디어 아트 작품들에 비해 기술이 훨씬 다양하게 적용된 작품이 많아서 재미있었다. 특히 센서나 다른 기술들이 적용되기 시작할 때의 미디어 아트는 기술을 있는 그대로 - 즉, 센서는 스위치 대신, 프로젝터는 화면 대신, 홀로그램은 실체 대신 - 사용하고 있었지만, 이번의 전시에서는 그러한 기술들을 "작품 상의 표현"을 위해서 어떻게 사용해야 할 지에 대해서 많은 고민을 한 흔적을 보여주고 있다.

이번 전시에서 특히 흥미롭게 본 몇 가지가 인터넷에 올라와 있길래 올려본다.
... YouTube 대단하다... -.-+



우선, Pablo Valbuena라는 스페인 작가의 "증강된 조각 Augmented Sculpture" 이라는 시리즈 작품이다.



제목 자체가 'augmented'를 포함하고 있는 걸 봐도, 이 조각가(?)는 증강현실(AR) augmented reality 기술을 통해 작품을 고안해낸 게 분명하다. 흰색 물체 위에 프로젝터를 이용해서 표면질감을 투사하는 것은 AR 분야의 응용분야에서 많이 사용하는 방법이기도 하고. 이 조각에서는 프로젝션이 가능한 3면으로만 이루어진 입체 위에 빛과 색이 표현할 수 있는 모든 것을 "가상으로" 투사함으로써 그 존재감을 극대화하고 있다.

이 전시에서 개인적으로 가장 좋았던 장면은, 동영상에서는 뒷부분에 나오는 가상 광원이다. 조각이 있는 공간 어딘가에 가상의 광원이 있어서, 그로부터 나오는 빛이 조각을 비추는 모습을 투사하여 마치 그 광원이 눈에 잡히는 듯 하다. 멀리서 쏟아지는 빛으로 인해서 생기는 그림자도 멋있는 연출이었지만.

사실 (아마도) 간단한 3D 모델링 프로그램과 기본적인 애니메이션 도구만 가지고 만든 것 같은 영상물이지만, 그 연출이나 기술의 응용 측면에서는 정말 박수가 나오는 작품이었다. 기왕 하는 거, 이제 카메라를 이용한 인터랙티브한 측면을 보여주면 어떨까? ㅎㅎ



다음으로 인상적이었던 - 그리고 YouTube에 올라와 있는 - 작품은, Christa Sommerer와 Laurent Mignoneau라는 유럽 작가들의 "생명을 쓰는 타자기 Life Writer"라는 작품이다.



화질이 안 좋아서 느낌이 별로 안 오긴 하지만, 오래된 타자기의 자판과 종이를 앞뒤로 움직이는 다이얼, 좌우로 움직이는 레버에 각각 센서를 달아서 연결된 종이(스크린)에 투사하는 내용을 조작할 수 있도록 한 작품이다. 실제로 타이핑을 하면 글자가 찍히는데, 그걸 종이 끝에서 기어오는 "가상의" 벌레들이 집어 먹는다. 곧 벌레가 마구 몰려와서 글자를 치는 족족 집어 먹는데, 이럴 땐 다이얼을 돌려 종이를 올려보내면 벌레가 같이 밀려가기 때문에 잠시동안이나마 편하게 글자를 칠 수 있다.

... 이렇게 만들어 놓고 "Life Writer"라는 제목을 붙인 작가의 센스도 참 마음에 들거니와, 타자기를 치거나 다이얼을 돌리거나 레버로 타자기를 원위치 시킬 때, 각각 그에 맞는 동작과 소리를 내도록 한 그 노고가 참 훌륭하다. 다양하고 많은 수의 센서를 조합하는 것도 힘들었을 텐데, 그러면서도 완성도가 참 높은 구현사례랄까. (예술작품을 예술작품이라 부르지 못하고... OTL... )



끝으로, 우리나라 작가 중에서는 서효정 작가의 "테이블 위의 백설공주 Snow White on the Table"라는 작품이 눈에 띄었다.



흠... 사실은 동영상을 찾지 못했다. 위 동영상에서는 테이블 위의 터치센서 혹은 광센서를 이용해서 그냥 다양한 배경이 그려진 흰 테이블 위에 그림자 애니메이션 같은 것을 보여주고 있는데, 이번에 전시된 작품은 배경이 마치 소박한 무대배경처럼 두툼한 판으로 만들어져 세워져 있었고, 손으로 터치하는 방식이 아니라 직접 백설공주의 인형(피규어 샵에서 구입한 것을 바탕으로 만들어서, 하얗게 칠한 듯한 형태였다) 을 움직여 적당한 장소에 갖다놓으면, 광센서가 이를 인식해서 위 동영상과 같은 이야기를 보여주는 방식이었다.

프로젝션을 이용하면 어차피 쏟아지는 빛과 광센서를 조합하는 건 종종 있었던 일이라고 해도, 흰색의 백설공주 인형을 이용함으로써 진짜 기가 막힌 연출이 가능하게 되었다. 인형을 센서 위치에 올려놓으면, 그 인형의 "그림자"가 투사되고, 그 백설공주의 그림자가 움직여 그림자 애니메이션 속으로 들어가는 것이다. 그럼으로써 내가 움직인 인형이 로봇처럼 움직이지 않아도, 그 그림자를 매개로 이야기 속의 공간과 내가 사는 공간은 아주 잘 연결되어져 버린다.



그 외에도 국내 포털의 동영상 사이트를 뒤져봐도 많은 동영상이 나온다. 그 중에는 프로젝션을 복잡하게 구성해서 존재하지 않는 스크린을 마치 존재하는 듯이 보여주는 작품도 있고, 심지어 심박센서를 이용해서 그림을 그리는 듯 보여주는 (사실 작년에 HCI 학회에서 본 작품의 좀더 큰 버전이었지만) 작품도 있다. 하지만 우리나라로부터의 동영상 스트리밍은 영국의 느려터진 인터넷으로는 볼 방법이 없으니 올려봐야 뭐. ㅡ_ㅡa;;;

예술 분야에서도 이제 이런 입출력 기술을 마음대로 활용하고 있다는 생각이 든다. 예전처럼 그냥 가까이 가면 움직인다든가 하는 수준이 아니라, 그걸 이용해서 정말 인간의 감성을 건드리는 작품, 진짜 그 기술이 아니면 이런 걸 어떻게 표현할까 싶은 그런 작품이 나오고 있는 것이다.

예전에 터치스크린을 이용해서 연못과 금붕어들을 표현한 작품이 국내에 전시되고 2~3년쯤 뒤에 터치스크린 휴대폰을 위한 UI 기반기술 연구에 들어가면서, 그와 유사한 바탕화면 특허들이 국내외에서 확인이 되고 그 아이디어가 꽤나 칭찬받았던 적이 있다. 애당초 그 작품을 만들었던 작가가 그와 매우 유사한 휴대폰 바탕화면을 보고 어떤 생각을 했는지는 모를 일이지만, 앞으로 2~3년... 아니 그보다 훨씬 짧게, 이번 전시에 사용된 센싱 및 정보표시 방법들이 어느 곳에서 어떤 반응을 일으키게 될지 궁금하다. 남이 뿌린 씨앗이더라도 그게 싹을 틔우고 자라는 걸 보는 건 흐뭇한 법이니까. ㅎㅎㅎ (쩝 :d )
신고
Posted by Stan1ey

증강현실 AR 연구로 유명한 곳을 꼽으라면 반드시 Sony CSL의 Interaction Lab.이 포함된다. 이 연구소에서 나오는 연구들은 상당히 잘 포장되어 있기 때문이기도 하지만, 가전회사와 연결되어 있는 만큼 상용화를 염두에 두고 만들어진 프로토타입도 많을 뿐만 아니라 실제로 상용화되는 사례도 적지 않기 때문에 많은 주목을 받곤 한다. 그럼에도 불구하고 회사 내부에서는 수시로 존폐가 논의되고 성과에 대한 압력을 받고 있다는 건 - 랩장인 Jun Rekimoto씨에게 몇년 전 들었던 이야기다 - 씁쓸한 이야기가 되겠지만서도.

Eye of Judgement, 2007 by SCE
어쨌든, 이 연구소에서 벌써 십년 넘게 연구되어 온 AR은, 내가 알기론 유일하게 작년에 발매된 Sony Computer Entertainment의 PS3 게임 <The Eye of Judgement>을 통해 상용화되어 있다.





그런데, 얼마 전 떠났던 일본여행에서 재미있는 사례를 하나 더 발견했다. 긴자 거리의 소니 전시관 1층에, AR을 이용한 안내 키오스크가 설치되어 있는 거다.

Augmented Reality Kiosk in Sony Exhibition Building

특정한 AR marker가 들어있는 카드가 언어별로, 즉 언어에 따라 조금씩 다른 표시가 인쇄된 카드별로 정리되어 있고, 이걸 화면 아래에 있는 받침대에 놓으면 3D 건물이 화면에 뜨고, 해당 언어로 설명이 뜨는 방식이다. 물론 AR 답게 카드를 직접 돌려서 건물을 놀려볼 수 있고, 카드의 특정 영역을 손가락으로 가림(소위 'dwell' 방식이다)으로써 옵션을 선택할 수 있다.

Augmented Reality Kiosk in Sony Exhibition Building - ScreenAugmented Reality Kiosk in Sony Exhibition Building - StageAugmented Reality Kiosk in Sony Exhibition Building - Setting

소니에서 전시용으로 AR을 사용한 것은 사실 Sony Exploratorium에서 많이 찾아볼 수가 있다고 하는데, 그외에도 이렇게 사용되고 있구나.. 싶어서 스크랩해 둔다.

신고
Posted by Stan1ey

Motion War Begins?

2008.08.22 23:08

지난 20일, Hillcrest Labs에서 자사의 특허를 침해했다며 Nintendo를 고소했다고 한다. 보통은 잘 알려져 있지 않은 이 작은 회사는, 홈네트워크를 조작하기 위한 - 결국은 TV에 나타난 복잡한 메뉴들을 조작하기 위한 - 방편으로 다양한 "The Loop"라는 이름의 장치를 사용하고 있다. 이 리모컨 장치는 결국 공간 마우스인데, 아래 사진과 같이 잡기 편한 형태를 가지고 있다. (그 이름이 어떻게 지어졌는지를 쉽게 알 수 있다. ㅎㅎ )

The Loop from Hillcrest Labs
이렇게 공간에서 마우스질 -_- 을 시키려면 기술적으로 불편한 점이, 사용자가 마우스를 똑바로, 즉 지표면과 평행하게, 화면에 수직으로, 손목은 일직선으로;;; 잡지 않으면 이후의 센서신호 처리가 좀 복잡해진다는 것이다. (예전의 글에서 인용한 동작인식 휴대폰의 그림을 참조) Hillcrest Labs의 특허기술은 바로 여기에서 빛을 발한다. 이번에 Nintendo를 상대로 제소한 4건의 특허Hillcrest Labs의 최대 밥줄이라고 볼 수 있는 미국특허 7,158,118 문건을 좀 열심히 들여다 보자.

Images from Hillcrest Labs' core patentImages from Hillcrest Labs' core patentImages from Hillcrest Labs' core patent

이 특허는 위 첫 그림과 같이 가속도 센서(506) 외에 2개의 '회전 센서'(502, 504)라는 걸 장착함으로써, 사용자가 리모컨 혹은 마우스를 어떻게 '기울여' 잡고 있느냐를 인식해서 가속도 센서로부터의 움직임을 보정한다. 즉 위 두번째 그림과 같은 경우에는 회전 센서가 필요없겠지만, 세번째 그림과 같이 '기울여' 잡고 있으면  (손모양의 차이에 주목!) 리모컨/마우스를 똑바로 움직여도 커서는 위로 날아가 버리는데, 이 '보정기술'을 적용하면 커서를 사용자가 원한대로 움직일 수 있다는 것이다.
Logitech MX Air - 3D spatial mouse

이 기술은 FreeSpace 라고 이름붙여져 있으며, 로지텍의 공간 마우스인 MX Air 라는 기종에도 적용되어 있다.



문제는 Hillcrest Labs가 Nintendo를 상대로 지금 특허소송을 한 이유가 뭘까 하는 거다. Hillcrest Labs의 기술에서는 '회전 센서'라고 다소 애매하게 말하고 있지만, 사실 특허본문에서 인용하고 있는 센서모델은 자이로 센서이다. 어쩌면 내가 지난번에 성급하게 예측했던 것과 달리, MotionPlus는 단지 회전만을 감지하는 자이로 센서 모듈일지도 모르겠다. 가속도 센서를 덧붙이는 것과 자이로 센서를 덧붙이는 것에는 각각 장단점이 있지만, 이제 와서 생각해 보면 자이로 센서를 넣는 편이 계산도 간편하고 비용도 쌀지 모른다. 좀더 복잡한 동작인식을 가능하게 해주지는 않으니 응용할 수 있는 방법은 적겠지만, 그래도 "하나 더 넣어봤어요" 보다는 "새로운 센싱을 추가했어요"가 낫지 않겠는가. ㅎㅎㅎ

어쨌든, 닌텐도가 실제로 자이로 센서를 넣은 MotionPlus를 발매한다고 해도, Hillcrest Labs가 이번 소송으로 얼마나 얻을 수 있을지는 모르겠다. 일단 이름은 좀 알리고 주가는 좀 오를지 모르겠으나, 닌텐도의 주된 pointing 방식은 적외선 영상을 이용한 vision processing에 기대고 있기 때문에 위에서 검토한 Hillcrest Labs 특허의 제목이 "3D pointing devices with orientation compensation and improved usability", 즉 화면 상의 포인팅을 목적으로 하고 있는 이상 단지 같은 센서를 썼으니 돈 내놓으라고는 할 수 없는 것이다.

뭐 어느쪽이든, 최근 몇 년간 굵직한 특허소송의 주인공이 되고 있는 닌텐도는 미국시장을 잠식해 들어가는 대가를 혹독하게 치루는 중이다.

신고
Posted by Stan1ey
기왕 또 구글 빠돌이 티를 낸 김에... 랄까. -_-a;;

내 웹브라우저의 첫페이지는 구글뉴스다. iGoogle도 좀 써봤는데, 솔직히 이것저것 갖다 넣으니 네이버나 다음이랑 뭐가 다른지 모르겠어서 그냥 뉴스 페이지만 올려놓았다. 그런데, 벌써 한달 가까이 신경쓰이는 기사가 눈에 밟힌다.

당신의 눈길을 사로잡을 비주얼 컴퓨팅의 미래 (중앙일보080727)

비주얼 컴퓨팅이라... 이 단어를 사용한 글이 인터넷에서 간간히 눈에 보이더니, 아예 제목으로 삼은 기사까지 등장해서 (최근 UI를 다룬 기사가 없는 바람에) 웹브라우저를 띄울 때마다 시야에 들어와 주시는 거다.

시각적 컴퓨팅 visual computing 이라니, 일단 시각언어에 대해서도 컴퓨터가 할 수 있는 일에 대해서도 관심을 가지고 있는 사람으로서 왠지 땡기는 주제다. ... 우선 위키피디아를 뒤적여 봤다. ... 그런 거 없단다. 구글을 찾아보면 약 915,000개의 검색결과가 나오는 용어가 위키피디아에 안 나오다니! -_-+ 갑자기 오기(?)가 생겨서 좀 뒤를 캐봤다. ㅎㅎ



1. 역사 - The Origin of Visual Computing

우선 몇가지 검색 끝에, 내가 찾을 수 있었던 visual computing 이라는 말의 첫 등장은 1983년~1991년에 수행되었던 MIT의 분산 컴퓨팅 연구과제 Project Athena에 참여한 Visual Computing Group (VCG)이라는 명칭에서부터다. Project Athena를 소개하는 문서를 보면 VCG의 대표적인 연구성과는 Athena MUSE라는, 멀티미디어 저작 도구 및 그 기술언어 descriptive language 라고 한다. 같은 해인 1991년의 다른 논문보고에서는 멀티미디어를 이용한 교육을 다루고 있는데, 이것으로 미루어볼 때 처음 visual computing 이라는 단어는 당시 화두가 되었던 신기술인 multi-media에 대한 관심에 초점이 맞춰져 있었던 것 같다.

Visual computing에 대한 단행본 중 아마존 검색에서 가장 오래된 것은 그로부터 몇년 후인 1994년의 것인데, 이 책을 지은 Markus H. Gross라는 쥬리히 공대의 교수는 컴퓨터 그래픽스를 전공으로 연구하고 있다. 절판된지 오래된 모양인지 이 책의 내용에 대한 정보는 거의 없는데, 아마존의 소개글을 보면 "늘어나는 시각정보의 필요성에 부응하고자 컴퓨터 그래픽과 시지각의 특성, 그리고 시각화 imaging 에 대한 이해"를 목적으로 했던 것 같다.

우리나라에서도 2003년 연세대에 Visual Computing Lab이 생긴 것을 보면, 그 이전부터도 관련 개념이 있었으리라고 생각한다. 홈페이지로만 판단하자면, 연세대의 연구실에서는 오히려 전통적인 컴퓨터 그래픽의 범주에 해당하는 연구를 주로 진행하고 있는 듯 하다.

독일 위키피디아에는 최근까지 계속 업데이트되고 있는 visual computing에 대한 정의가 수록되어 있는데, 소싯적에 배운 독일어로는 M. Gross 교수의 단행본 소개글과 과히 다르지 않고, 단지 HCI에 대한 관점이 추가된 것으로 보인다.

여기까지만으로 억지춘양으로 판단하자면, 비주얼 컴퓨팅이라는 분야는 처음엔 그냥 멀티미디어의 다른 이름 정도로 시작했다가, 컴퓨터 그래픽스의 일부로서 연구되면서 정보시각화 information visualization와 흡사하지만 보다 컴퓨터 중심의 연구로 방향을 잡아온 것 같다. 그렇다면 화려한 그래픽이 당연해진 오늘날에는 굳이 CG를 강조할 것도 아니고 infoviz와 확연히 차별화되는 것도 아닌데 왜 갑자기 이렇게 눈에 띄는 걸까?



2. 오늘날 - Visual Computing Revisited

Search Trend of 'Visual Computing' - from Google Trends
(다시 한번, 기왕 구글 빠돌이 티를 낸 김에 ㅎㅎ ) Google Trends에 "visual computing"을 쳐보면 사실 그 이유를 짐작할 수 있다. 20년이 넘도록 다른 용어의 그늘 - multimedia, computer graphics, information visualization, ... - 에 가려있던 이 단어가, 2006년 이후로 조금씩 관련 뉴스와 검색건수를 올리고 있다. 위 구글 트렌드를 참고로 보면, 2006년은 바로 그래픽 카드 회사인 NVidia에서 'visual computing'이라는 용어를 본격적으로 홍보에 활용하기 시작한 해다. 실제로 이 회사의 홍보자료를 뒤적여보면 1993년 설립 이래로 가끔씩만 사용하던 'visual computing'이라는 표현을 2006년부터는 하나의 홍보자료에서도 여러번 언급하는 것을 볼 수 있다. Visual computing은 현재 NVidia의 메인 마케팅 캐치프레이즈로, 회사 홈페이지의 첫화면부터 아래처럼 "World Leader in Visual Computing Technologies"임을 자청하고 있다. 게다가 며칠 후에 열리는 NVision '08 이라는 행사도 "The Biggest Visual Computing Show"라는 홍보문구와 함께 대대적으로 이 비주얼 컴퓨팅 vizcomp(?) 분야를 홍보할 예정이다.

사용자 삽입 이미지

우리나라의 구글 뉴스에서 최근 "비주얼 컴퓨팅"이라는 단어가 보이기 시작한 것도, 사실 지난 7월에 엔비디아의 설립자가 한국에 와서 몇몇 행사에 참석해서 강연을 했기 때문이다. -_-a;;

사실 visual computing을 언급하는 회사가 NVidia만 있는 것은 아니다. 인텔에서도 이 개념을 적극적으로 도입하기 시작했고, 최근에는 connected visual computing  (CVC)이라는 새로운 개념(?)도 내세우고 있는 것이다. 사실 인텔에서 주장하는 CVC라는 개념은 좀 웃긴데, Social Networking Service(SNS)에 온라인 서비스에 화려한 그래픽을 더한 것이 CVC라고 되어있다. 솔직히 발표자 아니면 기자, 둘 중의 한명은 실수했다고 생각하지만. 어쨌든 NVidia에서 강조하고 있는 '고성능 그래픽'이라는 측면과 그닥 다르지 않다.

[O] Connected Visual Computing에 대해서 다음날 조금 더 추가


각각 PC의 핵심부품인 CPU와 그래픽 카드(요즘은 GPU라고 해야 한다지만)를 대표하는 회사에서 너도나도 이야기하는 개념이니 뭔가 중요하긴 한 것 같은데, 사실 이런 다분히 상업적인 목적을 가지고 접근한 결과, 현재 visual computing의 정의는 Whatis.com에 기술된 아래 내용이 가장 적당한 듯 하다.

Visual Computing

Visual computing is computing that lets you interact with and control work by manipulating visual images either as direct work objects or as objects representing other objects that are not necessarily visual themselves. The visual images can be photographs, 3-D scenes, video sequences, block diagrams, or simple icons. The term is generally used to describe either (or both) of these:
  1. Any computer environment in which a visual paradigm rather than a conventional (text) paradigm is used
  2. Applications that deal with large or numerous image files, such as video sequences and 3-D scenes
(이하 광고 -_-; )

... 뭐야, 이거. 1번은 GUI 이고, 2번은 멀티미디어 (어플리케이션)이잖아? 시대가 바뀌면서 조금은 확장되었을지 모르지만, 결국 달라진 게 뭔지... ㅡ_ㅡ+



3. 소감 - My Thought on VizComp

그냥 '이게 뭐지?' 하는 마음에서 시작한 것 치고는 심심한 김에 이것저것 많이도 모았다. -_-a;; 앞의 내용을 최대한 간단하게 요약하자면, 그럴듯한 학술용어 하나가 다른 용어에 밀려 다 죽었다가 한 회사의 홍보전략이 되면서 유행할 조짐을 보이고 있다..는 내용 되겠다.

한가지 섭섭한 점이라면 visual computing의 범주에 한때 들었던 visual perception에 대한 연구라든가, 정보의 특성/속성과 그 시각화에 대한 information visualization 분야에 대한 고민이 오늘날의 "visual computing"에는 보이지 않는다는 거다. 컴퓨터 성능을 좌우하는 부품의 제조사가 내세우는 방향이니만큼 당연히 그래픽 장치의 성능과 그로 인한 출력물의 품질에 대한 언급이 대부분이고, 정작 그 안에서 어떤 정보를 어떻게 효율적이고 인지하기 쉽게 표시할 수 있는지에 대해서는 전혀 ㅡ_ㅡ 언급이 없는 것이다. 고맙게도 이 용어를 홍보해주고 있는 두 회사의 마케팅 파워 덕택에, 앞으로는 그냥 "화려한 그래픽"이라는 의미로 "visual computing"이라는 용어를 사용하게 될 듯 하다.

뭐 그런 걸 가지고 섭섭해하고 그래..라고 할 수도 있지만, 그나마 하나의 개념이 아쉬운 분야이다 보니 이렇게 또 좋은 용어를 하나 뺐기는구나 하는 마음이 들지 않을 수 없는 것이다. ㅠ_ㅠ



A. 추신

위에 언급한 NVision '08 행사를 보면 주 대상은 역시나 그래픽 품질이 점점 더 중요해지고 있는 게임업체를 겨냥하고 있다. 게임에서도 점점 더 향상된 실사와 같은 그래픽을 보여주고 있고, 게임의 내용조차도 현실과 같이 다방향으로 전개될 수 있도록 변화하고 있다. 최근의 한 기사에서는 자연스러운 애니메이션이 게임에 미칠 수 있는 영향에 대해서 다루기도 했다. ... 생각해보면 PC가 단지 정보를 이해하고 사용하기 편한 데에서 멈추지 않고, 보다 화려한 그래픽을 필요로 하게 하고 한편 그것이 가능하게 한 것은 다름 아닌 게임업계인데, 게임 회사의 녹을 먹는 사람으로서 visual computing에 UI 비중이 사라진 것에 대해서 너무 실망을 표현하는 것도 좀 그런가... ㅡ_ㅡa





미뤄뒀던 글을 한달 채우기 전에 억지로 썼더니, 역시 앞뒤도 없고 그냥 몇가지 검색엔진의 결과를 나열한 꼴이 되어 버렸다. 그냥 묻어둘까 하다가, 좋아하는 드라마도 안 보고 쳐댄게 아까와서 그냥 올린다. ㅎㅎ 누군가는 이 링크더미 속에서 보물을 찾을 수 있기를!
신고
Posted by Stan1ey

Sensor Meets Art

2008.08.14 06:17

좀 뜬금없지만 뮤직비디오 하나.



종종 방문하는 <Web 2.0과 인터넷 지도> 블로그에서 본 뮤비인데, 글을 올린 민님은 구글어스팀이 뮤직비디오 제작에 협업했다는 것에 비중을 두고 있지만, 나로선 아무래도 레이저를 이용한 2.5차원 거리센서의 영상에서 예술적인 표현을 찾아냈다는 것이 좀더 대단하게 여겨진다. 구글에는 이 뮤직비디오의 제작과정을 담은 홈페이지까지 있는데, 아래 그림들 외에도 상당히 많은 자료가 방대하게 공개되어 있다.

Artistic Images from Laser Scanner

위의 두 영상 같은 경우에는 길 찾는 로봇에 부착할 센서를 고를 때 어깨너머로 많이 봤던 그림이고, 세번째 영상처럼 레이저가 머리카락 같은 섬유를 만났을 때 신호가 흩날리는 것도 익히 봐왔던 모습이다. 하지만 그 당시에는 그걸 '노이즈'라고 불렀고, 이걸 어떻게 제거해서 '진짜 경계'를 찾아낼지에만 신경을 곤두세우고 있었지 그 예술적인 가치에 대해서 관심을 가진 사람이 없었던 것 같다.

카메라를 전혀 쓰지 않았다는 이 뮤직비디오를 보면, 순전히 센서 데이터를 음악(박자)에 맞춰서 변형시키거나 3차원 좌표 상에서 변형을 가해서 전에 없는 표현을 보여주고 있는 것을 볼 수 있다. 멋지다... 사실 생각해 보면 센서입력값을 이용한 information visualization 결과물은 나름대로 시각적으로 멋진 모습을 보여주는데, 그걸 또 이렇게 이용하는 것도 참 재미있는 접점인 것 같다.




Moonlight on River Tay
... 이런 글이라도 올려볼까 하고 있는 와중에, 창밖에 펼쳐진 광경은 순간 가슴이 찡할 정도다. Tay라는 이름의 강둑에 살고 있지만, 달이 보일 정도의 하늘이 보이는 저녁이 많지 않은지라 이런 광경은 2주만에 처음 본다. ... 흠냐. 뭐 이런 광경 속에서 쩨쩨하게 센서가 다 뭐냐. 그냥 둥글둥글 좋구나...   ㅡ_ㅡa;;;

신고
Posted by Stan1ey
마이크로소프트에서 멀티터치 스마트 테이블를 들고 나오면서 한동안 소위 'Surface Computing'이라는 요상한 용어를 뿌리더니(예전에 같이 일했던 어떤 분은 분명히 "표면이 computing하는 것도 표면을 computing하는 것도 아닌데 무슨 surface computing이냐!!!"라고 하고 계실 거다), 이번엔 'Sphere'라는 코드명을 들고 나왔다. 요컨대 멀티터치가 되는 구형의 화면이다.



흠. 결국 했구나. ㅡ_ㅡa;;

데모하고 있는 사람 너머로 보이는 화면을 보면, 왼쪽의 큰 화면은 결국 프로젝션 되고 있는 화면으로 원형으로 투사될 수 있도록 미리 왜곡되어 있고, 오른쪽 화면에 보이는 모습들 중 가운데 화면은 적외선 반사에 의한 포인팅을 인식하는 모습을 보여주고 있다. (특히 아래 장면에서는 두 손가락이 화면에 찍혀 있는 모습을 볼 수 있다... 잘 보면 =_= )

Sphere Computing(?) of Microsoft

결국 Surface 시스템에 있던 입출력 장치 앞에 어안렌즈를 하나 넣어서, 프로젝션도 카메라도 180도 가까이 퍼지게 만든 것으로 보이는데, 사실 그럼에도 불구하고 몇가지 의문이 남는 부분이 있다. 이를테면 프로젝션의 초점거리 같은 경우가 대표적인데, 180도 퍼지게 만든 화면을 투사한다고 해도 구체 아랫쪽의 투사면과 맨 위쪽의 투사면까지의 거리는 크게 다르기 때문에 골고루 또렷한 영상을 맺히게 하기 힘들 거다. (초점거리 개념이 없는 프로젝터가 개발되어 있기는 하지만, 저렇게 바깥쪽으로 사람을 향해서 투사할 수는 없는 물건이다 -_- )

그 외에 적외선 반사를 이용한 인식의 해상도라든가, 상을 왜곡시키기 위해 평면 좌표계를 실시간으로 구좌표계로, 또 반대로 계산하는 번거로움이라든가 하는 것들도 문제가 될 수 있겠지만, 사실 실용성 측면에서 볼 때 가장 큰 문제는 역시 투사된 화면의 위치에 따른 해상도 차이라고 본다.




... 사실은 그게 내가 못 풀었던 문제다. 그래서 난 @#$%@%@#$%^$#^&#%^&렇게 피해서 도망갔더랬는데, 얘네들은 혹시 풀었는지, 풀었다면 어떻게 풀었는지가 아주 궁금해 죽겠다. ~_~ ㅎㅎ
신고
Posted by Stan1ey

BLOG main image
by Stan1ey

카테고리

분류 전체보기 (347)
HTI in General (45)
User eXperience (11)
Voice UI (50)
Vision UI (14)
Gesture UI (25)
Tangible UI (28)
Robot UI (14)
Public UI (9)
Virtuality & Fun (56)
Visual Language (15)
sCRAP (70)

글 보관함



www.flickr.com
This is a Flickr badge showing public photos and videos from Stan1ey. Make your own badge here.