Nintendo DSi가 일본 외의 지역에서도 팔리기 시작하는 가운데, 관련된 게임을 소개하는 기사에서 뒤늦게서야 아래 그림을 보게 됐다.

WareWare: Snapped! for Nintendo DSi

얼레? 저 전형적인 영상인식 결과 layer는 뭐란 말이냐... 하고, 알아보니 NDS에서는 다양한 터치조작을 미니게임으로 승화시켰던 <WarioWare> 게임 시리즈가 영상인식 미니게임으로도 나왔나 보다. 참 빨리도 알았다... 하며 유투브를 뒤져보니 아니나 다를까 꽤 많은 동영상이 올라와 있다. 아래는 지난 달 말 GDC에서 발표하고 있는 모습.



그냥 간단한 살색인식(살색이라는 표현의 정치적 중립성 여부가 여기서는 문제되지 않는다 ㅋㅋ)을 이용한 게임이지만, 그래도 이전 버전의 <WarioWare>에서 보여줬던 터치입력의 다양한 응용처럼 다양한 가능성을 보여줄 듯 해서 기대가 된다. 혹시 상위 레벨로 넘어갈수록 마이크며 터치며 버튼까지 이용한 멀티모달 미니게임으로 발전이 되는 건 아닐까 싶긴 하지만, 직접 게임을 해보기 전까지는 뭐 그냥 상상해 보는 수 밖에.

GameBoy Advance나 GameCube 같은 예전부터 다양한 미니게임을 모아놓은 게임팩을 발표하더니, 이제 터치에 이어 영상인식까지 넣어서 계속하는 걸 보면 참 대단하다는 생각이 든다. 전통을 꿋꿋하게 이어나가는 점도 멋지고, 그 안에 계속해서 새로운 것을 넣어 발전시키는 것도 그렇고. 다 성공했으니 할 수 있는 일이겠지만, 그 성공의 문턱이라는 것과 이런 근성/자부심/신바람 등은 어느 정도만큼은 닭과 달걀의 문제로 봐야 하지 않을까?

... 이게 과연 Vision UI에 대한 글이어도 되는 걸까?
신고
Posted by Stan1ey
얼마전 CES 행사를 통해서, 삼성전자에서 작은 프로젝터 모듈을 탑재한 휴대폰과 PMP(?)를 발표했다.

Samsung Pico Projector (with PMP Functionality)Samsung Pico Projector Phone
Samsung Pico Projector PhoneSamsung Pico Projector PhoneSamsung Pico Projector (with PMP Functionality)

'Pico Projector'라는 이 모듈은 이미 시장에 나와있는 'Pocket Imager'와 같이 LED 광원을 쓰는 프로젝터지만 결국 내부에서 개발하던 것이 아닌 Texas Instrument의 DLP 모듈을 적용했다고 한다. 한편으로는 아쉬운 일이지만, 그래도 세계적인 영향력을 갖는 기업에서 프로젝터 + 휴대기기라는 꿈을 이만큼 구현해서 곧 출시해준다니 좋은 일이다. Pocket Imager 계열은 '들고 다닐 수 있는 고해상도 프로젝터'라는 개념으로 당분간 계속 개발될 것 같기도 하고.
 
Samsung MicroProjector MBP-100Samsung Pocket Imager SP P300MESamsung Pocket Imager SP P400

C-King's Projector Phone
이미 작년에 중국의 C-King 이라는 곳에서 같은 형태의 휴대폰을 선보이기도 했고, 애당초 모듈을 만든 TI에서도 목업이지만 휴대폰이 제안되기도 했기 때문에 사실 혁신적이라든가 할 부분은 아닐지 모른다. 단지 이제까지 1~2년전부터 점점 소형화되고 고해상도를 지원하는 휴대기기용 프로젝터가 드디어 가시권에 들어오는 듯 해서 기대가 된다.



모바일 프로젝션은 오래전부터 꿈꿔온 디스플레이 기술이다. 모바일 기기는 작아야 하고, 그럼에도 화면은 커야 한다. 어떤 집단을 모셔다가 아이디어 회의(브레인스토밍이든 FGI든 T/F든)해도 결국 나오는 게 '둘둘 말 수 있는 디스플레이'와 '프로젝션 스크린'이다. Flexible display도 점차 현실화 되어가고 있긴 하지만, 프로젝션 모듈을 소형화하는 것보다는 더 많은 기간이 필요할 것 같다.

모바일 프로젝션의 기술데모야 보통 위의 사진들처럼 영화나 파워포인트처럼 네모반듯한 멀티미디어 화면을 흰색 벽에 뿌리는 걸로 하지만, 실제로 "모바일 프로젝션"이라고 할 때에는 뭔가 다른 사용상황이 되지는 않을까? 사실 이 네모난 화면은 CRT나 FPD라는 기술의 기술적 제한 내에서 단순히 효율성을 위한 형태였을지도 모른다.

CB感 Reborn 001
개인적으로, 휴대기기용 프로젝터라고 하면 늘 떠오르는 이미지가 있다. 인터넷을 아무리 찾아봐도 "모터사이클 만화"라고만 소개되는 <CB感 REBORN>이라는 SF만화에 보면, 스크린이 아예 사라진 '영상통화 휴대폰'의 사용장면이 나온다. 물론 모바일 프로젝션을 이용해서.

만화 <CB感>에 등장하는 모바일 프로젝션 장면

이때의 모습은 화면이 투사되는 영역이 벽이거나 손바닥, 앞사람 옷 등으로 다양하게 나오고, 영상통화의 맥락도 이동 중이라든가 어딘가에 기대어 있다든가 하는 등 가지각색이다. 요컨대 모바일 프로젝션이 회의실에 설치되어 모두가 하나의 자료 화면을 공유하기 위한 프로젝션이 아닌 것이다.

물론 기존에 PC와 커다란 화면을 통해서 문서와 자료를 함께 보면서 협업한다든가, 영화관과 같은 환경을 꾸며놓고 고화질의 대형 화면에 펼쳐지는 영화를 감상한다든가 하는 것을 휴대폰에 넣을 수 있다면 그것도 분명 기다려지는 미래이다. 하지만 이렇게 이미 비교될 수 있는 완벽한 사례가 있는 분야는 사실 아무리 상대적인 장점을 강조해봐야 결국 무슨 매니아 시장으로 치부되기가 딱 좋은 구도다. 작은 프로젝션 화면을 같이 보려면 거의 머리를 나란히 맞대고 2~3명 정도가 볼 수 있으려나? 그 이상은 힘들 것이다. 아마 5분을 참지 못하고 "그냥 회의실로 가서 봅시다"라고 하는 게 가장 그럴듯한 시나리오가 되지 않을까. 특히 휴대기기는 늘 움직이는 상황에 있기 쉽기 때문에 화면이 안정적으로 벽면에 뿌려지기 위한 색상/위치 calibration 기술(모두 단순히 풀릴 수 없는 문제들이다) 등이 또 추가되어야 할테고 말이다.

그에 비해서 위 만화에서 제안(?)된 UX는 그 용도가 너무 심각하지도 않고 부족하면 부족한대로도 잘 사용할 수 있기 때문에 오히려 휴대기기의 매력을 더해주는 것으로 보인다. 모바일 프로젝션의 사용상황을 좀 더 고민해 본다면, 이번 제품들은 기존 중국회사나 그 모듈을 공급한 회사의 데모를 똑같이 답습하기 보다는 훨씬 더 기대되는 장면도 많이 그려낼 수 있지 않았을까.. 라는 아쉬움이 남는다.



그리고, 사실 모바일 프로젝션은 LED 광원과 DLP 방식의 프로젝션보다 적합한 방식이 있을지도 모른다. 아직 공공연하게 논의되지는 않는 듯 하지만. 일단 LED/DLP 방식이 어느 정도 시장을 증명해준 후에, 그 방식이 후딱 상용화되어 준다면 모바일 사용상황에 보다 적합한 제품이 등장할 수 있을 것 같다.
신고
Posted by Stan1ey

Car that Sees.

2009.01.13 09:53

이 블로그에서 (아마도) 다루고 있는 이런저런 기술들을 도입하는 첫번째 플랫폼으로, 배터리 걱정도 기구부 걱정도 적으면서도 여전히 개인 최적화가 가능한 자동차가 적합하리라는 얘기를 한 적이 있다. 그런 사례가 하나 더 생긴 듯 해서 그냥 간단히 적어보려고 한다. 요새 글이 너무 적기도 하고.

Vauxhall (Opel) Insignia

위 사진은 최근 열심히 광고하고 있는 Vauxhall (유럽 다른 국가에서는 Opel 브랜드)의 Insignia라는 자동차의 새로운 모델이다.



TV 광고에 영상인식을 통한 표지판 읽기(사실은 아주 규격화된 속도제한 표시를 중심으로 읽는 것 같으니, 방향표시 같은 건 못 읽을 듯)를 보여주길래, embedded computer가 많이 빨라졌나보네... 하면서 웹사이트에 들어가봤다.


우선은, 광고에 실린 '표지판 읽기' 기능.
Vision Recognition on Insignia
영상인식 기능은 룸미러 뒤에 있는 카메라를 통해서 진행되는데, 밤낮으로 된다고 하는 건 좀 신기하다. 밤에 적외선 영상을 쓸만한 조건은 안 되어 보이는데, 그냥 저런 표시판은 보통 난반사 재질에 그려져 있고 밤에는 전조등을 켜고 다닐테니 어쨋든 보일꺼라는 배짱일까? -_-a;; 게다가 이 모델의 웹사이트를 가보면 전조등이 유달리 좌우로 퍼져있는 모습으로 다시 디자인되어 있기도 하다. -_-+a;;;;;

어쨋든 이 표지판 읽기는 읽어진 표지판을 기억하는 기능을 포함하고 있기 때문에 (그냥 표지판이 지나간 후에도 표시를 지우지 않는 것 뿐이지만;;;) "지금 달리고 있는 도로가 제한속도가 몇이었지?"라는 생각이 들 때 표지판이 나오지 않아도 계기판에 가장 최근에 지나친 속도표지판이 떠 있으므로 편리하다고 하고 있다.


그런데, 그 외에도 '차선 읽기' 기능이 역시 영상인식을 통해 포함되어 있다.
Vision Recognition on Insignia
같은 카메라를 통해서 구현된 이 기능은 자동차의 속도가 40mph (대략 64km/h) 에 다다르면 동작하는데, 차선을 제대로 따라가고 있으면 녹색 등이, 차선을 벗어나고 있으면 붉은 등이 켜진다. 저 분명히 차선을 벗어나고 있는 모양의 아이콘에 녹색이라고 해도 일단 불이 켜지면 사용자는 차선을 벗어나고 있다고 느낄 것 같기는 하지만, 뭐 좋은 UI 기술에 항상 좋은 UI가 따라붙는 건 아니니 아쉽지만 어쩔 수 없겠다.
땅덩어리 넓어 오랜시간 뻥 뚫린 길을 운전해야 하는 나라에서는 비싼 차부터 차선을 따라서 자동으로 핸들을 움직여 주고 앞차와의 거리에 따라 속도를 조절해주는 크루즈 컨트롤 cruise control 기능이 붙은지 오래지만, 아마 이 모델에 포함된 '차선 벗어나면 경고' 기능은 그런 고급 기능이 가지고 있는 책임소재 문제 등을 고려한 적용으로 보인다. 일종의 scalable AI라고 생각되는 건 뭐 눈에 뭐만 보이는 격일까.



어쨋든, 마빡에 카메라 붙이고 (오오... 전두엽으로 퇴화되었다는 제3의 눈인 거냐!!!) 앞길을 보는 자동차가 나왔다.

얼마나 오래전에 나왔는지는 잘 모르겠으나 일단 지금 눈에 띄었으니 스크랩.

신고
Posted by Stan1ey

몇시간 전에 끝난 맥월드 키노트는 솔직히 실망이었다. 루머로 돌았던 것들은 (심지어 iPhone nano는 내노라하는 업체에서 벌써 케이스까지 발매하고 있었는데) 하나도 안 나왔는데, 그 덕택에 수많은 블로그 작가들과 YouTube 동영상들은 별 소리를 다 해가면서 실망을 감추지 않고 있다. 개인적으로도 스티브 잡스가 발표장에 안 나서자마자 이렇게 김빠지는 모습을 보이는 것에 대해서는 안쓰럽게 생각한다.

그런데, 전체적으로 맥빠지는 모습에도 불구하고, 발표된 제품 중 한가지는 정말 내 눈을 잡아 끌었다. (아마 이 블로그를 보신 분들은 예상하리라 생각하지만. :)

iPhoto 09 with Face Recognition

바로 iPhoto 09 버전에 얼굴인식("Faces")과 위치조회("Places") 기능이 포함되었다는 소식이다. 이미 iPhoto 08 에서부터 포함된, 촬영시간에 따른 자동 그룹핑 기능("Events")과 함께, 촬영된 사람을 얼굴로 판단해서 검색할 수 있게 해준다거나 지도 상에서 사진이 찍힌 위치를 표시해 주는 기능은 개인이 사진을 관리하기 위해 필요한 이상적인 기능을 마침내 모두 상용화 수준으로 구현했다고 하겠다.

이미 나만 해도 GPS가 달린 iPhone으로 사진을 찍어서 올리면 자동으로 Flickr 지도에 이미지가 표시되도록 하고 있고, 사진 중에서 같은 사람의 얼굴을 찾는 온라인 서비스는 벌써 몇년 전에 나온 적이 있었고(Riya.com인 줄 알았는데, 가보니 뭔가 이미지 검색 중심의 서비스로 바뀌어 있다), Flickr에 올린 사진들을 얼굴 중심으로 대신 tagging해 주겠다는 서비스라든가, Google의 Picasa Web Album에서 같은 기능을 제공하기 시작한지도 1년이 다 되어가는 등... 이 기능들 자체는 아주 새로운 게 아니다. 딱이 대용량 DB 같은 걸 다뤄야 하는 것도 아니니 기존에 서버 기반으로 하던 것을 PC 프로그램으로 만들었다고 호들갑 떨 것도 아니다.

어떤 기능들인지 한번 찬찬히 보자면, 다음과 같다.



결국 Places 기능은 iPhoto 프로그램 자체에 적당한 해상도까지 제공하는 전 지구의 지도를 넣어둔 것 같은데, 이건 참 용단이었다고 생각한다. 쉽게 Google이나 Microsoft와 제휴하는 수도 있었을 테지만, 사실 요즘의 Apple 같아서는 세간의 이목이 있어 그러기도 쉽지 않으려나. Flickr의 Geotagging 서비스를 사용해본 경험으로는 이게 사실 정확하게 찍히지 않던데(일정하게 한쪽으로 밀리는데, 그 방향이 지역마다 다르다. 아마 건물에 의한 GPS 전파 반사와 WiFi hotspot과의 잘못된 조합이 그 원인인 듯), iPhoto 09에서는 얼마나 정확할지가 궁금하다. 사실 데모만으로는 그다지 고해상도 지도까지 zoom in 해주지 않는 것 같고, 그렇다면 10~20m 차이는 눈에 띄지 않을 가능성이 높지만. (잔머리 굴린 거냐, 애플! -_-+ 훌륭하다!! )
(이 부분은 - 아래 리플에서 지적해 주신 것이 맞다 - 완전히 잘못 적었다. 구글 로고가 떡하니 박혀 있는데 뭔 헛소리;;; 단지 구글 맵을 온라인 상태에서만 쓰게 만들었을 것 같지는 않은데, 그렇다면 구글로서는 처음으로 그 DB를 로컬 장치에 저장하도록 한 사례가 될 꺼다. 만일 아니라면 온라인 상태에서만 지도를 볼 수 있을테니 그게 또 문제가 될테고.)

특히 이 Places 기능 중에서 지역들 간의 위계구조를 만들어서 incremental search를 할 수 있게 한 건 정말 훌륭한 발상이라고 생각한다. 단지 GPS 정보가 사진에 들어있다니 그걸로 멋진 기능 하나 만들어보세~라는 생각만으로는 나올 수 없는 부가적인 노력이고, 탁월한 선택이었다고 생각한다.


그에 비해 Faces 기능은 딱이 뭐 꼬집어 말할 게 없다. 얼굴인식을 이용한 사진 정리...라는 걸 생각하고 얼굴인식 엔진을 위한 효율적인 학습방법을 생각한다면, 가장 효율적으로 사용할 수 있는 방법을 잘 제시했다고나 할까. 얼굴인식을 하기 위한 UX(사용방법; UI; 기능)는 다음과 같이 설계되어 있다. (자세한 내용은 위 동영상이나, 애플 웹사이트에서의 동영상 안내를 보는 게 좋겠다.)

① 사진을 보면, 얼굴 위치는 자동으로 찾아져 있다.
--> 얼굴을 못 찾거나 위치가 잘못됐다면 수동으로 영역을 지정할 수 있다.
② 사용자가 얼굴 아래에 이름을 넣는다.
③ 한번 등록된 얼굴은 다른 사진에서 인식되면 이름이 나오지만, 사용자가 확정(confirm)하지 않은 상태로 표시된다.
--> 사용자는 확정버튼을 클릭하거나, 올바른 이름을 다시 등록할 수 있다.
④ 각각의 사진에 들어있는 각각의 얼굴들은 자동으로 인식/표시되며, 사용자는 여러 장의 사진/얼굴을 손쉽게 확정할 수 있다.

iPhoto 09 with Face RecognitioniPhoto 09 with Face RecognitioniPhoto 09 with Face Recognition

사실 주어진 조건 - 영상인식은 조명조건, 촬영각도, 그림자 등 많은 요인에 의해서 영향을 받는데, 특히 대동소이하게 생긴 인류의 얼굴을 판별해야 하는 얼굴인식은 두말할 필요 없이 어려운, 오인식이 발생하기 쉬운 상황이다 - 에서, 상당히 깔끔하게 잘 풀어낸 UI 디자인이라고 생각한다. 데모에서야 대부분 정면을 보고 있는 모습이니 인식이 잘 되고 있고, 딱 한번 보여주는 오류는 옆모습이니 그런가보다 하지만, 실제로는 어느 정도 돌아가거나 (누워있는 사진이라든가) 드라마틱한 각도에서 찍었거나 멀리서 찍었다거나 하는 경우에는 인식오류가 점점 문제시될 거고, 미안한 얘기지만 흑인 같은 경우에는 배경에 피부색과 비슷한 어두운 색이 많을 경우에는 실제로 인식률이 많이 떨어질 수 있다. 업계라면 이걸 보정하려고 적외선도 쓰고 카메라를 2개도 쓸 수 있지만, 일반적인 디지털 사진에 그런 정보가 있을리 없으니까. (사실 DSLR 같은 기기에서 쓰는 raw 포맷을 분석하면 적외선 대역이 조금씩은 들어있을 수도 있지만... 뭐 귀찮고 쓸 수 있는 수준이 아닐 수 있으니 통과 -_- )

하지만 뭐 이런저런 뻔히 예상되는 인식오류와 거기에 대한 거부감(Apple 쯤 되면 인종차별 소송 하나쯤 터지지 않을까나)에도 불구하고, 이런 기능을 가진 소프트웨어가 사용자의 PC에 깔릴 거라는 건 HTI의 긍정적인 측면에서도 부정적인 측면에서도 기대되는 사건임에 틀림이 없다.



얼굴인식과 위치인식을 이용한 사진앨범 관리 서비스... 사실은 같은 내용으로 6년 전쯤에 특허를 냈다가 담당자한테 퇴짜맞은 적이 있는데, 그 때의 지적이 맞는지 아직까지도 이 당연하고 훌륭한 조합에 대해서 제대로 아우르는 특허가 없다. 분명히 이 경우에도 상호보완 multimodal disambiguration 이 가능할테고, 즉 그 장소에 없을 것 같은 얼굴이 인식되거나 하면 그 적확률을 좀 낮춰본다든가 하는 내용(4차원 데이터 구조라도 나와야 하는건가... ㄷㄷㄷ )은 특허가 될 텐데 말이지. 뭐 그것도 그때라면 모를까 지금은 '이미 나온 서비스에 단순한 부가 조합'이 되겠네.

어쨋든 이런 특허 없는 서비스조차도, 왜 우리나라 기업에서 먼저 만들었다는 소리를 듣지 못하는지 모르겠다. 뭐가 IT 강국이야... 남들이 만든 표준에 남들이 제시한 방향으로 죽어라 따라잡기 바쁜데.

아 맞다. 이제 정부에서 IT 분야는 도움 안 된다고 지원 줄인댔지. ㅎㅎㅎ
신고
Posted by Stan1ey
일전에 관심을 가지고 있었던 2.5D 위치인식 카메라의 실제 어플리케이션이, 한 캐나다 업체에 의해서 만들어져 MIGS 2008이라는 데에서 발표된 모양이다. (MIGS는 Montreal International Game Summit 이란다) 에딘버러 오가는 기차 안에서 밀린 Podcast를 보다가 이 독특한 이름 - Mgestyk (= majestic) - 을 어떻게든 외워서 회사 웹사이트에 들어가 볼 수 있었다.

Mgestyk - 2.5D Gesture RecognitionMgestyk - 2.5D Gesture Recognition

(사족: 이 이미지 만든 사람 칭찬해 주고 싶다. PNG인 것도 그렇고, 단순히 배경 덮지 않고 투명으로 뺀 것도 그렇고. 디자인 감각은 잘 모르겠지만 웹 그래픽을 잘 이해해 주고 있는 듯. 이런 사람도 흔치 않은 게 현실이다.)

일단 이 회사는 하드웨어나 센서를 만드는 회사는 아니고, 전의 포스팅에서 소개했던 3DV Systems사의 3D 카메라를 가져다 어플리케이션을 만든 회사이다. 웹사이트에서 동영상을 보면, 일단 그네들이 만든 내용을 전반적으로 볼 수 있다.





센서야 전에 들여다 본 내용이니 뭐 딱이 말할 거 없고, 이 회사는 인식된 그 공간정보를 이용해서 손모양을 인식하는 소프트웨어를 만든 모양이다. 위 오른쪽 사진을 보면 인식된 바에 따라서 손모양이 바뀌는 정말 누가봐도 기술데모용의 소프트웨어가 화면 한켠에 보인다. :)

이 3D 카메라, 혹은 뭐 내맘대로 부르고 있는 2.5D 센서-카메라는 적외선을 이용하고 있다는 게 아래 사진에서 잘 나타나고 있다. 그러니까 사실 위 동영상에서 Wii Remote의 센서바 - 사실은 적외선 LED 여러개 - 를 사용하지 않고 있다는 것은 사실 간섭 때문에 사용할 수가 없는 이유도 있을 꺼다. :P 
 
Mgestyk - 2.5D Gesture Recognition using InfraRed Distance Measuring

그래도 이 센서-카메라에 주목해야 한다고 생각하는 이유는, 무엇보다 그다지 비쌀 이유가 없는 구성 때문이다. 해상도(거리해상도)는 좀 떨어질지 모르고, 저 정도 광원으로는 대충 2m 정도 떨어지면 반사수신율 턱없이 떨어질테고, 햇빛이나 조명에 의한 간섭이 걱정될지 모르지만, 그래도 이 정도 간단한 구성으로 뭐가 됐든 공간 상의 동작을 인식할 수 있다는 건 굉장히 매력적인 거다.

원래의 데모에서처럼 PC 모니터나 TV 같은 영상기기에 직접 붙여도 좋겠지만, 리모컨을 대신할만한 물건 같은 것도 좋겠다. 소파 옆이나 커피테이블 위에 놓고 그 위에서 손짓하면 조작되는. (아 그런데 갑자기 눈에 먼지가... ;ㅁ; ) 배터리 귀신일 듯한 적외선 LED array는 터치/근접/움직임 센서에 의해서 켜도록 하면 배터리로 동작하는 것도 가능할지도 모르겠다. 적어도 Wii Remote는 카메라와 통신장치를 갖추고도 배터리로 잘 쓰이고 있으니까, LED만 잘 조정하면 뭐.

... 사실 생각해 보면 굳이 테이블 위에 놓을 필요도 없는데. 리모컨 마냥 잃어버리기도 쉽고. (아 그런데 자꾸 눈에 먼지가 ;ㅁ; )

저 카메라의 '시야'는 단지 광각으로 결정되는 게 아니라 거리까지 포함된 공간으로 정의될텐데, 개인적으로는 그 안에 얼굴이나 발이나 인형을 들이밀면 어떻게 반응할지 어떨지가 궁금하다. ㅋㅎㅎ 뭐 결국에는 거리와 크기의 상관관계라든가 반사율에 의한 표면재질을 판단한다든가 등등 적당히 걸러낼 수는 있겠지만 말이지.



... 결국, 본의 아니게 또 동작기반 UI에 대해서 쓰고 말았다. 이뭥미... 난 Voice UI를 정리하고 싶단 말이다... -_ㅜ 아무리 봐도 동작 입력의 한계는 분명해서 저 데모에서도 "데모하는 사람 팔 아프겠다..."라든가 "저 동작 실수없이 다 하려면 몇번이나 다시 찍었을까..." 싶은 생각이 드는데, 그럼에도 불구하고 "대세는 동작"이라는 분위기의 요즘이다.
신고
Posted by Stan1ey
마이크로소프트에서 Surface Computing을 가지고 구형으로 뿌리나 싶더니 이번에는 SecondLight라는 개념을 추가했다고 한다. 첫번째 소식을 듣고는 저걸 어떻게 만들었을까를 이리저리 그려봤었는데, 동영상에서는 2개의 프로젝터와 액정필름을 이용했다는 것만 이야기하고 있다.



저 위의 손으로 들어 옮기는 '스크린'은 그냥 기름종이라고 하니, 결국 거기서 뭔가 하지는 않을테고, 결국 뭐 프로젝터에서 나오는 광선을 하나는 가로방향, 하나는 세로방향의 편광필터를 통과시켜서 역시 편광필터가 있는 스크린에 투과해서 편광 방향이 일치하는 화면은 상이 맺히지 않고 통과, 일치하지 않는 화면은 상이 맺히는 거 아닐까라는 게 첫번째 생각이었다.

그랬다가 다른 곳에서 접한 동영상은 좀 더 자세한 설명이 포함되어 있었다.



결국 대충은 생각한 것과 비슷하지만 테이블 스크린의 편광 필터도 액정으로 동작하는 전자식이었다는 건 좀 의외다. SecondLight를 이용하지 않을 경우에는 전원을 꺼서 (즉, 빛을 거르지 않음으로써) 화면 밝기를 확보하거나, 아니면 그냥 두가지 화면이 모두 맺히는 걸 보면서 두 화면의 X, Y축 좌표를 맞추고 디버깅하는 용도로 쓰이는 거 아닐까 싶다. (원래 AR 계열 연구는 뭐 하나 세팅하려면 이 가상세계와 현실세계를 서로 calibration하는 게 큰 일이다. ㅡ_ㅡ;; )

SecondLight Explained from Microsoft

... 근데 고해상도 카메라라는 게 얼마나 고해상도인지 모르겠지만, 일반 사람들이 생각하는 고해상도 - 요새는 1600×1200 해상도의 디카사진도 고해상도로 안 치는 듯 - 라면 이 뒤에는 데스크탑 PC 본체가 2대는 연결되어 있어야 할 거다. 어쩌면 그 둘에서 인식한 영상을 연동해주는 정보처리 PC가 하나 더 필요할지도 모르고. 그게 아니라 영상인식에서 말하는 고해상도 - 640×480이나 요새는 혹시나 800×600 정도도 가능하려나 - 라면 멀티코어 PC 한 대로 어떻게 될 것도 같고. 어쨋든 PC가 빠지는 바람에 이 그림이 많이 간단해진 것 같다.



잠시 딴 이야기로 새자면, 2005년 쯤인가 HelioDisplay라는 '공중에 투사되는 화면'이 꽤나 주목받은 적이 있다.



내가 이 제품을 직접 볼 기회가 있었던 것은 2006년 6월에 있었던 전시회에서 였는데, 아래와 같은 사진을 찍으면서 이 제품의 '숨겨진 모습'을 볼 수 있었다.

3D Projection in the Air ... and the wall behind.3D Projection in the Air ... and the wall behind.

위 그림에서의 3D 공간 상의 스크린(사실은 수증기로 만든 2D 막으로, 특수한 노즐이 달린 가습기라고 생각하면 된다. 실제로도 물을 리필해줘야 하는데, 회사 광고에는 그런 소리 절대로 안 나온다. ㅎㅎㅎ )에 화면을 투사하는 방식으로 적당한 거리(이론 상 약 3m 떨어지면 양안시차로 구분할 수 있는 물리적/지각적 입체감은 거의 의미가 없고, 이미지 상의 패턴을 인지적으로 해석함으로써 입체감을 느끼게 된다.)에서 떨어져서 보면 실제 뭔가가 입체적으로 떠있는 듯한 느낌이 들기도 한다.

HelioDisplay with Somehow-Black Background
하지만 저 수증기 스크린은 투사되는 빛을 제대로 잡아주지 못하기 때문에 화면이 어둡고 화면 자체도 반투명하다. 그러다보니 회사 웹사이트의 이미지도 교묘하게 배경을 검게 만들었고, 위의 동영상이나 전시장도 검은배경을 만드는 게 관건이었던 것 같다. 위의 직찍 사진 중 한장은 일부러 비스듬하게 찍어서 흰색 배경을 넣었는데, 화면이 전혀 보이지 않는 걸 볼 수 있다.

저 위의 사진을 찍고 뒤돌아 서다가 본 광경은 좀 더 놀라왔는데, 스크린의 투과성이 높다 보니 화면에 뿌려지는 내용이 그대로 뒷쪽에도 뿌려지고 있었던 거다.



... 다시 Microsoft의 SecondLight로 돌아와서 -_-a;;

이 놀라운 시스템도, 결국은 테이블 스크린를 반투명하게 한 장치이고, 두번째 화면만 생각하자면 거의 대부분이 테이블 표면을 통과하기 때문에 그냥 투명하다고 할 수도 있겠다. 결국 동영상에서 보이는 두번째 화면은 사실 작은 화면(기름종이)에만 뿌려지는 게 아니라 천정과 발표자의 얼굴에도 뿌려지고 있을 것 같다. 그것만 해결한다면 실용적으로도 쓸모가 있을텐데, 지금으로선 천정이 높거나 검은 곳에서만 사용해야 할 것 같은 시스템이다. 특히 누군가가 테이블에 붙어서 열심히 쓰고 있다면 다른 사람은 모두 사용자의 얼굴에 비춰진 두번째 화면을 볼 수 있을지도. ㅎㅎ
신고
Posted by Stan1ey
엊그제 아는 분이 재미있는 동영상이라면서 URL을 하나 보내줬다. 바로 G-Speak. 모르긴 몰라도 꽤나 주목받을 것 같은 완성도의 제스처 입력 장치다. 일단은 받은 동영상부터 연결하고 시작하자.




Gestural Interface in Minority Report
영화 <마이너리티 리포트>가 개봉된 게 벌써 6년 전이다. 그 동안 수많은 Gesture UI와 Tangible UI, 그리고 가장 자격미달인 Touch UI까지 이 영화를 인용하며 자기 UI의 '혁신성'을 강조하곤 해왔다. (사실 영화야 2054년을 배경으로 했다고 해도 그것과 비교될 만한 걸 만든 건 왠지 혁신과는 거리가 있지 않나... -_-a ) 그런데, 이번엔 아예 영화 속의 동작기반 UI를 온갖 기술을 동원해서 똑같이 재현한 게 나온 거다. 이건 차라리 좀 혁신적이다.

G-Speak by Oblong Industries

이 프로토타입 시스템은 Oblong Industries이라는 작은 기술벤처 회사에서 개발한 것으로, 미국 방위산업체인 Raytheon Systems에서 자본을 댔다는 것 같다. 이 시스템에 대한 소개는 벌써 2006년 미국에서 방송을 탄 모양으로, CNN과 CBS에서 방송된 내용이 이미 유투브에 올라와 있다.

다음 날 아침에 추가:
뒤늦게 팀원이 지적해줘서 확인해 보니, 이 방송내용은 2006년 12월자 포스팅이다. =_=;; 결국 이때의 시스템을 개선(카메라 위치라든가 사용자 앞의 작업테이블로 이동하는 방식이라든가)해서 며칠 전에 맨 앞의 동영상을 올렸다고 보는 게 맞을 듯. 추가로 홍보비를 확보한 걸까. -_- 어쨋든 아래 뉴스 동영상에 기반한 내용들과 위 동영상 내용은 시기적으로 구분해서 참고하시길.



하나 더. (위의 것이 CNN, 아래 것이 CBS)


이제까지의 "마이너리티 리포트 방식" UI 들이 감히 하지 못한 게 데모 전에 실제로 영화의 장면을 보여주는 거 였는데, 저 화려한 실행장면에 비해서 그 일부만 구현했거나 온갖 보조장치가 덕지덕지 붙어 등장하는 기술데모는 초라하기 그지 없었기 때문이다. 그런데 이번엔 아예 보란듯이 나란히 보여주기까지... 아주 자신만만하다.

조금 감상적으로 씌여진 회사의 연혁 혹은 기술적 배경역사를 보면 알 수 있듯이, 이 회사의 대표는 바로 MIT Media Lab의 Tangible Media Group에서 Hiroshi Ishii 교수에게 수학했던 John Underkoffler이다. 말하자면 Tangible UI의 1세대라고 할 수 있겠는데, 그동안 그저 TUI의 태고적 흑백동영상 정도로 치부되던 1997년의 'Luminous Room' 동영상까지 덩달아 띄우고 있다. (이 기회에 개인적으로 좋아라 하는 I/O Bulb 개념에 대한 업계의 관심도 좀 살아나줬으면 좋겠는데 어쩌려나.)





이 사람의 배경을 생각하면서 뉴스에 나온 영상들을 들여다보면, 대충 이 시스템은 AR 태그를 이용한 인식방법과 모션캡춰를 결합해서 돈을 아끼지 않고 만든 시스템으로 보인다. 최소한 3대의 프로젝터와 최소한 6대의 적외선 카메라, 그것도 카메라는 상당히 고해상도임이 틀림 없다. 그렇다고 시스템이 고정된 건 아니고, 그때그때 공간에 맞게 설치해서 calibration해서 사용할 수 있는 모양이다. 맨 앞의 동영상을 자세히 들여다보면 사용자 앞의 벽면에서 사용자를 노려보는 카메라만 5개다.

G-Speak System ConfigurationG-Speak System ConfigurationG-Speak System Configuration

인식은 일반 모션캡춰에서 쓰이는 것보다 훨씬 작은 적외선 반사체를 양손의 장갑위의 손등과 엄지/검지/중지에 붙이되, 각각의 위치에 5x7의 격자를 놓고 35칸 중에서 5~6군데에만 반사체를 붙여 각각의 점을 구분하는 방법을 사용하고 있다. 널리 사용되는 AR Toolkit에서 흑백으로 인쇄된 종이를 사용하는 걸 응용한 듯.

G-Speak IR Tag for RecognitionG-Speak IR Tag for RecognitionG-Speak IR Tag for Recognition

IR LED Array in Ordinary Camera
문제는 정황 상으로는 비싼 군사용 고해상도 적외선 카메라와 엄청나게 빠른 컴퓨터를 사용했을 것 같은데, 카메라에 비친 저 카메라들과 광원의 모습은 전혀 적외선 카메라가 아니라는 거다. 일반적으로 적외선등(IR-LED Array)은 눈으로는 안 보이지만 보통 카메라로 찍으면 왼쪽 사진(2005년 용산 CGV의 영상인식 홍보설치물에서 촬영)처럼 보라색 광원으로 보이기 마련인데, 촬영된 동영상 어디에도 그런 건 없고 오히려 연두색 점광원만 보이고 있다. 흐음. 설마하니 자외선등 같은 건 아닐테고, 보안을 이유로 카메라에 적외선 필터라도 달게 한 걸까. 그렇다고 카메라의 빨강 LED가 녹색으로 보일 정도로 심한 필터링이 가능한지 모르겠다. ㅡ_ㅡa;;; 그 외에도 저 손가락 태그에 노란색/보라색 색이 칸칸이 다른 모양으로 칠해져 있는 이유가 딱이 설명되지 않는다. 뭔가 단순히 적외선 반사체의 배열로 AR tag를 대신해서 모션캡춰 장비에 연결시킨 것만은 아닌 모양.

그래서... 혹시나 해서 특허를 찾아보니 뭐 줄줄이 나온다. 저 앞의 뉴스에서는 원리가 비밀이라고 하더만, 딱히 비밀일 것도 없네 뭐. ㅡ_ㅡa;;; 대충 앞에서 설명한 것과 맞아 떨어진다. 2006년 2월에 출원했는데 여태 등록이 안 된 상태라서 그렇게 말한 걸지도 모르겠다. 어쨋든 특허만으로는 그냥 적외선 카메라 외에 특별한 걸 못 찾았다. 결국 이번 시스템의 기술적 비밀은 그저 막대한 (눈 먼) 군사자본이었던 거냐... OTL...

G-Speak Patent DrawingG-Speak Patent DrawingG-Speak Patent Drawing




바로 전의 소니의 동장인식 게임 컨트롤러의 뉴스도 그렇고, 며칠 후에 올리려고 하는 뉴스도 있고... 요 며칠 참 동작기반 UI 관련 소식이 많다. 이번의 G-Speak가 많은 동작 UI 팬들의 마음을 설레게 할 만큼 영화 속의 환상을 잘 재현하고, 상상으로만 생각하던 동작인식 시스템을 그대로 구현한 건 사실이지만... 여전히 UI의 근원적인 질문을 안 할 수는 없을 것이다. "이게 쓰기 편할까?"

솔직히 동작인식.. 그것도 저렇게 양팔을 열심히 돌리고 움직여야 하는 UI가 사용자에게 편할 리가 없잖아. =_=;;; 테러리스트 잡으려는 일념으로 뭐 하나 검색하고 나면 완전 땀으로 범벅 되겠다. ㅋㅋ 게다가 동작 UI 해 본 사람은 안다. 동작명령 외우는 게 "가리키기"와 "잡기"를 제외하고는 (그런데 이것도 결국 마우스의 point and click이라 ;ㅁ; ) 얼마나 어려운지.

테러리스트 잡으려면 사실 데이터가 확보되는 게 우선이고, 데이터가 확보된 후에는 3D 마우스나 터치스크린 정도면 충분한 속도로 검색할 수 있을 것 같다. 굳이 저렇게 '달밤에 체조'를 하지 않아도 볼 수 있는 건 충분히 볼 수 있으텐데 말이지... 굳이 사용자의 손을 영상인식으로 추적하는 것보다, 수집된 영상데이터에서 수상쩍은 상황을 영상인식으로 골라내서 보통 PC 앞에 앉은 사람에게 최종확인을 맡기는 게 나을 것 같은 생각이 든다. ㅡ_ㅡa;; (아 물론 쫌 과장이다. 적외선 광점을 찾아내는 건 수상한 상황을 인식하는 것보다 몇천배 쉽다 ^^: )
신고
Posted by Stan1ey
소니에서 초음파를 이용해서 컨트롤러의 위치를 파악하는 특허를 출원했다고 한다. 얼마전부터는 전통적인 컨트롤러를 반쪽으로 나눠서 양손에 들고 조작할 수 있도록 하는... 즉 완전히 Wii Remote와 같은 방식의 컨트롤러를 만들고 있다는 소문이 돌더니만, 초음파니 뭐니 해서 '그렇다면 관심이 있지...'하고 좀 찾아보니 결국은 같은 특허(US App#2008/0261693: "Determination of Controller Three-Dimensional Location Using Image Analysis and Ultrasonic Communication")다. 이 내용이 원래 특허를 분석했던 사람의 글에서 블로거 편한대로 이리저리 인용되다보니 지면관계상 -_- 쿨해 보이는 부분만 전달된 것 같다. 그냥 양손으로 조작하거나 초음파 센서만 이용하는 게 아니라, 영상까지 사용한다니 더 관심이 가서 좀 읽어봤다.

Motion Tracking Game Controller from SonyMotion Tracking Game Controller from SonyMotion Tracking Game Controller from Sony
Motion Tracking Game Controller from SonyMotion Tracking Game Controller from Sony

결국 양손으로 하나씩 잡고 조작할 수 있는 컨트롤러가 있고, 그걸 양손용으로 바꿀 수 있도록 하는 수십년전의 변신로봇 프라모델같은 아이디어가 있다는 게 한 부분이고, 그 각각의 위치를 추적하는 부분이 두번째 부분인 것 같다. 그런데 정작 내가 관심을 가진 이 두번째 부분이 왠지 복잡하다. -_-a;;; 제목에서 나와있는 영상분석이라는 건 기존의 EyeToy를 이용한 영상인식을 염두에 둔 것 같고, 영상인식을 이용해서 얻어진 X, Y축 데이터에 초음파 펄스를 이용한 거리측정 - 전자칠판 같은 데에 자주 쓰이는 방식이다 - 으로 Z축 데이터를 추가해서 정확한 3차원 상의 위치를 잡아낸다는 내용이다.

Motion Tracking Game Controller from SonyMotion Tracking Game Controller from Sony

영상인식에 대한 청구항을 보면 "RGB값이나 적외선을 이용해서 영상 중의 둥근 모양을 위치를 인식"한다고 되어 있는데, 울긋불긋한 옷을 입은 플레이어나 크리스마스 트리를 흔드는 광경이 걱정된다면 역시 적외선을 사용하게 되리라 생각한다. 보통은 카메라 주변에 적외선을 넉넉히 뿌려주면서 구형의 반사체(은박을 뭉친 것 같이 생긴 구슬로, 모션캡춰 할 때 붙이는 것)에서 반사되는 빛을 이용하는데, 이 경우엔 광원 자체를 구슬 안에 넣어버린 거다.

초음파를 이용한 화면~컨트롤러 간의 거리인식도 조금은 다른 방식을 사용하고 있다. 그냥 한쪽에 발신기(스피커)를 한쪽에 수신기(마이크)를 달아서 발신기가 초음파를 쏴대면 수신기에서 그 펄스를 받아서 거리를 잡는 게 아니라, 양쪽에 수발신기를 모두 달아서 본체(아이토이 카메라에 붙어있는 모습으로 표현되어 있다)가 먼저 펄스를 보내고, 컨트롤러에서 그에 대한 응답으로 다시 펄스를 보내는 복잡한 방식을 취하고 있다. 이렇게 함으로써 양손에 따로 들려있는 컨트롤러의 위치를 동시에 타이밍을 맞춰 갱신할 수 있다는 것이다. 영상인식보다는 이 부분이 이 특허의 골자가 아닐까 싶다. 이 시차를 이용한 거리인식을 이용해서 여러 명의 플레이어는 물론이고 좌우 컨트롤러를 따로 구분해서 인식할 수도 있을 것이다.
Motion Tracking Game Controller from Sony

한가지 좀 이상한 것은, 굳이 영상인식과 거리인식을 둘 다 하지 않아도 3차원 상의 위치정도는 알아낼 수 있다는 거다. 영상인식에서는 구슬의 크기를 이용해서 다소간의 오차를 감안하면 거리를 알 수가 있고, 초음파 인식 장치를 3군데에서 하면 상당히 정확하게 공간상의 위치를 삼각측량 triangulation 해낼 수 있을 것이다. 하지만 그렇게 하지 않은 이유는, EyeToy라는 조그마한 장치 하나를 덧붙여서 모든 것을 해결하고자 했거나, 뭔가 남들이 사용하지 않아 특허로 보호받을 수 있는 독특한 기술을 사용함으로써 조금 일이 복잡해지더라도 그 조작체계를 보호하고자 하는 목적인 것 같다. 그냥 초음파만 발산하는 장치라면 소니의 라이센스를 받지 않고도 만들 수 있을테니까. (뭐 최근 Immersion 사에 거액의 특허료를 지불하고는 정신이 번쩍 들기도 했을꺼다. ㅎㅎㅎ )

뭐 하지만 소니가 과연 이걸 제품화할지는 잘 모르겠다. Wii가 처음 소개되고 나서도 부랴부랴 Wii와 비슷한 방식 - 단, 소니의 특허는 컨트롤러에서 LED가 적외선 패턴을 표시하고 화면 쪽의 카메라에서 그 패턴을 분석하는 방식이었다 - 으로 컨트롤러의 위치를 파악하는 특허를 출원하기도 했지만, 결국 너무 서둘러 '뭔가 출원'해서 였는지 (그림 그린 걸 봐라 -_- ), 영상인식 분야에서 워낙에 많이 쓰여왔던 방식이어선지 특허로도 연결되지 못했고, 상품화도 되지 못했다. 이번 특허는 기술적인 진보의 측면에서는 조금 더 나아보이니까 가능성은 좀 높겠지만.

Old Motion Tracking Game Controller from Sony, 2006Old Motion Tracking Game Controller from Sony, 2006

어느 쪽이든 게임 분야에서만큼은 동작, 혹은 공간 상의 위치와 방향를 이용해서 뭔가 하는 것이 대세가 되어가고 있는 것 같다. 그보다는 컨트롤러에 버튼 갯수를 늘리는 것보다 다른 센서가 포함된 소위 "게임기 주변장치"가 대세라고 하는 게 맞을까. 옛날 "PC 주변장치"라는 말이 있었던 것이 이렇게 쓰이는 걸 보면 참 어색하긴 하지만. 뭐 덕택에 HTI 입장에서는 재미있는 이야기꺼리가 거의 매일 쏟아지고 있는 요즘이다.
신고
Posted by Stan1ey
며칠 후에 일본에서 발매되는 반다이 장난감 중에 "Tuttuki Bako"라는 게 있다. 일본어 잘 하는 친구에게 물어보니 "찌르기 상자"라는 이름이라고. 스카이벤처에 소개되어 있는 글을 보고 웹사이트를 찾아가 보니, 이게 참 재미있어 보이는 장난감이다.

[▶] 동영상 보기 (주의: 시작하면 소리와 함께 반복재생)




 

ㅎㅎ 왠지 코후비기나 귀파기 같은, '구멍에 손가락 찔러넣기' 본능을 충족시켜 줄 것도 같고, 무엇보다 상자 안에 넣은 손가락이 디지털화되어 가상으로 화면에 나타난다는 발상이 기발하다. "아날로그와 디지털이 통하는 커뮤니케이션 토이"란다. 박수박수!! 디지털 세상에 집어넣은 손가락 끝으로 디지털 물체들과 물리적 인터랙션을 할 수 있다니. 와우.

이제까지의 증강현실 AR... 혹은 이 경우엔 그냥 혼합현실 Mixed Reality 이라는 용어를 갖다쓰는 게 적당하려나. 어쨋든 기존에는 주로 공간에서 뭘 하겠다든가 환경에서 뭘 하는 경우가 많았고, 실내에서도 늘상 테이블 위라든가 벽면이라든가 하는 커다란 작업공간을 제공하고 몸이나 물건들을 이리저리 움직이는 걸 추적해서 뭔가를 하겠다고 궁리하곤 했다. 하지만 그렇게 비싼 HMD라든가 카메라와 프로젝터를 사용하지 않고도, 상자 안에 손가락 하나 찔러넣는 걸로도 이렇게 현실과 가상현실을 훌륭하게 섞어버릴 수 있는 거 였다.

솔직히 위 동영상에서 소개하고 있는, 내장된 게임들은 발상에 비해서 좀 생각이 짧았던 것 같지만, 어차피 입력이 복잡한 게 아니니 이런 거야 말로 게임을 만들 수 있는 API를 공개해서 사람들한테 만들게 하면 재미있고 위험한(쿨럭 ;ㅁ; ) 게임까지도 많이 나올 수 있지 않을까?

Tuttuki Baxo from AsoVision

그런데, 한가지 HTI 쟁이스러운 의문이 있다면 이걸 어떻게 구현했느냐는 거다. -_-a;;; 분명 게임기니까 무슨 영상인식같은 고급기술은 애당초 힘들고, 적외선 광원이나 광센서를 이용하기엔 배터리가 신경쓰였을꺼다. 결국 passive sensor 중에서 2D 상의 위치를 비교적 자유롭게 잡을 수 있는 방법이...

... ...모르겠다. OTL...

한가지 가능한 거라면 저 손가락이 실제 사용자 손가락의 재현이 아니고, 사실은 손가락 끝만 찾은 다음에 구멍과의 거리/위치를 바탕으로 대충 맞게 그리는 방식인데, 그렇다면 스프링에 연결된 물리적인 센서 2개(X, Y축)만으로도 어떻게든 구현은 될 것 같다. 슬라이더 센서나 회전 센서를 쓰면 ... 그래도 비싸고 durability가 걱정되는데...

아무래도 확신은 없다. ㅎㅎ 일본 갈 일이 있으면 하나 사봐야지. (즉, 아무래도 볼 기회가 없을 것 같다는 소리다. ㅠ_ㅠ )
신고
Posted by Stan1ey

얼마 전부터 이 블로그 왼쪽 메뉴 끄트머리에 아이폰 카메라로 찍어대는 일상의 모습을 연결해 두고 있다. 아이폰 카메라를 자주 쓰다보니 종종 아래와 같은 사진이 찍히는 걸 보게 된다.

Waving Photo, taken walking with iPhone

그냥 돌로 만들 블록들이 깔린 길을 걸어가면서 찍은 사진이고, 사실 블록들은 똑바로 깔려 있는데도 불구하고, 사진은 이렇게 묘하게 나오는 거다. 일정하게 휘거나 하는 것도 아니어서 희한하게 생각하다가, 마침 버스를 타고 동네를 통과할 일이 있어서 - 이 작은 동네에서는 자주 있는 일이 아니다 - 한번 이래저래 찍어봤다.

Waving Photo, taken on running bus with iPhoneWaving Photo, taken on running bus with iPhoneWaving Photo, taken on running bus with iPhone
Waving Photo, taken on running bus with iPhoneWaving Photo, taken on running bus with iPhone

버스가 상하로 흔들리면서 앞으로 가고 있었다는 걸 생각해 보면, 아이폰 카메라는 (1) CMOS 영상 센서를 구획별로 나누어서, (2) 한쪽에서부터 순차적으로 센싱을 진행하는 것 같다. 거기다가 잘 알려진 느려터진 셔터스피드와 심지어 셔터랙까지 가세해서 이런 사진들이 나오는 듯 하다. 구글을 뒤져보니 이런 특성을 이용해서 독특한 사진을 찍는 사람도 심심찮게 있다.

... 뭐 이런 센서 특성은 아이폰으로 영상인식 어플리케이션을 만들려면 심각하게 고려해야 할 일(이를테면 느린 셔터스피드 때문에 생기는 오류를 필터링해서 줄이거나, 최소한 제대로된 오류메시지를 제시할 수 있을 거다)이겠지만, 사실 이것만으로는 그냥 쓸데없는 정보일 뿐이다. 그냥 사진을 찍은 김에 저장해 둬야 겠다는 생각이 들어서 끄적거려 봤다. -_-a;;;
신고
Posted by Stan1ey

BLOG main image
by Stan1ey

카테고리

분류 전체보기 (347)
HTI in General (45)
User eXperience (11)
Voice UI (50)
Vision UI (14)
Gesture UI (25)
Tangible UI (28)
Robot UI (14)
Public UI (9)
Virtuality & Fun (56)
Visual Language (15)
sCRAP (70)

글 보관함



www.flickr.com
This is a Flickr badge showing public photos and videos from Stan1ey. Make your own badge here.