Car that Sees.

2009.01.13 09:53

이 블로그에서 (아마도) 다루고 있는 이런저런 기술들을 도입하는 첫번째 플랫폼으로, 배터리 걱정도 기구부 걱정도 적으면서도 여전히 개인 최적화가 가능한 자동차가 적합하리라는 얘기를 한 적이 있다. 그런 사례가 하나 더 생긴 듯 해서 그냥 간단히 적어보려고 한다. 요새 글이 너무 적기도 하고.

Vauxhall (Opel) Insignia

위 사진은 최근 열심히 광고하고 있는 Vauxhall (유럽 다른 국가에서는 Opel 브랜드)의 Insignia라는 자동차의 새로운 모델이다.



TV 광고에 영상인식을 통한 표지판 읽기(사실은 아주 규격화된 속도제한 표시를 중심으로 읽는 것 같으니, 방향표시 같은 건 못 읽을 듯)를 보여주길래, embedded computer가 많이 빨라졌나보네... 하면서 웹사이트에 들어가봤다.


우선은, 광고에 실린 '표지판 읽기' 기능.
Vision Recognition on Insignia
영상인식 기능은 룸미러 뒤에 있는 카메라를 통해서 진행되는데, 밤낮으로 된다고 하는 건 좀 신기하다. 밤에 적외선 영상을 쓸만한 조건은 안 되어 보이는데, 그냥 저런 표시판은 보통 난반사 재질에 그려져 있고 밤에는 전조등을 켜고 다닐테니 어쨋든 보일꺼라는 배짱일까? -_-a;; 게다가 이 모델의 웹사이트를 가보면 전조등이 유달리 좌우로 퍼져있는 모습으로 다시 디자인되어 있기도 하다. -_-+a;;;;;

어쨋든 이 표지판 읽기는 읽어진 표지판을 기억하는 기능을 포함하고 있기 때문에 (그냥 표지판이 지나간 후에도 표시를 지우지 않는 것 뿐이지만;;;) "지금 달리고 있는 도로가 제한속도가 몇이었지?"라는 생각이 들 때 표지판이 나오지 않아도 계기판에 가장 최근에 지나친 속도표지판이 떠 있으므로 편리하다고 하고 있다.


그런데, 그 외에도 '차선 읽기' 기능이 역시 영상인식을 통해 포함되어 있다.
Vision Recognition on Insignia
같은 카메라를 통해서 구현된 이 기능은 자동차의 속도가 40mph (대략 64km/h) 에 다다르면 동작하는데, 차선을 제대로 따라가고 있으면 녹색 등이, 차선을 벗어나고 있으면 붉은 등이 켜진다. 저 분명히 차선을 벗어나고 있는 모양의 아이콘에 녹색이라고 해도 일단 불이 켜지면 사용자는 차선을 벗어나고 있다고 느낄 것 같기는 하지만, 뭐 좋은 UI 기술에 항상 좋은 UI가 따라붙는 건 아니니 아쉽지만 어쩔 수 없겠다.
땅덩어리 넓어 오랜시간 뻥 뚫린 길을 운전해야 하는 나라에서는 비싼 차부터 차선을 따라서 자동으로 핸들을 움직여 주고 앞차와의 거리에 따라 속도를 조절해주는 크루즈 컨트롤 cruise control 기능이 붙은지 오래지만, 아마 이 모델에 포함된 '차선 벗어나면 경고' 기능은 그런 고급 기능이 가지고 있는 책임소재 문제 등을 고려한 적용으로 보인다. 일종의 scalable AI라고 생각되는 건 뭐 눈에 뭐만 보이는 격일까.



어쨋든, 마빡에 카메라 붙이고 (오오... 전두엽으로 퇴화되었다는 제3의 눈인 거냐!!!) 앞길을 보는 자동차가 나왔다.

얼마나 오래전에 나왔는지는 잘 모르겠으나 일단 지금 눈에 띄었으니 스크랩.

신고
Posted by Stan1ey
Video games: Why waste good technology on science and medicine?

앞의 글을 정리하다가, CHI 2008 학회 중 3D User Interface 코스의 발표자료에서 보고 찍어두었던 위 이미지를 찾았다. 강좌의 의도도 있고 하니까 다분히 의도된 그림이겠지만, 그래도 엔지니어링을 하는건지 개발을 하는 건지 발명을 하는 건지 디자인을 하는 건지 UI를 하는 건지 모르겠다는 생각이 자주 드는 사람으로서는 뭔가 확 와닿는 그림이다.

그래서 그냥 스크랩. (사실은 블로그 글 꾸준히 올라오게 하기 -_-;;; )
신고
Posted by Stan1ey
재미있는 웹사이트를 발견했다. 일단 동영상 하나.



물론 이 뉴스는 뻥이다. ㅡ_ㅡa;;; 이 웹사이트 - theOnion.com - 이 원래 재미있는 가짜 뉴스를 재미있게 정성껏 만들어서 올리기로 유명한 곳이고, CNN을 흉내낸 듯한 ONN이라는 TV 방송도 기가 막히게 잘 만들었다. 동영상이 끝나고 나오는 광고 뒤에, "Web-only Bonus Clip"도 빼놓지 말고 보기 바란다. 정말 인터뷰 하는 등장인물들 천연덕스럽게 잘도 연기한다. =_=;;; 이 방송내용('Warcraft' Sequel Lets Gamers Play A Character Playing 'Warcraft') 외에도 지난 번 미국대선 특별방송;;; 때에는 터치스크린 방식의 투표기계에 대한 재미있는 방송이 올라오기도 했다. (Voting Machines Elect One Of Their Own As President)



어쨋든 개인적으로는, 이 'World of World of Warcraft' 라는 개념은 참 재미있는 발상인 것 같다. 게임이라는 게 우리가 하고 싶어하는 뭔가를 대신 발산할 수 있게 해주는 기능이 있다고 한다면, 뉴스에서 블리자드 관계자 -_- 가 말하는 대로 실제로 노움이 돼서 광산을 헤매고 늑대나 잡고 있는 게 아니라 WoW를 플레이하는 걸 할 수 있어야 하는 거 아닐까! ... 역시나 말장난이긴 하지만, 그래도 뭔가 가상과 실제, 게임과 현실, 게임 플레이의 목적과 게임의 목적 등등을 묘하게 풍자해 놓은 듯한 느낌이 들어서 스크랩해 둔다.

World of World of Warcraft, from Onion News NetworkWorld of World of Warcraft, from Onion News NetworkScreenshot of World of World of Warcraft, from Onion News Network
Screenshot of World of World of Warcraft, from Onion News NetworkScreenshot of World of World of Warcraft, from Onion News NetworkScreenshot of World of World of Warcraft, from Onion News Network

모처럼 길게 생각하고 따다 붙이고 쓸데없는 소리 늘리는 거 없이 이걸로 끝.
신고
Posted by Stan1ey
일전에 관심을 가지고 있었던 2.5D 위치인식 카메라의 실제 어플리케이션이, 한 캐나다 업체에 의해서 만들어져 MIGS 2008이라는 데에서 발표된 모양이다. (MIGS는 Montreal International Game Summit 이란다) 에딘버러 오가는 기차 안에서 밀린 Podcast를 보다가 이 독특한 이름 - Mgestyk (= majestic) - 을 어떻게든 외워서 회사 웹사이트에 들어가 볼 수 있었다.

Mgestyk - 2.5D Gesture RecognitionMgestyk - 2.5D Gesture Recognition

(사족: 이 이미지 만든 사람 칭찬해 주고 싶다. PNG인 것도 그렇고, 단순히 배경 덮지 않고 투명으로 뺀 것도 그렇고. 디자인 감각은 잘 모르겠지만 웹 그래픽을 잘 이해해 주고 있는 듯. 이런 사람도 흔치 않은 게 현실이다.)

일단 이 회사는 하드웨어나 센서를 만드는 회사는 아니고, 전의 포스팅에서 소개했던 3DV Systems사의 3D 카메라를 가져다 어플리케이션을 만든 회사이다. 웹사이트에서 동영상을 보면, 일단 그네들이 만든 내용을 전반적으로 볼 수 있다.





센서야 전에 들여다 본 내용이니 뭐 딱이 말할 거 없고, 이 회사는 인식된 그 공간정보를 이용해서 손모양을 인식하는 소프트웨어를 만든 모양이다. 위 오른쪽 사진을 보면 인식된 바에 따라서 손모양이 바뀌는 정말 누가봐도 기술데모용의 소프트웨어가 화면 한켠에 보인다. :)

이 3D 카메라, 혹은 뭐 내맘대로 부르고 있는 2.5D 센서-카메라는 적외선을 이용하고 있다는 게 아래 사진에서 잘 나타나고 있다. 그러니까 사실 위 동영상에서 Wii Remote의 센서바 - 사실은 적외선 LED 여러개 - 를 사용하지 않고 있다는 것은 사실 간섭 때문에 사용할 수가 없는 이유도 있을 꺼다. :P 
 
Mgestyk - 2.5D Gesture Recognition using InfraRed Distance Measuring

그래도 이 센서-카메라에 주목해야 한다고 생각하는 이유는, 무엇보다 그다지 비쌀 이유가 없는 구성 때문이다. 해상도(거리해상도)는 좀 떨어질지 모르고, 저 정도 광원으로는 대충 2m 정도 떨어지면 반사수신율 턱없이 떨어질테고, 햇빛이나 조명에 의한 간섭이 걱정될지 모르지만, 그래도 이 정도 간단한 구성으로 뭐가 됐든 공간 상의 동작을 인식할 수 있다는 건 굉장히 매력적인 거다.

원래의 데모에서처럼 PC 모니터나 TV 같은 영상기기에 직접 붙여도 좋겠지만, 리모컨을 대신할만한 물건 같은 것도 좋겠다. 소파 옆이나 커피테이블 위에 놓고 그 위에서 손짓하면 조작되는. (아 그런데 갑자기 눈에 먼지가... ;ㅁ; ) 배터리 귀신일 듯한 적외선 LED array는 터치/근접/움직임 센서에 의해서 켜도록 하면 배터리로 동작하는 것도 가능할지도 모르겠다. 적어도 Wii Remote는 카메라와 통신장치를 갖추고도 배터리로 잘 쓰이고 있으니까, LED만 잘 조정하면 뭐.

... 사실 생각해 보면 굳이 테이블 위에 놓을 필요도 없는데. 리모컨 마냥 잃어버리기도 쉽고. (아 그런데 자꾸 눈에 먼지가 ;ㅁ; )

저 카메라의 '시야'는 단지 광각으로 결정되는 게 아니라 거리까지 포함된 공간으로 정의될텐데, 개인적으로는 그 안에 얼굴이나 발이나 인형을 들이밀면 어떻게 반응할지 어떨지가 궁금하다. ㅋㅎㅎ 뭐 결국에는 거리와 크기의 상관관계라든가 반사율에 의한 표면재질을 판단한다든가 등등 적당히 걸러낼 수는 있겠지만 말이지.



... 결국, 본의 아니게 또 동작기반 UI에 대해서 쓰고 말았다. 이뭥미... 난 Voice UI를 정리하고 싶단 말이다... -_ㅜ 아무리 봐도 동작 입력의 한계는 분명해서 저 데모에서도 "데모하는 사람 팔 아프겠다..."라든가 "저 동작 실수없이 다 하려면 몇번이나 다시 찍었을까..." 싶은 생각이 드는데, 그럼에도 불구하고 "대세는 동작"이라는 분위기의 요즘이다.
신고
Posted by Stan1ey
마이크로소프트에서 Surface Computing을 가지고 구형으로 뿌리나 싶더니 이번에는 SecondLight라는 개념을 추가했다고 한다. 첫번째 소식을 듣고는 저걸 어떻게 만들었을까를 이리저리 그려봤었는데, 동영상에서는 2개의 프로젝터와 액정필름을 이용했다는 것만 이야기하고 있다.



저 위의 손으로 들어 옮기는 '스크린'은 그냥 기름종이라고 하니, 결국 거기서 뭔가 하지는 않을테고, 결국 뭐 프로젝터에서 나오는 광선을 하나는 가로방향, 하나는 세로방향의 편광필터를 통과시켜서 역시 편광필터가 있는 스크린에 투과해서 편광 방향이 일치하는 화면은 상이 맺히지 않고 통과, 일치하지 않는 화면은 상이 맺히는 거 아닐까라는 게 첫번째 생각이었다.

그랬다가 다른 곳에서 접한 동영상은 좀 더 자세한 설명이 포함되어 있었다.



결국 대충은 생각한 것과 비슷하지만 테이블 스크린의 편광 필터도 액정으로 동작하는 전자식이었다는 건 좀 의외다. SecondLight를 이용하지 않을 경우에는 전원을 꺼서 (즉, 빛을 거르지 않음으로써) 화면 밝기를 확보하거나, 아니면 그냥 두가지 화면이 모두 맺히는 걸 보면서 두 화면의 X, Y축 좌표를 맞추고 디버깅하는 용도로 쓰이는 거 아닐까 싶다. (원래 AR 계열 연구는 뭐 하나 세팅하려면 이 가상세계와 현실세계를 서로 calibration하는 게 큰 일이다. ㅡ_ㅡ;; )

SecondLight Explained from Microsoft

... 근데 고해상도 카메라라는 게 얼마나 고해상도인지 모르겠지만, 일반 사람들이 생각하는 고해상도 - 요새는 1600×1200 해상도의 디카사진도 고해상도로 안 치는 듯 - 라면 이 뒤에는 데스크탑 PC 본체가 2대는 연결되어 있어야 할 거다. 어쩌면 그 둘에서 인식한 영상을 연동해주는 정보처리 PC가 하나 더 필요할지도 모르고. 그게 아니라 영상인식에서 말하는 고해상도 - 640×480이나 요새는 혹시나 800×600 정도도 가능하려나 - 라면 멀티코어 PC 한 대로 어떻게 될 것도 같고. 어쨋든 PC가 빠지는 바람에 이 그림이 많이 간단해진 것 같다.



잠시 딴 이야기로 새자면, 2005년 쯤인가 HelioDisplay라는 '공중에 투사되는 화면'이 꽤나 주목받은 적이 있다.



내가 이 제품을 직접 볼 기회가 있었던 것은 2006년 6월에 있었던 전시회에서 였는데, 아래와 같은 사진을 찍으면서 이 제품의 '숨겨진 모습'을 볼 수 있었다.

3D Projection in the Air ... and the wall behind.3D Projection in the Air ... and the wall behind.

위 그림에서의 3D 공간 상의 스크린(사실은 수증기로 만든 2D 막으로, 특수한 노즐이 달린 가습기라고 생각하면 된다. 실제로도 물을 리필해줘야 하는데, 회사 광고에는 그런 소리 절대로 안 나온다. ㅎㅎㅎ )에 화면을 투사하는 방식으로 적당한 거리(이론 상 약 3m 떨어지면 양안시차로 구분할 수 있는 물리적/지각적 입체감은 거의 의미가 없고, 이미지 상의 패턴을 인지적으로 해석함으로써 입체감을 느끼게 된다.)에서 떨어져서 보면 실제 뭔가가 입체적으로 떠있는 듯한 느낌이 들기도 한다.

HelioDisplay with Somehow-Black Background
하지만 저 수증기 스크린은 투사되는 빛을 제대로 잡아주지 못하기 때문에 화면이 어둡고 화면 자체도 반투명하다. 그러다보니 회사 웹사이트의 이미지도 교묘하게 배경을 검게 만들었고, 위의 동영상이나 전시장도 검은배경을 만드는 게 관건이었던 것 같다. 위의 직찍 사진 중 한장은 일부러 비스듬하게 찍어서 흰색 배경을 넣었는데, 화면이 전혀 보이지 않는 걸 볼 수 있다.

저 위의 사진을 찍고 뒤돌아 서다가 본 광경은 좀 더 놀라왔는데, 스크린의 투과성이 높다 보니 화면에 뿌려지는 내용이 그대로 뒷쪽에도 뿌려지고 있었던 거다.



... 다시 Microsoft의 SecondLight로 돌아와서 -_-a;;

이 놀라운 시스템도, 결국은 테이블 스크린를 반투명하게 한 장치이고, 두번째 화면만 생각하자면 거의 대부분이 테이블 표면을 통과하기 때문에 그냥 투명하다고 할 수도 있겠다. 결국 동영상에서 보이는 두번째 화면은 사실 작은 화면(기름종이)에만 뿌려지는 게 아니라 천정과 발표자의 얼굴에도 뿌려지고 있을 것 같다. 그것만 해결한다면 실용적으로도 쓸모가 있을텐데, 지금으로선 천정이 높거나 검은 곳에서만 사용해야 할 것 같은 시스템이다. 특히 누군가가 테이블에 붙어서 열심히 쓰고 있다면 다른 사람은 모두 사용자의 얼굴에 비춰진 두번째 화면을 볼 수 있을지도. ㅎㅎ
신고
Posted by Stan1ey
엊그제 아는 분이 재미있는 동영상이라면서 URL을 하나 보내줬다. 바로 G-Speak. 모르긴 몰라도 꽤나 주목받을 것 같은 완성도의 제스처 입력 장치다. 일단은 받은 동영상부터 연결하고 시작하자.




Gestural Interface in Minority Report
영화 <마이너리티 리포트>가 개봉된 게 벌써 6년 전이다. 그 동안 수많은 Gesture UI와 Tangible UI, 그리고 가장 자격미달인 Touch UI까지 이 영화를 인용하며 자기 UI의 '혁신성'을 강조하곤 해왔다. (사실 영화야 2054년을 배경으로 했다고 해도 그것과 비교될 만한 걸 만든 건 왠지 혁신과는 거리가 있지 않나... -_-a ) 그런데, 이번엔 아예 영화 속의 동작기반 UI를 온갖 기술을 동원해서 똑같이 재현한 게 나온 거다. 이건 차라리 좀 혁신적이다.

G-Speak by Oblong Industries

이 프로토타입 시스템은 Oblong Industries이라는 작은 기술벤처 회사에서 개발한 것으로, 미국 방위산업체인 Raytheon Systems에서 자본을 댔다는 것 같다. 이 시스템에 대한 소개는 벌써 2006년 미국에서 방송을 탄 모양으로, CNN과 CBS에서 방송된 내용이 이미 유투브에 올라와 있다.

다음 날 아침에 추가:
뒤늦게 팀원이 지적해줘서 확인해 보니, 이 방송내용은 2006년 12월자 포스팅이다. =_=;; 결국 이때의 시스템을 개선(카메라 위치라든가 사용자 앞의 작업테이블로 이동하는 방식이라든가)해서 며칠 전에 맨 앞의 동영상을 올렸다고 보는 게 맞을 듯. 추가로 홍보비를 확보한 걸까. -_- 어쨋든 아래 뉴스 동영상에 기반한 내용들과 위 동영상 내용은 시기적으로 구분해서 참고하시길.



하나 더. (위의 것이 CNN, 아래 것이 CBS)


이제까지의 "마이너리티 리포트 방식" UI 들이 감히 하지 못한 게 데모 전에 실제로 영화의 장면을 보여주는 거 였는데, 저 화려한 실행장면에 비해서 그 일부만 구현했거나 온갖 보조장치가 덕지덕지 붙어 등장하는 기술데모는 초라하기 그지 없었기 때문이다. 그런데 이번엔 아예 보란듯이 나란히 보여주기까지... 아주 자신만만하다.

조금 감상적으로 씌여진 회사의 연혁 혹은 기술적 배경역사를 보면 알 수 있듯이, 이 회사의 대표는 바로 MIT Media Lab의 Tangible Media Group에서 Hiroshi Ishii 교수에게 수학했던 John Underkoffler이다. 말하자면 Tangible UI의 1세대라고 할 수 있겠는데, 그동안 그저 TUI의 태고적 흑백동영상 정도로 치부되던 1997년의 'Luminous Room' 동영상까지 덩달아 띄우고 있다. (이 기회에 개인적으로 좋아라 하는 I/O Bulb 개념에 대한 업계의 관심도 좀 살아나줬으면 좋겠는데 어쩌려나.)





이 사람의 배경을 생각하면서 뉴스에 나온 영상들을 들여다보면, 대충 이 시스템은 AR 태그를 이용한 인식방법과 모션캡춰를 결합해서 돈을 아끼지 않고 만든 시스템으로 보인다. 최소한 3대의 프로젝터와 최소한 6대의 적외선 카메라, 그것도 카메라는 상당히 고해상도임이 틀림 없다. 그렇다고 시스템이 고정된 건 아니고, 그때그때 공간에 맞게 설치해서 calibration해서 사용할 수 있는 모양이다. 맨 앞의 동영상을 자세히 들여다보면 사용자 앞의 벽면에서 사용자를 노려보는 카메라만 5개다.

G-Speak System ConfigurationG-Speak System ConfigurationG-Speak System Configuration

인식은 일반 모션캡춰에서 쓰이는 것보다 훨씬 작은 적외선 반사체를 양손의 장갑위의 손등과 엄지/검지/중지에 붙이되, 각각의 위치에 5x7의 격자를 놓고 35칸 중에서 5~6군데에만 반사체를 붙여 각각의 점을 구분하는 방법을 사용하고 있다. 널리 사용되는 AR Toolkit에서 흑백으로 인쇄된 종이를 사용하는 걸 응용한 듯.

G-Speak IR Tag for RecognitionG-Speak IR Tag for RecognitionG-Speak IR Tag for Recognition

IR LED Array in Ordinary Camera
문제는 정황 상으로는 비싼 군사용 고해상도 적외선 카메라와 엄청나게 빠른 컴퓨터를 사용했을 것 같은데, 카메라에 비친 저 카메라들과 광원의 모습은 전혀 적외선 카메라가 아니라는 거다. 일반적으로 적외선등(IR-LED Array)은 눈으로는 안 보이지만 보통 카메라로 찍으면 왼쪽 사진(2005년 용산 CGV의 영상인식 홍보설치물에서 촬영)처럼 보라색 광원으로 보이기 마련인데, 촬영된 동영상 어디에도 그런 건 없고 오히려 연두색 점광원만 보이고 있다. 흐음. 설마하니 자외선등 같은 건 아닐테고, 보안을 이유로 카메라에 적외선 필터라도 달게 한 걸까. 그렇다고 카메라의 빨강 LED가 녹색으로 보일 정도로 심한 필터링이 가능한지 모르겠다. ㅡ_ㅡa;;; 그 외에도 저 손가락 태그에 노란색/보라색 색이 칸칸이 다른 모양으로 칠해져 있는 이유가 딱이 설명되지 않는다. 뭔가 단순히 적외선 반사체의 배열로 AR tag를 대신해서 모션캡춰 장비에 연결시킨 것만은 아닌 모양.

그래서... 혹시나 해서 특허를 찾아보니 뭐 줄줄이 나온다. 저 앞의 뉴스에서는 원리가 비밀이라고 하더만, 딱히 비밀일 것도 없네 뭐. ㅡ_ㅡa;;; 대충 앞에서 설명한 것과 맞아 떨어진다. 2006년 2월에 출원했는데 여태 등록이 안 된 상태라서 그렇게 말한 걸지도 모르겠다. 어쨋든 특허만으로는 그냥 적외선 카메라 외에 특별한 걸 못 찾았다. 결국 이번 시스템의 기술적 비밀은 그저 막대한 (눈 먼) 군사자본이었던 거냐... OTL...

G-Speak Patent DrawingG-Speak Patent DrawingG-Speak Patent Drawing




바로 전의 소니의 동장인식 게임 컨트롤러의 뉴스도 그렇고, 며칠 후에 올리려고 하는 뉴스도 있고... 요 며칠 참 동작기반 UI 관련 소식이 많다. 이번의 G-Speak가 많은 동작 UI 팬들의 마음을 설레게 할 만큼 영화 속의 환상을 잘 재현하고, 상상으로만 생각하던 동작인식 시스템을 그대로 구현한 건 사실이지만... 여전히 UI의 근원적인 질문을 안 할 수는 없을 것이다. "이게 쓰기 편할까?"

솔직히 동작인식.. 그것도 저렇게 양팔을 열심히 돌리고 움직여야 하는 UI가 사용자에게 편할 리가 없잖아. =_=;;; 테러리스트 잡으려는 일념으로 뭐 하나 검색하고 나면 완전 땀으로 범벅 되겠다. ㅋㅋ 게다가 동작 UI 해 본 사람은 안다. 동작명령 외우는 게 "가리키기"와 "잡기"를 제외하고는 (그런데 이것도 결국 마우스의 point and click이라 ;ㅁ; ) 얼마나 어려운지.

테러리스트 잡으려면 사실 데이터가 확보되는 게 우선이고, 데이터가 확보된 후에는 3D 마우스나 터치스크린 정도면 충분한 속도로 검색할 수 있을 것 같다. 굳이 저렇게 '달밤에 체조'를 하지 않아도 볼 수 있는 건 충분히 볼 수 있으텐데 말이지... 굳이 사용자의 손을 영상인식으로 추적하는 것보다, 수집된 영상데이터에서 수상쩍은 상황을 영상인식으로 골라내서 보통 PC 앞에 앉은 사람에게 최종확인을 맡기는 게 나을 것 같은 생각이 든다. ㅡ_ㅡa;; (아 물론 쫌 과장이다. 적외선 광점을 찾아내는 건 수상한 상황을 인식하는 것보다 몇천배 쉽다 ^^: )
신고
Posted by Stan1ey
며칠 후에 일본에서 발매되는 반다이 장난감 중에 "Tuttuki Bako"라는 게 있다. 일본어 잘 하는 친구에게 물어보니 "찌르기 상자"라는 이름이라고. 스카이벤처에 소개되어 있는 글을 보고 웹사이트를 찾아가 보니, 이게 참 재미있어 보이는 장난감이다.

[▶] 동영상 보기 (주의: 시작하면 소리와 함께 반복재생)




 

ㅎㅎ 왠지 코후비기나 귀파기 같은, '구멍에 손가락 찔러넣기' 본능을 충족시켜 줄 것도 같고, 무엇보다 상자 안에 넣은 손가락이 디지털화되어 가상으로 화면에 나타난다는 발상이 기발하다. "아날로그와 디지털이 통하는 커뮤니케이션 토이"란다. 박수박수!! 디지털 세상에 집어넣은 손가락 끝으로 디지털 물체들과 물리적 인터랙션을 할 수 있다니. 와우.

이제까지의 증강현실 AR... 혹은 이 경우엔 그냥 혼합현실 Mixed Reality 이라는 용어를 갖다쓰는 게 적당하려나. 어쨋든 기존에는 주로 공간에서 뭘 하겠다든가 환경에서 뭘 하는 경우가 많았고, 실내에서도 늘상 테이블 위라든가 벽면이라든가 하는 커다란 작업공간을 제공하고 몸이나 물건들을 이리저리 움직이는 걸 추적해서 뭔가를 하겠다고 궁리하곤 했다. 하지만 그렇게 비싼 HMD라든가 카메라와 프로젝터를 사용하지 않고도, 상자 안에 손가락 하나 찔러넣는 걸로도 이렇게 현실과 가상현실을 훌륭하게 섞어버릴 수 있는 거 였다.

솔직히 위 동영상에서 소개하고 있는, 내장된 게임들은 발상에 비해서 좀 생각이 짧았던 것 같지만, 어차피 입력이 복잡한 게 아니니 이런 거야 말로 게임을 만들 수 있는 API를 공개해서 사람들한테 만들게 하면 재미있고 위험한(쿨럭 ;ㅁ; ) 게임까지도 많이 나올 수 있지 않을까?

Tuttuki Baxo from AsoVision

그런데, 한가지 HTI 쟁이스러운 의문이 있다면 이걸 어떻게 구현했느냐는 거다. -_-a;;; 분명 게임기니까 무슨 영상인식같은 고급기술은 애당초 힘들고, 적외선 광원이나 광센서를 이용하기엔 배터리가 신경쓰였을꺼다. 결국 passive sensor 중에서 2D 상의 위치를 비교적 자유롭게 잡을 수 있는 방법이...

... ...모르겠다. OTL...

한가지 가능한 거라면 저 손가락이 실제 사용자 손가락의 재현이 아니고, 사실은 손가락 끝만 찾은 다음에 구멍과의 거리/위치를 바탕으로 대충 맞게 그리는 방식인데, 그렇다면 스프링에 연결된 물리적인 센서 2개(X, Y축)만으로도 어떻게든 구현은 될 것 같다. 슬라이더 센서나 회전 센서를 쓰면 ... 그래도 비싸고 durability가 걱정되는데...

아무래도 확신은 없다. ㅎㅎ 일본 갈 일이 있으면 하나 사봐야지. (즉, 아무래도 볼 기회가 없을 것 같다는 소리다. ㅠ_ㅠ )
신고
Posted by Stan1ey
증강현실 augmented reality 기술을 제품화에 적용해 보려고 애쓰던 시절, 수많은 제약과 인식오류의 가능성에도 불구하고 이걸 제품화할 수 있는 분야가 뭘까...라는 고민이 나오면, 음성이나 동작인식에서와 같이 결국은 업무와는 어떤 식으로든 연결되지 않고, 필요보다 많은 시간을 투자하는 데에 거부감이 없고, 지극히 개인적인 용도의 분야 - 즉 게임이나 섹스산업으로 이야기가 전개되었고, 당시로선 게임 회사가 아니었던지라 (물론 그쪽도 아니고 -_- ) 결국 이야기는 거기까지. "그렇지만 어쨋든 찾아내야 한다"는 식으로 독려당하거나 독려하는 입장으로 돌아가야 했다.

그러다가 얼마전에 아래 동영상을 보고 정말 박장대소를 해 버렸다.



오타쿠 만세. ^0^/ 진짜 누군가가 결국은 만들어 냈구나. 사실 우리가 이야기했던 응용처는 이것보다 조금 더 돈을 많이 벌 수 있는 (-_-;; ) 분야였지만, 적어도 이게 유투브에 올라왔다는 얘기는 누군가는 이미 같은 기술을 좀더 본격적으로 (-_-;;;; ) 적용할 준비를 하고 있을 거라는 짐작을 하게 한다.

비록 기본적인 AR Toolkit의 태그를 사용했기 때문에 오덕 학생이 제출한 과제같은 느낌이 드는 것도 사실이지만, (이거 특허는 괜찮은 건가? 워싱턴 대학에서 상업적인 이용은 금한 걸로 아는데? 주요 시장은 일본일테니 상관없으려나...) 그래도 그런 세세한 부분도 금방 나아지지 않을까. 어쩌면 드디어 상업적으로 응용가능한 분야(-_-;;;;;;; )를 발견했으니 말이다. 아직 덜 성숙한(pre-mature) AR 기술을 이용해서 성인용(mature) 컨텐트(일본식 연령 기준이야 어쨋든)를 만들었다는 것도 재미있는 일이지만, 이로서 기술 자체가 성숙하는 데에는 큰 도움이 되리라 생각한다.

군사산업과 섹스산업. 이 둘이 없었다면 기술의 발전이란 얼마나 방향성 없이 힘든 일이었을까. 모두 깊이 감사하자. ㅋㅎㅎ
신고
Posted by Stan1ey

예전에 증강현실(AR)을 이용한 제품을 기획하다가, 일종의 총 모양 프로젝터를 고안한 적이 있다. 휴대용 프로젝터를 이용한 AR 시스템은 몇가지 연구에서 나온 적이 있었는데, 난 그냥 그 프로젝터 "총"을 가지고 다니다가 적당한 스크린이 나오면 (거리 센서를 이용한다든가 해서) 임의로 귀신이 튀어나오면 재미있을 거란 생각을 했더랬다. 시간을 잘 맞춰서 방아쇠를 당기면 귀신을 잡을 수 있고, 그렇게 점수를 따는 게임이면 AR의 특성 - 현실이면서도 현실이 아닌 - 도 잘 표현한 좋은 Killer App이 되지 않을까? 라는 생각이었던 거다.

그런데 며칠 전 TV를 보다가 발견한 이 제품은, 그 생각보다 훨씬 단순하게 저렴한 방법으로 더 재미있는 게임을 만들고 있었다.



그냥 달랑 3축 가속도 센서(혹은 심지어 1축일 수도 -_- )와 흑백 LCD 화면만으로 똑같은 기능을 구현한데다가, 그냥 귀신을 잡는 게 아니라 몬스터를 낚시처럼 낚는다든가, 잡은 몬스터를 훈련시켜서 다른 몬스터를 잡게 하거나 다른 기계에 저장된 몬스터와 싸움을 붙이거나 주고받을 수 있다든가 하는 요소가 여러모로 재미있는 게임이 되기 위한 완성도를 높여준 느낌이랄까. 과연 반다이 -_-;;; 상용화란 이렇게 하는 거구나.

Catcha Beast Webpage from Bandai UK

그냥 광고를 보는 순간에 예전에 생각했던 부끄러운 아이디어도 떠오르고 (비록 특허고 뭐고 업무랑 연결시키진 못했지만), 스크랩해 두었다가 가장 단순하게 구현된 AR 시스템으로 인용할 겸 해서 간단히 기록해 두기로 했다.

CatchaBeast from BandaiCatchaBeast from BandaiCatchaBeast from Bandai

신고
Posted by Stan1ey

사실 시리즈물도 아니고 컨테스트는 더욱 더 아니었는데, 본의 아니게 대상이 등장해서 제목을 그렇게 해 봤다. 뜬금없이 등장한 Free HTI Apps의 내맘대로 대상작은, 바로 "Shazam"이라는 이름의 어플리케이션 되겠다.

이름이 이렇다보니 처음에 눈에 띄지 않은 것도 당연하달까. 이 어플의 주요 기능은 바로 듣고 있는 음악을 iPhone에 들려주면(이걸 음악을 tag 한다고 표현하고 있다), 그걸 인식해서 가수/앨범/장르 등 기본적인 정보를 알려주는 것이다. 음악이 충분히 클 경우 인식률은 놀랄 정도로 높았지만, 역시 미국 노래 외에는 충분히 인식하지 못하는 것 같았다.

iPhone Apps - Shazam: ListeningiPhone Apps - Shazam: Music Recognition ResultiPhone Apps - Shazam: Tagged Music

이 어플의 가장 훌륭한 점은, 아이폰이 바로 iTunes Music Store와 연결되어 있다는 거다. 즉 언제 어디서나 들리는 음악을 바로 구입할 수 있는 가장 커다란 시장으로의 관문역할을 하면서 이 단순한 '무료' 어플의 가능성은 상당히 크다고 본다. 아마도 현재 나와있는 장난감 같은 HTI 어플에 비해서, 이건 실제로 장치의 본래 목적에 가장 부합하는 "기본 기능"이 될 것 같다. 애플과 협상하기에 따라서 수익모델은 생길 수 있을 것 같고.

이 어플에 대해서 한가지 더 마음에 든 게 있다면, 음악을 녹음하려고 아이폰을 갖다대면 화면에 타이머(파이 모양의)가 표시되는데, 비록 마이크가 아이폰의 앞면이 아니라 아랫면에 있다고 해도 아무래도 사용자들은 화면을 스피커쪽으로 향하게 되고, 따라서 타이머는 표시되어 봐야 보이질 않는다. 이 어플은 녹음이 끝나면 진동을 주기 때문에, 사용자는 언제까지 녹음이 끝나고 결과가 나오는 때를 화면을 보지 않고도 알 수 있는 것이다. 자칫 안 좋아질 수 있는 상황을 잘 타개한 UI 디자인이라고 생각한다.

이제까지로 보면, 이 어플이 아이폰 AppStore에 올라온 것들 중에서 제일 중에서 가장 주목 받은 어플이 되지 않을까 싶다. (순전히 HTI 관점에서 ㅎㅎ )



그나저나 사실 iPhone을 이용한 음악인식은 일전에 VUI 관련 글의 댓글에서 제안한 적이 있는데, 방대한 음악 DB를 대상으로 한 인식을 별도의 인식서버를 둠으로써 해결했다. 결국 전의 글에서 말한 distributed voice recognition에서와 같이 분산음악인식 시스템을 구성한 듯.

확실히
thinker든 talker든, 결국 doer를 못 따라간다. 반성+제길.

신고
Posted by Stan1ey

BLOG main image
by Stan1ey

카테고리

분류 전체보기 (347)
HTI in General (45)
User eXperience (11)
Voice UI (50)
Vision UI (14)
Gesture UI (25)
Tangible UI (28)
Robot UI (14)
Public UI (9)
Virtuality & Fun (56)
Visual Language (15)
sCRAP (70)

글 보관함



www.flickr.com
This is a Flickr badge showing public photos and videos from Stan1ey. Make your own badge here.