일전에 소개했던 Fraunhofer 연구소의 iPointer Presenter (iPP)라는 동작기반 UI가, NextFest 2008에서 실체를 좀더 드러낸 모양이다. 연구소 홈페이지를 보면 제법 자세한 이야기와 함께 동작원리를 설명하는 동영상을 볼 수 있다.
흠, 결국 전송거리가 짧은 적외선의 특성을 이용해서, 하얗게 반사된 손 영상을 영상처리를 통해 인식하고 그 동작이나 포인팅을 인식한다는 건데... 사실 이건 그동안 국내외 대학은 물론 영상처리 한다는 곳에서는 모두 다 하고 있던 방식인지라, 그걸 굳이 하나의 상자 안에 넣었다는 것 외에는 (embedded인지 그냥 안에 PC가 들어있는 건지조차도 모르겠다) 차이가 전혀 없어 보인다.
뭔가 새로운 방식을 기대했던 입장으로는 조금 맥이 빠질 정도이고, 저 방식이라면 어차피 해상도 문제, 초기조정 calibration 문제, 햇빛이 들어오면 어쩔건데 등등 쉽게 해결되지 않을 문제가 여전히 산재해 있으므로 관심도 싹 사라질 지경이다. 비록 동영상은 그럴 듯 하게 만들어져 있지만, Y축 방향의 포인팅 측정과 실제 초기화는 어떻게 하고 있을까 걱정이 다 된다. 알아서 "잘" 하겠지만서도.
어쨌든, 더이상 뭔가 나오지 않는다면 이 연구과제에 대한 이야기는 여기까지.
뭔가 새로운 방식을 기대했던 입장으로는 조금 맥이 빠질 정도이고, 저 방식이라면 어차피 해상도 문제, 초기조정 calibration 문제, 햇빛이 들어오면 어쩔건데 등등 쉽게 해결되지 않을 문제가 여전히 산재해 있으므로 관심도 싹 사라질 지경이다. 비록 동영상은 그럴 듯 하게 만들어져 있지만, Y축 방향의 포인팅 측정과 실제 초기화는 어떻게 하고 있을까 걱정이 다 된다. 알아서 "잘" 하겠지만서도.
어쨌든, 더이상 뭔가 나오지 않는다면 이 연구과제에 대한 이야기는 여기까지.
반응형