오픈소스 소프트웨어 운동의 사고방식을 이어받은, 오픈소스 하드웨어라는 움직임이 있다. 내가 처음 접한 것은 작년 TED 강연을 통해서인데, 주로 어떤 물건의 입체 CAD 도면을 인터넷을 통해서 공유하고, 다운로드 받은 도면을 저렴한 3D 프린터를 이용해서 제작하는 것에 대한 것이다. 강의 자체는 길고 지루하지만, 이 운동을 주도하고 있는 Reprap.org 프로젝트 홈페이지에서 찾아볼 수 있는 아래 동영상은 훨씬 흥미로운 내용을 담고 있다.



결국 이런저런 물건들이 공장에서 만들어져서 집앞 가게까지 오기를 기다렸다가 제조원가보다 비싼 유통마진을 주고 구입하는 대신, 인터넷에서 다운로드 받아서 직접 만들어 쓸 수 있다는 거다. 옷걸이 같은 물건이야 그 정성이면 직접 손으로 깎아 만드는 게 더 낫겠다 싶지만, 전문적인 지식과 정밀성을 요구하는 기계장치의 부속을 깎아야 한다면 어떨까. 그런 생각의 연결을 하게 해준 것도 올초에 본 또 다른 TED 강연이다.



동영상에서 언급된 Open-source ecology라는 단체의 홈페이지를 보면 쉽게 만들 수 없다고 생각되는 온갖 장비와 기계들을 디지털 형태로 공유된 도면을 이용해서 손으로 제작한 사례를 많이 볼 수 있다. (참고로 이 운동에는 장비의 제작뿐 아니라 진흙으로 집 짓기 노우하우 등도 포함되어 있어서, 인터넷 즐겨찾기에 등록해두면 문명의 혜택이 없는 곳에서 살게 됐을 때에 무척 유용하게... 응? -_-;; )

OSE 운동의 도면과 제작방법이라는 것을 잘 들여다보면 마치 '자취 요리' 프로그램에서 "냉장고에 쓰다남은 토마토 소스랑 브로콜리 같은 거 있죠?" 라고 하는 식으로 오토바이 엔진이라든가 기어박스 같은 핵심 부품들은 따로 구해야 한다. 하지만 정밀한 하드웨어 부속은 위의 RepRap 3D Printer를 이용해서 제작하고, 전자회로는 역시 open-source electronics를 내세우고 있는 Arduino를 이용해서 구성한다면 그렇게 따로 구해야 하는 공산품을 극소화할 수도 있지 않을까?

실제로, 위 세 회사/단체들의 홈페이지를 각각 방문해보면 서로 링크도 되어 있고,각기 다른 분야의 장단점을 잘 조합/활용해서 그 시너지 효과를 극대화하는 모습도 볼 수 있다.





... 뭐 이렇게 오픈소스 삼인방(하드웨어/에콜로지/전자회로)에 대한 이야기를 끄적거려 놓고 블로그를 닫아놓은 게 몇개월 전 이야기다. 요새 다시 블로깅 좀 해볼까...하고 밍기적 거리던 참에, 오늘 페북친구를 통해서 아래 동영상을 보게 됐다. 내가 짝사랑하고 있는 키넥트를 이용해서, 3차원 물체를 3D 컴퓨터 그래픽 데이터로 바꾸는 것은 보여주고 있는 SIGCHI 2011 데모 동영상이다.



이 동영상에서 소개하고 있는 KinectFusion이라는 Microsoft Research 프로젝트는 거리센서로부터의 입력을 동적으로 조합해서 (어쩌면 가속도 센서를 써야 했을지도 모르겠다) 공간을 3차원 정보로 입력하고, 이를 확장해서 물체와 배경을 입체적으로 구분한다든가, 손가락 끝을 인식해서 가상입력 도구로 쓰는 모습을 보여주고 있다. 말하자면 기존 물체인식 기술의 3D... 혹은 2.5D 버전이라는 건데, 나올 기술이 나왔다는 생각은 들지만 여러가지로 무척이나 재미있는 가능성을 열어주는 기반기술이라고 생각한다.

KinectFusion as Interaction Technology

그런데, 내가 이렇게나 재미있고 잠재적인 UI 기술을 보면서 든 생각은, 오히려 앞서 말한 오픈소스 하드웨어 개념과의 연계 가능성이다.

RepRap.org 3D PrinterArduino Uno
Bulldozer from Open-source EcologyKinectFusion Dynamic Object Recognition

그렇다면, 이제 Kinect 센서를 이용한 3D 물체의 "copy-and-paste" 가 가능해지는 걸까? 물론 실제적으로는 해상도/정밀도 문제라든가, 재질의 한계 같은 문제가 있기는 하겠지만, 그래도 위 키넥트퓨전 동영상을 보면서 위에 나열한 기술들과 더불어 오픈소스가 하드웨어의 해킹/크래킹으로 연결되는 고리가 채워지는 소리를 들은 것같다.

어쩌면 멀지 않은 미래에 "해킹된 하드웨어"를 단속하기 위한 각 제조업체의 노력이 있을 수도 있겠고, 반대로 사람들이 "커스텀 하드웨어 롬"을 구해서 자신에 맞게 변형시킨 물건을 들고다니게 될 지도 모르겠다. 제조사가 자기 제품의 소프트웨어를 통제할 수 있는 시대는 이미 떠나갔고, 조만간 그 껍데기마저도 제멋대로 변경해서 쓰는 사람들이 나올꺼라는 거다.


뭐 어쨌든 이제 OSE 홈페이지에는 심지어 증기기관을 자체 제작하는 방법을 찾는 프로젝트가 한창이고, RepRap 3D printer 웹사이트도 꾸준히 운영되고 있고, Arduino는 뭐 이젠 학계에서 꾸준히 사용해주는 덕택에 (개인적으로는 Phidget을 애용했지만, 이미 대세는 넘어가 버린 듯...) 안정적으로 회사를 꾸려나가고 있는 듯하다. 여기에 위의 KinectFusion 기술이 fusion되기만 한다면 꽤나 재미있는 그림이 그려지지 않을까 싶은 때다.

... 역시 링크나 줄줄이 걸고 끝냈어야 했어.
저작자 표시 비영리 변경 금지
신고
Creative Commons License
Posted by Stan1ey
가을에 출시된다는 iOS 5는 아마도 함께 출시되리라 생각되는 iPhone 5의 화면 크기나 외형 디자인에 대한 온갖 루머에 밀려 상대적으로 그닥 관심을 받지 못하는 듯하다. 그런 건 스티브 잡스의 말을 빌자면 소프트웨어를 담아내는 예쁘장한 상자(beautiful box)일 뿐인데.

그 중에서 개인적으로 주목하고 있는 것 두 가지.

Location-based To-do List

할일목록(To-do List)에 위치정보를 넣자는 기획은 내가 몸담은 회사들마다 한번씩은 다룬 내용이다. 전자제품을 만드는 회사는 물론이고, 게임 회사나 디자인 에이전시도 나름의 목적을 가진 알림 기능이 필요하기에 아이디어 회의를 하다보면 조금씩 다르지만 늘 등장하는 조합들 중 하나다. 안드로이드는 공개적인 개발환경 덕택에 이미 이런 아이디어가 실현되어 있지만 상대적으로 폐쇄적인 iOS의 경우에는 일반 앱이 위치정보에 접근하기가 쉽지 않았는데, 결국 Apple에서 이런 기능을 만들어 버림으로써 이제까지 iOS에 빈약했던 To-do List 기능을 보완하는 앱을 만들어온 회사들은 닭 좇던 개 신세가 되어 버렸다.

하지만 위 그림에서 볼 수 있듯이, 애플에서 만든 앱은 단순히 할일목록과 위치정보를 조합하는 것에서 조금 발전되어, 그 위치에 "도착했을 때" 혹은 그 위치에서 "벗어날 때" 라는 이벤트를 구분한 것을 볼 수 있다. 위치에 별명("Work")을 붙일 수 있는 기능도 있는 모양이고. GPS 신호를 내내 받을 경우 배터리 소모가 장난 아닐테니까 (실제로 앱 개발 가이드라인에도 GPS를 이용한 실시간 위치추적 기능은 구현이 상당히 제한되어 있다) 아마도 휴대폰 망이나 WiFi 위치정보를 활용하는 등 이런저런 방편을 썼을텐데, 그로 인해서 위치 이벤트가 불안정해지는 부분은 어떻게 해결했을지 기대가 된다.


두번째는 뭐, 이미 예전 FingerWorks에서 구현한 방식의 재탕이다.

Multi-finger Swipe on iPad

뒤늦게지만 그래도 드디어, 아이패드에서 네/다섯 손가락 swipe 동작을 이용해서 멀티태스킹 중인 앱들 간의 전환기능을 제공한다고 한다. 원래 핑거웍스에서 제시했던 동작명령과 차이점이 있다면 엄지손가락의 접촉을 따로 구분하지 않는다는 건데, 이건 뭐 기술의 차이로 인해서 손가락들을 명확하게 구분할 수 있는 가능성도 좀 줄었고 접근성 측면에서도 문제를 일으킬 수 있을테니 (오른손잡이/왼손잡이, 신체장애인 등등) 당연한 수순이라고 생각한다.



끝으로 관심이 있는 부분은 뭐 당연히 그 접근성 부분이다. 하지만 아직 여기에 대한 부분은 iOS 웹사이트에 언급이 되어 있지 않고, 뭔가 개선이 될 거라는 언급만 되어 있다. 하지만 최근 공개한 Mac OS X Lion의 Accessibility 항목을 보면 그 꾸준한 투자에 경건한 마음으로 기립박수를 치고 싶은데, 과연 모바일 OS에는 그런 기능들을 어떻게 조합해 넣었을지 벌써부터 두근두근하다.


끗.
저작자 표시 비영리 변경 금지
신고
Creative Commons License
Posted by Stan1ey
이미 제품의 외형이며 어떤 부품이 들어가는지까지 속속들이 드러나 버린 상태에서 이만한 관심을 끄는 제품도 없을 거다. 새로운 아이폰이 드디어 공식발표되고 웹사이트에 관련 내용이 올라왔길래, 한번 훑어보니 역시 짧은 키노트에 모두 포함되지 못한 내용이 좀 있다. 사실 키노트의 내용 중 많은 부분(이를테면 HD영상 녹화, 화상통화)은 오히려 하드웨어를 보고 예상할 수 있는 부분이었기 때문에 조금은 김이 빠져 있었는데, 발표에서 빠진 내용을 보면서 "역시 애플은 대단해..."이라는 덕심이 다시 한번 치솟는 기분을 느꼈다.

iPhone 4의 발표 소식(?)에 대해서는 이미 여기저기서 많이들 올라와 있을테니, 난 HTI 관점에서 직접적인 발표내용 외에 주목할만한 내용들, 그리고 누군가 열심히 UX 개선을 위해서 애쓴 흔적이 눈물겹도록 보이지만, 솔직히 물건을 파는 데 크게 도움이 되지 않아서 발표에서 제외된... 그런 내용이나 좀 정리해 보려고 한다. 서로 돕고 살아야지. (무슨 도움이 되겠다는 건지는 모르겠다만 -_- )

(1) Gyro Sensor
Gyro Sensor in iPhone 4

아 물론 자이로 센서가 포함된다는 사실 자체는 발표 내용에 대대적으로 포함됐다. 근데 이게 무슨 의미를 가질까? 잡스가 보여준 데모는 젠가라는 보드게임이었는데, 사실 휴대폰을 돌리면 화면이 돌아가는 정도는 기존의 가속도 센서로도 거의 불편함을 느끼지 못한 것이기 때문에 조금은 고개를 갸우뚱하게 한다. 이미 관련 블로그에도 그 의미에 대해서 의구심을 표시하고 있기도 하고. 사실 젠가 게임은 순수하게 자이로 센서의 특성을 보여주기에는 좋은 사례일지 모르지만, 실상 가장 강조되어야 할... 위 사진의 맨 아래에 등장하는 6축 동작인식이라는 부분이 잘 드러난 것 같진 않다. 자이로 센서가 들어감으로써, 기존 가속도 센서를 이용했던 회전 감지에 비해서 나아지게 되는 건 뭘까? 

기존에 들어있던 가속도계는 원래 상하좌우로의 직선운동을 잡아내는 물건이다. 마침 지구에는 중력가속도라는 게 있는 덕택에, 아래로 떨어지려는 움직임(정확히는 그 반작용)의 방향을 상하좌우 센서의 입력값을 비교함으로써 알아내고, 그걸 바탕으로 기기의 자세(가로/세로)를 알아내거나 매시각 비교함으로써 상대적인 회전을 찾아내는 것이다. 이렇게 직선운동을 잡아내는 물건으로 회전운동을 찾아내려다 보니, 직선운동과 회전운동을 둘 다, 실시간으로 구분해서, 함께 인식하기가 어렵다는 문제가 있다.

이제 순수하게 회전을 담당할 자이로 센서가 들어감으로써 아이폰은 회전과 직선운동을 동시에 알아낼 수 있게 된 것이다. 이건 단지 잡스의 데모에서처럼 사용자가 폰을 들고 제자리에서 돈다는 정도가 아니라 3차원 공간에서의 자유로운 위치와 자세 변화를 (상대적으로) 인식할 수 있다는 거다. 한동안 유행했던 증강현실(AR)을 예로 들자면, 이제 기준이 되어 줄 AR-Tag가 없이도 임의의 공간을 상정하고 그 주변으로 아이폰을 움직이면서 그 공간에 떠 있는 가상의 물체를 관찰할 수 있을 것이다. 아니 심지어 공중에 직접 3차원 그림을 그리는 건 어떨까. 3차원 그림을 그리고 감상하는 어플도 충분히 가능하리라 생각한다. (가속도 센서와 자이로 센서의 악명높은 오류 누적 문제는 일단 덮어두자. -_- )

사실 이제까지 회전인식을 도와주던 게 3GS부터 들어가 있던 전자나침반인데, 이건 주변 자기장의 변화에 따라 초기화를 시켜주지 않으면 제멋대로 돌아가 버리는 아주 심각한 문제를 가지고 있다. 그렇다고 지도 서비스에서 동서남북을 알아낼 수 있는 기능을 버릴 순 없으니, 결국 다소 중복되는 것 같더라도 자이로 센서를 다시 추가했음을 짐작할 수 있다.

이로서 아이폰에는 자세를 알아내는 센서만 3개다. 이 센서값들을 개발자에게 어떻게 활용하기 쉽게 제공할지가 관건이 되겠지만, 이제 사실 더이상 넣을 센서도 없게 된 만큼 iPhone 4는 뭔가 궁극의 입력장치가 되지 않을까 기대하고 있다. 특히 닌텐도 Wii의 MotionPlus 리모트가 가속도 센서와 자이로 센서, 그리고 적외선 마커를 이용한 기준위치(화면)를 알아내서 정밀한 움직임을 측정하고 있다는 걸 생각해 보자. 아이폰은 이제 시각적 마커를 카메라로 알아낼 수도 있고, 심지어 나침반과 GPS 정보로 마커를 대신할 수 있게 됐다. 이상적으로 말하자면, 아이폰은 지구상 어디서 어떤 위치/높이에 어떤 자세로 어떤 움직임으로 사용되고 있는지를 완벽하게 계산할 수 있게 된 것이다. ... 어떻게 보면 좀 무섭다. ㄷㄷㄷ


(2) FaceTime using Rear Camera
FaceTime on iPhone 4
뒷면 카메라를 이용한 화상통화. 이것 역시 키노트에서 발표된 주요 내용 중 하나이긴 하지만, UX 관점에서는 꽤 신선한 느낌이다. 사실 화상통화(WiFi를 이용해서만 된다니 화상채팅?)는 거는 사람이나 받는 사람이나 다소 부담스러울 수 있는 상황이고, 사실 얼굴이야 서로 잘 알고 있을테니 얼굴만 봐도 좋은 연인 사이가 아니라면야 그보다 내가 지금 보고 있는 장면을 공유하면서 화제로 삼는 게 좀더 유용한 화상통화의 활용방법일 수 있겠다.

사실 이런 식의 활용에 대해서는 예전에 좀 들여다 본 적이 있는데, 이 특허 - 화상통화를 하면서 전면 카메라와 후면 카메라를 전환할 수 있는 - 는 국내 L모사가 6년전 쯤에 출원했던 것으로 기억한다. 결국 그게 특허로 등록이 되었는지, 그리고 그 특허가 혹시나 이번에 FaceTime을 굳이 WiFi 버전으로만 내는 데에 어떤 영향을 미쳤는지는 모를 일이다. (사실 애플이 언제 특허 신경 썼나... 아마 전송되는 화상의 품질 때문에 내린 결정이라고 보는 게 더 타당할꺼다.)

이 기술은 기존에 3G 망을 통해서 할 수 있었던 화상통화와 전혀 다르지 않아 보이기 때문에 처음 발표를 접한 사람들도 "남들은 이미 다 하고 있었다"면서 시큰둥한 반응이 있기는 했지만, 전화통화 상대방과 전화망 외의 ad-hoc IP 네트워크 연결을 순간적으로 해준다는 건 꽤 혁신적인 발상이다. 다른 네트워크(3G 등)으로 확장하는 것도 어렵지 않은 방식이긴 하지만, 사실 굳이 화상통화를 WiFi로 제한한 것은 아이폰 덕택에 기하급수적으로 늘어나는 통신사의 데이터 통신망의 부하를 어떻게든 줄여주고자 하는 제스처 아니었을까. 이런 식이라면 화상통화를 하면서도 통신사의 데이터망은 건드리지 않을 수 있을테니까.

이게 만일 MSN 메신저와 같은 방식으로 어딘가에서 각 통화자들의 IP를 연계해주는 화상채팅 중계 서버가 있는 거라면 여러가지로 문제가 되겠지만... 굳이 "zero set up"을 강조하고 "open standard"로 추진하는 걸로 봐서는 그냥 폰과 폰이 직접 P2P로 IP를 주고받고 화상망을 구축하는 방식인 듯 하다. (만일 따로 중계서버가 있어서 아이폰 사용자의 화상통화 상황을 알 수 있다면... ㄷㄷㄷ )


(3) The Second Camera
Front Camera on iPhone 4
화상통화와 함께, 드디어 결국 전면카메라가 들어갔다. 이미 지난 수년간 디지털 카메라에 들어간 얼굴인식/미소인식 등의 영상인식 기술이 특허침해 같은 거 검토하지 않고 무작위로 App으로 등장하고 있는 와중에, 전면카메라가 갖는 의미는 각별하다. 이를테면, 아래와 같은 걸 아이폰에서 볼 수 있게 된 것이다!



혹은 이전에 소개했던, 전면카메라를 활용한 NDSi의 (조금은 우스꽝스러운) 게임들은 어떨까. 앞의 자세 인식 센서들과 함께 전면카메라의 사용자 얼굴인식 기능이 합쳐진다면, 이건 뭐 어떤 괴물 앱이 나와도 이상하지 않겠다. 키노트 내용에 따르면 전면 카메라에 대한 API도 개방될 것 같으니, 개발자들이 어떤 사고를 쳐줄지 두근두근 기다려 보자.


(4) Dual Mic

마이크가 위아래로 2개 들어간다는 소리가 나오는 순간 눈이 번쩍 떠졌다. 전화를 표방하는 기기에서 마이크가 2개 들어간다면, 이유는 뻔하다. 발표 내용에도 나왔듯이, 배경의 잡음을 없애 깨끗한 음성을 보내기 위함이다. 양쪽 마이크에 입력되는 음의 파형을 시간축으로 미리 설정한만큼 평행이동 하면, 아래쪽 마이크 가까이 있고 위쪽 마이크에는 어느 정도 떨어져 있는 (즉, 음성이 전달되기까지 시간이 좀 걸리는) 사용자의 음성이 겹쳐지게 된다. 나머지 음향정보는 사용자 음성이 아닌 주변 잡음이기 때문에 신호를 줄여버리면, 깨끗한 음성만 보낼 수 있는 거다.

사실 이 기술은 2년전쯤 "알리바이폰"이라는 명칭으로 국내에도 상품화된 적이 있으니, 새롭다고 하긴 어렵다. 기술에 붙인 이름이 좀 위험스러워서인지 마이크 하나 더 붙이는 단가가 부담스러웠는지, 어쨋든 "깨끗한 통화"라는 본래의 취지가 무색하게 이후의 휴대폰에서 이 기술이 적용된 사례는 찾아보기 어렵다. :(

어쨋든 dual mic의 채용에 반색하는 개인적인 이유는, 물론 음성인식률의 향상을 기대하기 때문이다. 여러 개의 마이크(mic array)를 이용해서 음성명령의 공간 상의 위치(방향/거리)를 파악하고 나머지 음향을 소음으로 여길 수 있다거나, 심지어 여러 명이 동시에 말하는 내용을 따로따로 구분할 수 있다는 기술만큼은 아니겠지만... 그래도 이 마이크 입력을 이용하면 통화나 음성인식 뿐만 아니라 박수소리의 방향/거리를 알아낸다든가 동영상 녹화 시에 배경음을 녹음할지 녹화자의 음성을 녹음할지 선택할 수 있다든가 하는 기능도 구현할 수 있을 것이다. 단지 이 마이크들에 대한 API에 대해서는 따로 언급이 없었고, 무엇보다 이런 신호처리를 하려면 그냥 주어진 조건(귀옆에 대고 통화하는)에 맞춰서 하드웨어에 프로그램을 박아 버리는 게 편하기 때문에 과연 그 정도의 자유도가 개발자에게 주어질지는 모르겠다. 그냥 위 조건에 맞춰진 잡음제거 기능의 강도를 조정하는 정도가 아닐까?


(5) N-Best Type Correction
Type Correction on iPhone 4
터치스크린의 잦은 오입력을 보완하기 위해서 아이폰을 필두로 많은 스마트폰은 어절 수준에서 오류를 인식하고 자동으로 수정해 주는 방식을 채택하고 있다. 어절을 기준으로 한 수정방식이 한글이나 조사/어미를 갖는 다른 언어들에 맞지 않는다는 점은 차치하더라도, 기존의 방식은 띄어쓰기나 마침표 등을 입력할 때 무작정 오류(라고 생각한) 입력을 지우고 대안으로 바꿔버리기 때문에 자주 쓰지 않는 단어를 입력할 때마다 사용자가 아차하는 순간에 의도하지 않은 내용이 입력되는 경우가 많다. 사실 이건 모든 인공지능 입력 기술이 가지고 있는 공통적인 인식률의 문제이기도 하고.

그런데 이번에 공개된 내용 중 한 페이지에는 다른 부분과 달리 오타로 추측되는 어절을 분홍색으로 표시한 후 사용자가 터치하면 몇가지 대안(인식기술 쪽에서는 N-Best라는 표현을 쓰는, 사실은 가장 흔한 방식이다.) 중 하나를 선택할 수 있게 해 주는 내용이 나와 있다. 문자 메시지의 경우에는 안 되고 이메일에만 되는 기능이라면 사용자의 혼란이 있을 것도 같은데, 어쨋든 이렇게 사후수정 방식이라면 터치스크린과 잘 어울리기도 하고, 의도하지 않은 수정을 없애거나 다시 복구하기 쉽게 만들 수 있을 듯 하니 반가운 일이다. 터치스크린의 오터치 보완 방식이 조금은 인간을 위해 겸손해진 느낌이랄까.


(6) Faces and Places
Faces - Face Recognition on iPhone Photo Album on iPhone 4Places - Location-based Photo Album on iPhone 4

이미 iPhone OS 4 (이젠 iOS 4가 됐다)의 개발자 버전을 통해서 많이 누설됐지만, 데스크탑용의 Mac OS에서 구동되는 iPhoto를 통해서 가능했던 Faces와 Places 사진정리 기능이 아이폰으로 들어왔다. 어찌나 반갑던지. :)

설명을 보면 Faces 기능은 iPhoto와 함께 사용할 수 있다고 되어 있는데, 이거 iPhoto에서 얼굴인식한 내용을 가지고 모바일에서 보여주기만 한다는 건지, 아니면 그냥 얼굴인식은 각자 하고 그 meta-tag를 공유한다는 얘긴지 모르겠다. 작년에 보여준 iPhoto의 얼굴인식 및 등록 기능은 아이폰에서 똑같이 만들기에 사용자 입장에서도 기술적으로도 어려워 보이지 않았으니 전자는 아니라고 생각하지만, 그렇다면 왜 굳이 iPhoto를 언급했을까... 이 부분은 조만간 개발자 버전을 깐 사람들이 규명해 주리라 생각한다.



그리고...

ASL Users using FaceTime on iPhone 4
아래의 나머지는 늘 굳이 내세워 발표하지 않는, 장애인을 고려한 확장된 접근성에 대한 부분이다. 애플은 위 FaceTime을 홍보하는 동영상에도 수화로 대화하는 연인을 넣을 정도로 장애인에 대해서 고려하고 있으면서, 절대로 그걸 크게 부각시키는 법이 없다. 어쩌면 "특정 사용자 전용이 아닌, 더 많은 사용자에게 편리한" universal design의 철학에 가장 걸맞는 모범을 보이고 있다고나 할까.


(7) Gesture-based Voice Browsing
Gesture-based Voice Browsing on Safari, iPhone 4
우선 첫번째는 웹 브라우저. 이미 들어가 있던, 웹페이지 내용을 음성으로 읽어주는 기능에 더해서, 웹페이지의 특정부분에 손가락을 대면 바로 그 부분의 텍스트를 읽어주는 기능을 추가했다. (왼쪽 그림에서는 오른쪽 아래 광고(?) 영역을 선택해서 듣고있는 상태)

기존의 screen reader 프로그램들은 HTML 코드를 내용 부분만을 잘라내어 처음부터 줄줄이 읽어주는 게 고작이었고, 일부러 시각장애인을 고려해서 코딩하지 않는다면 어디까지가 메뉴고 어디부터가 본문인지도 알기 힘들었다. 그런데 이렇게 모바일 기기의 터치스크린의 장점을 살려서 손에 들고 있는 페이지의 특정 위치를 항행할 수 있게 한다는 것은 정말 혁신적인 장점이 되리라 생각한다.


(8) Rotor Gesture

이 기능은 3GS부터 있던 기능이라는 것 같은데, 왜 이제서야 눈에 띄었는지 모르겠다. 화면 상에 실제로 뭔가를 표시하는 건 이번이 처음인 것 같기도 하고... 어쨋든 이 기능은 두 손가락을 이용해서 회전식 다이얼(로터)를 돌리는 듯한 동작을 하면, 아마도 그 각도변화에 따라서 몇가지 음성항행 모드 중 하나를 선택해 준다. 이를테면 목록을 읽을 때 제목만 읽기라든가, 바로 기사 본문으로 가기라든가, 링크된 영역만 읽기라든가... 기존의 음성 웹 브라우징은 키보드 단축키를 통해서 이런 모드를 지원했는데, 이 로터 제스처는 터치스크린에 맞춘 나름의 좋은 해법인 것 같다.


(9) Braille Keyboard Support
iPhone 4 Supports Braille Keyboards via Blutooth
말 그대로, 블루투쓰를 통한 25개 언어의 점자 키보드를 지원한단다. 휴... 이건 정말 쉬운 결정이 아니었을 듯. 점자 키보드라는 게 얼마나 표준화가 잘 되어 있는지 모르겠지만, 경쟁사의 다른 무선 키보드와도 연동하기 까다롭게 만들어 놓기로 유명한 애플사다. 이렇게 점자 키보드를 위한 입력을 열어놓으면 분명히 제한없이 공개되어 있을 그 방식을 적용한 비장애인용 키보드 제품이 쏟아질 건 자본주의의 이치. 비록 악세사리라고는 해도 독점이 가능한 키보드도 팔고 있으면서 이런 결정을 내린 사람들은 도대체 어떤 경영진, 어떤 책임자, 어떤 월급쟁이일까. 어쨋든 훌륭한, 심지어 존경스럽기까지 한 결정이다.



이상. 사실 별다른 관심이 없던 발표여서 신나는 내용이 많기는 했지만, 왠지 개인적으로 다음 달에 판매한다는 iPhone 4를 바로 구매할 만한 큰 계기는 찾지 못했다. 무엇보다 루머의 RFiD도 안 들어갔고... 지금 쓰고 있는 아이폰을 1년반 넘게 썼으니, 2년을 채우고 고민해 봐야 할 듯 하다.
저작자 표시 비영리 변경 금지
신고
Creative Commons License
Posted by Stan1ey

너무 오랫동안 글을 안 썼다. 출시 직전이라고는 하지만 이미 UI/UX 관련된 이슈들은 할 수 있는 일과 그렇지 않은 일이 구분된 상황이라 그다지 바쁘지도 않았고, 흥미있는 신제품/신기술도 심심찮게 등장하고 있는데 왠지 영 의욕이 생기지 않는 바람에 몇달이나 블로그를 방치해 두고 있는 중이다. 이 블로그를 RSS로 구독하시는 분도 최소한 열 분은 있는 것 같은데 왠지 죄송한 마음에, 그냥 다른 데 올린 글을 두 개 퍼 올리기로 했다.

퍼온 글은 둘 다 LinkedIn.com 이라는 커뮤니티 포털 사이트에 있는 "한국 HCI 학회" 모임의 토론게시판에 올린 내용이다. 질문도 thread도 영어길래 영어로 올렸는데, 따로 번역을 할까 하다가 그마저 귀찮아서 그냥 원문 그대로 올리기로. 그냥 개인적으로 보관할 용도이고, 위 모임을 홍보하려는 의도가 다분하다고 이해해 주시기를. (이건 뭘 이해를 하라는 건지... -_- )

아래 네모 안의 글은 토론의 발제문이고, 그 아래의 글이 내가 올린 글이다.

토론주제(1): How did we get here?

Current state of Human Computer Interaction is great. Computers do not look like computers of old days, and we interact directly by pointing, or talking to, we we can do that anywhere with laptops, GPS navigators, mobile phones, and so on.

I would like to go back to the past and remember how things were in the old days, and how we got here. Also, there were past attempts that may make sense now or in the near future.

So, how did we get here?


Would it be okay to shoot a BIG answer for a BIG question? ;-)

A summary of history may be handy to invite more people, so this is me trying:
(It will be only fair to say that the following stories did NOT happened chronologically in order, but maybe causally.)

(1) Man as a Machine Counterpart
The word 'interface' or 'interaction' originally meant simple concept of communicative medium/action between different systems. The tendency to consider human workers as part of manufacturing system as a whole, isolated a concept of 'Man-Machine Interface (MMI)'.
So it was more about defining the specific area of interest, rather than thinking about its characteristics and improvement.

(2) Thinking about the Efficiency
This concept was more developed and polished to represent a field to make what's happening through the 'interface' more efficient and productive. Industrial engineering contributed a lot with expertise from 'human factors (US)' or 'Ergonomics (Europe)'.
The names explain itself that they are focusing on the _human factor_ in the system compared to non-human factor, and intereted in the _economics_ of it.

(3) Get the Job Done
With emergent of everyday goods with electricity and switches in them, the system could be designed free from physical power linkage. This tendency became even more so with circuits, micro-processors, and even digital display devices (from light bulb and seven-segments, to LED lights and FPDs). These new kinds of system was so-called 'black box' and harder to understand with hidden logic and features behind the surface; which exploited the needs of paying attention to the design of the surface, now separated from its mechanics behind it.
Now spot-lighted as an individual field, the concept became a new field of practice, named as 'User Interface (UI)' or 'UI design' which is more about people.

(4) Machine to Computer
Things became more and more complex and black-boxed with programmable micro-chips and digital matrix displays commercialized, and a new kind of special machine created only to compute became more and more accessible for non-military use. This new machine, or 'computer' didn't have many mechanics except logics it's playing with, so designing its 'interface' was free from any kind physical principle or conventions. Emphasizing this fundamental difference, a word 'Human-Computer Interaction (HCI)' was coined compared to 'MMI'. However the difference between the field of UI and HCI has never been clearly accepted, probably because the targets of UI design had been developed as computerized goods very fast and there was not much to divide them.
The newest element to be designed in the computer was of course the display, where the keyboards have already been familiarized itself with typewritter, digitizers was only hooked up with very limited one or two inputs, and all the other horrible boxes filling the room was for system administrators rather than users. So designing what should be happening on the display got more and more interest, referred as 'Graphical User Interface (GUI)'. Naturally, the traditional field of UI dealing with hardwares were often called 'Solid User Interface (SUI)' or 'Physical User Interface (PUI)'.

(5) Many Many Computers
Long story short, Personal Computers (PCs) became quite common everywhere and used for a variety of different purposes. Accordingly many different points of view were rapidly emerged. To list a few, 'Social User Interface (SUI, again)' was focused on anthropomorphizing computer with figure and conversation with 'Agent-Based User Interface (AUI)', Social User Inteface was sometimes interpreted as being more about society like in 'Computer-Supported Collaborative Work (CSCW)', 'Sound User Interface (SUI, again again)' was focused on auditory feedback and beyond with 'Auditory User Interface (AUI)' and 'Voice User Interface (VUI)' or 'Speech User Interface (SUI)', 'Tangible User Interface (TUI)' emphasized on alternative physical means to deliver the command, and the list goes on and on almost forever. With all those newly-introduced concept, some grouped some of them as 'Natural User Interface (NUI)', 'Intelligent User Interface (IUI)', or some as 'Reality-Based Interaction (RBI)'. Traditional interfaces were sometimes referred as 'Command-line Interface' compared to new fancy 'Non-command-line interfaces'. New platforms also got some interest to be called as 'Web User Interface', 'Mobile User Interface', '3D User Interface', or even 'Brain-Computer Interface (BCI)'. Frankly, there's no point to argue about all these angles of HCI, because they are NOT exclusive at all except some constraints to say the least. But thanks to all this energy gathered, proper theories, general principles and guidelines, and even several handy methodologies were collected as 'Usability Engineering' or UI design in its boarder sense.

(6) No More about the Machine
Most notable development in the field of ... usability concerns ... was probably 'Information Architecture (IA)'. IA focuses on the fact that usability starts from how its contents are organized and represented. Even though it's more related to the successors of Graphical User Inteface for now, the fundamentals of IA is focusing to the contents in the first place before doing tricks to nicely display them.

(7) Not Even about the Interaction
Another notable experiment these days would be 'User Experience (UX)'. Although there has been no clear-cut differentiation between UX and what we have called UI, UX became a fashion among those who are interested in usabilities, and sometimes even substitutes the place of UI without expanding the concept to any extent. Saying it as UX may sound fancy, but all those philosophies and visions had been there in the history of User Interface. There is slight possibility to identify UX apart from UI or usability, but that'd be a whole other story.

(8) Time to Leave the Nest?
Something's happening in the field of UI, such as:
- Visual designers are tired of all those logical talks, and start talking 'back to basic' of their visual traditions or now often callled 'interaction design'.
- Many HCI groups are now focusing on its own technological interest, rather than any common topics for HCI as an academic field.
- Computer scientists don't like to be driven by the people who may or may not use the system, and try to focus more on computation issues like in 'Human-Centered Computing (HCC)'.
- The 'UX' talks either go more and more vague and philosophical, or underestimate traditional UI design as mere development compared to UX as design, evaluation, and analysis.
- It's now safe to say, "Everybody knows how to design a system with fair usability."
This field has been a safe house for many decades, but it may be time to leave the nest and build their own.

... I hope I didn't miss something important above. If you find anything seriously wrong, please understand that it was written in less than an hour, and comment it in the thread for the discussion. ;->


 

신고
Creative Commons License
Posted by Stan1ey
회사에서 SIGGRAPH 다녀온 사람들로부터 CD를 받아서 후다닥 훑어보니, 앞의 글에서 소개된 소위 '미래적인 인터페이스' 외에도 개인적으로 관심을 끄는 연구가 있었다. 죄다 포스터 세션으로 간소하게 발표된 것 같기는 하지만, 점심시간을 틈타서 후딱 정리해 보자.

(1) 오색장갑을 이용한 손 모양 학습/인식
손 모양을 영상인식하는 것은 살색(인종차별 논란은 필요없는)을 배경에서 구분하는 방식에서부터 아예 각각의 손가락마다 표식을 붙이는 방식에 이르기까지 다양한 시도가 있었다. 살색을 인식하기가 다소 까다롭기 때문에 그냥 손가락마다 색깔이 다른 장갑을 낀다든가, 화려한 손목 밴드를 낀다든가, 심지어 그냥 벙어리 장갑을 끼워 인식을 시도한 경우도 있었다. -_-a;; 이런 방식들의 문제점은 다양한 손동작에 따라 들어오는 신호가 unique하지 않기 때문에 몇가지 아주 특징적인 동작 외에는 오인식의 가능성이 있었다.

Hand Tracking with Color Glove

그런데 이 연구의 경우에는, 독특한 색상배치를 가진 장갑을 이용해서 다양한 손모양들을 미리 학습시킨 다음에, 그 패턴에 가장 근접한 손모양을 3D로 재구성하는 방식을 제시하고 있다. 다른 연구들에서 손바닥 뒤집힘이라든가 손가락 하나하나의 움직임이라든가 하는 것을 어떻게 오류없이 인식할지를 고민했던 것에 비해서, 이 연구는 어차피 일반적인 손모양 중에서 인식해서 제시하므로 손가락이 이상하게 꺾이거나 하는 경우는 없을 듯 하다. 특히 손동작이라는 것이 의외로 (이제서야 깨달았지만) 다양하지 않다는 걸 생각해 보면, 실제 적용의 관점에서 볼 때 최소한 안정성 측면은 월등할 것 같다.

아무래도 실제로 저렇게 오색장갑을 끼고 작업하게 되지는 않겠지만, 장갑에 적외선이든 가시광선이든 불규칙한 패턴을 넣어서 똑같은 방식으로 학습/인식하게 한다면 의외로 재미있는 쪽으로 발전할 것 같은 연구다. 아니, 적외선 패턴을 임시로 손에 직접 착색하는 방식이라면 어떨까.


(2) 움찔거리는 햅틱 펜
펜 형태의 haptic display 장치는 대표격인 PHANTOM 이외에도 여러가지 형태로 재가공되고 있다. 실제로 없는 물체를 마치 있는 것처럼 공중에 펜을 멈추게 하려면 아무래도 책상이든 어디든 고정된 형태가 좋지만, 모처럼 마우스를 버리고 3차원 공간 상의 가상물체를 만지겠다는 데 기계팔이 달린 물건을 쓰는 건 아무래도 아쉬웠던 것이다. 우리나라에서도 2차원 화면 상의 사례이긴 하지만, ETRI의 Ubi-Pen 같은 사례가 나온 적이 있다.

Pen de Touch

나름 멋지려고 애쓴듯한 제목의 이 연구 - Pen de Touch - 는 3차원 공간 상에서 펜 끝에 달린 적외선 마커(회색 공)로 위치를 찾고, 그 역감을 펜에 달린 4개의 모터로 전달하게 되어 있다. (온라인에서 검색이 안 된다!) 적외선 마커를 쓴 방식은 언급할만한 내용이 아니지만, 4개의 모터가 펜을 움찔움찔 움직이게 하는 방식은 상당히 재미있는 접근이라고 생각한다. 펜을 공간에서 멈추게 할 수 없으니까, 펜의 앞부분을 끌어당김으로써 사용자가 비슷한 감각을 느끼게 한 것이다. 실제로 그 역감을 느끼는 것이 손가락의 근육감각이라는 걸 생각하면 실제로 물체에 부딪혀 멈추는 것과 유사한 느낌이 들지 않을까. 진동모터를 사용한 경우보다 좀더 실제감각에 가까운 해법이라는 생각이 든다.

문제는 4개의 모터와 펜촉이 도드래와 스프링으로 연결된, 저 내부구조가 영 조악하다는 건데, 뭐 그 정도는 가능성만 검증되면 전자석을 이용한다든가 하는 나름의 방법이 생기리라 생각한다.


(3) 휴대용 프로젝터/카메라를 이용한 인터페이스
이건 그냥 I/O Bulb 개념의 팬으로서 스크랩해 두고 싶은 연구라고 하는 게 좋겠다. 휴대용 프로젝터가 드디어 상용화되면서 이제는 꽤 대중적인 관심사가 된 모양이지만, 역시 아직은 프로젝터를 사진이나 동영상 감상용으로 이용하는 데에 급급한 것 같다. 사실 이 '화면'은 휴대용이라는 특성을 감안하면 독특한 UI가 많이 나올 수 있는 방식인데...

Handheld Projector

Twinkle이라는 애칭을 붙여놓은 이 연구에서는 그 중 몇가지를 제안하고 있다. 아직 진행 중인 것 같긴 하지만, 비슷한 방향으로 보고 있는 것 같아서 반가운 연구였다. 뭐 직접 시도해 보고 개선하고 그러다보면, 상상했던 내용 쯤이야 금새 훌쩍 앞서버리겠지만.



앞의 글에서 언급한 연구 중에도 동경대에서 나온 게 있었는데, 앞의 세가지 사례 중에서 (2), (3)은 동경대가 관련되어 있는 연구다. 이 학교에서 뭔가 재미있는 일이 많이 일어나려나보다.

이번 시그라프 관련 포스팅은 요기까지만. 아마도.
신고
Creative Commons License
Posted by Stan1ey

Emotional AI

2009.08.08 01:55
처음 회사생활을 시작해서 건드렸던 게 MS Agent 2.0 엔진을 이용한 대화형 에이전트를 만드는 거 였다. Visual Basic Script와 JavaScript를 혼합해서 인터넷 익스플로러와 넷스케이프에 연동하고 다른 프로그램에 연동하고 해 가면서, 주어진 과제 - 실제로는 완전하게 동작하지 않는 "사람과 대화하는 컴퓨터"를 그럴 듯 하는 게 구현하는 것 - 를 어떻게든 해보려고 노력했다. 그때는 그렇게 10년동안 연구하면 그 '그럴 듯한' 시스템이 실제로 만들어질 줄 알았지만, 10년이 지난 지금도 그 시스템을 만들려면 비슷한 수준의 인공지능과, 비슷한 수준의 구라를 조합해야 할 게다.

Microsoft Agent: James the Butler
당시 사용했던 MS Agent 모델 James

어쨋든 당시에는 거의 이론적인 수준으로만 존재했던 대화모델을 어떻게든 실재하는 것처럼 만들기 위해서 처음에는 이런저런 대사DB를 고심했지만, 결국 무슨 말을 하면 무슨 응답을 한다는 하나하나의 대응쌍(adjacent pair)이 밝혀지고 나면 전체 대화모델이 얼마나 방대한지와 상관없이 그 시스템은 뻔한 '바보'가 되어 버렸다. 지능의 수준은 그 지식의 정도가 아니라, 입출력의 패턴에 따라서 판정되었던 것이다. 인간이라면 대화 속의 미묘한 맥락이나 상대방 혹은 주변의 눈치를 살피며 그때그때 다르게 응답하겠지만, 당장 컴퓨터는 입력된 그런 입력이 제한되어 있는 것이다.

그래서 장난을 친 것이, 그냥 출력되는 대사를 여러가지 준비해서 그 중 아무거나 임의로 출력하도록 하되, 소극적으로 같은 내용을 다른 말로 바꾼 것뿐만 아니라 아예 다양한 내용으로 말을 만들었다. 이를테면 당시 사용했던 음성인식 엔진은 음성인식에 실패했을 때 그게 소음 때문인지 화자의 발성 때문인지를 확인할 수 없었는데, 오류 메시지는 "잘 안 들리네요. 주위 분들 조금만 조용히 해 주시겠습니까"와 "조금 더 또박또박 말씀해 주세요"를 몇가지 다른 말로 바꾸어 내보낸 것이다.

... 물론 이건 대화모델이나 음성인식을 연구하던 분들에 비하면 말 그대로 장난에 불과했지만, 그에 대한 사람들의 반응은 개인적으로 무척 인상에 남았다. 모두 합쳐봐야 예닐곱개 정도의 메시지를 임의로 뿌린 것 같은데, 사람들은 그걸 들으면서 이전보다 훨씬 더 자연스러운 대화가 가능해졌다고 느끼는 것이다.

한편으로는 그냥 재미있는 기억이기도 했지만, 비슷한 시기에 만들었던 대화형 홈페이지와 맞물려서 '과연 인공지능이라는 게 만들 필요가 있을까? 그냥 그럴싸하게 대꾸하면 사람이 낚여서 인공지능으로 여기는 거 아닐까?' 라는 고민을 하게 만들었던 기억이다.



얼마전 게임 관련 잡지인 <Develop>을 뒤적이다가, 전에 언급한 Project Natal 관련기사에서 재미있는 대목을 찾았다. Milo라는 야심(?) 넘치는(말그대로!) 프로젝트를 소개했던 Lionhead Studio 담당자와의 인터뷰다. 이 인터뷰에서는 뒷부분에 소위 "Emotional AI"라는 개념을 소개하고 있는데, 저 위에 폰카로 찍은 인용구 부분이 간단한 정리라고 하겠다.

Emotional AI: interview from Develop Magazine

다른 게임들과 비교해서 크게 차이가 나는지는 모르겠지만, 인터뷰 내용에 따르면 이제까지 Lionhead에서 만든 게임에 들어간 AI는 조금씩 발전을 거듭해 왔고, 그 결정판이 Milo에 들어갈 예정이라고 한다. 거기에 들어간 AI가 바로 "emotional AI"인데, 그 내용이 위와 같은 것이다.

"Emotional AI isn't real AI - you couldn't write a paper about it. It's how you use weak learning to make people think something is going on there."

관련해서 검색해 보니 이번 뿐만 아니라 몇번이나 언급한 개념인 모양이고, 다른 회사에서도 미들웨어를 개발한다고 나서기도 했다. 대놓고 사용자를 현혹시키기 위한 프로그램을 개발하고, 게다가 이름을 붙여 홍보까지 하다니... 게임 업계란 가끔 UI 쟁이에게 도의적인 갈등을 느끼게 한다. 특히 실제로 AI를 연구한 분들이 본다면 경을 칠 노릇이지만, 사실 인공지능 학계 내부적으로도 "안 되는 분야"라고 인정하고 있는 분위기에서 이런 식으로라도 실용화를 향한 명맥을 유지할 수 있다면 오히려 다행일지도.

그나저나 저 Emotional AI라는 분야, 그냥 뻔한 변수들의 조합에 랜덤함수만 열심히 넣은 게 아니었으면 좋겠는데. 실제로 Milo가 나와준다면 - 비록 내 허접한 영어발음은 못 알아듣더라도 - 얼마나 끝내주겠냐는 말이다.
신고
Creative Commons License
Posted by Stan1ey

결국 스티브 잡스 없이 진행된 WWDC 기조연설에서, iPhone의 다음 하드웨어 플랫폼인 iPhone 3G-S가 발표됐다.

iPhone 3GS
대체로 이미 iPhone OS 3.0가 등록된 개발자들에게 배포되면서 공개 및 유출되었던 내용과, 거기에서 일전의 블로그 글에서 예상했던 내용에서 크게 벗어나지는 않은 것 같다.

특히 관심을 갖고 있던 자동초점, 전자나침반, 음성조작 기능에 대한 대목과, 발표 직후의 리뷰들을 종합해 보면 다음과 같다.


(1) Auto-Focus Camera
iPhone 3GS - Autofocus Camera
발표에서 가장 박수를 받은 부분은 화면에서 특정 부분을 터치하면 그 부분에 초점이 잡히는 기능이었지만, 사실 이 기능은 이미 2005년에 Sony DSC N1에서 이미 구현되어 당시 카메라에 터치스크린을 넣어볼까 하던 사람들을 안타깝게(?) 했던 내용이므로 통과. 내가 기대했던 액체렌즈 부분은 아직도 그 적용 여부가 파악이 안 되는데, 그 정도 기술을 썼다면 분명 거대하게 떠들었을 법 한데 전혀 언급이 없다. 하지만 또 소프트웨어만으로 초점을 맞춘다는 건 이해하기 힘들고, 게다가 동영상에서 초점을 맞추는 장면을 보면 연속적으로 움직이고 있으니 뭔가 광학적 모듈이 들어갔다는 생각에는 변함이 없다. 뭐 1~2주 후에 판매가 되면 누군가 바로 -_- 뜯어볼테고, 그때는 분명하게 알 수 있을 거다.


(2) Magnetometer
iPhone 3GS - Digital Compass
이전에 우려했던 내용이 맞아떨어진 모양이다. 발표 중에는 언급되지 않았지만, 그 직후에 직접 사용해본 사람이 올린 기사에 의하면 나침반 기능을 사용하기 전에 아이폰을 붙잡고 손목을 8자 모양으로 돌려서 초기화해야 한다고 한다. 손목을 8자로 돌리라니 모 회사의 "수평으로 잡고 상하좌우로 한바퀴씩 돌리세요"보다 훨씬 애플다운 UI라는 생각은 들지만, 여전히 장소를 옮길 때마다 (자기환경도 변하므로) 초기화는 필요할테니 홍보되고 있는 내용보다는 불편한 기능인 셈이다.

(다음 날 추가) 관련된 내용이 애플 웹사이트에도 올라왔다. "처음 사용할 때 이 calibration 동작을 수행하고, 그 이후에도 종종 해야 합니다. 다시 calibration을 할 필요가 있을 때마다 알려드립니다. ... 또한 자성을 가진 물체로부터 멀리 떨어지라는 안내가 나올 수도 있습니다." ... 흠, 사실 센서신호의 변동폭을 보면 다시 초기화를 해야 할지 안 해도 될지를, 초기화 데이터의 상대적인 차이를 보면 지자기에 의한 건지 지나치게 강력한 다른 자석에 의한 영향인지를 알 수 있겠구나. 과연 애플, 늘 한번 더 생각한 티를 내주신단 말이지. 하나 배웠다. 확실히 HTI는 먼저 해보는 놈을 따를 재간이 없는 듯.

(다시 일주일 뒤 추가) 관련 스크린샷이 올라온 걸 발견. 휴가에서 돌아오자마자 이것부터 업로드하고 있다. -_-a;; 어떻게 돌리느냐에 따라서 감도가 달라질텐데, 그에 대한 상세한 설명은 없다. 왠지 스샷으로만 보기엔 이 '초기화' 동작을 수시로... 심지어 경우에 따라선 제대로 북쪽을 보려면 자리를 옮겨가면서 몇번이나 하고 있어야 할 것 같은 느낌이다. 조금 일렀던 거 아닐까... 어쩌면 센서를 두 개 사용하거나 그냥 여러 방향으로 초기화체조 -_- 를 함으로써, 국지적인 자기장을 제외하는 기술 같은게 나올 수도 있겠다.

Initializing Compass on iPhone 3G S



(3) Voice Control

iPhone 3GS - Voice Control
그렇게 바라던 Voice Control은 역시 음성인식을 이용한 조작이고, 예상한 대로 이어폰 버튼(or 홈 버튼)을 길게 누르는 것으로 시작하고 있다. 실망스러운 것은 그 기능이 전화걸기와 음악재생에 머무르고 있어서 결국 기존에 다른 VUI 어플리케이션에서 제시했던 것 이상의 모습은 보여주지 못한다는 거다. 아니 구글의 자연어 검색을 생각하면 오히려 그 이하의 단순적용이라고도 할 수 있겠다. "Play more songs like this." 같은 멋져보이는 음성명령도 소개하고 있지만, 자연어 인식이라든가 하는 게 아니라 그냥 몇가지 문장을 추가해 둔 것 같다. 모처럼 OS 수준에서 접근한 것치고는 조금 실망이랄까.

VUI 관점에서 iPhone 3G-S의 음성입력(Voice Control) 및 음성출력(VoiceOver)을 보자면, 오래 누르기를 통해서 음성모드로 들어가는 점이나 음성명령을 반복(echoing)함으로써 자연스럽게 명령이 제대로 입력되었는지 확인하고 취소할 시간 여유를 주는 점 등은 가장 전형적인 방법이라고 할 수 있다. 오히려 사용 가능한 음성명령을 재미없는 "명령어 예시 목록" 같은 것으로 나타내지 않고 둥둥 떠다니는 키워드들로 표현한 것이 신선한 정도였다. 반면에 음성인식 중에는 분명히 오류가 발생할 수 있을텐데, 그런 경우를 대비해서 인식결과의 대안을 제시하지 않는다는 부분은 조금 불안한 대목이다. 개인적으로 관심이 가는 것은 역시 VUI의 설계에 대한 부분으로, 무려 32개 언어로 만들어진 유도문(prompt)이 어떻게 각 언어의 특징에 맞게 쓰여졌을까 하는 부분이다. 특히 우리 말로 "Dial 010-2345-6789"같은 내용을 작성하라고 하면 아무래도 자연스럽게 되지 않았기 때문이다. 어떤 식으로 나오든 앞으로는 그게 각 언어의 기능별 조작명령의 표준이 될텐데...

개인적으로 기대는 많이 했지만, 결국 일반적인 음성명령의 적용에 그쳐서 솔직히 실망이다. 물론 이 정도 파급력을 가진 기기의 가장 주요한 기능에 음성UI가 들어간 거고, 무엇보다 다른 어플리케이션으로의 파급력까지 생각한다면 아직 실망은 이르겠지만서도.



결국 한국에 아이폰이 출시되느냐 하는 점은 아쉽게 됐지만, 그래도 재미있어 보이는 기능들이 몇가지나 들어갔으니 몇달간 아이폰을 둘러싼 소식이 끊이지 않을 예정이다. 거기에나 기대해 보자. *_*

신고
Creative Commons License
Posted by Stan1ey
iPhone OS 3.0

애플에서 iPhone OS 3.0의 사전공개 행사가 있었다. 늘 나온다 나온다 하던 Copy & Paste 기능이 드디어 포함되었고, 데스크탑에서 동작하던 SpotLight 검색기능이 포함되었고, 하드웨어(칩)는 들어가 있는데 소프트웨어에서 동작을 하지 않던 블루투쓰도 드디어 열려서 P2P 어플리케이션이 가능해졌다. 뭐 기타 등등 "우와~" 싶은 건 많았지만, 이 블로그에서 다룰만한 거 몇개만 적어보자.



우선, 실낱같은 희망을 갖고 기대했던 음성인식 기능은 역시나 -_- 안 들어갔다. 대신 조금은 엉뚱하게도 Voice Memo라는 어플리케이션이 새로 기본으로 들어갔는데, 괜히 나만 그렇게 느끼는 건지는 모르겠지만 너무 엉뚱하다. 이미 AppStore에는 음성메모 어플이 몇종류나 나와있고, 거기에 음성 자르는 기능과 MMS에 넣어 보내기 기능을 추가했다고 해서 감히 기본어플의 반열에 오르기엔 좀 어색하지 않나? 뭐 예전 글 같으면 분산인식을 이용한 음성인식이나, 아니면 오프라인 상에서 진행되는 받아쓰기 dictation 까지도 생각할 수 있겠다고 난리를 쳤겠지만 일단은 느긋하게 생각해 보기로 하고 넘어가기도 하자.
Voice Memo on iPhone OS 3.0Voice Memo on iPhone OS 3.0



발표 중에 등장한 다른 흥미로운 사실은 가장 자주 쓰이는 동작인식이라고 할 수 있는 (사실 인식이랄 게 없기 때문이지만;;) "흔들기"를 기본 인터랙션에 넣었다는 것이다. 이제까지 iPhone/iPod Touch에서 가능했던 작업들과 달리 새로 넣을 잘라내기/복사/붙여넣기 동작은 오류의 소지가 많다고 생각했는지, 동작 직후에 iPhone을 흔들면 팝업이 뜨고, 거기에서 Undo/Redo/Cancel 을 선택할 수 있게 되어 있다. 설명에 의하면 Undo/Redo는 여러번 가능하다고 하고, 화면을 잘 보면 [Undo Typing]이라는 버튼도 있으니 문자입력의 Undo도 가능한 거 아닐까. 그렇다면 단순히 복사하기 이상으로 문자열 편집이 쉬워진 것 같다. 물론 그러면서 점점 더 복잡한 입력들이 등장하고 있는 건 좀 아쉽지만. (동영상을 보면 Copy/Cut을 시작하는 동작이 어떤 경우엔 double tap, 어떤 경우엔 한번, 어떤 경우엔 오래 누르기 등으로 조금은 외워쓰기 어렵게 되어 있다. 아마도 어느 범위를 선택할 것인가와 대상 문자열의 속성에 따라 다른 것 같은데, 경우에 따라서 어느 한쪽은 동작하지 않는 경우도 있을 듯. -_-a )
Shake-to-Undo/Redo on iPhone OS 3.0



하지만 개인적으로 가장 눈길을 끈 부분은 - 정말 휙~하고 지나가 버렸지만 - 다음 두 화면에 나와있는 항목들이다. 이 화면들은 각각 개발자와 사용자를 위해서 새로 제공되는 대표적인 기능들이다.

Developer Features in iPhone OS 3.0
End User Features in iPhone OS 3.0

어떤 글자는 잘 안 보이지만, 눈을 가늘게 뜨고 자세히 읽어보면 다음과 같은 항목들이 눈길을 끈다.
  • Proximity Sensor
  • Battery API
    아이폰/아이팟 터치에 달려있는 센서 중에서 API가 제공되지 않아서 안타까웠던 센서가 3개 있는데, 앞으로는 그 중 2개의 센서를 사용할 수 있게 되었다. 근접센서의 경우에는 사실 위치가 모호해서 제한은 있겠지만, 화면 상의 GUI를 잘 활용해서 적용한다면 독특한 사용법이 나올 수도 있을 것이다. 배터리 같은 경우에는 사실 꼭 필요한 경우(얼마 못 쓸 것 같으면 경고)를 이미 OS 수준에서 제공하고 있으므로 덜 신경쓰였지만, 그래도 항상 켜있어야 하는 어플(음악이든, 동영상이든, 자명종이든)의 경우에는 GUI에 어떻게든 반영해서 도움을 줄 수 있지 않을까.

  • Shake API
  • Shake to shuffle
    iPod nano에 들어가 있는 "흔들어 셔플" 기능이 기본 채용된다고 한다. 이걸 구현하는 과정에 그랬는지 어쨌는지, 아예 흔들기 동작을 인식하는 API를 제공하고 있다. 구현이 무지 간단해 졌으니, 아마도 많은 (십중팔구 '너무 많은') 어플이 "흔들기"로 뭔가 하려고 하게 될 듯.

  • Languages: 많은 언어들에 대해서 키보드 기능을 확대지원한단다. 이거 혹시 한글에서도 터치키보드의 오입력 수정기능을 지원해 주는 걸까나. 한/영 키보드를 번갈아 쓰다보면, 정말 터치 키보드에서 이 기능이 얼마나 절실한지 느끼게 된다.
  • Notes Sync: 드디어 ㅠ_ㅠ
  • In game voice: 잠깐 깜놀했지만, 게임 중에 음성대화가 가능하게 해주는 P2P VoIP 기능(이게 말이 되나?)인 듯 하다. 사실 대단한 기능이지만, voice가 들어간 주제에 Voice UI와 관련이 없으니 패쓰. ㅋㅋ
  • Audio/Video tags: 이거 뭔가 SNS와 연결하거나 iTunes에서 tag cloud를 사용하거나 Genius 서비스에 집단지성으로 연결하거나 뭐 그러려는 거 아닐까 싶다.
여기에 추가로, 개발자들은 더욱 다양한 옵션으로 UI를 꾸밀 수 있을 듯 하다. 위쪽 그림의 작은 글자들을 보면 UI View, UI Table View, UI Alert View, UI Scroll View, UI Action Sheet 등이 추가된 듯 하고, Nav bar, Toolbar 같은 부가 widget도 제공하고 있다. 이제까지는 그냥 자신만의 방법으로 꾸민 UI가 많았는데, 이런 것들을 기본 제공하게 되면 표준화된 UI가 좀더 많아질 듯.



한편으로는 engadget.com의 Live Feed에서 재치있게 언급되었듯이 "Applause. Applause for a feature that every other device in the world has. Odd."라는 코멘트가 어울리는 내용도 있지만, 외부에 잠겨있거나 개발이 완전히 끝나지 않았던 부분들(솔직히, 대부분의 기본 어플에 대해서 가로화면이 이제야 구현된 건 변명의 여지가 없다고 본다)이 대거 풀려나오는 건 두말할 나위 없이 반가운 일이다.

무엇보다 이제까지 본 HTI의 시너지가 100%가 아니었다는 걸 깨달으면서 이 물건의 잠재력에 대해서 - 그리고 그나마 드러난 부분만 보면서 따라가고 있는 스스로에 대해서 - 다시 한번 생각해 보게 되기도 하고.
신고
Creative Commons License
Posted by Stan1ey

센서 기반 UI 라는... 그런 제목을 한동안 달고 다닌 적이 있었다. 그때는 그게 기술 중심의 연구소에서 사용자 - 연구원과 경영진 - 에게 쉽게 이해될 수 있는 호칭이었기 때문인데, 그게 결국 HTI로 이어진 셈이다.

CACM, Feb 2009 issue
<Communications of ACM>의 지난 2월호 한켠에 실려있는 기사 - "Making Sense of Sensors" - 는, 제목만 보고도 무슨 이야기를 하려는지 분명하게 알 수 있었다. 이제 이런 얘기가 나올 때가 됐지.

센서를 통한 암시적 입력이, 당연히 명시적 명령입력과 기대했던 결과출력으로 이루어졌던 사용자 인터페이스에 사용된 건 그다지 오랜 일도 아니고, 이런 종류의 UI에 대한 사용자의 반응이 항상 좋았던 것도 아니다. 무엇보다 분명한 알고리듬이 존재한다고 하더라도 제멋대로 판단해서 움직이는 듯한 물건에 대해서 호감을 가지려면 서로 친숙해질 시간이 필요한 것이다.

이제 슬슬 그런 타이밍인 걸까. 이번 기사의 제목은 그런 의미에서 개인적으로 의미가 크다. 그래서 이런저런 회포나 풀면서 머릿속을 정리해 보려고 끼고 있었는데, 점점 블로깅에 투자할 시간이 없어진다. 이러다가 곰팡이 피기 전에 그냥 스크랩이나 하고 말기로 했다.


아래는 이 기사의 마지막 문단이다. 맘에 들어서 퍼넣어야지 했다가 깜박해서 다음날 추가. 감기약 때문에 정신이 혼미한듯. ㅎㅎㅎ

... When sensors start to do more than just transmit sensory data to a traditional two-dimensional computer screen, the way we interact with computers will fundamentally shift, as physical objects become "smarter" about themselves and the world around them. When that starts to happen - when computers start taking shape in three dimensions - sensors may just start making sense.

저자는 Alex Wright라는 사람인데, 말 장난을 좋아하는 사람이다. 같은 과라 호감이 간달까.


아, 참고로 이 기사의 내용은 별 게 없다. 유투브에서 많이 유명해져서 여기저기 강연을 다녔던 Johnny Lee의 연구내용을 필두로 저자가 아는 범위에서 여기저기 연결점을 찾으려는 노력이랄까. 딸랑 2쪽 분량으로는 단지 몇가지 사례를 나열한 느낌이지만, 좋은 제목에 걸맞게 좀더 잘 정리할 수 있었던 좋은 주제였기에 좀 아쉽긴 하다.

신고
Creative Commons License
Posted by Stan1ey

디지털 액자가 등장한 건 벌써 식상할 정도로 오래된 일이다. 벤치마킹을 핑계로 (어쩌면 최초의 상용화됐던 물건을) 구매했던 게 2003년이니까 최소한 5년은 됐겠다. 그 당시의 장미빛 시장전망에 비해서, 그 시장규모는 지난 5년간 그다지 변하지 않았다고 생각한다. 물론 여기저기 전자상점에는 빠지지 않고 디지털 액자가 세워져 있지만, 실제로 그걸 세워놓은 걸 본 것은 광고용으로 쇼윈도우에서 쓰고 있는 것 뿐이니까.

그런데 그건 내 개인적인 경험에 의한 편견이고, 시장에서는 여전히 긍정적인 관점으로 접근하는 사람이 있는 모양이다.

1.5 inch Colour Digital Photo Keyring ... for 12 pounds

지난달 언젠가 -_-;;; 집에 날라온 광고용지를 버리러 가다가, 저 12파운드짜리 물건을 보고 눈이 휘둥그레 졌다. 여기저기서 헐값에 떼어온 물건을 창고에 쌓아놓고 파는 가게에서, 24,000원짜리 휴대용 디지털 액자가 팔리고 있는 거다. 헐. 비록 1.5인치라는 작은 크기이긴 하지만, 물론 칼라화면에 140개까지 이미지를 저장할 수 있고 슬라이드쇼 기능도 갖추고 있어서 디지털 액자의 기본기능은 모두 갖추고 있었다. 게다가 작은 놈 답게, "열쇠고리" 디지털 액자로 명명되어 있었다.

... 우와. 이 물건이 언제 이렇게까지 시장을 넓힌 거냐.

그 시장, 잠재력은 있는데 딱이 니즈가 없어서 그냥 망하지 않았나? 하고 몇년 덮어둔 사이에 이런 물건까지 나오면서 슬금슬금 자리를 잡고 있었다. iRobot Roomba가 자리를 잡았듯이 그렇게 언제 없었냐는 듯이 집안에 떡하니 앉아있을 날도 멀지 않은 듯.



"All truth passes through three stages. First, it is ridiculed. Second, it is violently opposed. Third, it is accepted as being self-evident."
- Arthur Schopenhauer

전에 모셨던 팀장님의 이메일 말미에 늘 붙어있던 말이다. 팀장님이야 한 회사의 UI 체계를 잡아주다 보니까 이런저런 생각에 저 글귀를 걸어두신 거겠지만, 새로운 기술이 세상에 어떻게 퍼지는지도 역시 같은 개념이라는 생각을 했더랬다.

아무래도 HTI 분야를 생각하며 일하다 보면 기술에 대한 세상의 수용도(?)라는 걸 고민하게 마련이라 소위 "hype curve"라는 것도 자꾸 인용하게 되고 그러는데, 그러다보면 내가 노력해서 세상을 바꾸는 게 아니라 세상이 바뀌고 나서 내가 한 일이 정당화 되는데, 그때가 되면 남들도 다 하고 있겠구나...라는 생각이 들 때가 있다. 사실은 수많은 물방울이 부딪혀서 마침내 물레방아를 놀리기 시작하는 걸텐데, 일단 물레방아가 돌기 시작하면 물이 물레방아를 돌리는지 물레방아가 물을 퍼나르는지 모르게 되는 것처럼. 거 물방울 입장에선 섭섭한 소리지. -_-a

세상을 바꾼다는 것, 혹은 진실을 추구한다는 것 자체가 개인이 욕심내기엔 너무 큰 일일지 모른다. 하지만 뭐 그 추구하는 과정 자체가 행복한 사람들도 왠지 있는 게 또 이 세상이고, 각자 자기 행복한대로 살다가 대체로 세상 살기가 좋아지만 그게 또 문명의 발전이라는 거 아닐까나.


... 아놔. 생각나서 괜히 어려운 말 인용했다가 빼도박도 못하게 됐다.

그냥 끝.

신고
Creative Commons License
Posted by Stan1ey

BLOG main image
by Stan1ey

카테고리

분류 전체보기 (347)
HTI in General (45)
User eXperience (11)
Voice UI (50)
Vision UI (14)
Gesture UI (25)
Tangible UI (28)
Robot UI (14)
Public UI (9)
Virtuality & Fun (56)
Visual Language (15)
sCRAP (70)

글 보관함



www.flickr.com
This is a Flickr badge showing public photos and videos from Stan1ey. Make your own badge here.