마이크로소프트에서 멀티터치 스마트 테이블를 들고 나오면서 한동안 소위 'Surface Computing'이라는 요상한 용어를 뿌리더니(예전에 같이 일했던 어떤 분은 분명히 "표면이 computing하는 것도 표면을 computing하는 것도 아닌데 무슨 surface computing이냐!!!"라고 하고 계실 거다), 이번엔 'Sphere'라는 코드명을 들고 나왔다. 요컨대 멀티터치가 되는 구형의 화면이다.



흠. 결국 했구나. ㅡ_ㅡa;;

데모하고 있는 사람 너머로 보이는 화면을 보면, 왼쪽의 큰 화면은 결국 프로젝션 되고 있는 화면으로 원형으로 투사될 수 있도록 미리 왜곡되어 있고, 오른쪽 화면에 보이는 모습들 중 가운데 화면은 적외선 반사에 의한 포인팅을 인식하는 모습을 보여주고 있다. (특히 아래 장면에서는 두 손가락이 화면에 찍혀 있는 모습을 볼 수 있다... 잘 보면 =_= )

Sphere Computing(?) of Microsoft

결국 Surface 시스템에 있던 입출력 장치 앞에 어안렌즈를 하나 넣어서, 프로젝션도 카메라도 180도 가까이 퍼지게 만든 것으로 보이는데, 사실 그럼에도 불구하고 몇가지 의문이 남는 부분이 있다. 이를테면 프로젝션의 초점거리 같은 경우가 대표적인데, 180도 퍼지게 만든 화면을 투사한다고 해도 구체 아랫쪽의 투사면과 맨 위쪽의 투사면까지의 거리는 크게 다르기 때문에 골고루 또렷한 영상을 맺히게 하기 힘들 거다. (초점거리 개념이 없는 프로젝터가 개발되어 있기는 하지만, 저렇게 바깥쪽으로 사람을 향해서 투사할 수는 없는 물건이다 -_- )

그 외에 적외선 반사를 이용한 인식의 해상도라든가, 상을 왜곡시키기 위해 평면 좌표계를 실시간으로 구좌표계로, 또 반대로 계산하는 번거로움이라든가 하는 것들도 문제가 될 수 있겠지만, 사실 실용성 측면에서 볼 때 가장 큰 문제는 역시 투사된 화면의 위치에 따른 해상도 차이라고 본다.




... 사실은 그게 내가 못 풀었던 문제다. 그래서 난 @#$%@%@#$%^$#^&#%^&렇게 피해서 도망갔더랬는데, 얘네들은 혹시 풀었는지, 풀었다면 어떻게 풀었는지가 아주 궁금해 죽겠다. ~_~ ㅎㅎ
신고
Creative Commons License
Posted by Stan1ey
제목은 거짓말이다. -_-;;; 적어도 현재까지의 Touch UI는 시각장애인이 사용할 수 있는 방법이 전혀 없다. 전맹인은 물론이고, 다소 눈이 어두운 정도로도 사용이 불가능한 것인 현재의 터치 스크린이다.

http://www.foodsister.net/1021

티스토리의 관리메뉴에는 무슨 검색들을 하다가 이 블로그에 방문하게 됐는지를 보여주는 기능이 있어서, 가끔 들여다보면서 참 각양각색의 검색어로도 들어오는구나..하고 보곤 하는데, 그러다가 링크를 따라가서 발견한 글이다.

일단은 Touch UI와 Universal Design에 관심이 많은 사람으로서의 그냥 스크랩이지만, 일전에 쓰다만 Touch or NOT Touch를 이제 더이상 미루면 안 되겠다.
신고
Creative Commons License
Posted by Stan1ey

Apple iPhone 3G
우리나라 기준으로 오늘 새벽, WWDC'08에서 iPhone 3G가 발표되었다. 사실 2G 든 3G 든 통신규약 따위는 큰 의미가 없었지만, 그래도 이제까지 Apple의 행보를 볼 때 과연 Steve Jobs가 발표 끝에 무엇을 들고 나와서 "well, there's one thing more..." 라고 할지가 엄청 궁금했던 게 사실이다. (사실 이번 발표에서는 그 장난기를 보여주지 않아서 초큼 실망했다 ㅎㅎㅎ )



루머라고도 할 수 없는 루머들 - 새롭게 바뀐 크기의 iPhone 금형이라든가 - 을 봤기에 거의 기정사실화되기는 했지만, 그래도 iPhone 3G의 등장은 많은 박수를 받았다. 그리고 줄지어 소개되는 기능들... 이미 이전의 제품에서 S/W 업그레이드를 통해서 많은 부족한 부분들이 소개되었기 때문에, iPhone의 첫 등장처럼 환호성이 터져나올 특별한 기능은 없었다고 본다.

하지만 기존의 기능들이 어떻게 보완되고 강화되었는가를 하나씩 이야기하는 걸 듣고 있자니, 점점 소름이 끼치는 게 느껴진다. 저번처럼 하나씩 보여주면서 깜짝 놀래키는 건 없었지만, 가능한 기술을 총동원해서 시장의 니즈를 가감없이 만족시키는 모습에 감동이 넘쳐 오히려 질려버리게 만들었달까. 마치 일본의 전통 여관(료칸)에서 받는 서비스가 이런 느낌일까.. 라는 생각이 든다.

Apple iPhone 3G - Features

이런 "정주행" 업그레이드라는 건, 어떻게 보면 소비자의 당연한 요구를 당연히 생각할 수 있는 방법으로 있는 그대로 해소하기 위한 노력일 게다. 하지만 실제로 제품을 개발할 때 고려해야 하는 기술, 경영 상의 문제를 생각해 보면... 이번 iPhone 3G를 만들기 위해서 투자했을 노력에 정신이 다 아뜩해진다.


이렇게 더 나아진 기능들 사이에서 눈에 띄는 기능 하나는, MobileMe 라는 기능이다. me.com 이라는 URL도 대단하지만, 연구소 생활을 하면서 ubiquitous computing 이라든가 wearable computer 라든가 mobile computing 이라든가 하는 키워드를 중심으로 고민하고 수십번이나 고쳐쓰면서 몇년동안 시도했다가 결국 연구원도 지치고 관리자도 지치고 해서 사업화하지 못한 기능들을, 그야말로 "정주행"해서 구현해 놓았다.

Apple MobileMe - Features

MobileMe에서 구현된 서비스는, 솔직히 우리나라 IT 업계에 있는 사람이라면 누구에게도 새로운 내용이 아닐 것이다. 심지어 인터넷을 통해서 IT 관련 정보를 좀 보는 사람이라면 누구나 생각했던 아이디어라고 생각한다. 어떻게 보면, 이미 Microsoft 등에서 모두 구현해 놓았던 기능을 베꼈다고 할 수도 있고, Google Calendar 같은 서비스에도 유사한 기능이 있다고 말할 수 있겠다.



하지만 (적어도 데모 상으로 보이는) 이 완성도라니... 그야말로 놀라울 따름이다. 많은 눈이 iPhone에 몰려있는 시기이긴 하지만, 이번 WWDC에 등장한 진정한 breakthrough는 MobileMe라고 생각한다. 이제 Google Calendar, Picasa, Google DocsGoogle Gear로 Online-Offline application을 평정하려던 Google은 아직 미완성인 휴대기기 OS android를 들고 좀 어정쩡한 모습이 되어 버렸다. 애플 빠돌이인 동시에 구글 빠돌이를 자청하는 입장에서, 앞으로 Google의 행보가 무척이나 기대가 된다.


Apple... 이 정도로 straight forward한 상품기획과 개발과 홍보를 정주행할 수 있는 회사라니... 이 사람들의 정체는 도대체 뭐길래 몇년동안이나 앞서가면서도 지치지도 따라잡히지도 않는 걸까. ㅡ_ㅡ;;;




P.S. 위 동영상들을 찾다가, 재미있는 영상을 봤다. 일전에 올렸던 삼성 휴대폰 패러디 동영상 이후로 제일 재미있는 듯. ㅋㅎㅎ

신고
Creative Commons License
Posted by Stan1ey
이전 글에서 회상한 악몽이, 최근 애니콜의 "햅틱폰" 마케팅 캠페인에서 다시 살아나고 있는 기분이 든다. (이 이야기 쓰려다가 앞의 글이 통채로 생겨 버렸다. 무슨 주절주절 끝나지 않는 할아버지의 옛이야기도 아니고 이게 뭐냐 -_-;;;. 그냥 후딱 요점만 간단히 줄이기로 하자.)

삼성에서 "풀 스크린 터치" 폰을 개발한다는 소식이 들리고 국내외 전시회에서 해당 모델이 조금씩 모습을 드러낼 무렵, 드디어 시작된 광고는 정말 뭇 UI 쟁이들의 마음을 설레게 하기에 충분했다.



"..., 터치... 다음은 뭐지?" 라는 것은, 정말이지 Apple iPhone 이후에 모든 월급쟁이 - 풀어서 말하자면, 뭔가 월급에 대한 대가로 새로운 것을 제시해야 한다는 책임감을 부여받은 - UI 쟁이들에게 주어진 공통의 숙제 같은 거 였다. 자리만 생기면 서로 저 질문들을 하기도 했고, 학계에서나 연구되던 많은 주제들이 무수하게 떠올랐다가 사라지곤 했다. 그러다가 종종 SF에서 보던 장면들이 논의되면 잠시나마 꿈에 부풀기도 했고.

그 중의 하나가, 물론, "햅틱 haptic"이라는 기술이다. (UI가 아니다.)

Wikipedia를 인용하자면, 햅틱은 "촉각 감각을 통해 힘이나 진동, 움직임을 가함으로써 사용자와 인터페이스하는 기술"이라고 정의된다. 나는 햅틱에 관해서는 전문가는 커녕 학생 수준에도 못 미치기 때문에 말을 길게 하는 건 매우 -_- 위험한 짓이 되겠으나, 투덜거림을 위해 예전에 관련 전문가분들과 같이 과제를 하면서 몇가지 얻어들었던 사실을 언급하자면 다음과 같다.



우선 햅틱은 위 정의에서와 같이 다양한 촉각 감각을 다루는 분야로, 크게 tactile 감각과 kinesthetic 감각으로 분류하기도 한다. 이때 tactile 감각은 피부에 있는 촉감 세포들이 느끼는 압력, 요철, 진동 등의 감각이며, 차갑고 뜨거운 것을 느끼는 열감각은 여기에 포함시키거나 별도로 thermal로 구분하기도 한다. Kinesthetic 감각은 인간의 관절을 둘러싼 근육과 인대의 운동감각에 의한 것으로, 흔히 말하는 force feedback 이라든가 무게감 등이 이에 해당한다.

햅틱 기술을 이용한 UI는 아직 걸음마 단계로, 몇가지 시험적인 상용화 시도가 있었다. 그 중에서 가장 높은 이상을 보여주었던 사례는 BMW의 iDrive라고 생각한다.
BMW iDrivce: a haptic input device
iDrive는 다양한 조작이 가능한 하나의 다이얼+버튼+조이스틱 입력장치로, 동적으로 변하는 각 조작상황에 최적화된 물리적인 조건 - 즉, 메뉴의 개수에 맞춰서 다이얼이 움직이는 범위가 변한다든가, 버튼 입력시의 반응이 다르다든가 하는 - 을 제시하는 햅틱 장치가 아래쪽에 숨어있다.

하지만 iDrive는 햅틱 기술의 대표적이고 도전적인 적용 사례일 뿐이고, 그 사용편의성 측면에 대해서는 많은 비판을 받기도 했다. 실제로 iDrive를 검색해 보면, 많은 글들이 극단적으로 부정적인 의견이어서 마치 예전 MS Office Assistant에 관한 글을 보는 듯한 기분마저 든다. 이것이 새로운 기술에 대한 대중 사용자의 거부감일 뿐일지, 아니면 실제로 상상 속의 편리함이 공상으로 드러나는 패턴인지는 아직 판단을 미뤄둔 상태다.

한편으로 보면, 간단한 수준의 햅틱은 이미 우리가 사용하고 있는 제품에 적용되어 있는데, 대표적인 것이 바로 휴대폰과 게임기의 진동 모터이다. 휴대폰의 경우에는 단순히 중심이 어긋난 추가 달린 모터를 켜고 끄는 것으로 진동 전화벨을 구현한 것에서 시작해서, 2~3년 전부터는 "진동벨"이라는 음악에 맞춰 강약이 조절된 진동이 적용되기도 했으며, 최근 모델들에는 다양한 강약패턴을 갖는 진동이 휴대폰에 적용되기도 했다.

특히 이 강약패턴의 경우엔 게임기에 적용된 것과 같은 기술을 적용하고 있는데, 바로 진동모터에 정전류과 역전류를 적당히 적용함으로써 모터의 회전수, 즉 진동의 강약을 실시간으로 정확히 제어할 수 있는 것이다. 이 기술에 대한 특허를 가지고 있는 것이 바로 햅틱 기술의 거의 모든 특허를 독점하고 있는 회사인 Immersion 이다.

[○] Immersion의 햅틱기술 독점 에피소드


Immersion사의 진동 피드백 기술에 대해서는, 대충 아래의 Immersion Studio 라는 진동효과 편집 소프트웨어를 보면 느낌이 올 것 같다. 이 소프트웨어는 진동 모터의 강도를 시간축에 따라 정밀하게 제어할 수 있는 기능을 GUI로 제시하고 있다.
Immersion Studio Screenshot

진동 자극은, 대상 UI의 물리적 특성을 직접적으로 제시하는 게 아니라 다양한 진동을 통해 간접적으로 표현하는 것이다. GUI 식으로 이야기하면 극단적으로 단순화된 메타포 metaphor 라고 할 수 있을 듯. 이보다 직접적인 방식으로 촉각적 자극을 주는 방식으로는, 실제로 물리적인 형태를 바꾸는 형태가 있겠다. 이미 이런 방식은 시각 장애인을 위한 점자 표시 braille display 장치에서 구현되어 있다. (아래 오른쪽 그림의 장치 - 브레일 한소네 - 를 만든 힘스코리아 HIMS Korea 라는 회사는 우리나라에서 재활공학을 업으로 하는 극소수의 소중한 회사들 중 하나다.)

Refreshable Braille Display (close up)
Portable Braille Display 'Hansone' by Himskorea


이 방식은, 점자를 위한 장치 외에도 full matrix로 만들어지기도 했는데, 점자 디스플레이 모듈을 만드는 일본의 KGS 라는 회사에서는 이 모듈을 연결시켜 아래 사진과 같은 제품 - DotView - 을 만들기도 했다. 이거 만든지 벌써 몇년이 지났는데, 잠잠한 걸 보면 결국 확실한 application은 찾지 못한 모양이다.
DotView by KGS
Haptic Display Prototype from NHK
위 제품은 좀더 거대한 조합으로 발전하고 터치스크린 기능이 덧붙여져서, 최근 "NHK의 햅틱 디스플레이"라는 이름으로 소개되기도 했다. (NHK에서 발표한 오른쪽 그림의 장치를 잘 보면, KGS 사의 로고를 찾을 수 있다. KGS는 이 방식 - 피에조 방식을 이용한 적층식 점자표시 - 에 대한 특허권자라고 했다.)

점자와 같은 수준의 정보를 주지만 조금 더 우아한 방식으로는, Sony CSL의 Interaction Lab.에서 구현한 Lumen (shape-changing display) 을 빼놓을 수 없다. 디스플레이라고 하기에는 픽셀(?)의 크기가 어마어마하고, 모듈의 크기(특히 깊이)는 더욱 더 어마어마하고, 반응속도도 느리지만, 기술의 발전에 대한 막연한 기대에 기대자면 그 궁극적인 발전 가능성은 매우 크다고 하겠다.

Luman by Ivan Poupyrev, Sony CSL Interaction Lab.

음... 기왕 길어진 김에 (이렇게 써제껴놓고 뭘 새삼스럽게;;) 촉각에 대해서 하나만 더 추가하자면, 개인적으로 햅틱의 가장 큰 재미라고 생각하는 것은 촉각 감각에 있어서의 착시(?)라고 할 수 있는 것이다. 다양한 스펙트럼의 빛이 여러가지의 시각적인 색채 자극을 조합해 내는 것과 마찬가지로, 우리가 뜨겁다, 차갑다, 볼록/오목하다, 우둘두툴하다 등등 여러가지로 표현하는 촉감은 사실 다양한 세포들의 조합에서 유추된 것이다. 따라서 세포 감각의 레벨에서 자극을 조작하면, 실제로 물리적인 자극을 만들지 않고도 해당하는 자극을 느끼게 할 수 있는 것이다. 즉 적당한 전기 자극을 줘서 촉각세포를 교란시킬 수도 있고, 특정 주파수의 진동을 줘서 특정 촉각 세포만을 자극할 수도 있다고 한다. (실제로는 상호간섭이 심해서 딱이 성공했다는 사례를 못 봤다.) 최근(?)에 이런 사례로 재미있는 것은 캐나다 McGill 대학 Haptic Lab.피부 늘리기 기법인데, 구체적인 원리는 2000년도의 논문에 나와있으니 관심있는 분은 함 보시길.
PHANTOM Omni

촉각 tactile 에 대해서 이렇게 잔뜩 썼지만, 다른 한 축인 kinesthetic에 대해서는 사실 그렇게 쓸 말이 없다. Immersion 외에도 햅틱 기술의 강자로 꼽히는 회사인 SenAble 에서 만든 PHANTOM이라는 기구는, 화면 상의 가상 물체를 펜이나 다른 도구의 끝으로 꾹꾹 찔러볼 수 있도록 하고 있다. 비슷한 기능을 하는 6 DOF의 force-feedback 입력장치는 여러 회사와 연구소에서 만들어지고 있으며, 특히 의료업계에서 원격수술이나 로봇수술, 미세수술의 입력장치로서 상용화가 되고 있다.



... 자, 이 정도가 지난 3일 동안 짬짬이 -_- 적어본, "햅틱"이라는 UI 기술에 대한 지극히 주관적인 개요이다. (차라리 대형 삼천포라고 하는 게 나을 듯 -_- ) 어쨌든 이런 햅틱 기술을 알고 있는 사람들을 잔뜩 들뜨게 한 위의 동영상 티져 광고에 이어서, 드러난 "햅틱 폰"의 실체는 다음과 같았다.



... 어라? "햅틱"은? 애니콜 홈페이지에 볼 수 있는 햅틱폰의 주요 기능 feature 들도 다음과 같이 나열되어 있다.

Not-so-haptic Features on Samsung Haptic Phone

언제나와 같이 잘 나가는 아이돌 스타들을 총동원해서, "전지현보다 여자친구가 좋은 이유는 만질 수 있기 때문이다" 라든가, "만지면, 반응하리라!" 따위의, 다분히 문제의 소지가 있는 카피로 화려하게 광고를 하고 있지만, 터치스크린이 적용된 제품에서 내장된 진동소자를 이용해서 터치에 대한 feedback을 주는 것은 국내에서도 출시된 적이 있는 방식이다.

물론 진동을 이용한 tactile feedback이 햅틱 기술이 아니라는 게 아니다. 하지만 "햅틱 UI"라고 부르려고 한다면, 단순한 진동 피드백이 아닌 뭔가가 있어야 자격이 있는 거 아닐까? 비교적 쉽게 적용이 가능한 햅틱 기술로는 제품 전체가 아닌 스크린만 진동시키는 방법이라든가, 특히 스크린 중 일부만 특정한 느낌을 주도록 진동시키는 방법이 있다. 아니, 앞서 언급했듯이, 햅틱 기술에는 tactile 외에 kinesthetic 감각을 위한 더 다양한 기술들이 있다. 그런 기술들 중에서 가장 초창기의 것만이 적용된, 그것도 사실은 이전의 적용 사례들과 동일한 UI가 "햅틱 UI"라는 이름을 갖게 된 것이다.

POP Ad for Haptic Phone: Alive UI

"살아있는 User Interface"라니. -_-

"햅틱 UI"라는 건 결국 딱이 정의되거나 공유될 수 있는 개념이 아니라, 사용되고 있는 용어의 정의와 상관 없이 마케팅 상의 필요에 의해 기존의 멋져 보이는 용어를 갖다쓴 것 뿐이다. 물론 뭐 말 좀 갖다썼다고 큰 피해 준 것도 아니고, 이렇게 장광설을 펴는 이유를 모르겠다고?



햅틱이라는 이름이 붙여진 제품이 광고되면서, 기존에 햅틱 기술을 연구하던 사람들이 무척이나 흥분(?)하는 걸 볼 수 있었다. 예전에 햅틱 기술을 이용한 UI를 토론하곤 했던 한 연구원은 이제 햅틱이 유명해지겠다며 "보람을 느낀다"는 말을 하기까지 했다. 사실 회사에서 느끼기에 햅틱은 생소한 용어였기 때문에 무슨 과제 발표를 할 때마다 용어부터 설명을 해야 했고, 심지어 경우에 따라서는 "햅틱"이라는 용어를 사용하지 못해서 - 발표가 강의나 토론으로 끝나는 경우가 많아지기 때문에 - 약자로만 넣기도 했다. 그런데 이제 "햅틱"이라고 하면 사람들이 알아듣고 더이상 그게 뭐냐든가 아리송한 표정을 하지는 않을 거라는 거 였다.

그런데, 위의 웹페이지 설명에서와 보이듯이, 정작 나온 제품에서 볼 수 있었던 햅틱 UI는 기존의 것과 전혀 다르지 않거나, 사실은 터치스크린을 이용한 다른 종류의 입력 방식 - 햅틱과는 상관 없는 - 이 전부였던 것이다. 결국 대중들 사이에서 "햅틱"이라는 단어는, "터치"와 같은 의미가 되어 버렸다.

'Haptic Consumer' article on tabloid

위 5월 20일자 기사에 따르면, 오프라인 매장에서 직접 제품을 만져보고나서 저렴한 인터넷 매장에서 구입을 하는 구매자를 "햅틱형 고객"이라고 한다고 한다. -_-;;; 해당 회사에서 별도의 웹사이트까지 만들어서 광고에 힘쓴 덕택에, 하나의 학술적인 연구 범위를 정의하는 전문 용어 하나가 변화되고, 왜곡되고, 협소해져서 세간에 알려지게 된 것이다.

... 그냥 그 이야기를 하고 싶었다.



이 글을 벌써 일주일 넘게 썼나보다. 이제 슬슬 지치기도 하고... 되돌아 읽으면 읽을수록 추가할 부분만 더 늘어나서 좀 버겁다. 게다가 개인적으로 지난 며칠, 그리고 앞으로 며칠이 굉장히 심란한 시기가 될 것 같고. 그러니 그냥 핑계김에 이 글은 요기까지. 나름 애지중지하던 "햅틱"이라는 단어가 자격 없는 제품의 광고에 사용되어 그 '고아한 학술적인 지위'를 폄하(?) 당한 것 같아서 속상하다... 그냥 그 이야기를 하고 싶었다. 한 줄이면 되는 것을 아는 거 모르는 거 죄다 털어내느라 지저분한 글이 되어 버렸다. 또. ㅡ_ㅡ;;;

그래도 여전히 하고싶은 이야기는 많다... 터치스크린과의 위험한 조합이라든가, 이런 UI를 앞서 적용한 회사들의 다양한 적용 사례라든가, 보조적인 피드백으로서의 역할에서부터 독립적인 UI로서의 가능성까지 재미있는 구석이 많은 기술이다. 햅틱은. 모쪼록 타의에 의한 이번 '유행'이 지나도 "햅틱"이라는 단어와 무엇보다 그 기술에 대한 매력이 주저앉지 않기를 바란다.

오버앤아웃.



[○] 이 글을 올리고 난 직후에...

신고
Creative Commons License
Posted by Stan1ey
'Haptic Consumer' article on tabloid
마케팅하는 분들한테 볼멘소리를 하는 김에, 마침 오늘(글쓰기 시작한 날짜 기준이니, 지난 20일이다) 아침에 무가지 'metro'에 실린 광고성 기사에 대해서도 한마디 하게 됐다. (여하튼 한번 뭔가 심통이 나면 계속 관련된 게 눈에 밟힌다니깐...)


음성인식을 연구하는 조직에 (물론, 다른 훌륭한 HCI 기술들도 함께) 들어가게 되면서 들었던 이야기 중에, 과거 "본부" 폰의 실패에 대한 언급이 자주 있었다.


TV Ads of Samsung's first speech recognition cell phone (SCH-370)

이 모델(SCH-370)에서 사용된 음성인식 기술은 모든 음성인식 대상 단어(주소록 상의 이름)들에 대해서 각각 발화자의 음성을 수차례 학습시키는 방식으로, 오늘날 음성인식의 가장 기초적인 단계인 "음운분석" 조차도 들어가 있지 않은 단순한 음향패턴 매칭 기술이라고 볼 수 있다. 사용자가 몇번 발성한 "홍길동"이라는 음향과 나중에 발성한 음향을 나란히 비교해서, 두 음향이 비슷한 정도를 가지고 그 음향이 "홍길동"인지 아닌지를 파악하는 것이다. 따라서 다른 사람이 "홍길동"이라고 해도 거의 인식되지 않으며, 굳이 나눈다면 소위 "화자의존 speaker dependent 방식"의 음성인식기에 해당할 것이다.

이 휴대폰 상에서의 최초의 음성인식은 그래도 전례가 없고 상상력을 자극하는 기능이었기 때문에, 나름대로 많은 이야깃꺼리가 되었던 기억이 난다. 이 휴대폰을 소재로 한 한때의 우스갯소리 중에는 지하철 안에서 스님이 휴대폰을 붙잡고 "절!, 절!" 하더라는 이야기도 있었고(음성명령이 짧으면 비교할 정보 자체가 짧으므로 인식률이 더 떨어진다), "개○끼!" 라고 하고나서 "예, 부장님..." 하는 월급쟁이의 비애에 대한 이야기도 나온 적이 있다. (등록된 이름을 바탕으로 한 음운분석을 하는 것이 아니라 아무 음성명령이나 학습시킬 수 있었기에 가능한 사용 사례이다)

문제는 사용자들이 음성 단어를 등록하고 엔진을 훈련시키는 순간의 환경소음과, 실제로 사용할 때의 환경소음이 당연히 다르기 때문에, 실제로 사용하려고 하면 인식이 잘 되지 않는 경우가 비일비재 했다. 게다가 휴대폰 자체의 정보처리 성능이나 마이크의 설계가 지금보다 나빴던 시절이니 인식률은 말 그대로 운에 맡겨야 하는 수준이었다고 한다. 물론 그렇게 제한된 하드웨어 상에서 최선의 결과를 낼 수 있는 방법으로 단순 음향매칭 음성인식기를 사용했지만, SF 영화를 제외하고는 최초로 접하는 음성인식 기능임에도 불구하고 사용자의 평가는 엄정했다.

  "음성인식이요... 전에 본부폰 써 봤는데요, 잘 안 되던데요?"

... Voice UI에 대한 FGI나 다른 사용자 조사를 하면서, 혹은 심지어 사내에서 음성인식 기능의 필요성을 주장하면서, 저 이야기를 얼마나 많이 들었는지 모른다. 음성인식이라고 하면 무조건 "본부폰"을 떠올리기 때문에, 음성인식 기술이 그때보다는 훨씬 좋아졌다고 해봐야 영 믿지를 않더라는 거다. 게다가 당연히 100%에 못미치는 음성인식기가 오류를 내면, "이것 보세요~" 하면서 음성인식에 대한 확정적인 불신을 갖게 되는 모습을 자주 목격하게 되었다.

본부폰 SCH-370 ... 이 모델은 최초의 음성인식 적용 휴대폰으로 역사에 남을지 모르겠지만, Voice UI의 대표적인 실패사례로서 음성인식기술이 다시 적용되기까지 더 많은 시간이 필요하게 만든 장본인이고, 결국 다시 적용되었을 때에조차도 완전하게 복권되어 당당한 대표기능이 아닌 한 구석에 숨겨진 기능으로 들어가게 만든 원흉이라고 본다.

아직 기술적으로 완전히 준비되지 않았음에도 불구하고, "본부폰"은 훌륭한 마케팅으로 제법 주목을 받은 사례이다. 하지만, 바로 그 예상되었던 기술적인 불완전성으로 인해서, 이후에 그 기술이 보다 완성된 후에 그 잠재적인 성장을 고사시킨 가슴 아픈 사례이기도 하다. 예전에 언급했던 첨단 기술의 Hype Curve Model에 비유하자면, 시장의 기대에 비해 턱없이 부족한 기술을 마케팅으로 채워서 물건을 파는 데까지는 성공했으나, 결국 기대에 미치지 못해 "환멸의 골 trough of disillusionment"을 더욱 깊게 했다고 말할 수 있겠다.


쓰다보니 글이 길어졌다. 아무래도 VUI가 나오니 -_-a;;
하려고 했던 말(;;;;;)은 다음 글에 계속 쓰자.
신고
Creative Commons License
Posted by Stan1ey

Pre.Script.
이런... 페이지가 넘어가는 바람에, 이 글을 쓰다가 만 걸 잊고 있었다. 어느새 한달이 다 되어가는 ㅡ_ㅡ;;; 그냥 대충 끄적거려 스크랩 삼아 띄워두자.


참고: <터치스크린 제품, 불편하다는 응답 90% 넘어> from AVING (05.23)

... 지난 4월24일에 열린 '터치스크린 패널 애플리케이션 & 테크놀러지(Touch Screen Panel Applications & Technologies)' 컨퍼런스 참석자를 대상으로 한 '터치스크린의 강점 및 상품성' 관련 설문 조사에 따르면 터치스크린 제품 사용시 불편 사항을 묻는 질문에 96.3%가 불편한 점이 있다고 답했으며, 사유로는 오작동이 79.0%, 문자 입력시가 54.3%, UI가 37.0%로 뒤를 이었다.
   (중략)
디스플레이뱅크(대표 권상세)가 조사한 이번 설문조사에서 응답자 218명중 84.6%는 터치스크린이 적용된 제품을 보유하고 있었으며, 이중 27.7%는 2개 이상의 제품을 보유하고 있는 것으로 나타났다. 터치스크린 탑재 제품의 강점으로 디스플레이 공간 활용 증대 및 스타일리쉬한 디자인 등을 꼽았다. ...

결국 이런 기사가 뜨고 말았다.

터치 패널(on-screen이든 아니든)을 처음 연구할 때에도, 가장 문제가 되고 풀어야 할 숙제였던 것이 이른바 "오터치(惡-Touch)"라고 불렀던, 사용자가 의도하지 않은 터치입력 현상이었다. 어떻게 보면 센서기반 Intelligent UI의 대표적인 문제점 - 명확한 명령이 아닌 함축적인 의도파악에 의해 동작 - 을 보여준다고 할 수 있는 이 상황은, 또한 전형적으로 불완전한 해결방법들을 제시하고 있다.

이 '의외의 터치'를 막기 위한 방법으로 상업적으로 제시된 것은:
① 어느 정도 이상 사용하지 않으면 터치 입력을 disable 한다.
   : 특히 모바일기기에서, 기본적으로 적용되는 방식
② 하드웨어 상에 Hold 버튼을 넣고, 눌러서 Unlock해야 터치를 사용한다.
   : 대부분의 터치 기반 휴대폰에서 제공하는 방식
③ 중요 기능에 대해서는 Touch(Tap)가 아닌 Drag를 이용한다.
   : Apple의 터치기반 제품에서 위의 Unlock 기능을 위해 쓰는 방식
   : Neonode의 터치 휴대폰에서 명령을 위해 쓰는 방식

... 등이 있지만, 사실 그 어떤 것도 좀더 불편하게 만듦으로써 오류를 줄인 것일 뿐이고 Touch의 편리함을 유지해주지 못한다. 이외에 제스처를 이용하거나 다른 센서를 추가해서 터치 외의 방법으로 해결하려는 사례는 그야말로 연구실마다 하나씩 가지고 있는 것 같지만.

이게 터치라는 새로운 입력방법의 대세로 넘어가기까지의 과도기적 현상일까? 아니면 GUI 시대의 끄트머리에 잠깐 지나가는 유행의 종말을 예견하는 현상일까? 여러가지 생각이 드는 기사였다.

신고
Creative Commons License
Posted by Stan1ey

LG에서 새로운 휴대폰이 나왔다. 일명 "비키니폰" (LG-SH640/KH6400/LH6400).

LG Vikini Phone... or Venus/TouchPad Phone

... 확실히 비, 비키니다. *-_-* 위 이미지는 LG 보도자료의 "유일한" 첨부사진이어서 어쩔 수 없이 넣은 것 뿐이고(정말?), 실제 제품에 대한 정보는 링크된 보도자료를 보면 된다... 그리고 보도자료에도 포함되어 있는 동영상 소개는 아래와 같다.



어이어이. 미국에선 'Venus'로 출시(LG-VX8800)하고 다른 나라에선 'Touch Menu'로 출시(LG-KF600)한 녀석이 왜 우리나라에선 '비키니'로 출시되는 건데? 우리나라가 무슨 성상품화의 왕국이라고 누워서 침뱉기라고 하고 싶었나? ... 마케팅의 센스는 정말, 제품기획은 물론 디자인이나 UI, 엔지니어링 종사자들의 성의를 개무시해 주시는 뭔가가 있다.

일전에 팬텍의 "매직키패드" 폰을 언급하면서도 비슷한 불만을 내비친 적이 있는데, 이번에도 정말 한 소리 안 할 수가 없다. 위 동영상에서 볼 수 있듯이, 이 UI는 이전 매직키패드와 구성을 달리 함으로써 오히려 터치 스크린의 유연함을 좀더 잘 사용할 수 있는 다양한 사례를 제시하고 있는 좋은 HTI 사례가 될 수 있다. 그런데 비너스는 뭐고 비키니는 뭐냔 말이다. -_ㅠ

제발 이 폰이 광고될 때에, 위의 "유일한" 홍보사진에서처럼 비키니 모델만 줄줄이 나오지 않기를 바랄 뿐이다. (바랄 껄 바래야지 -_-;; ) 그런다고 폰이 잘 팔리는 게 아니란 말이야!!! 아저씨들이 티셔츠 바람에 광고모델로 나와서 날개돋힌 듯 팔고 있는 iPhone을 보면서 배우는 게 그렇게 없냐... 응?



... 이 비키니폰을 보면서 사실 진짜 속터지는 부분은 따로 있지만, 그거야 옛 동료분들이 정말 이야기를 들어야 할 분들께 잘 말해주기를 바라는 수 밖에 없겠다. 이것도 이런 식으로 홍보되면 매직키패드 마냥 또 소수의 일탈로 끝날테고, 그걸로 또 실패 사례로서 기억되어 설득은 더욱 힘들어질 수도 있겠지만...

아, 그러고보니 그나마 대부분 나왔던가? 에휴... ( '-')y~oO

신고
Creative Commons License
Posted by Stan1ey
예전에 Sony CSL에서 bendable computer 라는 Gummi 프로토타입을 보인 적이 있었다. 그때는 모니터 양쪽에 휨 센서를 하나씩 넣어서, 제품을 양손으로 잡고 안쪽으로 휘거나 바깥쪽으로 휘는 동작으로 zoom in, zoom out 등의 동작을 하게 되어 있었는데, 이번에 Microsoft Research에서 나온 프로토타입은 한쪽에만 4개의 압력 센서를 넣어서 안팎으로 휘는 동작 외에도 비트는 동작도 지원하고 있다. 말하자면 twistable computer라고 할 수 있을 듯.

Twistable computer from Microsoft

이 프로토타입은 특히, 나도 애용하는 Phidget Kit을 이용해서 만들어져 있어서 흥미롭다. 내부용인 technical report를 봐도 flexible PCB와 기본 부품이 아닌 센서를 연동시켰을 뿐 phidget의 기본 interface kit을 바탕으로 만들어졌음을 알 수 있다. (저 수상쩍은 검은 테이프 아래 있는 것은, 아마 센서 값을 interface kit의 측정 범위 안으로 조정하기 위한 저항들일 거다.)

사용자 삽입 이미지

같은 technical report에서는 아래 그림과 같이 안팎으로 휘고 비트는 동작 외에 위아래로 벌리는 동작이 가능한 듯이 제안하고 있지만, 실제로 구현된 것은 Sony Gummi에서 비트는 동작이 추가된 정도이다. 즉 아래 그림 중 위의 두 동작은 단지 제안일 뿐 구현되지 않았다는 거지.

사용자 삽입 이미지

뭐 어쨋든 또 뭔가 하나 나왔네... 싶은 정도이고 그다지 새로운 걸 보여주는 것 같지 않지만, 이것도 또 Microsoft에서 나왔네 하면서 한동안 시끌벅적할 것 같아서 적어둔다. 특히 force sensor라는 말에 낚인(?) BBC 웹사이트가 벌써부터 <May the Force be with you>라는 멋진 제목을 뽑아주고 있는 걸 보면... 쩝.


※ 참고: Technical Report

신고
Creative Commons License
Posted by Stan1ey

Wii Remote 컨트롤러의 적외선 영상센서를 연결해서 YouTube에서 인기를 얻은 Johnny Lee가, 얼마전 있었던 TED 2008 에 초빙되어 강의를 한 모양이다. Podcast로 받아보고는 처음엔 "같은 동영상이네... 새로운 게 없으니 통과"라고 생각했다가, 잘 들어보니 약간 관점을 바꾼 것 같아 한번 더 올려본다. (이 사람의 연구가 아마 이 블로그에서 세번째 인용되는 듯... 이런 식의 practice를 무척 좋아라 한다는 증거랄까 ^^; )



역시 연구 결과는 이미 YouTube에서 많이 본 내용이고, 사실은 Wii Remote를 이용해서 비슷한 프로토타입을 만든 사람이 이외에 없는 것도 아니다. 특히 Wii Remote가 아닌 다른 부품이나 완제품/반제품을 이용해서 프로토타입을 만든 사례까지 더한다면 더욱 의미는 덜 할 것이다.

하지만 위 동영상에서 Johnny가 말한 자기 연구의 의의와 발표 제목 - Creating tech marvels out of a $40 Wii Remote - 은, 이제까지 그가 보여준 "Wii Remote의 재미있는 적용 사례" 개념을 뛰어넘고 있다. 자신의 philosophy 에 따라, 값싼 장비로 유용한 장치를 개발해 더 많은 사람이 그 이득을 받을 수 있도록 하겠다는 접근방법이 Wii Remote를 이용한 (멀티터치!) 전자칠판과, 3차원 영상 보정방식이라는 것이다. ... 청중은 크게 감명받은 것 같다. TED에선 조금 흔한 모습이지만 그래도 전원 기립박수라니. *_*;;

그런데 -_-+ 정말 그런 거냐 Johnny?

만일 이 친구와 좀 친하면 어깨에 팔 두르고 물어보고 싶다. 뭐 원래 연구라는 것이 그렇게 논리와 실행이 다소 엇박자로 나가는 경우가 있긴 하지만, 그래도 이제까지 보여준 게 있는데 난데없이 그렇게 커다란 '철학'을 들고 나오기엔 좀 민망하지 않더냐고 말이다. ㅎㅎ

... 하지만 솔직히 이건 샘나서 한 딴지걸기고, "이 방식이 좀 제약은 있지만, 80%의 기능을 1%의 가격으로 구현할 수 있다는 건 쿨하지 않냐"라는 자화자찬에는 200% 공감하는 바다. 사실은 나도 기립박수 쳐주고 싶다.


 P.S. 게임에서 이런 거 써달란다. ... 그러고 싶다 나도. -_-

신고
Creative Commons License
Posted by Stan1ey
이제는 MS의 전 CEO인 빌 게이츠가 지난 2월 21일 CMU에서 있었던 강연에서, 음성 입출력 방식에 대해서 꽤 강조를 한 모양이다. "5년 내에 사람들은 키보드를 버리고 터치스크린과 음성으로 컴퓨터를 사용해서 웹을 서핑하거나 할 것이다"라고 했다니, 최근의 급변하는 UI 업계를 감안한다고 해도 좀 과격한 예측이다.
(제목은 내가 지은 게 아니라, 원래의 기사에서 베꼈다.)


음성인식과 터치스크린이라... 이름은 많이 달라 보이지만, 사실 이 두가지는 모두 인식 알고리듬을 이용하므로 오인식의 가능성을 가지고 데다가, 기술 자체가 가지고 있는 문제도 무시할 수는 없을 것이다. 90%의 인식성공률을 가지고 있는 음성인식과 97%의 인식성공률을 가지고 있는 터치스크린을 잘만 조합하면 음성인식의 오류를 터치스크린이 보완한다든가 하는 multi-modal disambiguration이 가능하니 이론상 99.7% 의 성공률을 갖는 시스템도 만들 수 있겠지만, 만일 단순한 조합으로 만들어진다면 '사용자의 입력이 잘못 적용될 확률'이 90% 혹은 87.3%로 떨어질 수도 있는 것이다.

뭐 자주 하는 비유로, 키보드를 10번 치면 한번은 다른 글자가 나온다고 생각하면 어떤 느낌인지 알기 쉽지 않을까. ㅡ_ㅡ;;;

그래도 영어 음성인식/합성 기술의 수준을 생각해 보면, 그리고 이미 multi-modal disambiguration에 대한 실용적인 연구/적용 사례가 많이 나와있다는 것을 감안하면, 현재의 기술로도 충분히 usable한 장치를 만들 수 있을 것 같기도 하다. 우리나라도 이제 텔레뱅킹이나 텔레증권(?) 등을 시작으로 Telephony Voice UI (T-VUI) 사례는 좀 늘어나고 있는 것 같지만, 미국과 같이 빠른 속도로 ARS나 call center를 대체하고 있는 상황은 아니다. 이 상황에서 영어를 native 발음으로 하는 사람만 쓸 수 있는 모바일 기기가 나온다면 점점 한국은 그동안 "시장이 작아서"라는 이유로 음성 입출력 기술을 키우지 못한 대가를 치뤄야 하는 게 아닐지 모르겠다.

힘들게 명맥을 이어가고 있는 토종 음성 입출력 기술 업체가 기회를 갖게 될지, 대자본과 든든한 reference sites, 그리고 의외로 많은 한국어 인력을 보유한 외국계 회사가 모든 걸 잠식하게 될지 - 매우 걱정스런 눈으로 - 지켜보는 중이다.
신고
Creative Commons License
Posted by Stan1ey

BLOG main image
by Stan1ey

카테고리

분류 전체보기 (347)
HTI in General (45)
User eXperience (11)
Voice UI (50)
Vision UI (14)
Gesture UI (25)
Tangible UI (28)
Robot UI (14)
Public UI (9)
Virtuality & Fun (56)
Visual Language (15)
sCRAP (70)

글 보관함



www.flickr.com
This is a Flickr badge showing public photos and videos from Stan1ey. Make your own badge here.