제목은 거짓말이다. -_-;;; 적어도 현재까지의 Touch UI는 시각장애인이 사용할 수 있는 방법이 전혀 없다. 전맹인은 물론이고, 다소 눈이 어두운 정도로도 사용이 불가능한 것인 현재의 터치 스크린이다.

http://www.foodsister.net/1021

티스토리의 관리메뉴에는 무슨 검색들을 하다가 이 블로그에 방문하게 됐는지를 보여주는 기능이 있어서, 가끔 들여다보면서 참 각양각색의 검색어로도 들어오는구나..하고 보곤 하는데, 그러다가 링크를 따라가서 발견한 글이다.

일단은 Touch UI와 Universal Design에 관심이 많은 사람으로서의 그냥 스크랩이지만, 일전에 쓰다만 Touch or NOT Touch를 이제 더이상 미루면 안 되겠다.
신고
Creative Commons License
Posted by Stan1ey
이전 글에서 회상한 악몽이, 최근 애니콜의 "햅틱폰" 마케팅 캠페인에서 다시 살아나고 있는 기분이 든다. (이 이야기 쓰려다가 앞의 글이 통채로 생겨 버렸다. 무슨 주절주절 끝나지 않는 할아버지의 옛이야기도 아니고 이게 뭐냐 -_-;;;. 그냥 후딱 요점만 간단히 줄이기로 하자.)

삼성에서 "풀 스크린 터치" 폰을 개발한다는 소식이 들리고 국내외 전시회에서 해당 모델이 조금씩 모습을 드러낼 무렵, 드디어 시작된 광고는 정말 뭇 UI 쟁이들의 마음을 설레게 하기에 충분했다.



"..., 터치... 다음은 뭐지?" 라는 것은, 정말이지 Apple iPhone 이후에 모든 월급쟁이 - 풀어서 말하자면, 뭔가 월급에 대한 대가로 새로운 것을 제시해야 한다는 책임감을 부여받은 - UI 쟁이들에게 주어진 공통의 숙제 같은 거 였다. 자리만 생기면 서로 저 질문들을 하기도 했고, 학계에서나 연구되던 많은 주제들이 무수하게 떠올랐다가 사라지곤 했다. 그러다가 종종 SF에서 보던 장면들이 논의되면 잠시나마 꿈에 부풀기도 했고.

그 중의 하나가, 물론, "햅틱 haptic"이라는 기술이다. (UI가 아니다.)

Wikipedia를 인용하자면, 햅틱은 "촉각 감각을 통해 힘이나 진동, 움직임을 가함으로써 사용자와 인터페이스하는 기술"이라고 정의된다. 나는 햅틱에 관해서는 전문가는 커녕 학생 수준에도 못 미치기 때문에 말을 길게 하는 건 매우 -_- 위험한 짓이 되겠으나, 투덜거림을 위해 예전에 관련 전문가분들과 같이 과제를 하면서 몇가지 얻어들었던 사실을 언급하자면 다음과 같다.



우선 햅틱은 위 정의에서와 같이 다양한 촉각 감각을 다루는 분야로, 크게 tactile 감각과 kinesthetic 감각으로 분류하기도 한다. 이때 tactile 감각은 피부에 있는 촉감 세포들이 느끼는 압력, 요철, 진동 등의 감각이며, 차갑고 뜨거운 것을 느끼는 열감각은 여기에 포함시키거나 별도로 thermal로 구분하기도 한다. Kinesthetic 감각은 인간의 관절을 둘러싼 근육과 인대의 운동감각에 의한 것으로, 흔히 말하는 force feedback 이라든가 무게감 등이 이에 해당한다.

햅틱 기술을 이용한 UI는 아직 걸음마 단계로, 몇가지 시험적인 상용화 시도가 있었다. 그 중에서 가장 높은 이상을 보여주었던 사례는 BMW의 iDrive라고 생각한다.
BMW iDrivce: a haptic input device
iDrive는 다양한 조작이 가능한 하나의 다이얼+버튼+조이스틱 입력장치로, 동적으로 변하는 각 조작상황에 최적화된 물리적인 조건 - 즉, 메뉴의 개수에 맞춰서 다이얼이 움직이는 범위가 변한다든가, 버튼 입력시의 반응이 다르다든가 하는 - 을 제시하는 햅틱 장치가 아래쪽에 숨어있다.

하지만 iDrive는 햅틱 기술의 대표적이고 도전적인 적용 사례일 뿐이고, 그 사용편의성 측면에 대해서는 많은 비판을 받기도 했다. 실제로 iDrive를 검색해 보면, 많은 글들이 극단적으로 부정적인 의견이어서 마치 예전 MS Office Assistant에 관한 글을 보는 듯한 기분마저 든다. 이것이 새로운 기술에 대한 대중 사용자의 거부감일 뿐일지, 아니면 실제로 상상 속의 편리함이 공상으로 드러나는 패턴인지는 아직 판단을 미뤄둔 상태다.

한편으로 보면, 간단한 수준의 햅틱은 이미 우리가 사용하고 있는 제품에 적용되어 있는데, 대표적인 것이 바로 휴대폰과 게임기의 진동 모터이다. 휴대폰의 경우에는 단순히 중심이 어긋난 추가 달린 모터를 켜고 끄는 것으로 진동 전화벨을 구현한 것에서 시작해서, 2~3년 전부터는 "진동벨"이라는 음악에 맞춰 강약이 조절된 진동이 적용되기도 했으며, 최근 모델들에는 다양한 강약패턴을 갖는 진동이 휴대폰에 적용되기도 했다.

특히 이 강약패턴의 경우엔 게임기에 적용된 것과 같은 기술을 적용하고 있는데, 바로 진동모터에 정전류과 역전류를 적당히 적용함으로써 모터의 회전수, 즉 진동의 강약을 실시간으로 정확히 제어할 수 있는 것이다. 이 기술에 대한 특허를 가지고 있는 것이 바로 햅틱 기술의 거의 모든 특허를 독점하고 있는 회사인 Immersion 이다.

[○] Immersion의 햅틱기술 독점 에피소드


Immersion사의 진동 피드백 기술에 대해서는, 대충 아래의 Immersion Studio 라는 진동효과 편집 소프트웨어를 보면 느낌이 올 것 같다. 이 소프트웨어는 진동 모터의 강도를 시간축에 따라 정밀하게 제어할 수 있는 기능을 GUI로 제시하고 있다.
Immersion Studio Screenshot

진동 자극은, 대상 UI의 물리적 특성을 직접적으로 제시하는 게 아니라 다양한 진동을 통해 간접적으로 표현하는 것이다. GUI 식으로 이야기하면 극단적으로 단순화된 메타포 metaphor 라고 할 수 있을 듯. 이보다 직접적인 방식으로 촉각적 자극을 주는 방식으로는, 실제로 물리적인 형태를 바꾸는 형태가 있겠다. 이미 이런 방식은 시각 장애인을 위한 점자 표시 braille display 장치에서 구현되어 있다. (아래 오른쪽 그림의 장치 - 브레일 한소네 - 를 만든 힘스코리아 HIMS Korea 라는 회사는 우리나라에서 재활공학을 업으로 하는 극소수의 소중한 회사들 중 하나다.)

Refreshable Braille Display (close up)
Portable Braille Display 'Hansone' by Himskorea


이 방식은, 점자를 위한 장치 외에도 full matrix로 만들어지기도 했는데, 점자 디스플레이 모듈을 만드는 일본의 KGS 라는 회사에서는 이 모듈을 연결시켜 아래 사진과 같은 제품 - DotView - 을 만들기도 했다. 이거 만든지 벌써 몇년이 지났는데, 잠잠한 걸 보면 결국 확실한 application은 찾지 못한 모양이다.
DotView by KGS
Haptic Display Prototype from NHK
위 제품은 좀더 거대한 조합으로 발전하고 터치스크린 기능이 덧붙여져서, 최근 "NHK의 햅틱 디스플레이"라는 이름으로 소개되기도 했다. (NHK에서 발표한 오른쪽 그림의 장치를 잘 보면, KGS 사의 로고를 찾을 수 있다. KGS는 이 방식 - 피에조 방식을 이용한 적층식 점자표시 - 에 대한 특허권자라고 했다.)

점자와 같은 수준의 정보를 주지만 조금 더 우아한 방식으로는, Sony CSL의 Interaction Lab.에서 구현한 Lumen (shape-changing display) 을 빼놓을 수 없다. 디스플레이라고 하기에는 픽셀(?)의 크기가 어마어마하고, 모듈의 크기(특히 깊이)는 더욱 더 어마어마하고, 반응속도도 느리지만, 기술의 발전에 대한 막연한 기대에 기대자면 그 궁극적인 발전 가능성은 매우 크다고 하겠다.

Luman by Ivan Poupyrev, Sony CSL Interaction Lab.

음... 기왕 길어진 김에 (이렇게 써제껴놓고 뭘 새삼스럽게;;) 촉각에 대해서 하나만 더 추가하자면, 개인적으로 햅틱의 가장 큰 재미라고 생각하는 것은 촉각 감각에 있어서의 착시(?)라고 할 수 있는 것이다. 다양한 스펙트럼의 빛이 여러가지의 시각적인 색채 자극을 조합해 내는 것과 마찬가지로, 우리가 뜨겁다, 차갑다, 볼록/오목하다, 우둘두툴하다 등등 여러가지로 표현하는 촉감은 사실 다양한 세포들의 조합에서 유추된 것이다. 따라서 세포 감각의 레벨에서 자극을 조작하면, 실제로 물리적인 자극을 만들지 않고도 해당하는 자극을 느끼게 할 수 있는 것이다. 즉 적당한 전기 자극을 줘서 촉각세포를 교란시킬 수도 있고, 특정 주파수의 진동을 줘서 특정 촉각 세포만을 자극할 수도 있다고 한다. (실제로는 상호간섭이 심해서 딱이 성공했다는 사례를 못 봤다.) 최근(?)에 이런 사례로 재미있는 것은 캐나다 McGill 대학 Haptic Lab.피부 늘리기 기법인데, 구체적인 원리는 2000년도의 논문에 나와있으니 관심있는 분은 함 보시길.
PHANTOM Omni

촉각 tactile 에 대해서 이렇게 잔뜩 썼지만, 다른 한 축인 kinesthetic에 대해서는 사실 그렇게 쓸 말이 없다. Immersion 외에도 햅틱 기술의 강자로 꼽히는 회사인 SenAble 에서 만든 PHANTOM이라는 기구는, 화면 상의 가상 물체를 펜이나 다른 도구의 끝으로 꾹꾹 찔러볼 수 있도록 하고 있다. 비슷한 기능을 하는 6 DOF의 force-feedback 입력장치는 여러 회사와 연구소에서 만들어지고 있으며, 특히 의료업계에서 원격수술이나 로봇수술, 미세수술의 입력장치로서 상용화가 되고 있다.



... 자, 이 정도가 지난 3일 동안 짬짬이 -_- 적어본, "햅틱"이라는 UI 기술에 대한 지극히 주관적인 개요이다. (차라리 대형 삼천포라고 하는 게 나을 듯 -_- ) 어쨌든 이런 햅틱 기술을 알고 있는 사람들을 잔뜩 들뜨게 한 위의 동영상 티져 광고에 이어서, 드러난 "햅틱 폰"의 실체는 다음과 같았다.



... 어라? "햅틱"은? 애니콜 홈페이지에 볼 수 있는 햅틱폰의 주요 기능 feature 들도 다음과 같이 나열되어 있다.

Not-so-haptic Features on Samsung Haptic Phone

언제나와 같이 잘 나가는 아이돌 스타들을 총동원해서, "전지현보다 여자친구가 좋은 이유는 만질 수 있기 때문이다" 라든가, "만지면, 반응하리라!" 따위의, 다분히 문제의 소지가 있는 카피로 화려하게 광고를 하고 있지만, 터치스크린이 적용된 제품에서 내장된 진동소자를 이용해서 터치에 대한 feedback을 주는 것은 국내에서도 출시된 적이 있는 방식이다.

물론 진동을 이용한 tactile feedback이 햅틱 기술이 아니라는 게 아니다. 하지만 "햅틱 UI"라고 부르려고 한다면, 단순한 진동 피드백이 아닌 뭔가가 있어야 자격이 있는 거 아닐까? 비교적 쉽게 적용이 가능한 햅틱 기술로는 제품 전체가 아닌 스크린만 진동시키는 방법이라든가, 특히 스크린 중 일부만 특정한 느낌을 주도록 진동시키는 방법이 있다. 아니, 앞서 언급했듯이, 햅틱 기술에는 tactile 외에 kinesthetic 감각을 위한 더 다양한 기술들이 있다. 그런 기술들 중에서 가장 초창기의 것만이 적용된, 그것도 사실은 이전의 적용 사례들과 동일한 UI가 "햅틱 UI"라는 이름을 갖게 된 것이다.

POP Ad for Haptic Phone: Alive UI

"살아있는 User Interface"라니. -_-

"햅틱 UI"라는 건 결국 딱이 정의되거나 공유될 수 있는 개념이 아니라, 사용되고 있는 용어의 정의와 상관 없이 마케팅 상의 필요에 의해 기존의 멋져 보이는 용어를 갖다쓴 것 뿐이다. 물론 뭐 말 좀 갖다썼다고 큰 피해 준 것도 아니고, 이렇게 장광설을 펴는 이유를 모르겠다고?



햅틱이라는 이름이 붙여진 제품이 광고되면서, 기존에 햅틱 기술을 연구하던 사람들이 무척이나 흥분(?)하는 걸 볼 수 있었다. 예전에 햅틱 기술을 이용한 UI를 토론하곤 했던 한 연구원은 이제 햅틱이 유명해지겠다며 "보람을 느낀다"는 말을 하기까지 했다. 사실 회사에서 느끼기에 햅틱은 생소한 용어였기 때문에 무슨 과제 발표를 할 때마다 용어부터 설명을 해야 했고, 심지어 경우에 따라서는 "햅틱"이라는 용어를 사용하지 못해서 - 발표가 강의나 토론으로 끝나는 경우가 많아지기 때문에 - 약자로만 넣기도 했다. 그런데 이제 "햅틱"이라고 하면 사람들이 알아듣고 더이상 그게 뭐냐든가 아리송한 표정을 하지는 않을 거라는 거 였다.

그런데, 위의 웹페이지 설명에서와 보이듯이, 정작 나온 제품에서 볼 수 있었던 햅틱 UI는 기존의 것과 전혀 다르지 않거나, 사실은 터치스크린을 이용한 다른 종류의 입력 방식 - 햅틱과는 상관 없는 - 이 전부였던 것이다. 결국 대중들 사이에서 "햅틱"이라는 단어는, "터치"와 같은 의미가 되어 버렸다.

'Haptic Consumer' article on tabloid

위 5월 20일자 기사에 따르면, 오프라인 매장에서 직접 제품을 만져보고나서 저렴한 인터넷 매장에서 구입을 하는 구매자를 "햅틱형 고객"이라고 한다고 한다. -_-;;; 해당 회사에서 별도의 웹사이트까지 만들어서 광고에 힘쓴 덕택에, 하나의 학술적인 연구 범위를 정의하는 전문 용어 하나가 변화되고, 왜곡되고, 협소해져서 세간에 알려지게 된 것이다.

... 그냥 그 이야기를 하고 싶었다.



이 글을 벌써 일주일 넘게 썼나보다. 이제 슬슬 지치기도 하고... 되돌아 읽으면 읽을수록 추가할 부분만 더 늘어나서 좀 버겁다. 게다가 개인적으로 지난 며칠, 그리고 앞으로 며칠이 굉장히 심란한 시기가 될 것 같고. 그러니 그냥 핑계김에 이 글은 요기까지. 나름 애지중지하던 "햅틱"이라는 단어가 자격 없는 제품의 광고에 사용되어 그 '고아한 학술적인 지위'를 폄하(?) 당한 것 같아서 속상하다... 그냥 그 이야기를 하고 싶었다. 한 줄이면 되는 것을 아는 거 모르는 거 죄다 털어내느라 지저분한 글이 되어 버렸다. 또. ㅡ_ㅡ;;;

그래도 여전히 하고싶은 이야기는 많다... 터치스크린과의 위험한 조합이라든가, 이런 UI를 앞서 적용한 회사들의 다양한 적용 사례라든가, 보조적인 피드백으로서의 역할에서부터 독립적인 UI로서의 가능성까지 재미있는 구석이 많은 기술이다. 햅틱은. 모쪼록 타의에 의한 이번 '유행'이 지나도 "햅틱"이라는 단어와 무엇보다 그 기술에 대한 매력이 주저앉지 않기를 바란다.

오버앤아웃.



[○] 이 글을 올리고 난 직후에...

신고
Creative Commons License
Posted by Stan1ey
'Haptic Consumer' article on tabloid
마케팅하는 분들한테 볼멘소리를 하는 김에, 마침 오늘(글쓰기 시작한 날짜 기준이니, 지난 20일이다) 아침에 무가지 'metro'에 실린 광고성 기사에 대해서도 한마디 하게 됐다. (여하튼 한번 뭔가 심통이 나면 계속 관련된 게 눈에 밟힌다니깐...)


음성인식을 연구하는 조직에 (물론, 다른 훌륭한 HCI 기술들도 함께) 들어가게 되면서 들었던 이야기 중에, 과거 "본부" 폰의 실패에 대한 언급이 자주 있었다.


TV Ads of Samsung's first speech recognition cell phone (SCH-370)

이 모델(SCH-370)에서 사용된 음성인식 기술은 모든 음성인식 대상 단어(주소록 상의 이름)들에 대해서 각각 발화자의 음성을 수차례 학습시키는 방식으로, 오늘날 음성인식의 가장 기초적인 단계인 "음운분석" 조차도 들어가 있지 않은 단순한 음향패턴 매칭 기술이라고 볼 수 있다. 사용자가 몇번 발성한 "홍길동"이라는 음향과 나중에 발성한 음향을 나란히 비교해서, 두 음향이 비슷한 정도를 가지고 그 음향이 "홍길동"인지 아닌지를 파악하는 것이다. 따라서 다른 사람이 "홍길동"이라고 해도 거의 인식되지 않으며, 굳이 나눈다면 소위 "화자의존 speaker dependent 방식"의 음성인식기에 해당할 것이다.

이 휴대폰 상에서의 최초의 음성인식은 그래도 전례가 없고 상상력을 자극하는 기능이었기 때문에, 나름대로 많은 이야깃꺼리가 되었던 기억이 난다. 이 휴대폰을 소재로 한 한때의 우스갯소리 중에는 지하철 안에서 스님이 휴대폰을 붙잡고 "절!, 절!" 하더라는 이야기도 있었고(음성명령이 짧으면 비교할 정보 자체가 짧으므로 인식률이 더 떨어진다), "개○끼!" 라고 하고나서 "예, 부장님..." 하는 월급쟁이의 비애에 대한 이야기도 나온 적이 있다. (등록된 이름을 바탕으로 한 음운분석을 하는 것이 아니라 아무 음성명령이나 학습시킬 수 있었기에 가능한 사용 사례이다)

문제는 사용자들이 음성 단어를 등록하고 엔진을 훈련시키는 순간의 환경소음과, 실제로 사용할 때의 환경소음이 당연히 다르기 때문에, 실제로 사용하려고 하면 인식이 잘 되지 않는 경우가 비일비재 했다. 게다가 휴대폰 자체의 정보처리 성능이나 마이크의 설계가 지금보다 나빴던 시절이니 인식률은 말 그대로 운에 맡겨야 하는 수준이었다고 한다. 물론 그렇게 제한된 하드웨어 상에서 최선의 결과를 낼 수 있는 방법으로 단순 음향매칭 음성인식기를 사용했지만, SF 영화를 제외하고는 최초로 접하는 음성인식 기능임에도 불구하고 사용자의 평가는 엄정했다.

  "음성인식이요... 전에 본부폰 써 봤는데요, 잘 안 되던데요?"

... Voice UI에 대한 FGI나 다른 사용자 조사를 하면서, 혹은 심지어 사내에서 음성인식 기능의 필요성을 주장하면서, 저 이야기를 얼마나 많이 들었는지 모른다. 음성인식이라고 하면 무조건 "본부폰"을 떠올리기 때문에, 음성인식 기술이 그때보다는 훨씬 좋아졌다고 해봐야 영 믿지를 않더라는 거다. 게다가 당연히 100%에 못미치는 음성인식기가 오류를 내면, "이것 보세요~" 하면서 음성인식에 대한 확정적인 불신을 갖게 되는 모습을 자주 목격하게 되었다.

본부폰 SCH-370 ... 이 모델은 최초의 음성인식 적용 휴대폰으로 역사에 남을지 모르겠지만, Voice UI의 대표적인 실패사례로서 음성인식기술이 다시 적용되기까지 더 많은 시간이 필요하게 만든 장본인이고, 결국 다시 적용되었을 때에조차도 완전하게 복권되어 당당한 대표기능이 아닌 한 구석에 숨겨진 기능으로 들어가게 만든 원흉이라고 본다.

아직 기술적으로 완전히 준비되지 않았음에도 불구하고, "본부폰"은 훌륭한 마케팅으로 제법 주목을 받은 사례이다. 하지만, 바로 그 예상되었던 기술적인 불완전성으로 인해서, 이후에 그 기술이 보다 완성된 후에 그 잠재적인 성장을 고사시킨 가슴 아픈 사례이기도 하다. 예전에 언급했던 첨단 기술의 Hype Curve Model에 비유하자면, 시장의 기대에 비해 턱없이 부족한 기술을 마케팅으로 채워서 물건을 파는 데까지는 성공했으나, 결국 기대에 미치지 못해 "환멸의 골 trough of disillusionment"을 더욱 깊게 했다고 말할 수 있겠다.


쓰다보니 글이 길어졌다. 아무래도 VUI가 나오니 -_-a;;
하려고 했던 말(;;;;;)은 다음 글에 계속 쓰자.
신고
Creative Commons License
Posted by Stan1ey

BLOG main image
by Stan1ey

카테고리

분류 전체보기 (347)
HTI in General (45)
User eXperience (11)
Voice UI (50)
Vision UI (14)
Gesture UI (25)
Tangible UI (28)
Robot UI (14)
Public UI (9)
Virtuality & Fun (56)
Visual Language (15)
sCRAP (70)

글 보관함



www.flickr.com
This is a Flickr badge showing public photos and videos from Stan1ey. Make your own badge here.