누군가 이런 걸 만들었나보다. 화면에 "붙이는" 물리적인 조작 장치. ㅡ_ㅡ;; 이름하여 SenseSurface 다.

SenseSurface Concept by Girton Labs

이렇게 구현될 수 있는 Tangible UI의 장점은 사실상 매우 크다. 원래 마우스로 커서를 조작해서 뭔가를 사용한다는 개념이 마치 작대기 하나를 손에 들고 사물을 움직이는 것과 같아서 불편하기 그지 없는데, 실제로 다양한 조작과 그를 위한 자연스러운 affordance를 제공해주는 tangible widget들은 같은 조작을 마우스로 하는 것보다 훨씬 자연스러운 interaction을 제공해 줄 것이다.
Prototype of SenseSurface

위 SenseSurface의 실제로 동작하는 프로토타입은 역시 위의 컨셉 사진보다는 크지만, 동작하는 동영상을 보면 사실 그 크기는 손에 넉넉히 잡힐 정도로 큼직한 것도 좋겠다는 생각이 든다.



Concept Prototype for SenseSurface
SenseSurface를 연구개발하고 있는 연구소의 홈페이지의 문구를 자세히 들여다보면, 사실 이 기술은 아직 해결해야 할 문제가 많은 것으로 보인다. 선전(?)문구 중간중간에 있는 자기장 관련 언급을 보면 결국 절대로 보여주지 않고 있는 저 LCD 스크린의 뒷면에는 자기장의 방향과 세기를 측정할 수 있는 센서가 가로세로로 줄지어 붙어있는 금속판이 있고, 지금은 다이얼 knob만 구현되어 있는 조작 장치들은 LCD 화면을 뚫고 그 금속판에 붙을 정도로 강력한 자석인 것 같다. 결국 다이얼을 돌리면 자기장의 방향에 변화가 생기고, 그로 인해 물리적인 입력이 센서 입력으로 바뀌어 뒤에 연결된 USB 케이블을 통해서 PC를 조작하는 신호로 제공되는 걸 꺼다.

그럼 결국 컨셉 사진처럼 센서를 다닥다닥 붙이면 서로 간의 간섭도 만만치 않을 듯 하고, 그게 특히 (홈페이지의 계획처럼) On-Off 스위치 같은 경우에는 더욱 민감하게 반응할 수도 있을꺼다. 일단 자석으로 스크린에 붙어야 하니까 서로 차폐하기도 쉽지 않을테고... 결국 센서에서 알고리듬으로 서로 간의 간섭을 보정해야 하는데, 그게 얼마나 정확하게 가능한 일일지 모르겠다.


그럼에도 불구하고, On-screen tangible control knob 이라는 건 상당히 매력적인 컨셉이다. 비록 그 제한적인 (오른쪽 회전 vs 왼쪽 회전) 입력에도 불구하고 손끝으로 미묘하게 조작하는 그 아날로그적인 느낌 때문에 영상이나 음악을 전문적으로 편집하는 사람들은 Jog Shuttle이 달린 조작 장치를 반드시라고 할 정도로 사용하고 있고, Griffin Technology의 PowerMate라는 장치는 단순히 음량을 조절하는 목적으로도 - 사용자가 다른 기능에 연동시킬 수도 있지만, 다이얼 돌리기에 적합한 기능이 달리 어떤 게 있을까? - 인기를 끌고 있다.

Video Editting Controller by Sony
PowerMate by Griffic Technology


그러니 만일 SenseSurface가 탑재된 노트북이 나와서, 화면에 뭔가 컨트롤을 턱턱 붙여서 tangible control을 할 수 있다면 어떨까? 뭐 사실 음량 조절 같은 것은 이미 많은 노트북에서 (물론 화면 밖이지만) 다이얼 등으로 조작할 수 있으니 제외하고, YouTube 동영상 옆에 붙여서 영상을 앞뒤로 돌려볼 수 있는 다이얼이라든가, 웹페이지를 보다가 붙여서 북마크로 저장할 수 있는 버튼이라든가, Google Earth에 붙일 수 있는 조이스틱이나 트랙볼 같은 것을 상상해 보면, 어쩌면 작대기 하나만 들고 한번에 한 클릭으로만 조작해야 했던 이 답답함이라는 것이 문득 몸서리쳐지게 불편해져서 tangible control에 대한 큰 니즈가 떠오를지도 모를 일이다.
Posted by Stan1ey

댓글을 달아주세요:: 네티켓은 기본, 스팸은 사절

  1. creep
    2008.07.25 09:18
    댓글 주소 수정/삭제 댓글
    예전 CSL에서 유사한 프로젝트를 했던 것 같은데(하긴.. CSL에서 뭔들 안 했겠어요).

    좀 다른 이야기지만, CSL 출신 연구원이 애플에 가서 iPhone 일본향 localizing을 했던 모양이예요. 일본 무슨 잡지와 인터뷰를 했던 모양인데 "소니와 애플의 차이는 최고경영진의 'UI에 대한 민감도'의 차이"라는 말을 했더라구요. 음.. 짐작은 했지만 실 확인이 되었을때의 약간 당혹감같은? 그런 느낌 가졌죠.
  2. 2008.07.26 19:23
    댓글 주소 수정/삭제 댓글
    우리가 아는 최고경영자들은 UI에 대한 민감도가 어느 정도일까요... 아니 Sony나 Apple은 UI에 대한 민감도를 비교할 수준이 된다고 해도 어쩌면 다른 분야에 대한 민감도로 경쟁하고 있는 건 아닌지 모르겠습니다. -_-
  3. creep
    2008.07.28 19:35
    댓글 주소 수정/삭제 댓글
    혹시 기능의 가짓수나 개발 기간을 말씀하시는 것인지.. 큼.
  4. 2008.07.30 01:31
    댓글 주소 수정/삭제 댓글
    사실은 '단가'라는 단어가 맴돌았더랬습니다. 결국 모두 그쪽으로 귀착되지 않나 싶어서. ^^;

요즘의 '터치' 유행은 GUI의 작은 변용이라고 생각한다. GUI의 역사와 함께 시작했던 digitizer가 처음에 화면 위에서 직접 위치를 입력하는 것 - light pen은 1957년부터 쓰였다고 한다 - 에서 시작했다가, 마우스(1963)그래픽 타블렛(1964)의 형태로 발전하면서 공간적으로 매핑되는 다른 표면에서 간접적으로 입력하는 방식으로 변형되었고, 기술의 발전에 힘입어 터치패널을 화면에 직접 장착한 터치스크린(1971)이나 최근의 타블렛 LCD까지 오게 된 것이다. 이런 흐름에서 생각해보면, 최근의 터치 UI는 사실 딱히 새로운 UI의 흐름이 아닌 기존 GUI 입력 방식 중 유난히 주목 받고 있는 한 가지일 뿐이라고 생각되기도 하는 것이다.

Light pen
First computer mouse
Early digitizer tablet, or graphics tablet
Wacom Citiq 21UX, tablet LCD screen


Apple iPhone에 적용되어 있는 "터치 UI"가 훌륭한 이유는, 사실 터치 입력을 사용했다는 것이 아니라 - 심지어 손가락 기반의 터치 UI를 디자인할 때의 기준에 대해서는, 기존의 PDA UI 관련연구에서 도출된 가이드라인을 그대로 답습하고 있기도 하다 - 기존 GUI에 없던 새로운 관점을 제시했다는 데에 있다. 그 중 대표적인 것이 GUI에 물리적인 metaphor와 tangibility를 좀더 제공하고, 그로 인해 몇가지 widget들을 창안하고 상업적으로 증명했다는 데에 있겠다. (이것도 어쩌면 상업적인 목적으로 UI에 이름 붙이기의 일환일지도...)

그래서 이 블로그에서는 터치 UI에 관한 글들이 죄다 "Tangible UI" (이하 TUI)로 분류되어 있고, 여기에 대해서 궁금해하는 사람들에게 위와 같은 이야기를 해주면서도 사실 이게 대세를 거스르기 위해서 조금 과격하게 왜곡된 생각이 아닐까 하는 것이 내내 마음에 걸렸다.


그런데,

터치 다음의 UI가 뭘까?에 대한 이전 글을 쓰고 나서 (정확하게는, 쓰다가 지쳐버려서 내팽개치고 나서) 이 분야에 대한 의견이 종종 눈에 띈다. 내가 앞의 글의 두번째를 쓰면서 가지고 있던 키워드는 소위 'deep touch' 라는 거 였는데, 사람들은 좀더 확실하고 커다란 next step을 지향하고 있는 듯 하다. 연달아 눈에 밟히길래 한번 정리해 봤다.


(1) 현실기반 인터랙션 (RBI: Reality-Based Interaction)
2006년 CHI 학회에서 논의를 시작해서 지난 4월의 CHI 학회에서 정리된 이 개념은, 기본적으로 "현실에서 생활하면서 습득한 주변과의 상호작용 방식을 그대로 확장하여 사용할 수 있는 상호작용"을 뜻한다. 처음 들었을 때에는 직관적으로 tangible interaction과 동일한 것으로 생각이 되었지만, RBI를 'framework'으로 정리하면서 연구자들이 주장하는 범위는 TUI를 포함하면서 그보다 훨씬 넓다.

주로 미국 Tufts University 사람들로 이루어진 RBI 연구자들은, UI는 명령어 방식(1세대; command-line)에서 그래픽 방식(2세대; GUI or WIMP)으로, 그리고 현실기반 방식(3세대;RBI)로 바뀌고 있다고 주장한다. 조금 너무 단순화되는 과정에 중요한 몇가지가 빠진 느낌이 들긴 하지만, 그렇게 GUI 뒤를 이을 RBI는 다음과 같은 체계(framework)로 연구개발될 수 있다고 한다.

Four RBI Themes

위의 RBI 연구주제에서 각각의 의미와 그것이 포괄하고 있는 UI 연구사례는 다음과 같이 제시되고 있다. (위 논문과 학회발표에서 요약함)

① Naive Physics (NP)
사람들이 물리적 세상에 대해서 공통의 지식을 갖고 있음을 전제하는 것으로, TUI 에서 특별한 형태의 슬롯을 사용해서 사용방법을 가이드하는 것이라든가, Apple iPhone에서 적용한 UI (터치를 이용해서 물리적 조작을 모사한 것이라든가 중력방향을 인식하는 것 등)가 해당된다.

② Body Awareness & Skills (BAS)
자신의 신체에 대한 인식을 바탕으로 신체를 움직이고 조정하는 기술을 갖고 있음을 전제하는 것으로, 예를 들어 가상현실(virtual reality)에서 몸을 이동시키기 위해서 실제로 특별한 시설이나 런닝머신(treadmill)을 걷게 하는 것과 같이 전신을 이용한 UI 들이 포함된다.

③ Environment Awareness & Skills (EAS)
주변 환경의 존재를 인지하고 환경 안에서 대안을 찾고, 조작하고, 돌아다닐 수 있는 기술을 갖고 있음을 전제한다. 많은 가상현실(VR), 혼합현실(MR), 증강현실(AR)에서 공간적 조작을 보조하기 위해서 사용되는 widget들이나, 위치기반서비스(LBS?)와 같은 맥락 기반(context-awareness) 연구 등이 이 분류에 포함된다.

④ Social Awareness & Skills (SAS)
공간 안에 있는 다른 사람들을 파악하고, 그 사람들과 상호작용할 수 있는 능력을 갖고 있다는 것을 전제한다. 이를테면 TUI는 다른 사람과 작업맥락을 공유(CSCW?)할 수 있는 좋은 방법이며, Second Life와 같은 가상세계(VW) 혹은 가상환경(VE)에서도 아바타를 통해 이러한 방법을 지원한다.

... 조금 과하게 넓다. -_-;;; 결국 현재 Post-GUI (혹은 논문이 주장하는대로, Post-WIMP)의 대안으로서 연구되고 있는 모든 UI를 실용화가 멀든 가깝든 모두 하나의 지식체계 안에 몰아넣고 이해해 보자는 건데, 조금은 욕심이 아니었나 싶다. 물론 저자들의 주장처럼 이렇게 함으로써 "중구난방으로 연구되는 각각의 주제를 하나의 관점으로 정리할 수 있다"는 건 십분 동의하지만, 연구 자체에 도움을 주는 건 아니지 않을까 라는 생각이 발표를 듣는 내내 들었다.

한가지 재미있었던 점이라면, 이런 다양한 접근 방식을 "현실기반 reality-based"라는 키워드로 묶음으로써 UI 설계의 방향성 같은 게 하나 제시될 수 있다는 거다.

RBI as Artificial Extension of Reality

RBI as Artificial Extension of Reality - Examples

발표에서 말한 "Real + Extension"이라는 것은, RBI를 위한 UI 설계에서는 일상의 행동은 그 원래의 역할에 부합하는 기능과 연동되고, 그보다 좀더 확장된 행동을 통해서 일상행동으로 할 수 없었던 슈퍼-기능을 수행할 수 있게 함으로써 자연스러운 조작이 가능하다는 것이다. 이를테면 위 슬라이드에 예시되었듯이 대상을 좀더 집중해서 주시하는 것으로 투사(X-ray vision) 기능을 구동한다면 별도의 메뉴나 버튼을 이용하는 것보다 더 자연스러운 interaction을 기대할 수 있다.

물론 발표 직후의 질의응답에서 이러한 analogy가 일반적으로 사용될 수 없음을 지적하는 질문들이 꽤 격하게 이어졌지만, 그럼에도 불구하고 RBI 라는 관점에서 볼 수 있는 UI 설계 방향성 중 하나는 되리라고 생각한다.


(2) 유기적 사용자 인터페이스 (OUI: Organic User Interface)
CACM 200806 - Organic User Interfaces
미국 전산학계의 흐름을 잘 보여주는 <Communications of ACM> 잡지의 지난 6월호에서는, OUI라는 개념을 커버 스토리로 다루고 있다. (ACM: Association of Computing Machinary의 약자로, 전산 분야의 가장 큰 학술단체) 이 이슈의 커버스토리는 유명한 여러 연구자들이 한 꼭지씩 맡아서 기사를 올렸는데, 그 면면을 보면 다음과 같다.

Organic User Interfaces (Communications of ACM, June 2008)

- Introduction / Roel Vertegaal and Ivan Poupyrev
- The Tangible User Interface and Its Evolution / Hiroshi Ishii
- Organic Interaction Technologies: From Stone to Skin / Jun Rekimoto
- Emerging Display Technologies for Organic User Interfaces
  / Elise Co and Nikita Pashenkov
- Organic User Interfaces: Designing Computers in Any Way, Shape, or Form / David Holman and Roel Vertegaal
- Sustainability Implications of Organic User Interface Technologies: An Inky Problem / Eli Blevis
- Designing Kinetic Interactions for Organic User Interfaces / Amanda Parkes, Ivan Poupyrev, and Hiroshii Ishii
- What Makes an Interface Feel Organic? / Carsten Schwesig
- Interactions With Proactive Architectural Spaces: The Muscle Projects / Mas Oosterhuis and Nimish Biloria
- Dynamic Ferrofluid Sculpture: Organic Shape-Changing Art Forms / Sachiko Kodama

첫번째 글("Introduction")에 따르면, OUI는 e-Paper나 다른 flexible display를 중심으로 얇고 작고 유연해진 전자소재(배터리, 스피커, SoC, 회로기판 등)에 의해 기대되는 무한한 자유도가 HCI 디자인에 미칠 영향을 예견한 개념이다. (사실 정확한 '정의'는 나와있지 않고, "Such phenominal technological breakthroughs are opening up entirely new design possibilities for HCI, to an extent perhaps not seen since the days of the first GUIs." 라든가 "A future led by disruptive change in the way we will use digital appliances: where the shape of the computing device itself becomes one of the key variables of interactivity." 라는 표현이 그나마 가까운 듯 하다.)

같은 글에서 제시하고 있는 OUI의 연구주제는 다음과 같다. (역시 요약)

① Input Equals Output: Where the display is the input device.
마우스나 조이스틱이 아닌 터치스크린으로 UI를 보다 직접적으로 조작할 수 있게 된 것을 언급하며, 멀티터치나 압력센서 등 터치스크린 입력을 좀더 정밀하게 다룰 수 있는 방법이 해당한다. (위 기사 중 Jun Rekimoto의 글 참조)

② Function Equals Form: Where the display can take on any shape.
기존의 사각평면 형태의 화면이 아니라, 그 용도에 따라 필요한 모양으로 재단할 수 있는 화면으로 e-Paper 외에도 프로젝션, OLED, EPD, 광섬유, 혹은 전기적으로 발광하는 도료 등을 언급하고 있다. (위 기사 중 David Holman 글과 Elice Co의 글 참조)

③ Form Follows Flow: Where displays can change their shape.
사용 순간의 작업내용과 상황에 따라 제품이나 화면의 크기와 형태가 바뀌는 제품의 가능성을 제시하고 있다. (위 기사 중 Amanda Parkes의 글 참조. Kas Oosterhuis의 글에서는 심지어 형태가 바뀌는 건물도 나온다.)

... 사실 글 제목과 각각의 분야에서 상당히 유명한 저자의 이름들을 봐서도 예측할 수 있었지만, 이 일련의 "Organice User Interfaces" 기획기사를 아무리 꼼꼼히 읽어봐도 기존에 자신들이 하던 연구주제 - 이시이 교수님의 TUI, 레키모토의 AR, Poupyrev의 3D UI - 를 한번 더 큰 틀에서 묶고자 했다는 느낌이 든다. 아니 사실은, 묶을까 하고 모였다가 결국 합의점을 찾지 못하고, 각자가 골백번 했던 똑같은 이야기들을 그냥 스크랩해 놓은 느낌이라는 게 더 맞겠다. OUI라는 개념에서 뭔가 새로운 지평이 열린 것도 아닌 것 같고, 아래와 같은 도표가 나오긴 하지만 사실 다른 기사의 내용과는 엄청나게 상충되는 관점이다. -_-;;;

from GUI to OUI - by Display Breakthrough

그나마 이 OUI 기사 중에 맘에 드는 (생각이 일치하는) 대목은, Carsten Schwesig의 "What Makes an Interface Feel Organic?"이라는 글이다. 이 글에서는 사실은 이 기사들 중 거의 유일하게 기존의 natural한 UI와 organic한 UI가 뭐가 다르길래? 라는 문제를 제시하고 있으며, 또 나름의 관점을 제시하고 있다. Carsten에 따르면, "유기적인 인터페이스 디자인은 - 문자 그대로의 의미와는 다소 다르지만 - 물리적 개체나 그 은유에 집중하기보다 물리적 현실과 인간적 경험에 대한 아날로그적이고 지속적이며 변화하는 속성을 강조하는 접근이다."

Organic interface design represents a less literal approach which, rather than focusing on physical objects or metaphors, emphasizes the analog, continuous, and transitional nature of physical reality and human experience. By combining sensitive analog input devices with responsive graphics, we can create user experiences that acknowledge the subtleties of physical interaction.
(from "What Makes an Interface Feel Organic?" by Carsten Schwesig)

위 인용문에서와 같이, Carsten은 이러한 나름의 정의(?)와 함께 Sony CSL의 Gummi Prototype, Nintendo의 Wii, Apple의 iPhone 등을 예로 들면서 아날로그 센서를 통한 미묘한 조작의 중요성을 강조하고 있다.

이런 관점은 사실 내가 HTI를 떠올리면서 가지고 있던 미래 UI의 모습에 상당히 근접한다. 센서와, 물리적인 피드백과, 자유로운 정보표시 방법과... 그러고보면 이 OUI라는 개념도 어느 정도 공감되긴 하지만, 역시 이 글 외에는 전혀 개념을 통일하려는 노력이 보이지도 않는 다는 것이 무.척. 아쉬울 따름이다.



이상과 같이 "GUI 이후 UI"의 주도권을 잡을 두가지 개념이 고작 2개월 간격으로 연달아 제시되는 것을 보면서, 사실 이번만큼은 예외적으로 좀 착잡해지는 기분이다. 왠지 몰라도 내 눈에는, RBI도 OUI도 뭔가 이슈가 필요하다는 니즈에 의해서 준비되지도 않은 것을 억지로 쥐어짜낸 개념으로 보이는 것이다. 게다가 하나같이 지난 몇년간 유행하던 연구주제들을 그냥 엮어서 자기들 나름대로의 framework에 구겨넣은 게 빤히 보이고, 그것마저도 제대로 정리되지 않아 삐져나오고 헐겁고... 조금이라도 이해해 보려고 읽으면 읽을수록 난리도 아니다.

결국, 블로그를 핑계삼아 정리하면서 내려진 나의 결론은:

① 세계 모든 UI 연구자들이 "다음 이슈"를 찾고 머리를 싸매고 있다.
② 이미 나온 것들 - TUI, AR, e-Paper, ... - 외에는 특별한 게 없다.
③ 결국 적합한 기술을 찾아 그 중 하나를 상용화하면, 그게 "다음"이 된다.
④ Multi-Touch를 봐라.
⑤ 따라서, HTI 연구가 중요하다.

이게 바로 "我田引水"라는 거다. 움홧홧! s(^0^)z


P.S. (자수하여 광명찾자) 근데 글의 시작과 결말이 미묘하지 들어맞지 않는다? ㅋㅋㅋ 뭐 맞추려면 맞추겠지만 말 바꾸기 귀찮다. ㅡ_ㅡ 또 다음 기회에.;;;

Posted by Stan1ey

댓글을 달아주세요:: 네티켓은 기본, 스팸은 사절

  1. 2008.06.13 09:47 신고
    댓글 주소 수정/삭제 댓글
    UI 쪽에 관심을 가지고 난 이후 찾게된 가장 보람있는 사이트였는데...^^
    역시나 참으로 정보를 잘 정리하시네요..^^*
    올때마다 감탄만 하고 도움만 받다가 살짝 발자국 남깁니다.
    Edward Tufte 검색하다가 들어오게 되었구요~
    늘 잘 보고 있습니다...^^
  2. Stan1ey
    2008.06.14 00:58
    댓글 주소 수정/삭제 댓글
    Edward Tufte를 아시는군요! 저 그 분의 자가출판 시리즈 세권을 모두 가지고 있습니다. (복사본이지만;;) 제가 시각언어라는 것에 대해서 연구를 시작했던 것도 그 책들 때문이었고, 비록 요즘은 그 범주에서 많이 벗어나긴 했지만 가장 즐겨쓰는 reference중의 하나랍니다.


    그다지 유명한 사람이 아니라서... 언급하시는 걸 들으니 반갑네요. ^_^
  3. 2008.06.14 11:37 신고
    댓글 주소 수정/삭제 댓글
    OUI에 대해서 소개하고 있는 한국 블로거를 발견. http://www.reepi.com/35

    이 사이트에서 소개하고 있는 관련기사 http://www.sciencedaily.com/releases/2008/06/080602114700.htm

    그리고 공식 OUI 웹사이트
    http://www.organicui.org/
  4. 2008.06.17 15:20
    댓글 주소 수정/삭제 댓글
    beautiful evidence 를 구하려다가 못구했다죠..ㅎㅎ 아마존에 아직 주문한번 성공한 적이 없는지라..ㅜ.ㅜ 외국에 있는 지인에게 부탁했는데..구하기 어려운가봐요. OUI 관련해서 글이 없어서 열심히 써봤는데..잘 뒤져보니 너무너무 잘 정리를 해놓으셔서 포스트를 내리고 싶을 정도랍니다..^^; 앞으로도 많이 와서 배울께요~~
  5. Stan1ey
    2008.06.18 00:21
    댓글 주소 수정/삭제 댓글
    앗.. 그러고보니 위 블로그를 쓰신 분이군요. ㅎㅎ 사실은 티스토리 접속 검색어에서 OUI를 보고 reepi.com을 알았습니다. 최근에 OUI 관련 검색이 몇건 있는 걸로 봐서는, 각자의 관점에서 정리한 글들이 꽤 읽히고 있을 것 같습니다. 열심히 하죠. 화이팅입니다. :)

Apple iPhone 3G
우리나라 기준으로 오늘 새벽, WWDC'08에서 iPhone 3G가 발표되었다. 사실 2G 든 3G 든 통신규약 따위는 큰 의미가 없었지만, 그래도 이제까지 Apple의 행보를 볼 때 과연 Steve Jobs가 발표 끝에 무엇을 들고 나와서 "well, there's one thing more..." 라고 할지가 엄청 궁금했던 게 사실이다. (사실 이번 발표에서는 그 장난기를 보여주지 않아서 초큼 실망했다 ㅎㅎㅎ )



루머라고도 할 수 없는 루머들 - 새롭게 바뀐 크기의 iPhone 금형이라든가 - 을 봤기에 거의 기정사실화되기는 했지만, 그래도 iPhone 3G의 등장은 많은 박수를 받았다. 그리고 줄지어 소개되는 기능들... 이미 이전의 제품에서 S/W 업그레이드를 통해서 많은 부족한 부분들이 소개되었기 때문에, iPhone의 첫 등장처럼 환호성이 터져나올 특별한 기능은 없었다고 본다.

하지만 기존의 기능들이 어떻게 보완되고 강화되었는가를 하나씩 이야기하는 걸 듣고 있자니, 점점 소름이 끼치는 게 느껴진다. 저번처럼 하나씩 보여주면서 깜짝 놀래키는 건 없었지만, 가능한 기술을 총동원해서 시장의 니즈를 가감없이 만족시키는 모습에 감동이 넘쳐 오히려 질려버리게 만들었달까. 마치 일본의 전통 여관(료칸)에서 받는 서비스가 이런 느낌일까.. 라는 생각이 든다.

Apple iPhone 3G - Features

이런 "정주행" 업그레이드라는 건, 어떻게 보면 소비자의 당연한 요구를 당연히 생각할 수 있는 방법으로 있는 그대로 해소하기 위한 노력일 게다. 하지만 실제로 제품을 개발할 때 고려해야 하는 기술, 경영 상의 문제를 생각해 보면... 이번 iPhone 3G를 만들기 위해서 투자했을 노력에 정신이 다 아뜩해진다.


이렇게 더 나아진 기능들 사이에서 눈에 띄는 기능 하나는, MobileMe 라는 기능이다. me.com 이라는 URL도 대단하지만, 연구소 생활을 하면서 ubiquitous computing 이라든가 wearable computer 라든가 mobile computing 이라든가 하는 키워드를 중심으로 고민하고 수십번이나 고쳐쓰면서 몇년동안 시도했다가 결국 연구원도 지치고 관리자도 지치고 해서 사업화하지 못한 기능들을, 그야말로 "정주행"해서 구현해 놓았다.

Apple MobileMe - Features

MobileMe에서 구현된 서비스는, 솔직히 우리나라 IT 업계에 있는 사람이라면 누구에게도 새로운 내용이 아닐 것이다. 심지어 인터넷을 통해서 IT 관련 정보를 좀 보는 사람이라면 누구나 생각했던 아이디어라고 생각한다. 어떻게 보면, 이미 Microsoft 등에서 모두 구현해 놓았던 기능을 베꼈다고 할 수도 있고, Google Calendar 같은 서비스에도 유사한 기능이 있다고 말할 수 있겠다.



하지만 (적어도 데모 상으로 보이는) 이 완성도라니... 그야말로 놀라울 따름이다. 많은 눈이 iPhone에 몰려있는 시기이긴 하지만, 이번 WWDC에 등장한 진정한 breakthrough는 MobileMe라고 생각한다. 이제 Google Calendar, Picasa, Google DocsGoogle Gear로 Online-Offline application을 평정하려던 Google은 아직 미완성인 휴대기기 OS android를 들고 좀 어정쩡한 모습이 되어 버렸다. 애플 빠돌이인 동시에 구글 빠돌이를 자청하는 입장에서, 앞으로 Google의 행보가 무척이나 기대가 된다.


Apple... 이 정도로 straight forward한 상품기획과 개발과 홍보를 정주행할 수 있는 회사라니... 이 사람들의 정체는 도대체 뭐길래 몇년동안이나 앞서가면서도 지치지도 따라잡히지도 않는 걸까. ㅡ_ㅡ;;;




P.S. 위 동영상들을 찾다가, 재미있는 영상을 봤다. 일전에 올렸던 삼성 휴대폰 패러디 동영상 이후로 제일 재미있는 듯. ㅋㅎㅎ

Posted by Stan1ey

댓글을 달아주세요:: 네티켓은 기본, 스팸은 사절

  1. creep
    2008.06.12 11:26
    댓글 주소 수정/삭제 댓글
    이젠 키노트 발표 전날, 시작하는거 보고 잠들어서 새벽 일찍 일어나 내용 갈무리 보는 것이 패턴화되는 것 같아요.. 이러다가 밤새지. 크
  2. Stan1ey
    2008.06.12 19:07
    댓글 주소 수정/삭제 댓글
    난 이번에는 사실 밤에 피곤해서 바로 자버린 날이라, 새벽에 클량 보고서야 아차 하고 생각나더군요. ㅡ_ㅡ;; 결국 bandwidth를 확보하지 못해서 처음부터 끝까지 본 건 다음날 새벽. ㅋㅋ

이전 글에서 회상한 악몽이, 최근 애니콜의 "햅틱폰" 마케팅 캠페인에서 다시 살아나고 있는 기분이 든다. (이 이야기 쓰려다가 앞의 글이 통채로 생겨 버렸다. 무슨 주절주절 끝나지 않는 할아버지의 옛이야기도 아니고 이게 뭐냐 -_-;;;. 그냥 후딱 요점만 간단히 줄이기로 하자.)

삼성에서 "풀 스크린 터치" 폰을 개발한다는 소식이 들리고 국내외 전시회에서 해당 모델이 조금씩 모습을 드러낼 무렵, 드디어 시작된 광고는 정말 뭇 UI 쟁이들의 마음을 설레게 하기에 충분했다.



"..., 터치... 다음은 뭐지?" 라는 것은, 정말이지 Apple iPhone 이후에 모든 월급쟁이 - 풀어서 말하자면, 뭔가 월급에 대한 대가로 새로운 것을 제시해야 한다는 책임감을 부여받은 - UI 쟁이들에게 주어진 공통의 숙제 같은 거 였다. 자리만 생기면 서로 저 질문들을 하기도 했고, 학계에서나 연구되던 많은 주제들이 무수하게 떠올랐다가 사라지곤 했다. 그러다가 종종 SF에서 보던 장면들이 논의되면 잠시나마 꿈에 부풀기도 했고.

그 중의 하나가, 물론, "햅틱 haptic"이라는 기술이다. (UI가 아니다.)

Wikipedia를 인용하자면, 햅틱은 "촉각 감각을 통해 힘이나 진동, 움직임을 가함으로써 사용자와 인터페이스하는 기술"이라고 정의된다. 나는 햅틱에 관해서는 전문가는 커녕 학생 수준에도 못 미치기 때문에 말을 길게 하는 건 매우 -_- 위험한 짓이 되겠으나, 투덜거림을 위해 예전에 관련 전문가분들과 같이 과제를 하면서 몇가지 얻어들었던 사실을 언급하자면 다음과 같다.



우선 햅틱은 위 정의에서와 같이 다양한 촉각 감각을 다루는 분야로, 크게 tactile 감각과 kinesthetic 감각으로 분류하기도 한다. 이때 tactile 감각은 피부에 있는 촉감 세포들이 느끼는 압력, 요철, 진동 등의 감각이며, 차갑고 뜨거운 것을 느끼는 열감각은 여기에 포함시키거나 별도로 thermal로 구분하기도 한다. Kinesthetic 감각은 인간의 관절을 둘러싼 근육과 인대의 운동감각에 의한 것으로, 흔히 말하는 force feedback 이라든가 무게감 등이 이에 해당한다.

햅틱 기술을 이용한 UI는 아직 걸음마 단계로, 몇가지 시험적인 상용화 시도가 있었다. 그 중에서 가장 높은 이상을 보여주었던 사례는 BMW의 iDrive라고 생각한다.
BMW iDrivce: a haptic input device
iDrive는 다양한 조작이 가능한 하나의 다이얼+버튼+조이스틱 입력장치로, 동적으로 변하는 각 조작상황에 최적화된 물리적인 조건 - 즉, 메뉴의 개수에 맞춰서 다이얼이 움직이는 범위가 변한다든가, 버튼 입력시의 반응이 다르다든가 하는 - 을 제시하는 햅틱 장치가 아래쪽에 숨어있다.

하지만 iDrive는 햅틱 기술의 대표적이고 도전적인 적용 사례일 뿐이고, 그 사용편의성 측면에 대해서는 많은 비판을 받기도 했다. 실제로 iDrive를 검색해 보면, 많은 글들이 극단적으로 부정적인 의견이어서 마치 예전 MS Office Assistant에 관한 글을 보는 듯한 기분마저 든다. 이것이 새로운 기술에 대한 대중 사용자의 거부감일 뿐일지, 아니면 실제로 상상 속의 편리함이 공상으로 드러나는 패턴인지는 아직 판단을 미뤄둔 상태다.

한편으로 보면, 간단한 수준의 햅틱은 이미 우리가 사용하고 있는 제품에 적용되어 있는데, 대표적인 것이 바로 휴대폰과 게임기의 진동 모터이다. 휴대폰의 경우에는 단순히 중심이 어긋난 추가 달린 모터를 켜고 끄는 것으로 진동 전화벨을 구현한 것에서 시작해서, 2~3년 전부터는 "진동벨"이라는 음악에 맞춰 강약이 조절된 진동이 적용되기도 했으며, 최근 모델들에는 다양한 강약패턴을 갖는 진동이 휴대폰에 적용되기도 했다.

특히 이 강약패턴의 경우엔 게임기에 적용된 것과 같은 기술을 적용하고 있는데, 바로 진동모터에 정전류과 역전류를 적당히 적용함으로써 모터의 회전수, 즉 진동의 강약을 실시간으로 정확히 제어할 수 있는 것이다. 이 기술에 대한 특허를 가지고 있는 것이 바로 햅틱 기술의 거의 모든 특허를 독점하고 있는 회사인 Immersion 이다.


Immersion사의 진동 피드백 기술에 대해서는, 대충 아래의 Immersion Studio 라는 진동효과 편집 소프트웨어를 보면 느낌이 올 것 같다. 이 소프트웨어는 진동 모터의 강도를 시간축에 따라 정밀하게 제어할 수 있는 기능을 GUI로 제시하고 있다.
Immersion Studio Screenshot

진동 자극은, 대상 UI의 물리적 특성을 직접적으로 제시하는 게 아니라 다양한 진동을 통해 간접적으로 표현하는 것이다. GUI 식으로 이야기하면 극단적으로 단순화된 메타포 metaphor 라고 할 수 있을 듯. 이보다 직접적인 방식으로 촉각적 자극을 주는 방식으로는, 실제로 물리적인 형태를 바꾸는 형태가 있겠다. 이미 이런 방식은 시각 장애인을 위한 점자 표시 braille display 장치에서 구현되어 있다. (아래 오른쪽 그림의 장치 - 브레일 한소네 - 를 만든 힘스코리아 HIMS Korea 라는 회사는 우리나라에서 재활공학을 업으로 하는 극소수의 소중한 회사들 중 하나다.)

Refreshable Braille Display (close up)
Portable Braille Display 'Hansone' by Himskorea


이 방식은, 점자를 위한 장치 외에도 full matrix로 만들어지기도 했는데, 점자 디스플레이 모듈을 만드는 일본의 KGS 라는 회사에서는 이 모듈을 연결시켜 아래 사진과 같은 제품 - DotView - 을 만들기도 했다. 이거 만든지 벌써 몇년이 지났는데, 잠잠한 걸 보면 결국 확실한 application은 찾지 못한 모양이다.
DotView by KGS
Haptic Display Prototype from NHK
위 제품은 좀더 거대한 조합으로 발전하고 터치스크린 기능이 덧붙여져서, 최근 "NHK의 햅틱 디스플레이"라는 이름으로 소개되기도 했다. (NHK에서 발표한 오른쪽 그림의 장치를 잘 보면, KGS 사의 로고를 찾을 수 있다. KGS는 이 방식 - 피에조 방식을 이용한 적층식 점자표시 - 에 대한 특허권자라고 했다.)

점자와 같은 수준의 정보를 주지만 조금 더 우아한 방식으로는, Sony CSL의 Interaction Lab.에서 구현한 Lumen (shape-changing display) 을 빼놓을 수 없다. 디스플레이라고 하기에는 픽셀(?)의 크기가 어마어마하고, 모듈의 크기(특히 깊이)는 더욱 더 어마어마하고, 반응속도도 느리지만, 기술의 발전에 대한 막연한 기대에 기대자면 그 궁극적인 발전 가능성은 매우 크다고 하겠다.

Luman by Ivan Poupyrev, Sony CSL Interaction Lab.

음... 기왕 길어진 김에 (이렇게 써제껴놓고 뭘 새삼스럽게;;) 촉각에 대해서 하나만 더 추가하자면, 개인적으로 햅틱의 가장 큰 재미라고 생각하는 것은 촉각 감각에 있어서의 착시(?)라고 할 수 있는 것이다. 다양한 스펙트럼의 빛이 여러가지의 시각적인 색채 자극을 조합해 내는 것과 마찬가지로, 우리가 뜨겁다, 차갑다, 볼록/오목하다, 우둘두툴하다 등등 여러가지로 표현하는 촉감은 사실 다양한 세포들의 조합에서 유추된 것이다. 따라서 세포 감각의 레벨에서 자극을 조작하면, 실제로 물리적인 자극을 만들지 않고도 해당하는 자극을 느끼게 할 수 있는 것이다. 즉 적당한 전기 자극을 줘서 촉각세포를 교란시킬 수도 있고, 특정 주파수의 진동을 줘서 특정 촉각 세포만을 자극할 수도 있다고 한다. (실제로는 상호간섭이 심해서 딱이 성공했다는 사례를 못 봤다.) 최근(?)에 이런 사례로 재미있는 것은 캐나다 McGill 대학 Haptic Lab.피부 늘리기 기법인데, 구체적인 원리는 2000년도의 논문에 나와있으니 관심있는 분은 함 보시길.
PHANTOM Omni

촉각 tactile 에 대해서 이렇게 잔뜩 썼지만, 다른 한 축인 kinesthetic에 대해서는 사실 그렇게 쓸 말이 없다. Immersion 외에도 햅틱 기술의 강자로 꼽히는 회사인 SenAble 에서 만든 PHANTOM이라는 기구는, 화면 상의 가상 물체를 펜이나 다른 도구의 끝으로 꾹꾹 찔러볼 수 있도록 하고 있다. 비슷한 기능을 하는 6 DOF의 force-feedback 입력장치는 여러 회사와 연구소에서 만들어지고 있으며, 특히 의료업계에서 원격수술이나 로봇수술, 미세수술의 입력장치로서 상용화가 되고 있다.



... 자, 이 정도가 지난 3일 동안 짬짬이 -_- 적어본, "햅틱"이라는 UI 기술에 대한 지극히 주관적인 개요이다. (차라리 대형 삼천포라고 하는 게 나을 듯 -_- ) 어쨌든 이런 햅틱 기술을 알고 있는 사람들을 잔뜩 들뜨게 한 위의 동영상 티져 광고에 이어서, 드러난 "햅틱 폰"의 실체는 다음과 같았다.



... 어라? "햅틱"은? 애니콜 홈페이지에 볼 수 있는 햅틱폰의 주요 기능 feature 들도 다음과 같이 나열되어 있다.

Not-so-haptic Features on Samsung Haptic Phone

언제나와 같이 잘 나가는 아이돌 스타들을 총동원해서, "전지현보다 여자친구가 좋은 이유는 만질 수 있기 때문이다" 라든가, "만지면, 반응하리라!" 따위의, 다분히 문제의 소지가 있는 카피로 화려하게 광고를 하고 있지만, 터치스크린이 적용된 제품에서 내장된 진동소자를 이용해서 터치에 대한 feedback을 주는 것은 국내에서도 출시된 적이 있는 방식이다.

물론 진동을 이용한 tactile feedback이 햅틱 기술이 아니라는 게 아니다. 하지만 "햅틱 UI"라고 부르려고 한다면, 단순한 진동 피드백이 아닌 뭔가가 있어야 자격이 있는 거 아닐까? 비교적 쉽게 적용이 가능한 햅틱 기술로는 제품 전체가 아닌 스크린만 진동시키는 방법이라든가, 특히 스크린 중 일부만 특정한 느낌을 주도록 진동시키는 방법이 있다. 아니, 앞서 언급했듯이, 햅틱 기술에는 tactile 외에 kinesthetic 감각을 위한 더 다양한 기술들이 있다. 그런 기술들 중에서 가장 초창기의 것만이 적용된, 그것도 사실은 이전의 적용 사례들과 동일한 UI가 "햅틱 UI"라는 이름을 갖게 된 것이다.

POP Ad for Haptic Phone: Alive UI

"살아있는 User Interface"라니. -_-

"햅틱 UI"라는 건 결국 딱이 정의되거나 공유될 수 있는 개념이 아니라, 사용되고 있는 용어의 정의와 상관 없이 마케팅 상의 필요에 의해 기존의 멋져 보이는 용어를 갖다쓴 것 뿐이다. 물론 뭐 말 좀 갖다썼다고 큰 피해 준 것도 아니고, 이렇게 장광설을 펴는 이유를 모르겠다고?



햅틱이라는 이름이 붙여진 제품이 광고되면서, 기존에 햅틱 기술을 연구하던 사람들이 무척이나 흥분(?)하는 걸 볼 수 있었다. 예전에 햅틱 기술을 이용한 UI를 토론하곤 했던 한 연구원은 이제 햅틱이 유명해지겠다며 "보람을 느낀다"는 말을 하기까지 했다. 사실 회사에서 느끼기에 햅틱은 생소한 용어였기 때문에 무슨 과제 발표를 할 때마다 용어부터 설명을 해야 했고, 심지어 경우에 따라서는 "햅틱"이라는 용어를 사용하지 못해서 - 발표가 강의나 토론으로 끝나는 경우가 많아지기 때문에 - 약자로만 넣기도 했다. 그런데 이제 "햅틱"이라고 하면 사람들이 알아듣고 더이상 그게 뭐냐든가 아리송한 표정을 하지는 않을 거라는 거 였다.

그런데, 위의 웹페이지 설명에서와 보이듯이, 정작 나온 제품에서 볼 수 있었던 햅틱 UI는 기존의 것과 전혀 다르지 않거나, 사실은 터치스크린을 이용한 다른 종류의 입력 방식 - 햅틱과는 상관 없는 - 이 전부였던 것이다. 결국 대중들 사이에서 "햅틱"이라는 단어는, "터치"와 같은 의미가 되어 버렸다.

'Haptic Consumer' article on tabloid

위 5월 20일자 기사에 따르면, 오프라인 매장에서 직접 제품을 만져보고나서 저렴한 인터넷 매장에서 구입을 하는 구매자를 "햅틱형 고객"이라고 한다고 한다. -_-;;; 해당 회사에서 별도의 웹사이트까지 만들어서 광고에 힘쓴 덕택에, 하나의 학술적인 연구 범위를 정의하는 전문 용어 하나가 변화되고, 왜곡되고, 협소해져서 세간에 알려지게 된 것이다.

... 그냥 그 이야기를 하고 싶었다.



이 글을 벌써 일주일 넘게 썼나보다. 이제 슬슬 지치기도 하고... 되돌아 읽으면 읽을수록 추가할 부분만 더 늘어나서 좀 버겁다. 게다가 개인적으로 지난 며칠, 그리고 앞으로 며칠이 굉장히 심란한 시기가 될 것 같고. 그러니 그냥 핑계김에 이 글은 요기까지. 나름 애지중지하던 "햅틱"이라는 단어가 자격 없는 제품의 광고에 사용되어 그 '고아한 학술적인 지위'를 폄하(?) 당한 것 같아서 속상하다... 그냥 그 이야기를 하고 싶었다. 한 줄이면 되는 것을 아는 거 모르는 거 죄다 털어내느라 지저분한 글이 되어 버렸다. 또. ㅡ_ㅡ;;;

그래도 여전히 하고싶은 이야기는 많다... 터치스크린과의 위험한 조합이라든가, 이런 UI를 앞서 적용한 회사들의 다양한 적용 사례라든가, 보조적인 피드백으로서의 역할에서부터 독립적인 UI로서의 가능성까지 재미있는 구석이 많은 기술이다. 햅틱은. 모쪼록 타의에 의한 이번 '유행'이 지나도 "햅틱"이라는 단어와 무엇보다 그 기술에 대한 매력이 주저앉지 않기를 바란다.

오버앤아웃.



Posted by Stan1ey

댓글을 달아주세요:: 네티켓은 기본, 스팸은 사절

  1. 플립디
    2008.06.02 10:46
    댓글 주소 수정/삭제 댓글
    항상 글 잘읽고 있습니다.
    햅틱이란 단어의 왜곡?에 대한 견해에 동의하지만, 그 파급정도도 엄청 나더군요. 구글 이미지 서치에서 haptic을 치면 햅틱폰이 가장 많이 나온다는.. : )
  2. Stan1ey
    2008.06.02 11:11
    댓글 주소 수정/삭제 댓글
    그러게요... 이렇게 인터넷에 햅틱폰 자료가 우르르 쌓이면 몇년은 갈텐데, 그 정도가 분명히 진짜 '햅틱'에 대한 글이 생성되는 분량보다 훨씬 많을 겁니다. 햅틱 기술을 검색하고자 하는 입장에서는 그야말로 악몽같은 일이죠... -_ㅜ
  3. 영현
    2008.06.07 02:03
    댓글 주소 수정/삭제 댓글
    읽다보니 눈물이 앞을 가립니다...
  4. Stan1ey
    2008.06.07 09:44
    댓글 주소 수정/삭제 댓글
    하지만 이것도 참 흔한 일인 걸요... 영현님도 그쪽 연구개발을 계속 하시다 보면 이미 유행을 훑고 지나간 단어들 - 3D 사운드, 감성 사운드, 등등등 - 때문에 필요없는 노력을 들여야 할 때가 있겠지만, 그래도 진짜가 나오려면 어차피 겪는 일인 것 같습니다. Hype Curve를 보면 더욱 그렇고요.
  5. Stan1ey
    2008.06.08 08:17
    댓글 주소 수정/삭제 댓글
    관련기사☞ "세계 휴대전화 시장, '햅틱大戰'" (매일경제)

    http://news.mk.co.kr/newsRead.php?sc=30000001&cm=%ED%97%A4%EB%93%9C%EB%9D%BC%EC%9D%B8&year=2008&no=361794&selFlag=&relatedcode=000060022&wonNo=&sID=
  6. 2008.08.18 21:18
    댓글 주소 수정/삭제 댓글
    글 잘 읽었습니다.
    꼼꼼하게 소중한 시간을 들여서, 다양한 지식들을 차분하고 멋지게 표현하시는 것 같아요. 멋지십니다~! :)
    님의 글을 읽고 나니.. 'Haptic' (정확한 의미의 학문)관련 분야가 공부해 지고 싶어지네요..
    보다 다양한 자료를 얻을 수 있을 만한 좋은 사이트를 아시면 좀 알려주세요.. ^^
    오늘도, 평온한 하루 되세요.
    • 2008.08.18 21:49 신고
      댓글 주소 수정/삭제
      고맙습니다. :)


      햅틱 분야는 위키피디아가 그나마 공식적으로 정리하고 있는 것 같고요. ( http://en.wikipedia.org/wiki/Haptic ) 캐나다의 맥길대학( http://www.cim.mcgill.ca/~haptic/ )이나 영국의 글래스고 대학( http://www.dcs.gla.ac.uk/%7Esteven/haptics.htm ) 관련 랩이 꾸준히 연구성과를 보고하고 있습니다. 회사로는 글 중에 소개한 Immersion 이라는 회사( http://immersion.com/ )가 아직은 독점하고 있다고 봐야 하겠네요. 그외에 햅틱 하드웨어를 만들고 있는 센서/액튜에이터 제조사가 몇군데 있지만, 그쪽은 크게 이 분야에 영향을 미치지 못하고 있습니다. 참고가 되셨으면 좋겠네요! ^^*
  7. 2008.11.23 21:43 신고
    댓글 주소 수정/삭제 댓글
    안녕하세요 햅틱을 공부하고 햅틱장치를 만드는 학생이에요~

    좋은글 잘 읽었습니다. 햅틱의 자료를 차곡차곡 모으고있는

    데 글좀 스크랩 하겠습니다 ^^....

    스크랩은 어떻게 하지 .. 쿨럭..;
    • 2008.11.24 04:00
      댓글 주소 수정/삭제
      블로그 따라가 봤더니 IVR Lab 학생이신가 보네요. 제 블로그에 있는 햅틱 관련 정보는 대부분 김상연 교수님께 배운 겁니다. 교수님 많이 귀찮게 하면 제 글에서 수박 겉핥기하는 것보다 백만배 많이 배울 수 있어요. :)
  8. htruth
    2008.11.24 08:16
    댓글 주소 수정/삭제 댓글
    진동을 이용한게 햅틱기술이 아니라는건 아니지만..
    좀 거칠게 말해서 화면에 뭔가가 on/off로 나온다고 GUI라고 부를수 있을까 의문이에요. 지금 단계에서는 햅틱 UI라고 부르지만, 조금만 기술이 발전해도 그걸 햅틱 UI라고 부르기 어려워질지도..
    하긴 전 둔감해서인지 구별이 쉽지 않지만 햅틱폰도 매우 여러가지의 진동 패턴을 부여했다고 하더군요.
    • 2008.11.24 09:31 신고
      댓글 주소 수정/삭제
      그렇다고 하더라구요. 아마 진동패턴... 혹은 tacticon에 대한 관점은 우리가 비슷할 겁니다. ㅎㅎ 그거 때려잡는다고 해도 구분 못해요. 한때 유행했던 많은 연구들에서도 결국 진동의 리듬은 물론이고 강도도 잘 구분하지 못하고, 단지 진동의 길이만이 유의미한 구분을 보여주고 있습니다. 그래서 요샌 아예 그쪽 연구가 확 죽었죠.

      빨리 진짜 햅틱 UI가 상용화돼서 이 마케팅 이름을 덮어야 할텐데, 요새는 전세계 웹사이트를 대상으로 haptic 이라고 찾아봐도 삼성 폰 밖에 안 나옵니다. 이미 늦은 듯... 쩝. :d
    • 2008.11.24 09:33 신고
      댓글 주소 수정/삭제
      아, 한가지... 그 미묘한 진동패턴의 차이가, GUI를 보조하는 경우에는 의미가 있는 듯 합니다. 마치 5.1채널에서 우퍼(.1)와 같은 역할을 한다고 할까요. ^_^

'Haptic Consumer' article on tabloid
마케팅하는 분들한테 볼멘소리를 하는 김에, 마침 오늘(글쓰기 시작한 날짜 기준이니, 지난 20일이다) 아침에 무가지 'metro'에 실린 광고성 기사에 대해서도 한마디 하게 됐다. (여하튼 한번 뭔가 심통이 나면 계속 관련된 게 눈에 밟힌다니깐...)


음성인식을 연구하는 조직에 (물론, 다른 훌륭한 HCI 기술들도 함께) 들어가게 되면서 들었던 이야기 중에, 과거 "본부" 폰의 실패에 대한 언급이 자주 있었다.


TV Ads of Samsung's first speech recognition cell phone (SCH-370)

이 모델(SCH-370)에서 사용된 음성인식 기술은 모든 음성인식 대상 단어(주소록 상의 이름)들에 대해서 각각 발화자의 음성을 수차례 학습시키는 방식으로, 오늘날 음성인식의 가장 기초적인 단계인 "음운분석" 조차도 들어가 있지 않은 단순한 음향패턴 매칭 기술이라고 볼 수 있다. 사용자가 몇번 발성한 "홍길동"이라는 음향과 나중에 발성한 음향을 나란히 비교해서, 두 음향이 비슷한 정도를 가지고 그 음향이 "홍길동"인지 아닌지를 파악하는 것이다. 따라서 다른 사람이 "홍길동"이라고 해도 거의 인식되지 않으며, 굳이 나눈다면 소위 "화자의존 speaker dependent 방식"의 음성인식기에 해당할 것이다.

이 휴대폰 상에서의 최초의 음성인식은 그래도 전례가 없고 상상력을 자극하는 기능이었기 때문에, 나름대로 많은 이야깃꺼리가 되었던 기억이 난다. 이 휴대폰을 소재로 한 한때의 우스갯소리 중에는 지하철 안에서 스님이 휴대폰을 붙잡고 "절!, 절!" 하더라는 이야기도 있었고(음성명령이 짧으면 비교할 정보 자체가 짧으므로 인식률이 더 떨어진다), "개○끼!" 라고 하고나서 "예, 부장님..." 하는 월급쟁이의 비애에 대한 이야기도 나온 적이 있다. (등록된 이름을 바탕으로 한 음운분석을 하는 것이 아니라 아무 음성명령이나 학습시킬 수 있었기에 가능한 사용 사례이다)

문제는 사용자들이 음성 단어를 등록하고 엔진을 훈련시키는 순간의 환경소음과, 실제로 사용할 때의 환경소음이 당연히 다르기 때문에, 실제로 사용하려고 하면 인식이 잘 되지 않는 경우가 비일비재 했다. 게다가 휴대폰 자체의 정보처리 성능이나 마이크의 설계가 지금보다 나빴던 시절이니 인식률은 말 그대로 운에 맡겨야 하는 수준이었다고 한다. 물론 그렇게 제한된 하드웨어 상에서 최선의 결과를 낼 수 있는 방법으로 단순 음향매칭 음성인식기를 사용했지만, SF 영화를 제외하고는 최초로 접하는 음성인식 기능임에도 불구하고 사용자의 평가는 엄정했다.

  "음성인식이요... 전에 본부폰 써 봤는데요, 잘 안 되던데요?"

... Voice UI에 대한 FGI나 다른 사용자 조사를 하면서, 혹은 심지어 사내에서 음성인식 기능의 필요성을 주장하면서, 저 이야기를 얼마나 많이 들었는지 모른다. 음성인식이라고 하면 무조건 "본부폰"을 떠올리기 때문에, 음성인식 기술이 그때보다는 훨씬 좋아졌다고 해봐야 영 믿지를 않더라는 거다. 게다가 당연히 100%에 못미치는 음성인식기가 오류를 내면, "이것 보세요~" 하면서 음성인식에 대한 확정적인 불신을 갖게 되는 모습을 자주 목격하게 되었다.

본부폰 SCH-370 ... 이 모델은 최초의 음성인식 적용 휴대폰으로 역사에 남을지 모르겠지만, Voice UI의 대표적인 실패사례로서 음성인식기술이 다시 적용되기까지 더 많은 시간이 필요하게 만든 장본인이고, 결국 다시 적용되었을 때에조차도 완전하게 복권되어 당당한 대표기능이 아닌 한 구석에 숨겨진 기능으로 들어가게 만든 원흉이라고 본다.

아직 기술적으로 완전히 준비되지 않았음에도 불구하고, "본부폰"은 훌륭한 마케팅으로 제법 주목을 받은 사례이다. 하지만, 바로 그 예상되었던 기술적인 불완전성으로 인해서, 이후에 그 기술이 보다 완성된 후에 그 잠재적인 성장을 고사시킨 가슴 아픈 사례이기도 하다. 예전에 언급했던 첨단 기술의 Hype Curve Model에 비유하자면, 시장의 기대에 비해 턱없이 부족한 기술을 마케팅으로 채워서 물건을 파는 데까지는 성공했으나, 결국 기대에 미치지 못해 "환멸의 골 trough of disillusionment"을 더욱 깊게 했다고 말할 수 있겠다.


쓰다보니 글이 길어졌다. 아무래도 VUI가 나오니 -_-a;;
하려고 했던 말(;;;;;)은 다음 글에 계속 쓰자.
Posted by Stan1ey

댓글을 달아주세요:: 네티켓은 기본, 스팸은 사절

이 친구... Johnny Chung Lee라는 사람은 Wii Remote를 만나지 않았다면 앞으로 참 다른 인생을 살게 됐을 것 같다. (미래에 대한 섣부른 예측 -_- ) 어쨋든 줄줄이 보여주는 동영상에서 Wii Remote 하나 갖고 참 잘 논다 싶은데, 한때 다소 어설폈던 모습에서 이제 많이 세련되고, 제법 농담도 하는 (연기력은 엔지니어 수준 그대로지만 -_-;; ) 여유를 보여주고 있다.

게다가 이번의 것은... 솔직히 아주 훌륭해 보이기 까지 한다.



피휴~! 결국 2D 촬영한 내용이니 생기는 착시를 감안하더라도, 훌륭한 퀄리티의 결과를 보여주고 있다. ... Wii Remote의 Maestro 라고 불러도 될 듯. ㅡ_ㅡ;;; Jeff Han에 이은 동양계(아마도?) IT 스타의 등장인가.

참 잘 논다... (부럽다는 뜻인거 알지?)
Posted by Stan1ey

댓글을 달아주세요:: 네티켓은 기본, 스팸은 사절

  1. 홍지영
    2008.01.03 21:12
    댓글 주소 수정/삭제 댓글
    이야.. 정말 멋지네요
    아주 간단한 아이디어... 그런데
    한번도 저렇게 멋져 보일거라고 생각해보지 못했어요
    흔히들 입체를 만들려고 양안시차를 이용하는데
    사실 양안단서의 효과보다는 단안단서의 효과가 더 크다는 사실을 흔히들 간과하지요...
  2. Stan1ey
    2008.01.06 13:38
    댓글 주소 수정/삭제 댓글
    그러게요... 양안은 개인차도 있고 해서 사실은 오히려 기피해야 할지도 모르는데. 여하튼 참 잘 만들어내는 것 같습니다. 이 사람...

사실 이런 문제를 고민해야 한다는 것 자체가 문제이긴 하지만, UI라는 개념.. 혹은 업종이 세간의 관심을 받게 되면서 어쩔 수 없는 일이지 싶기도 하다. 사실 무슨 UI로 조작하느냐가 아니라 어떤 유용한 기능을 어떤 이해하기 쉬운 구성과 간단한 방법으로 사용할 수 있게 하느냐가 UI design의 처음이자 끝일텐데, 요즘 들어오는 질문들은 항상 "앞으로 무슨 UI가 뜰 것 같아요?" 라는 거다. (사실 딱 세 번 정도였던가... -_-;; )

어쨌든.

그런 질문에 대한 의견은 이전의 글에서 말한 것과 같지만, Apple iPhone 이래로 달라진 것이 있다면 "혹시 Touch UI 일까요?" 라는 자문자답이 따라붙는다는 거다. iPhone 이전에도 터치방식이 없었던 것이 아니고, 아니 GUI가 시작되었을 때에 이미 Light Pen이 있었으니 터치는 HCI의 시작과 함께 시작되었다고 봐도 될꺼다. 이제와서 굳이 새로운(?) 총아로 주목받는 이유는 역시 이제까지 모호하게 정리되지 않고 있던 Touch UI 의 모범적이고 완성도있는 UI 사례를 Apple이 보여줬기 때문일 것이다. 실제로 Apple의 iPhone Human Interface Guideline을 보면 비록 하나의 제품에 올린 제한된 기능에 대한 것이라고는 해도 참 여러가지를 고민한 끝에 지르는 "야!야!야~! 터치는 이렇게 쓰는 거야!"라는 호통이 페이지마다 들린다.


사실 터치가 소위 "Next UI"의 주인공이 되리라는 것은 현재 상황에서 그저 당연해 보인다. 마치 유명한 디자이너가 "올 겨울 유행은 블랙입니다!" 하면 - 사실은 그 소리를 들은 다른 자신없는 누군가들이 그 말을 "블랙이랍니다. 그래서~" 하고 인용했기 때문일지라도 - 그 예측이 맞아떨어지듯이, Apple이 내놓은 일련의 Touch UI 제품들(iPod의 Click Wheel 과 iPhone의 Mutli-touch)의 몇년에 걸친 성공을 보면서 다른 제조사들은 홀린 듯이 Touch UI 관련 기획과 제품을 내놓고 있다.

디자인 계의 유행색 예감 -_- 과 작금의 Touch UI 유행의 차이점이 있다면, 정작 Apple은 차세대 UI가 Touch라는 소리를 한 적이 없다는 것이다. 우리가 보고 있는 것은 기계적인 Wheel에서 시행착오를 거쳐 적용된 터치 방식의 휠이고, 큰 화면의 모바일 기기에서 당연히 들어가야 할 터치기술이 각각의 기능에 맞게 잘 조정된 사례들일 뿐이지, 무슨 차세대 UI의 계시 같은 게 아니다.


무엇보다, 터치 관련 기술은 몇가지 장단점과 한계가 있을 수 있다. 우선 화면 상에서 터치를 인식하는 (터치인식의 범위를 화면으로 한정하는 건 뭐... 나름의 이유가 있다 -_- ) 기술은 흔히 알려진 감압식(感壓式; = 저항식 resistive)과 정전기식(= 정전용략방식 capacity) 방식 외에도 몇가지가 더 있다. 하나씩 UI... HTI 측면에서 장단점을 보자면 다음과 같다. (아래 목록은 Wikipedia의 도움을 받았지만, 구성은 내가 맘대로 - 즉, 어깨너머로라도 경험한 만큼만 - 바꿨다)


1. 감압식
살짝 떨어져 있는 2개의 얇은 막이 눌려 서로 닿은 점의 좌표를 X축과 Y축을 나타내는 두 저항값의 변화로 알아내는 방식이다. 물리적으로 동작하는 것인만큼 내구성 문제가 있고, 막이 2개에 중간에 공기층(혹은 기름층)까지 있다보니 원래의 화면 밝기보다 많이 어두워진다. 무엇보다 저항값 2개만 사용하므로 원칙적으로 멀티터치란 있을 수 없고(교묘하게 dual touch를 구현한 사례가 있기는 하다), 어딘가의 부품에 문제가 생기면 저항값이 어그러져 다시 calibration (주로 화면 네 귀퉁이를 찍어서) 해야 하는 경우가 생긴다.

하지만, 이 방식은 손가락이 아닌 다른 물건으로도 어쨋든 화면에 압력을 가하면 되기에 거친 사용환경에 적합한 방식이고 값도 싸므로 버리기 힘든 방식이다. 장갑을 끼던 플라스틱 막대기("stylus")를 쓰던 사용할 수 있다는 건 어떤 사용상황이든 큰 장점이 된다.


2. 정전기식
거의 안 보이는 전선들을 가로와 세로로 (서로 다른 층에) 깔아놓고 있으면 항상 정전기를 내뿜고 있는 인간의 몸이 닿았을 때 그 전기의 흐름을 감지할 수 있다. 이 경우엔 정확히 어떤 좌표에 전기가 흐르는 지를 알 수 있기 때문에 멀티터치가 가능하지만, 그것보다 그냥 감압식처럼 X, Y 좌표로 받는 게 더 싸기 때문에 그동안은 그냥 일반적인 방식으로 사용되어 왔다. 인간의 몸이나, 저항이 약한 도체로 만든 Stylus 펜은 인식될 수 있다.

하지만 역시 손가락으로만 쓸 수 있다는 건 대부분 약점으로 작용하고, 오동작을 막기 위해서 손가락이 닿았다고 생각되는 정전용량의 범위를 정해놓았기 때문에 특수한(?) 상황 - 이를테면 손이 유난히 건조한 날이라든가, 손이 젖어있다거나, 물방울 같은 것이 화면에 떨어져 있다든가 하는 - 에서는 인식이 잘 되지 않을 수 있다. 무엇보다 멀티터치를 지원하려면 좀더 여러 신호를 동시에 처리할 수 있는 비싼 칩을 써야 한다. Apple iPhone과 iPod Touch가 바로 이 방식을 사용했다. -_-
iPhone에 사용된 정전기 감지 방식의 터치 스크린

... 여기까지는 뭐 대충들 알려진 사실이다.
하지만, 앞으로의 Touch UI는 조금 다른 방식을 채택할 가능성이 있다.


3. 카메라식
영상인식을 공부하다가 HCI 분야에 관심을 보인 연구기관들이 많이 쓰는 이 방식은, 카메라에 비친 손가락과 화면의 접점을 인공지능적으로 분석하여 (즉, 그때그때 적당히 민감도를 조정해서) 찾아낸다. 사실 '카메라식'이라는 듣도보도 못한 이름으로 뭉뚱그려 버리기엔 다양한 방식이 있지만, 이 방식에는 공통적인 구조적인 단점이 있기 때문에 HTI 관점에선 그냥 묶는 게 편한 것 같다. 그것은 바로 카메라를 사용하기 때문에, 화면을 인식하려면 화면을 볼 수 있을 만큼 카메라가 멀찍이 떨어져 있어야 한다는 것이다. 요컨대 요즘 유행하는 얇은, 화면 뿐인 모바일 장치에는 이 방식이 사용될 수가 없다.

이 방식은 원래 천정에 매달려있는 프로젝터로부터 정보를 받고, 영상인식이 가능한 마커를 이용해서 그 옆에 매달려있는 카메라를 통해 신호를 보내는 식이었던 Augmented Reality (AR; 증강현실) 연구의 일환으로 시작되었기 때문에, 테이블이나 벽면에서 이루어지는 종류의 사용상황을 위해서 만들었을 뿐 소형화를 염두에 둔 것이 아니었다. (여담이지만, 이 I/O Bulb라는 컨셉은 한동안 나한테도 많은 고민꺼리를 안겨줬고, 이제 상용화 사례가 나타나고 있는 지금도 '아직 뭔가'가 더 있을 것 같아서 고민하고 있는 중이다.)

초창기의 물체인식에 손가락 인식으로 관심분야를 바꾼 사람들은, 천정에 적외선 조명을 달고 스크린 아래에 카메라를 달아 손 그림자의 뽀족한 부분(아마도 손가락)을 인식하기도 했고(이 방법으로 터치는 인식이 거의 불가능하다), 적외선 조명을 스크린 아래에 카메라와 같이 두어 반사된 적외선 빛을 인식하려고 하기도 했다(스크린도 많은 적외선을 반사하므로 설계에 따라 인식이 불가능한 부분이 있다).

Frustrated Total Internal Reflection - FTIR
그래서 나온 것이 투명체의 전반사(FTIR: Frustrated Total Internal Reflection)를 이용한 방법이다. 이 방식은 스크린에 유리판 등을 이용하고 특정 임계각도 이하로 - 즉, 유리판 단면에서 - 적외선을 넣어 그 빛이 유리판 안을 마구 튕겨 돌아다니게 하는고, 손가락 등이 거기에 밀착되었을 때 임계치가 바뀌어 그 접촉면에서 난반사되는 현상을 이용한 것이다. 훌륭한 기술의 조합이고, 이 방식은 요새 유명한 Jefferson Han의 데모Microsoft Surface Computing에 적용되어 소위 '멀티터치 대세론'를 만들어 냈다. 그렇다고 카메라식 터치인식의 단점이 어디로 사라진 것은 아니어서, 여전히 설치를 위해서는 공간이 필요하지만.
Microsoft Surface Computing
(그것도 아주 큰 공간이. -_-;; )  이 방식의 경우에는, 그 밖에도 스크린 접촉한 모든 다른 물체는 물론 남겨진 손가락 자국, 엎질러진 음료수(커피가 가장 좋을 듯)까지 죄다 인식하게 되는 문제가 있다. 물론 영상인식 모듈에서 이런저런 제한조건을 걸어 몇가지 경우를 제외할 수도 있겠지만, 그럼 인식률도 덩달아 떨어지기 때문에 사실 쉬운 일은 아니다. 또한 적외선을 인식하는 방식은 그 종류를 막론하고 외부 태양광 아래에서 사용하는 게 거의 불가능하다. 방대한 파장의 빛을 쏟아내는 태양 아래에서는 모든 종류의 광학센서가 하얗게 날아가 버리기 때문이다.

사용자 삽입 이미지
아마 FTIR 현상을 이용한 카메라식 터치인식의 극단적인 오용 사례를 보여주는 것이 오른쪽 사진이 아닐까 싶어서 불펌해왔다. 저렇게 코로 터치를 해도 당연히 인식되지만, 남겨진 개기름을 닦아내지 않으면 오작동의 여지가 있겠다. -_-;;;
(출처: 여기)

카메라식의 보완적 대안으로 자주 등장하는 것이 LPD(light position detector)라는 카메라도 아니고 빛센서도 아닌 소자를 쓰는 건데, 이 경우에도 가격이 싸다든가 프로세싱이 간편하다는 것 외에는 카메라식의 장단점을 그대로 가지고 있다. LPD를 이용해서 터치를 감지하는 사례로는 한동안 유행했던 소위 '레이저 키보드'라는 게 있으나, 이는 동적인 화면을 터치하는 방식이 아니니 자세한 언급은 하지 않기로 한다.


4. 광학센서 방식
Apple Patent - Integrated Sensing Display
애플이 2004년 7월 출원한 특허 <Integrated Sensing Display>가 공개되었을 때에 처음 든 생각은 '참 별 허무맹랑한 아이디어를 다 특허화하는구나'하는 거 였다. 카메라를 겸하는 스크린이라니, 안 그래도 따닥따닥 붙이기 힘든 픽셀 사이에 센서라니! 하고 말이다. 하지만 이후 이런저런 -_- 기술을 공부하게 되면서 LCD 화면이 불투명하지 않다든가, 적외선이 화면을 통과한다든가 하는 것을 알게 되면서 저걸 미리 '반보 빨리' 특허로 낸 연구자들이 참 존경스러워 보이기까지 한다.

사용자 삽입 이미지
이미 일본 업체에서 시험생산을 마친 이 방식은, 화면 뒤에서 적외선 빛을 뿌리고 거기에 반사된 손가락을 인식하거나, 직접 화면에 표시된 빛으로부터의 반사광을 인식하는 방식이다. 전자의 경우 별도의 전력(적외선 광원을 위한)이 필요하다는 단점이 있으나, 후자의 경우에는 화면에 표시되는 내용에 따라 인식률이 들쑥날쑥할 뿐더러, 외부 조명환경의 변화에 따라 영향(기술적 대안이 없는 건 아니지만)을 많이 받기 때문에 적외선 광원을 포함한 방식이 좀더 각광을 받는 듯 하다.



동영상을 배포한 Microsoft 사의 연구원들도 이런 직접적인 멀티터치 스크린의 가능성에 대해서는 충분히 고민하고 있는 것 같다. 적어도 카메라식보다는 상용화에 훨씬 근접한 모습임은 분명하지만, 적외선을 쓰는 한 태양광 아래에서의 인식불가문제 - 어차피 화면을 읽지도 못하겠지만 - 를 해결하지 않는 한 상용화를 위해 해결해야 하는 문제는 남아있는 셈이다.


5. 광선차단 방식
화면표시장치의 앞이나 뒤에서 터치를 인식하는 게 아니라, 화면에 적외선 빔을 상하좌우로 뿌리고 그것이 차단되는 것으로 터치를 인식하는 방식이다. 이 방식은 이전에도 몇가지 연구수준의 시험적용이 있었던 것 같지만, 현재 쉽게(?) 사용해 볼 수 있는 방법은 유럽에서만 팔리고 있는 Neonode사의 휴대폰을 구입하는 것이다.



스웨덴 회사인 Neonode가 보유하고 있는 이 특허기술은 산란하는 적외선 빔을 적당한 순서로 켜고 끔으로써 정확한 접촉점을 찾기 위한 몇가지 방법을 포함하고 있다. 특히 위 동영상에서도 볼 수 있듯이, 어느 특정 접촉점을 인식하기보다 가로세로의 움직임(stroke)을 인식하는 방식을 사용하기 때문에 대부분의 경우 인식률이 떨어지더라도 문제 없이 사용할 수 있는 UI가 채용되어 있다.
Neonode N2 - Touch Schematics

적외선을 사용하는 방식임에도 불구하고, Neonode사의 휴대폰은 태양광 아래에서도 별로 영향을 받지 않는다. 이는 적외선 LED와 센서가 화면의 옆에 가려져 있고, 프리즘과 렌즈(역할을 하는 플라스틱 조각)로 그 유효한 각도가 제한되도록 잘 설계되어 있기 때문이다.

Neonode N2
하지만 같은 이유로, 이 방식은 화면이 제품의 표면에 있을 수 없고, 약간 함몰된 외형을 가지게 된다. 오른쪽 사진에서처럼 눈에 띄게 들어가 있는 것은 초기의 모델(N2)이고, 이후에는 좀더 정도는 줄어들겠지만, 여전히 요즘의 제품디자인 트렌드는 역행하는 모습이고, 마치 공업용 제품의 모습을 갖게 되는 건 어쩔 수 없는 태생적 한계인 듯 한다.


Sensing example of FingerWorks technology (from patent)
6. 전기장 왜곡 감지 방식
개인적으로 나에게는 큰 관심을 끌었으나 그다지 성공하지 못한 비운의 터치 기술로, 지금은 애플에 인수된 FingerWorks사의 방식을 꼽을 수 있겠다. 기술에 대한 정확한 내용은 나의 이해범위를 크게 벗어나지만, 어쨋든 특정 표면위의 공간에 균등하게 전기장을 조성하고, 그 공간 안에 들어온 유전체(=손)에 의해서 전기장에 왜곡이 일어났을 때 그 정도를 감지해서, 그 물체의 모양을 알아내는 방식이라고 대략 이해할 수 있겠다.
사용자 삽입 이미지
사용자 삽입 이미지
이 방식은 물체의 모양을 나타내는 위와 같은 신호를 영상인식과 같은 방식을 이용해서 분석함으로써,접촉면 뿐만 아니라 어느 정도 표면으로부터 떨어져 있는 영역에 대해서도 인식을 가능하게 한다. 접촉된 점(들)이 아닌 손의 움직임 자체를 인식할 수 있게 해준다는 데에 다른 '터치'기술과 뚜렷한 특장점을 갖는다. 즉 심지어 어느 쪽 손의 어느 손가락으로부터 어떤 각도로 (수직으로, 혹은 기울여서) 닿았느냐를 판단할 수 있기 때문에 손 동작(hand gesture) 자체를 인식하여 명령을 내릴 수 있게 되는 것이다.

iGesture Pad from FingerWorks
FingerWork사는 이 방식을 이용한 몇가지 제품을 출시했으며, 무엇보다 multi-touch와 hand gesture를 이용한 다양한 UI 조작방법에 대한 훌륭한 사례를 만들어 주었다. 이 회사가 다름아닌 애플에 인수되고, 이후에 애플에서 iPhone 등 멀티터치 UI를 적용한 제품이 나오기 시작한 것은, 내 생각에는 FingerWorks가 가지고 있는 기술을 바로 제품에 적용하려고 한 것이 아니라, 멀티터치라는 새로운 UI 방식에 대한 그들의 노우하우를 높이 산 게 아니었을까 생각한다.

전기장 왜곡 감지 방식은 다른 제품에 비해 강한 전기장을 방출하는 것 같기는 하지만, 적어도 미국 내에서 판매가 허락되는 수준인 것 같으니 괜한 걱정인지도 모르겠다. 그 밖에 이 방식은 단점이라면, 역시 화면과 함께 사용하지 못한다는 점이 되겠다. 전기장의 미세한 변화를 감지할 수 있는 투명한 소자를 만들어낼 수 있는 기술이 나오지 않는 한, 이 방식은 화면이 아닌 곳에서 여러가지 입력을 대체하기 위한 수단으로만 고려해야 할 것이다. (그 외에도 사용설명서를 보면 물이나 다른 유전체가 제품 위에 올라가 있으면 오동작할 수 있다고 한다.)


터치를 인식하기 위한 방법에는 이외에도 여러가지 재미있는 방법이 있다.

7. 무게감지 방식
특정 표면의 모서리에 무게센서(=압력센서)를 3~4개 설치하고, 사용자가 누르는 압력에 의해 해당 표면이 기울어지면 그 압력변화를 인식해서 원래의 압력이 가해진 점을 찾는 방법이다. 이 방식은 다소 엉뚱하게도 Nintendo사의 Wii Fit 이라는 게임조작기에도 채용되었는데, 사실은 방수/방진 설계가 필요하고 온갖 금속성 도구와 장갑 낀 손으로 사용할 수 있어야 하는 공업용 장비에 적용되는 것이 적합하다.

압력감지 방식은 본질적으로 압력에 대한 것이므로 어느 정도 아날로그 값을 이용한 UI 설계가 가능하다는 점에서 매력적인 입력방식이다. 하지만 사용자와 상황에 따라 입력되는 압력값이 다르기 때문에, 이 방식은 사실 방향성만을 줄 뿐 정확한 좌표값을 제시하지 못한다. 즉, 상하좌우 화살표 정도는 입력할 수 있어도 간단한 3x4 숫자패드 조차도 구현하기 어렵다.


8. 열감지 방식
사용자 삽입 이미지
이전의 포스팅에서도 잠시 언급했지만, B&O의 Beocenter 2의 touch wheel 방식 음량 조절 장치는 일련의 열감지 센서를 배치하여 사용자의 손가락을 인식한다. (감히 해보지는 못했지만, 뜨거운 인두나 라이터 불꽃도 똑같이 인식할 것이다. -_-; ) 이 희한한 터치 감지 방식은 B&O 제품의 트레이드 마크라고 할 수 있는 멋지게 마감처리된 금속표면에 터치를 넣기 위해 고심한 결과이다. 금속판이므로 압력감지(1,7)가 불가능하고, 금속 자체가 도체이므로 정전기식(2) 혹은 전기장을 이용한 방식(6)을 사용할 수는 없다. 물론 금속이 빛을 통과(4)시키지도 않을 뿐더러, 디자인을 해치는 방식(5)이나 애당초 소형제품에 적용할 수 없는 방식(3)을 채용할 수도 없었을 것이다.

열감지 방식 자체는 반응속도가 느리며, 기온과 체온에 영향을 많이 받고, 표면재료의 물리적 특성에 따라 적용이 불가능해 지는 등 문제가 많은 방식이지만, 이 경우에는 컨셉이 분명한 고급 제품이기에 가능한 사례였다고 생각한다.


9. 소리감지 방식
또다른 재미있는 방식은 손가락이나 다른 물체가 인식해야 할 표면에 닿았을 때의 울림(흔들림 혹은 소리)을 감지하는 것이다. 마이크나 다른 진동센서를 2~3개 부착하고, 특히 튀는 갑작스런 울림이 감지되었을 때 그 미묘한 시간차이를 이용해서 삼각측량을 하면 울림의 위치를 알 수 있게 된다. (지진의 진원지를 알아내는 것과 동일한 방법이다.)

이 방식은 진동의 매질이 균등해야 하는 등 몇가지 기술적 제한점이 있으며, 방수가 가능하지만 의도적인 입력과 그렇지 않은 접촉을 구분하지 못하고, 무엇보다 경우에 따라 다른 위치에서의 입력이 같은 입력값이 되어 구분할 수 없는 경우도 있으므로 설계 단계에서부터 조작범위를 잘 정의해야 한다. 하지만 이 방식의 가장 큰 단점은 역시 접촉과 Drag만이 인식될 뿐 손가락을 대고 있는다든가(hold/dwell), 손가락이 떨어지는 것(keyUp)은 인식하지 못한다는 것이다. 울림이라는 간접적인 방법을 사용하기에 어쩔 수 없는 한계라고 생각한다.



(추가됨)
여기까지 주절주절 터치 기술을 나열했지만, 솔직히 각 기술이 가지고 있는 장단점과 차이점 중에서 UI 디자이너(UX? HTI?)가 신경써야 할 부분은 많지 않다. 어쨋든 화면에 손가락 대면 입력이 들어온다... 정도면 충분하니까. 유행하는 멀티터치 multi-touch UI를 적용할 수 있는가에 대한 것도 간단히 정리하자면 다음과 같다.

우선, 아래 방식들은 멀티터치를 적용하지 못한다. 일부 언급됐지만, 각각 다른 기술을 써서 2점 터치 dual touch 를 구현하는 건 가능할 수 있으나, 다른 입력과의 혼동 가능성이 높으므로 실용적이지 않다.
    1. 감압식
    7. 무게감지 방식
    9. 소리감지 방식

나머지 아래 방식들은 멀티터치가 가능하나, 일부는 해상도가 너무 낮으므로 접촉한 2개의 손가락이 너무 가까울 경우에는 신호를 파악하지 못할 수 있다.(예: 5, 8)
    2. 정전기식
    3. 카메라식
    4. 광학센서 방식
    5. 광선차단 방식
    6. 전기장 왜곡 감지 방식
    8. 열감지 방식


또한 정전기식(2), 전기장 왜곡 감지 방식(6), 열감지 방식(8)의 경우 손가락으로만 입력이 가능하며, 장갑을 끼거나 하면 인식률이 현저하게 떨어진다. 입력이 가능한 특수한 스타일러스가 있기는 하지만, 역시 그 스타일러스로만 입력이 가능하다는 얘기이므로 제한이 있기는 마찬가지.

나머지 방식들은 뭘로 누르던 입력이 가능하다.


이 많은 터치입력 기술이 있는 와중에, 그럼 차세대 UI의 명맥을 잇는 것은 역시 모든 사람이 입을 모으는 멀티터치 multi-touch UI일까? 거기에 대해선 조금 다른 관점에서 한번 써 보겠다.

Posted by Stan1ey

댓글을 달아주세요:: 네티켓은 기본, 스팸은 사절

  1. htruth
    2008.02.11 16:00
    댓글 주소 수정/삭제 댓글
    Next UI는 Touch UI다! 라는 말은 어쩌면 그런 캐치프레이즈를 좋아하는 이쪽 계열의 특징일지도 모른다는 생각이 드네요. 한동안 애플이 휠을 내놓았을때.. 마치 PUI의 궁극의 모습인냥 '휠휠~~'했었지 않나요. 지금은 쏙 들어가고 '멀티터치'라고 외치고 있는데..
    그냥 우리에게 필요한것은 어쩌면 '올해의 유행색'과 같이 의심없이 따를 수 있고 '왜?'냐는 질문을 받을 필요가 없는 trend가 아닐까 합니다.
    물론.. 따를려고 보니 특허가 있더라~~ 라는 문제는 있지만 ㅎㅎ
  2. Stan1ey
    2008.02.11 19:57
    댓글 주소 수정/삭제 댓글
    반갑~! ^0^/ ㅋㅋ
    애당초 trend라는 게 적절한 말인지도 잘 모르겠습니다. 만일 trend라는 게 있다면 그게 UI의 것인지, 마케팅의 것인지도. UI에서 그것을 신경써야 하는 게 더 빠른 길인지, 아니면 matchmaking에 신경쓰는 것이 더 빠른 길인지...
  3. htruth
    2008.02.14 08:38
    댓글 주소 수정/삭제 댓글
    이런 trend(?)의 문제는.. 정말 trend 처럼 무엇이 무엇보다 좋아서 따른다 개념이 없이 일종의 평등한 유행이 아니라는것에도 있는듯 합니다. UI는 실제로는 매우 실행적인 영역이지 않나요? 제 생각에는 touch가 대세다, 휠이 대세다.. 이렇게 이야기할 수 없는 분야인데도 그렇게 받아들여지는 경향이 있지요. touch로 만든 mp3p가 버튼으로 구성된 mp3p보다 더 편리함이나 더 풍부한 경험을 보장하는건 아니겠지요.
    전.. 끝내 아이파드의 휠이 좋아지지 않는답니다. ^^; 그리고 touch도.. 잘 모르겠어요. 적어도 닌텐도로 게임할때 터치를 써야만 하는 순간이 좀 짜증납니다. 게임이라는 특수상황때문인지도 모르겠지만..
    Touch는 버튼이 주지 못하는 어떤 영역을 제공하기는 하죠. 버튼도 마찬가지로 touch가 주지 못하는 영역을 제공하고. 그냥 그건 서로 독립적인것이어서, 지금이라도 누군가(또는 애플) 기존과 전혀 다른 개념으로 button이 적용된 무엇을 내어놓으면 back to the basic이라며 전통적인 PUI 방식들이 각광받을지도 모르죠.
  4. Stan1ey
    2008.02.15 23:07
    댓글 주소 수정/삭제 댓글
    100% 동감!!! 단지 NDS에 대해서, 그 게임 말고 '젤다의 전설', '만져라! 와리오', '캐치!터치! 요시', '별의 커비' 등 터치로만 진행되는 게임을 해보기를 강추합니다. 요새 뭐든 matchmaking으로 해석하려는 내 성향 때문인지, 아마 저 게임들을 해보면 생각이 바뀔지도 모른다는 생각이 드네요. ^^;
  5. Stan1ey
    2008.02.26 10:50
    댓글 주소 수정/삭제 댓글
    http://www.macnn.com/blogs/?p=495 애플이 터치를 이용한 제스처 입력방식 특허를 5개나 우르르 출원한 게 공개되었다. 본격적으로 하려는 건가... 아니면 터치입력 연구팀 같은 게 새로 생긴 걸까.
  6. biring
    2008.03.28 19:26
    댓글 주소 수정/삭제 댓글
    이글을 퍼가도 될까요? 물론 출처는 당연히 밝히겠습니다. 혹시 안된다고 하시면 지울께요 ㅠㅠ
  7. Stan1ey
    2008.03.29 02:52
    댓글 주소 수정/삭제 댓글
    biring님// CCL 기준의 저작권 원칙을 따르는 사이트로 퍼가시는 건 물론 괜찮습니다. 그 외에는 일단 퍼간 후에 또 어디로 날라갈지 모르므로 개인적으로는 원치 않습니다만, 그래도 뭐 어차피 인터넷... 땡기는대로 하세요. ^_^;;;
  8. 2009.02.20 07:46
    댓글 주소 수정/삭제 댓글
    이번 MWC에서 감압식을 S/W적으로 보완해서 압력감지를 포함한 멀티터치를 구현한 (것처럼 만든) 업체가 나온 모양이다.
    http://www.engadget.com/2009/02/19/stantums-mind-blowing-multitouch-interface-on-video/

    회사 홈페이지를 보니 원리상으로 문제가 많을 수 밖에 없는데, 데모내용은 그런 부분을 잘 피해서 훌륭하게 보여주고 있다. 뭐 저러다 말겠지만, 그래도 한동안 "그게 아니거든요"라는 설명꺼리는 될 듯 하다.
  9. min
    2010.03.05 21:22
    댓글 주소 수정/삭제 댓글
    흥미로운 글이네요 잘 읽었어요 ~*
  10. 2010.06.29 12:06
    댓글 주소 수정/삭제 댓글
    터치스크린 관련된 방식이 굉장히 다양하지만, 설명해 주신 것들을 보면 한동안은 정전식이 대세겠네요.
    • 2010.06.29 18:42
      댓글 주소 수정/삭제
      이 글을 쓰고 지난 2년여 동안 나온 몇가지 터치패널 기술들을 보면, 꼭 그렇게 확신할 수는 없을 것 같습니다. 정전식 패널이 터치의 장점을 부각시켜 상업적으로 큰 성공을 거두면서, 차선책이라고 할 수 있는 압력감지식은 물론이고 연구소 수준에서 상용화되지 못하던 것들까지 줄줄이 나오고 있어요. 요새는 정말 기술이 빨리 발전합니다. ㅎㄷㄷ

제목의 'TTT' 라는 문구는 MIT Media Lab.의 유명한 (아마도 가장 유명한) 연구 컨소시엄의 이름이다. 웹사이트를 찾아보면 이 프로젝트는 1995년에 시작되었으며, "디지털로 인해서 기능이 강화된 물건과 환경을 만드는" 데에 그 목적을 두고 있다.

Hiroshi Ishii (Tangible Media Group), Roz Picard (Affective Computing Group) 등 UI 하는 입장에서 유난히 관심이 가는 교수들이 director를 하고 있고, 그 외에도 내가 이름을 알 법한 MIT의 교수들은 모두 참여하고 있는 것 같다. (내가 이름을 알 정도라는 것은, 그만큼 UI design에 가깝거나, 아니면 대외활동에 열을 올리고 있는 교수라는 뜻이니.. 각각 어느 쪽으로 해석할지는 각자 알아서 -_-;; )


어쨋든, (아슬아슬하게 삼천포를 피했다..고 생각한다)

며칠 전에 올라온 한 일간지의 기사에서, 이 TTT consortium을 연상하게 하는 내용을 발견할 수 있었다. "눈치 빨라진 디지털" 이라는 제하의 이 기사에서는 최근 발매된 몇가지 제품들을 대상으로 그 '자동화' 기능을 언급하고 있다.

Intelligent_Appliance_Chosun071119.pdf

눈치 빨라진 디지털 (조선일보 2007.11.19)


제품의 기능에 '인공지능 AI', '똑똑한 smart' 등의 표현을 사용한 것은 거의 디지털 정보처리 칩셋 - 한때 모든 제품의 광고문구에 첨단의 의미로 쓰였던 "마이컴"을 기억하는가 - 이 적용된 바로 그 시점부터라고 생각이 되지만, 이제야 비로서 눈에 띌 정도로 지능적인 기능들이 된 것일까. 여전히 '자동화'라는 용어를 적용한 것은 다소 섭섭하지만, 가까스로 꽃피기 시작한 Intelligent 제품, 그리고 당연히 따라붙어야 할 Intelligent UI에 대해서 예의주시할 필요가 있겠다.

스스로 지능을 갖고 판단하는 제품에 대해서, 어떻게 그 UI를... 이래라 저래라를 설계할 수 있을 것인가? 이제까지 몇가지 시도해 봤지만, 두마리 토끼 - AI의 이상과 UI의 현실이랄까 - 를 모두 잡아본 적이 없다. Screen-by-screen의 UI에서 벗어난... 새로운 UI의 개념과 (무엇보다도) 방법론의 재정립이 글자 그대로 '발등의 불'이라고 생각해야 한다.

Posted by Stan1ey

댓글을 달아주세요:: 네티켓은 기본, 스팸은 사절

Amazon Kindle with newspaper
Amazon에서 'e-paper를 이용한 휴대용 전자책 기기'가 발표되었다. 이전에도  유사한 명칭을 갖는 제품들이 몇 출시되었으나 이번의 Kindle처럼 주목받지 못하고 소위 얼리어답터(이제는 이 단어가 무슨 뜻인지 난 모르겠다 -_-;; )들끼리만 돌려보는 신기한 물건에 지나지 않았다. 특히 iRex사의 iLiad의 경우에는 본격적인 전자책의 효시라고 생각될 정도로 많은 시도를 했지만, 아깝게 대단히 빛을 보지 못한 제품이라고 생각한다.
 

이번에 출시를 앞두고 있는 Kindle은 무엇보다 Amazon이라는 책 세상의 중심포탈에서 제공되기 때문에, 뭐라 할 수 없는 신뢰감이 가장 큰 힘이 되고 있다. 게다가 휴대폰 방식의 무선네트워크를 무료로 제공하므로 언제 어디서나 Amazon 사이트에 접속해서 원하는 eBook을 구매해서 볼 수 있는 것이다. 신간의 베스트셀러가 단돈 $9.99 라니 가격도 충분히 매력적이다. (단, 무선네트워크는 EVDO 방식을 제공하므로 통신사업자가 Amazon과의 계약에 의해 이를 지원하는 곳에서만 동작하며, 당연히? 사용은 Amazon과 Wikipedia 등 일부 사이트에 제한된다. 물론 사용자 입장에선 WiFi HotSpot을 찾아 헤매지 않아도 되니 감지덕지~)

실제로 Amazon에서 준비한 웹사이트를 보면, 이네들이 꽤 오랫동안 상당한 공을 들여 준비했구나... 이제 다른 전자책 장비 업체들은 지하시장이 도와주지 않는 한 다 죽었구나... 싶다. 특히 이 링크의 동영상은 감동적이기까지 하다. (동영상을 쉽게 공유할 수 없게 만든 것은 저작권으로 밥 먹고 살아온 Amazon의 한계를 보여주는 부분이다. 팔던 책 중에 viral marketing 에 대한 책은 없었나? )

뭐 어쨋든, 아무래도 Amazon이 Apple의 iTunes를 부럽게 쳐다보며 느낀 게 많았던 모양이다. ㅎㅎ



하지만, 이런 기기를 구석구석 뜯어보면서 그 '쿨한' 기능(버튼을 제법 잘 적용한, 게다가 양손잡이 모두를 고려한 페이지 넘김 버튼이라든가, 글자크기 조절기능이라든가... 다들 칭찬받아 마땅한 기능이겠지만)에 취해있는 것보다, UI 측면에서... 혹은 HTI designer 측면에서 이 물건을 보면, 이게 또 제법 신경을 많이 쓴 티가 난다.

화면에는, 잘 알려진대로, e-paper를 썼다. e-paper는 말이 흑/백이지 그 원리상 검은색도 흰색도 희뿌옇게 나온다. 하지만 일부 연구에 의하면 흑/백이 확실하게 구분되는 것보다 약간 회색이 섞인 경우에 보다 가독성이 높고, 눈도 덜 피로하다고 하니 contrast 논쟁은 일단 접어두자.

하지만 e-paper(eInk)는 그 '물리적인' 특성상 페이지 전환의 속도가 느리고, 전환되는 모습이 순간적으로 - PC나 TV에서 보던 상식으로는 - 마치 고장난 화면처럼 역상이 나타난다. 희뿌연 화면이래도 완전하게 보이기 위해서는 그 안에 굴러다니는 공들을 한번 된통 흔들어줘야 하는 것 같다.

문제는, 그 정도의 반응속도로는 문서를 '스크롤' 한다든가, 커서를 재빠르게 움직인다든가 하는 동작이 거의 불가능 하다는 거다. 이는 e-paper가 실제로는 종이처럼 말거나 심지어 접을 수는 없다는 것(뭐 조만간 좀 '휠'수 있을지 모르고, 상당한 미래에는 코도 풀 수 있을지는 모르겠다)과 함께, UI 설계에 있어 숨겨진 공공연한 거짓말 같은 거다. 그런 생각을 가지고 위 Amazon 웹사이트의 동영상들을 보면, 눈이 휘둥그래질만한 조작 모습을 볼 수 있다. 몇 장면을 캡춰해보면 아래와 같다.

Kindle Cursor Bar
Kindle Cursor Bar


Kindle Cursor Bar

저거 무슨 짓을 한거야~!!! 하는 마음을 가까스로 다스리고 찬찬히 훑어보면, 오른쪽에 있는 'Cursor bar'와 그 아래의 'Select wheel'로 상당히 많은 문제를 해결했음을 볼 수 있다. 솔직히 jog shuttle을 이전에 봤으니 wheel이야 그렇다고 쳐도, e-paper의 느린 refresh 속도로는 만족시킬 수 없는 사용자의 입력을 실시간으로 따라가는 저 오른쪽의 cursor bar라는 놈은 참 기발하다.

Close up of Kindle Cursor bar
동영상을 몇번 보면서 판단한 바로는, 저 cursor bar는 pixel 크기가 무지 커다랗게 만들어진 2 x 36(?) 짜리... 화면...으로, 두 줄이 모두 보이는 경우와 안쪽의 한줄만 보이는 경우가 있다. 아마도 두 줄이 모두 보이는 경우는 Select Wheel을 눌러 해당 줄의 기능/메뉴/항목 등을 '선택'할 수 있는 경우이고, 한줄만 보이는 경우는 여러 개를 선택하는 경우에 preview 느낌으로 보여주거나, 몇가지 경우에 '선택' 버튼으로 자동 이동할 때에 보여주는 eye catch용 transition 효과로 사용되는 듯 하다.

그 외에 cursor가 검은 경우외에 흰색인 경우도 보이는데, 그 두가지가 그냥 preference의 차이인지 무슨 의미가 있는지는 모르겠다. -_-a;;

이런 거 있으면 가만히 있지 못하는 사이트들을 뒤져보니, 이 cursor bar가 polarized PNLCD (pneumatic LCD) 를 사용했다고 한다. ... 시방 먼 소리냐 -_- 싶어서 인터넷도 좀 뒤져보고, Wikipedia도 찾아봤지만 이런 LCD에 대한 설명은 좀처럼 나오지 않았다. 그러다가 이 정체불명의 LCD의 소속을 찾아낸 건 LCD의 '역사'를 다룬 어느 대학생의 보고서에서였다. (따라서 근거 불충분... 하지만 일단 우겨넣어보자. 이 PNLCD에 대해서 진짜 정보를 아시는 분은 모쪼록 딴지와 부가설명을 부탁드리는 바입니다...)

Pneumatic LCD 적용 사례
인터넷에서 진짜 가뭄에 콩나듯 보이는 pneumatic LCD는, 모두 측정기기에나 쓰이는 흑백의, 단순한 화면들이다. 요컨대 아무데서나 볼 수 있는 가장 초창기의 흑백 LCD라는 거다. 보통은 7-segment 숫자표시로나 쓰이는 원시적인 LCD 화면을, 그것도 요즘은 명함도 내밀기 두려운 초 저해상도(2x36)로 만들어 붙일 생각을 한거다.


첨단 디스플레이 기술인 e-paper와, 최초의 상용화된 LCD로 이름을 올리고 있는 pneumatic LCD가 이렇게 궁합이 잘 맞을 수 있다는 것이 참 대단해 보인다. 아직 상용화되지 않은 UI 기술에는, 사실 "다 안 팔리는 이유가 있다". 하지만 이렇게 기술의 단점(반응시간)을 오래되고 저렴한 기술을 이용해서 해결한 것은 정말 대단하지 않은가! 짝짝짝.

사용자 삽입 이미지
물론 이게 무슨 모범답안은 아니고, 100% 완벽한 것은 더더욱 아니다. 위에 링크된 사이트에 걸려있는 직찍 사진을 보면, Cursor bar가 상당히.. 조악스런 품질로 보인다. "설마 목업?"이라는 생각도 들 정도. 어쩌면 빠른 반응속도와 상관없이, 사용자들에게 옥의 티로 꼽힐 수도 있겠다. ㅡ_ㅡa;;

또한 Cursor bar의 LCD는 e-paper와 달리 전원을 끄면 화면이 꺼지기 때문에, Select wheel을 조작하지 않거나 전원을 끄면 cursor도 사라진다. 정작 주화면은 그대로 보이기 때문에, 사용자는 전원이 꺼져있는지 켜져있는지를 cursor의 유무로 알아봐야 할 듯. (어쩌면 LED 하나쯤 있을지도 모르고) 이것도 일종의 mode error니까, 사용성 측면에서 굳이 딴지를 걸자면 언급될 수 있겠다.


끝으로 이번 Kindle 공개와 관련해서 가장 재미있었던 대목 하나.
Kindle: easy to read in bright sunlight
위 캡춰 이미지에서와 같이, Kindle은 다른 e-paper 적용기기들과 같이 "밝은 태양빛 아래에서 잘 보입니다!"라는 걸 크게 강조하고 있다. 이제까지의 제품들이 대부분 태양광 아래에서 거의 내용을 알아볼 수 있었다는 걸 생각하면 아주 큰 장점으로 보일 수 있을 것이다.

하지만... 어두운 데서는 전혀 -_- 안 보인다는 거~ 그래서 Amazon 사이트의 한 구석에는 다음과 같은 장면이 눈에 띈다.
Kindle sold with mobile lighting accessory

e-paper는 빛이 충분히 투과하지 못하고, 빛을 투과시키기 위해서 단가가 올라가는 건 차치하고라도 화면이 흐려질 수 밖에 없다. 그렇다고 반사식으로 화면 앞쪽에 광원을 두려면 광원은 물론 빛을 산란시킬 부품을 넣으려면 제품이 두꺼워질 수 밖에 없는 상황. 물론 충분히 고민을 하고 내린 결정이었겠지만, 아직은 좀더 해결해야 할 문제가 남아있다는 것이 이 업종 사람들에게는 희망이 되어 줄게다.

Posted by Stan1ey

댓글을 달아주세요:: 네티켓은 기본, 스팸은 사절



똑똑한 사람 같다. 의외로 생각하기 복잡한 조합이었는데, 결국 만드는 사람이 생긴 듯... 여기에 몇가지만 더 보완해주면 이 사람이 어렵다는 일반 어플리케이션으로의 적용도 가능한데 거기까지 가주는 연구자나... 기왕이면 회사가 있을까.

그런데 이런 동영상을 보면서 아쉽고 부럽고 하는 생각과 함께, "이 사람 채용하고 싶다"는 생각이 드는 건 또 무슨 관리자스러운 심경의 변화인지.


Posted by Stan1ey

댓글을 달아주세요:: 네티켓은 기본, 스팸은 사절

  1. creep
    2007.11.10 20:42
    댓글 주소 수정/삭제 댓글
    멋진데요.
  2. 2007.11.11 10:34 신고
    댓글 주소 수정/삭제 댓글
    그러게... 저 '센서'가 모바일 센서(리모컨에 붙어있잖아)라는 것에도 주목해주기 바랍니다. 카메라 같은 것이라는 것이 사실 광점의 좌표를 찾아내는 수준이라서 굉장히 작은 물건이고, 배터리 문제는 있지만 frequency와 사용 scenario를 잘 조작하면 많이 해결할 수 있고 말이죠.
  3. 2007.11.11 10:36 신고
    댓글 주소 수정/삭제 댓글
    ... 사실은 조금만 떨어져도 인식이 안 되는 걸 보면, 모바일 특성에 더 맞기도 하죠. -_-+
  4. soniwave
    2007.11.15 09:00
    댓글 주소 수정/삭제 댓글
    사실 저는 이게 여기서 전에 보고 신기해하고 있다가, 문득 태클을 걸어수있지않을까해서 몇자 적습니다. 마이너리티리포트나 코드명J같은 영화에서 나왔던 방식과 저 동영상에서 구현한 것과는 개념적으로 차이가 있는 것같아요. 좀 심하게 말하면, 저건 거의 무선 마우스에 가깝다고 느껴집니다.(물론 굉장히 좋은 무선마우스죠. 2포인트 이상 잡히고...) 자신의 신체와 시스템을 조작하는 손은 별개의 대상으로 같은 공간에 존재하고 있으니, 가상공간 속에서 자신의 손으로 직접 가상의 시스템을 조작하는 방식과는 다른 것이고, 이를 구현하기 위해서는 무엇보다 3차원 환경 그럴듯하게 구현되어줘야하는데, 그게 무지 어렵다는거죠. 많이 좋아졌다해도 실제 사람들이 좀 오래 사용하면 '토'하는 일이 많으니... 암튼, 약간의 딴지를 걸어봤습니다. 용서를...^^
  5. 2007.11.15 10:19 신고
    댓글 주소 수정/삭제 댓글
    저 딴지 좋아해요~ ^_^a;;
    어쨋든, 사실 마이너리티 리포트와 가장 큰 차이점은 오히려 디스플레이라고 생각합니다. 영화에선 무지 커다란 '투명' 디스플레이를 사용하고 있고, 그래서 디스플레이 뒤에서 탐크루즈를 찍는.. 마치 사용자가 직접 내용을 조작하는 듯한 장면이 연출될 수 있었죠. 실제로 다른 각도에서 찍은 장면을 보면 사용자는 여전히 스크린에서 멀리 떨어져서 체조를 하고 있습니다. 화면에 나타나는 내용도 3차원이라기보다 좀 몽환적인 스타일의 2차원 화면입니다.

    다른 공간에 떨어져서 조작하는 방법에 대해서는 뭐 마우스도 잘 쓰고 있으니 어떻게든 학습이 가능한 방법이 있을테고, 또 단계적으로 호불호가 나뉠 수 있겠지만, 말씀하신 VR멀미에 대해서는 몇가지 대안이 IT는 물론 심리학쪽 연구에서도 나오고 있기는 합니다. 단지 H/W가 지금부터 훨씬 발전해야 상용화가 가능하겠지만요.


BLOG main image
by Stan1ey

카테고리

분류 전체보기 (347)
HTI in General (45)
User eXperience (11)
Voice UI (50)
Vision UI (14)
Gesture UI (25)
Tangible UI (28)
Robot UI (14)
Public UI (9)
Virtuality & Fun (56)
Visual Language (15)
sCRAP (70)

글 보관함



www.flickr.com
This is a Flickr badge showing public photos and videos from Stan1ey. Make your own badge here.