Deep touch at last.

2015.08.27 17:55

참 오래도 걸렸다. 근데 이걸 부가메뉴 표시하는 용도 외에 또 어디에 써 주려나.. 두근.

iOS9 DeepPress

iOS9 코드에서 발견된 "enableDeepPress" 변수



아, 안녕하세요? 

저작자 표시 비영리 변경 금지
신고
Posted by Stan1ey

Don Norman의 "쓰기 편한 냉장고가 그래서 더 잘 팔리더냐"는 발언과 관련해서, 이제 슬슬 세간의 관심에서 멀어지고 있는 삼성과 애플의 특허 공방에서 주목할만한 발언이 나왔다. 삼성에서 고용한 증인이 pinch 제스처에 대해서 법정에서 이런 말을 한 모양이다.


However, Michael Wagner, an accountant and lawyer hired by Samsung, said there's no evidence from either company that shows consumers bought Samsung devices because they liked that particular touch-screen feature. As a result, he believes Apple should receive no money for lost profits. (...) "I believe people bought these phones for other features," Wagner said. That includes bigger, AMOLED screens; faster processors; and 4G LTE.


결국 삼성 폰을 구매한 사람이 그런 제스처 때문에 삼성 폰을 구매했다는 증거가 없기 때문에, 애플이 그 특허 침해로 인해 받은 직접적인 매출 손실은 없다는 주장이다. ... 뭐 물론 삼성 측의 변호인으로서 일단 되는대로 갖다 붙여서 배심원들을 설득해야 한다는 입장은 이해하지만, 이 발언은 참 씁쓸하기도 하고 바보같기도 하고 그렇다.


나름 "그쪽" 분야에 가까운 사람으로서 그만큼 핵심적인 UI 기술의 가치를 평가절하 받았다는 건 참 그렇다. 삼성 쪽에도 UI 특허가 적지 않을텐데, 다른 회사에서 그런 특허를 침해하고 나서 똑같은 소리를 하면 어떻게 하려고 그러나? 아니 무엇보다 그런 특허라면 애당초 돈 내면서 출원하고 관리할 필요는 있다고 생각하는 걸까?


하지만 이 발언이 정말 제대로 생각한 후에 나온 건지를 의심하게 만드는 점은, 그 구매자들이 pinch 제스처 기능 때문에 무슨 휴대폰을 구매할지를 결정하지는 않았을지 모르지만, 그 기능이 없는 휴대폰은 애당초 구매 대상에 끼지도 못했을 거라는 사실이다. 표준 특허, 강력한 특허에 대해서 그렇게나 중요시하는 회사에서 정작 시장표준이 된 특허에 대해서 이런 식으로 말하면 어쩌겠다는 건지...


무엇보다, 이런 주장은 판결 여부에 따라 (즉, 애플이 이겨서 UI 기술의 가치가 현금화된다고 쳐도) 무효화될 수 있는 게 아니다. 결국 삼성의 주장이라는 것은 삼성의 주장으로 남는 거고, 그걸 다른 법정에서는 반대로 "이 UI 특허를 써서 우리 제품이 팔릴 기회가 줄었으니 물어내라"고 말할 수도 없는 일 아닌가. 이렇게 공개적으로 발언해 버린 삼성 측의 前대변인을 증인석에 세우면 그만일테니까.


... 중국 휴대폰 업계를 비롯한 세계의 모든 전자기기 제조업체에서 쾌재를 부르는 소리가 들린다.


저작자 표시 비영리 변경 금지
신고
Posted by Stan1ey

지금 다니고 있는 회사는 딱 한 종류의 서비스(여행상품 검색)만 제공하는 영세한 회사라고 할 수도 있을텐데,그럼에도 불구하고 4가지 모바일 OS(iOS,Android, Windows Phone, Blackberry)를 대상으로 앱을 만들어 서비스하고 있다. 타블렛 버전을 따로 치면 6가지 UI. 뭐 대단한 야망이 있다기보다 워낙 공돌이 마인드로 뭉쳐진 회사라 세상에서 어느 정도 쓰이고 있는 모바일 OS들은 한번씩 손을 대봐야 직성이 풀리기 때문이지만, 덕택에 서로 다른 OS의 UI 디자인 가이드라인을 비교하느라 공부는 많이 된다.


책은 잘 안 읽지만 디자인 가이드라인은 IBM UCD Lab 시절부터 열심히 찾아 읽는 성격이다. 그만큼 교과서 역할과 신문 역할을 잘 해주는 것도 없으니까. 그렇게 가이드라인을 읽다보면 재미있는 점이 눈에 띄기도 한다. 몇년전만 해도 마이크로소프트의 가이드라인이나 애플의 가이드라인이나 뭐 비슷한 내용이었는데, 최근에는 UI 특허로 치고받으면서 피흘리는 경우가 워낙 흔해서 그런지 각 OS의 디자인 권고사항에 "쟤네처럼 만들지 마요"라고 되어있는 경우가 종종 눈에 띄는 것이다. 특히 Windows 8와 함께 등장한 마이크로소프트의 소위 모던 UI에서 "Be authentically digital"이라는 디자인 원칙은 아예 경쟁사인 애플의 가이드라인 중 "Metaphors"에서 나오는 내용을 정면으로 반박하고 있을 정도.


[O] 스큐어모피즘 논란에 대하여 -----


뭐 어쨋든 이런 형편이다보니, 아무리 단순한 UI라고 해도 그냥 OS 만든 사람들이 내놓은 가이드라인만 믿고 갈 수가 없게 됐다. 당장 가장 단순한 UI 요소조차도 남들이 쓰는 방식을 빼고 무리해서 차별화하려다 보니 OS의 가이드라인 자체가 사용성이 떨어지는 방식을 종용하는 경우도 있는 것이다. 결국 일일히 사용성 평가를 진행해서 확인하고 넘어가야 한다는 이야기. 그동안은 협력하고 있는 모바일 개발사에서 사용성 평가 역량이 되는지라 그 부분까지 한꺼번에 맡기는 방식으로 어찌어찌 버텼는데, 이번에 마이크로소프트의 소위 "Modern UI"와 곧 출시되는 Blackberry 10의 독특한 (독특하게도 모든 UI가 짬뽕되어 있는) "Flow UI"를 적용해서 앱을 만들다보니 그만한 역량이 되는 개발사를 찾을 수가 없었다. 물론 예산 문제도 있었고. ( '-')y~


결국 그래서 앞으로 모바일 앱에 대한 사용성 평가도 내부에서 추진하기로 결정. 당장 필요한 모바일 기기 사용성 평가 장비를 만들게 됐다. 이번이 세 번째로 만들어보는 것 같은데, 재료부터 완성까지 모두 혼자서 해본 건 처음이다. ㅋ


사실 전부터 생각하고 있던 일이라서 주요한 재료를 어디서 구할 수 있는지는 대충 찍어놓고 있었다. 구조를 만들 재료는 DIY 전문매장인 B&Q, 전기배선은 Maplin. 외근하겠다고 얘기하고 에딘버러에 딱 하나씩 있는 이 매장들을 한바퀴 돌면서 어떤 재료가 있고 어떻게 만들 수 있는지, 어리둥절해 하는 직원들과 함께 매장 구석에 쪼그리고 앉아서 대충의 설계를 했다. 결국 사온 물건들은 목이 구부러지는 스탠드, 케이블 레일(15cm만 있으면 되는데, 2미터 단위로만 판다;;;), 그리고 와셔, 벨크로 테이프 등등.


Building Mobile Usability Testing Kit: Raw Materials


아마 우리 회사에서 업무의 일부로 톱질한 사람은 내가 처음일게다. -_-;;; 심지어 설비팀에서도 십자 드라이버 하나 (사실 PC나 서버 조립하는 데에는 이거면 충분하니깐) 밖에 없다고 해서 결국 실톱에 사포까지 사야 했다. 두어시간 사무실을 시끄럽게 하고나서... (사포질이 몇년만이냐... ㅠ_ㅠ )


Building Mobile Usability Testing Kit: Structure Frame


위 사진 왼쪽에 보이는 물건이 만들어진 기본 얼개가 된다. 드릴이 없었는데, 구멍 하나 뚫자고 새로 사기는 아까와서 그냥 커터칼로 후벼팠다. -_-a;;


Building Mobile Usability Testing Kit: Microsoft LifeCam HD-6000

다음은 카메라. 인터넷을 뒤져보니 USB 웹캠 중에서 품질이 좋고 그나마 대가리가 작은 놈(받침대를 제외하면 3cm 정육면체 정도 된다)이 Microsoft LifeCam HD-6000이라서, 그걸로 주문을 했다. 다행히 우리 회사는 IT 장비에 대해서는 예산을 아끼지 않는 편이지만, 받으면 바로 분해해서 카메라 부분만 쓸꺼라고 하니까 좀 멈칫하기는 했다. ㅎㅎㅎ 어쨋든 택배가 오자마자 바로 뽀각. (사실 "뽀각"이라고만 하기는 좀 복잡한 과정이 있었다. 내부 구조를 모르는 상태에서 무작정 잘라버릴 수도 없고 해서, 받침대의 플라스틱 부품들을 플라이어(뻰찌)로 일일히 조금씩 열어보면서 조각조각 떼내야 했으니까.)


Building Mobile Usability Testing Kit: Off with the camera


전에 다니던 연구소에서 (하라는 연구는 안 하고!) 어깨너머로 배웠던 기술이 많은 도움이 됐다. Thermal contraction tube라는 이름으로 배웠던 "열수축튜브"를 여기쟁이들은 heat shrink tube라고 하는 걸 알아내기까지 좀 헤매긴 했지만.


Building Mobile Usability Testing Kit: Wiring 1


뭐 남은 건 그저 튀어나온 부분 갈아주고, 너트 제대로 조여주고, 전선 정리해 주면 된다. 여기서부턴 단순히 정리 작업.


Building Mobile Usability Testing Kit: Wiring 2


다른 일상적인 업무들도 병행하느라고 결국 시작에서 완성까지는 총 3일이 걸렸다. 웹캠 구매하느라 이틀동안 택배 기다린 걸 제외하면, 밖에서 3시간 쇼핑하고 사무실에서 4시간 정도 짬짬이 뚝딱거린 것만으로 꽤 그럴듯한 물건이 나왔다.


Completed Usability Testing Kit for Mobile Devices


팀에서 쓰는 사용성 평가용 노트북에 연결해서 동작시켜 봤는데, 기대했던대로 동작해 준다. Morae Recorder와도 문제없이 연결되고. 과도하게 친절한 자동초점 기능 덕택에 잠시 당황스러운 순간이 있었지만, 다행히 옵션에서 바로 해결.


[O] 재료 목록 및 가격 -----


아직도 모바일 기기의 사용성 평가 키트를 USB 카메라로 직접 만들어서 쓰느냐고 할지도 모르겠지만... 아무래도 제한된 조건 하에서 업무를 하려면 가끔은 UI가 막 자리잡던 시절의 막막한 상황으로 돌아가야 하는 때가 온다. 한편으로는 그런 때를 통해 사용자 중심 디자인이라는 방향성과 큰 원칙을 되새기게 되고 회사 내에서도 그때그때의 흐름에 휩쓸리지 않고 늘 같은 방향을 가리키는 역할을 할 수 있게 되니 나름 도움은 되지만.


이제 이번 주부터는 요 장난감을 갖고 바로 평가에 들어간다. 과연 큰 문제 없이 그 역할을 해줄지는 두고볼 일이지만, 그래도 최소한 지난 주 며칠은 이걸 만들면서 뚝딱뚝딱 재미있게 보냈다!!!


참고: 이 글은 회사 블로그에 올린 글의 한글/블로그 버전입니다.


... 이제 그만 놀고 일해야지. ㅡ_ㅡa;;;


저작자 표시 비영리 변경 금지
신고
Posted by Stan1ey

오래간만.


이 블로그에서는 사용자 경험(UX) 디자인이라는 게 도대체 무엇인지, 정확히는 어디서부터 어디까지인지에 대해서 이래저래 고민을 아주 간간히 해왔다. 워낙 모호하고 당돌하게 정의되어 있는 분야다보니 결국 직접 손을 움직이고 발로 뛰어야 하는 귀찮은 작업(그래픽, 개발, 영업 등)은 빼고 머리로 하는 일은 모두 내꺼얌~이라는 식이 되기도 하고, 정의라는 것도 기존에 디자인이 예술로부터 스스로를 구분했을 때나, UI 디자인이 제품 디자인(혹은 소프트웨어의 그래픽 디자인)으로부터 스스로를 구분했을 때나, 정보설계(IA) 분야가 UI 디자인으로부터 자신을 분리하고자 했을 때와 별 차이가 없는 게 마땅찮았던 것도 사실이다.


“작가 자신이 아닌 불특정 다수의 소비자를 고객으로” 디자인한다거나 “단지 보기 좋은 제품이 아닌 사용하기 좋은 제품”을 만든다거나 “표면적인 편의성이 아니라 구조적으로 깃들어있는 편의성”을 추구하는 것은 지난 수십년간 어느 순간에도 “잘 만들어진 물건”의 기준이었을 텐데, 늘 이런 잣대를 들고 나와서 편가르기를 하게 되는 건 왜일까.


나름 어떤 제품이나 서비스의 진정성(authenticity)을 그 사용자 경험의 구심점으로 생각해보기도 하고, 기능이나 과업 중심이 아닌 경험 중심의 디자인을 고민해 보기도 했지만, 언제나 쳇바퀴 돌 듯 결론은 늘 똑같았다.

  • 사용편의성 향상과 사용자 경험 창출은 서로 다른 분야로, 전자는 엔지니어링에 가깝고 후자는 의사결정에 가깝다. 요컨대, 둘 다 뭔가를 디자인하는 작업은 아니다.
  • 이상적으로 말하는 사용자 경험 디자인을 하려면, 디자이너라기보다 감독이 되어야 한다.

그러던 중, 얼마전에 Mind The Product라는 이벤트를 알게 됐다. 학회라면 학회랄 수도 있겠지만, 아직은 그냥 관심을 공유하는 (적지 않은) 사람들의 모임인 듯. 이 모임의 모태가 되는 Product Camp라든가 우후죽순처럼 퍼져가고 있는 지역별 소모임 Product Tank도 크게는 이 이벤트를 구심점으로 움직이고 있다고 할 수 있다. Mind The Product는 지난 10월에 런던에서 첫 모임을 가졌는데, 그 후폭풍이 좀… 심상치 않다.


Mind The Product


이 모임은 제품 관리자(product manager)들의 모임이다. 공장에서 제품을 만들어내던 시절의 생산 관리자(production manager)가 아니라, 제품 그 자체를 관리하겠다는 사람들이다. 위키피디아에 정의되어 있는 제품 관리(product management)라는 분야는 다소 광범위해서, 우리나라 회사에서는 상품 기획이나 서비스 기획으로 부를법한 내용은 물론이고, 마케팅 업무에 개발 과정까지도 언급하고 있다. 애당초 Product Camp라는 모임이 그 대상 중 하나로 마케터를 명시하고 있었고, 위키피디어의 제품 관리 페이지도 초창기에는 프로젝트 관리를 포함하고 있었으니 이 분야들 사이의 혼동은 뭐 새로운 분야가 정체성을 찾아가는 당연한 과정이라고 하겠다.


그러다가 지난 1년여 동안 눈에 띄게 활발해진 이런저런 모임들과 Mind The Product 이벤트를 통해서, 제품 관리라는 분야가 확실히 자리를 잡아가는 느낌이다. 최근 가장 흔하게 인용되는 제품 관리의 정의는, Marty Cagan이라는 사람이 지은 <Inspired : How to Create Products Customers Love>라는 책에 나온 “to discover a product that is valuable, usable and feasible”라는 문구와 Martin Eriksson이 Mind The Product  블로그에 올린 아래의 도표다.


Positioning product managers


… UX 디자인의 큰 그림과 역할을 고민해온 사람들은 위의 정의나 그림을 보면 조금 착잡한 마음일게다. 어떤 사람은 가까스로 사람들이 사용자 경험의 가치에 대해서 알아주기 시작하니까 군식구가 느는구나...라고 생각하기도 할테고, 어떤 사람은 집안에서 밥그릇 싸움을 하는 중에 외적이 몰려왔다고 생각하거나, 반대로 회사 조직 내에서 사용자 경험을 잡아나가는 데에 큰 우군이 생겼다고 여길지도 모른다. 아니면 심지어 자신이 생각하던 범위의 업무에는 UX 디자인보다 제품 관리가 더 맞는다는 생각이 들지도 모르겠다. 그도 그럴 것이, 위에서 기술하고 있는 제품 관리의 역할은 바로 몇 년전까지만 해도 사용자 경험 디자인이 맡아야 할 역할이라고 성토하던 바로 그 영역이다.


실제로 지난 Mind The Product 이벤트의 발표 내용은 대부분 “어떻게 하면 좋은 사용자 경험을 만들어낼 수 있는가”에 대한 내용이었으며, 무엇보다 그걸 디자인하는 것에 대한 이야기였다. 제품 관리와 사용자 경험 디자인이라는 두 분야는, 적어도 내가 보기엔, 동일한 역할을 두고 내려진 서로 다른 정의일 뿐이다. 단지 차이가 있다면 제품 관리는 조직 내에서 프로젝트의 운용과 진척 관리에 경험을 가진 사람들이 모여 top-down으로 생겨난 분야이고, 사용자 경험 디자인은 제품을 설계하는 사람들이 그 영향력을 넓혀 보다 큰 그림을 그리기 위해서 bottom-up으로 만들어낸 분야라는 것이 다를 뿐.


어떤 식이든 간에, 한 번도 제대로 정의된 적이 없는 이 UX 판에 (어디까지나 내 기준이지만) 시어머니 역할을 하겠다고 나선 일군의 사람들이 있다. 이 사람들은 이제까지처럼 좁디좁은 디자인 바닥에서 노른자를 내놓으라며 “알박기”나 “편가르기”를 하던 패들과는 조금 다른 종자들이다. 애당초 제품 개발 프로젝트를 어떤 식으로 운용하고 거기에 포함된 인력들을 어떤 식으로  관리하면 좋을지에 대한 방법론과 이해가 있는 사람들이다. 또한 이 사람들은 조직과 세상이 어떻게 돌아가는지에 대해서라면 디자이너보다 축적된 경험이 더 많은 분야이고, 경력자들이다.


물론 제품 관리자들도 사용자 경험의 중요성에 대해서는 십분 동감하고, 이를 육성해야 한다고 주장한다. 하지만 여기서 말하는 UX에서 UX 디자이너의 역할은 기존에 소위 “UXer”들이 주장하던 슈퍼히어로의 모습이 아니다. 제품과 서비스와 나아가 회사의 비전까지도 하나의 사용자 경험으로 디자인되어야 한다고 활개치던 모습은 더이상 없고, 개발 중인 제품/서비스에 대해서 최적의 사용자 경험을 제시하기 위한 역할을 맡게 되는 것이다. 그 사용자 경험을 조직 내의 사업 목표나 기술적 역량과 조율하는 거시적인 역할은 제품 관리자들에게 돌아가게 된다. 게다가 저 위의 정의를 보면, UX의 역할이라는 것도 "usable", 즉 전통적인(?) 사용성 향상의 역할로 다시 돌려보내지는 느낌이 없잖아 있는 것이다.


UX Man, a superhero?Courtesy of Axure.com


“사용자 경험 디자인”이라는 분야는, 지난 10년이 넘는 시간동안 자신의 분야를 제대로 정의하지 못했다. (다른 말로 하자면, 전에도 언급했듯이 “무엇이 사용자 경험 디자인이 아닌지”를 정의하지 못했다.) 그 이유는 여러가지가 있겠지만, 아마 자신이 원래 하던 분야 – 실무로서의 디자인 – 와의 뗄레야 뗄 수 없는 관계가 그 중 하나일 것이다. 아무리 큰 그림과 사용자 경험 시나리오를 이사진과 토의한다고 해도 결국은 아이콘 모양이나 색상에 대해서 한마디 거들지 않을 수 없고, 와이어프레임 치는 업무를 배제해 버리기엔 뭔가 역할이 모호했던 것이다. 이제 무언가를 직접 디자인하는 데에 대한 집착이 없는 사람들이 나타나 의사결정의 상부에서 조율과 관리를 “전문적으로” 전담하겠다고 한다.


이 두 가지 분야들 사이의 역학관계가 어떤 식으로 흘러가게 될까? 조직의 규모에 따라서 어떤 사람에게 고삐를 쥐어줄지가 달라지게 되지는 않을까? 굳이 두 분야를 다르다고 규정하고 싸우기보다, 두 분야가 공통적으로 추구하는 부분을 재정의하고 통합하게 되지는 않을까? 뭐 앞으로 1-2년 동안은 어떤 식으로든 대세가 결정되지 않을까 생각해 본다. 그렇게 된다면 지난 십수년간 그 가치만 높아지고 정작 그 주도권은 공석으로 남아있던 사용자 경험이라는 분야도, 조금은 더 명확해지리라고 생각한다. UX 디자인 분야의 많은 사람들이 기대해온 그림보다 커지게 될지 줄어들게 될지는 두고봐야 하겠지만.




참으로 오래간만에, 그것도 뭔가 문제꺼리가 많은 글을 툭 하니 던져놓고 참으로 참으로 면목없는 말씀이지만, 당분간 이 블로그에 새 글이 올라오기가 힘들게 됐다. 티스토리에 실명등록을 해야 하는데 그러려면 한국 휴대폰을 통해서 인증을 해야 한다는거다. 아니면 여권사본을 보내라나 뭐라나… 귀찮은 해외 블로거는 올 연말부터 새 글 등록을 못 하게 됐다. 언제 한국에 가게 되면 만사 제쳐놓고 실명등록부터 해야지. (그래봐야 쓰는 글이 있어야 새 글이 등록되겠지만서도.)


이만 총총.


저작자 표시 비영리 변경 금지
신고
Posted by Stan1ey
Cover design from Print magazine, Nov-Dec 1990

위 그림은 1990년 편집 디자인 잡지 <Print>의 표지로 등장해서 한동안 꽤나 입에 오르내렸던 픽토그램이다. 직업별로 자는 사람의 모습을 표현하면서 나름 풍자적인 내용을 담고 있는데, 디자이너가 자는 모습(?)은 맨 끝에 표현되어 있다.


... 디자인이라는 직업은 참으로 개떡같은 특징을 하나 가지고 있다.

"모던하면서도 매력적인", "직관적이면서 구태의연하지 않은", "아이폰만큼 좋지만 아이폰과는 차별화되는" ... 누구나 알고 있는 이상적인 디자인은 구체적이지 않으면서도 참 쉽게 이야기되는 반면, 정작 그걸 흠잡을 데없이 구현해내야 하는 책임은 오로지 디자이너 혹은 디자인팀에게 전가되는 것이다. 디자인이라는 게 아무나 할 수 없는 전문 분야라는 사실은 누구나 인정하는 듯 하면서도, 디자인을 평하는 것에 대해서 만큼은 아무도 망설이지 않는다. (그리고 사실 디자인이 예술이 아니라고 하면서 그런 상황에 대해서 불평한다는 것 또한 프로답지 못하다.)

결국 이 직업은, 어떤 현실적이고 확실한 정량적 기준이 있어서 그 조건을 충족하면 되는 게 아니라, 그저 한없이 높기만 한 이상론을 현실적인 요구사항들 속에서 해내야 하는 게 일상이다. 게다가 다른 디자이너들은 그 이상을 왠지 이루어 버린 듯한 한데, 서로 다른 주변 여건을 핑계 삼기는 좀 심하게 민망하다. ... 무엇보다 내가 처한 여건이 완벽하지 않다는 건 사실일런지 몰라도, 앞서 멋진 결과물을 내놓은 디자이너의 여건이 어땠는지는 순전히 상상에 불과하니까.

학생때라면 누구나 한번쯤 꿈꾸듯이, 내가 천재 디자이너라면 아무 문제가 없을 것이다. 그렇지만 우리 보통의 디자이너와 보통의 디자인팀들이 이상적인 디자인에 조금이라도 가까이 가려면 절대적으로 시간과 노력의 투자가 필요하다. 주어진 디자인을 몇번이라도 토론하고, 검증하고, 고민하고, 다듬는 과정을 통해서 좀 더 심도있는 디자인을 만들어 낼 수 있는 것이다. 하지만 현실 속의 디자인 작업은 쏟아지는 요청에 대응하기도 바쁜 상황.

물리적인 작업 시간이 빠듯한 이런 상황 속에서 어떻게 하면 디자인의 완성도를 높일 수 있을까? 답은 "선택과 집중"에 있다. 디자인에 있어서 중요한 부분에 집중적으로 시간과 노력을 투자하고, 그러기 위해서 나머지 부분은 최대한 효율적으로 작업할 수 있는 방법을 찾는다. 현실적인 한계를 타개하기 위해서는, 현실적인 해결 방안이 필요한 것이다.

Web Anatomy - Korean edition
이번에 UX 디자이너 박지은님과 함께 번역을 마쳐 출간한 책 <웹사이트 해부하기>는 바로 이 "선택과 집중"에 대한 책이라고 생각한다. 인터랙션 디자인 프레임워크라는 개념을 주창하고 있는 원 저자는 그 장점을 이것저것 나열하고 있지만, 개인적으로 가장 와 닿았던 부분은 반복되는 디자인 업무에 대해 효율을 높임으로써 중요한 부분을 디자인할 시간을 더 많이 확보할 수 있는 점이다.

어느 정도 규모의 디자인팀이나 경험 많은 디자이너라면 이미 어떤 식으로든 나름의 디자인 패턴을 관리하고 있을 것이다. 이 책에서 말하는 "인터랙션 디자인 프레임워크"는 디자인 패턴의 확장된 개념으로, 사용자 인터페이스 요소 하나하나의 차원이 아니라 사용자 경험의 차원에서 디자인 작업을 관리하고 공유함으로써 디자인에 필요한 시간을 줄이는 방법을 제시하고 있다.

그렇게 효율적으로 처리한 디자인 작업 덕택에, 프로젝트에서 독창적이고 재미있는디자인을 필요로 하는 부분에 대해서 좀 더 시간을 투자하고 많이 고민할 수 있는 기회가 생길 수 있다는 것이다.

... 우리네 솔직한 현실로는, 그 남는 시간에 천재적인 발상이 떠올라 좋은 디자인이 나온다기 보다 그저 제때 퇴근해서 내 침대에 누워 누워 잘 수 있는 기회가 좀 더 늘어나는 것뿐일지도 모른다. 하지만 뭐 그렇게 행복한 디자이너라도 만들 수 있다면, 그 또한 의미있는 "선택과 집중"이라고 생각한다.

결국 행복한 디자이너가 행복한 UI를 만드는 법이니까.


[+] 옮긴이의 글 보기


저작자 표시 비영리 변경 금지
신고
Posted by Stan1ey





한 명의 인생이 이보다 많은 일을 세상에 남기고 떠날 수 있을까. 이제는 전설로나 남게 될 그의 업적을 같은 시대에 볼 수 있었다는 것에 대해서 가슴 깊이 감사한다. 모쪼록 평안하시기를.

(이미지는 Jonathan Mak의 작품임)




저작자 표시 비영리 변경 금지
신고
Posted by Stan1ey

iPhone 5 Wishlist

2011.10.04 06:13
애플의 "Let's talk iPhone" 행사가 코앞으로 다가왔다. 매번 새로운 OS 버전이 발표될 때마다 내심 혁신에 대한 기대를 하게 하는 아이폰이지만, 이제 모바일 상황에서 쓸 수 있는 센서들은 대충 (2개 빼고) 다 들어갔고 MobileMe에서 환골탈태한 iCloud 서비스의 새로운 윤곽도 많이 알려진 터라 뭐 또 새로운 게 나올까 싶긴 하다. 요컨대 출시하기 전부터 새로운 기능들이 식상해지고 있는 희한한 형국인데, 주요 업데이트인 만큼 큰 변화들이 많아 그 와중에 별로 주목을 받지 못하고 있는 소소하지만(?) 재미있는 기능들이 많다.

실제 발표가 되기 직전이니만큼 조금 무모한 포스팅이지만, 그래도 그런 기능들에 개인적인 소망-_-을 담아보자면 이렇다.


Magic Home Button

iPhone 5 CAD Drawing - Wider Home Button
아이폰의 홈버튼이 커지고, 제스처 기능이 들어간다는 건 이제 기정사실화 되어있는 것같다. 이 이야기는 소문만 있는 게 아니라 이미 아이폰 케이스를 만드는 업체를 통해서 도면까지 나왔는데, 결국 어떤 동작이 사용되느냐에 대해서는 어째 그다지 구체적인 소리가 없다. 동작이라는 힌트를 바탕으로 멋대로 추측성 "소설"을 써보자면 (요새 이게 유행이라면서 -_- ), 아마도 애플은 이미 Mighty Mouse와 Magic Mouse에서 보여줬던 물리 버튼과 터치센서의 조합을 보여주지 않을까 싶다.

Touch Sensor Layout inside Apple's Mighty Mouse

처음 나왔던 "마이티마우스"는 멀티터치 동작을 지원하는 매직마우스와 달리 (저렴하고) 단순한 기술의 조합이었는데, 하나의 플라스틱 표면에서 어느 부위에 손가락이 닿아있는냐에 따라 왼쪽 클릭과 오른쪽 클릭을 구분하고, 몸통 전체가 통채로 버튼 역할을 함으로써 물리적인 입력을 가능하게 했다. (왼쪽 그림을 보면 좌우로 한쌍의 터치센서가 펼쳐져 있음을 볼 수 있다.)

그리고 유출된 아이폰5의 넓다란 홈버튼에도, 딱 손가락 3개 폭만큼의 터치센서를 올릴 수 있어 보인다. 3개의 영역만 구분되면 좌우로 쓸기(swipe) 동작은 인식할 수 있을테고, 그렇다면 이런 식의 활용이 가능하지 않을까? 내멋대로 이름하여 유치찬란한 "매직홈버튼"이다. ㅎㅎ


Magic Home Button for iPhone 5
요컨대 기본적으로 홈버튼 위의 세 영역 중 한 곳에 손가락을 얹고 누르면, 그 위치에 따라 다른 동작을 하는 조작이 가능할 것이다. 여기에 추가로 버튼을 누르기 전이나 후에는 좌우쓸기 동작을 이용해서 몇가지 변용을 추가할 수 있겠다.

  • 홈버튼을 눌러서 화면을 켜고 홈스크린이 나오면, 홈버튼 자체에서 "slide to unlock" 동작을 할 수 있다.
  • 멀티태스킹을 지원하는 상황에서 버튼에 손을 올리면, 오래전부터 소문만 많았던 Mac OS의 Expose 같은 화면을 보여주다가 좌우쓸기로 불러올 기능을 선택할 수 있다.
  • Springboard나 웹브라우저 등 여러 페이지를 앞뒤로 넘길 수 있는 상황에서는, 이 좌우쓸기 동작이 페이지 넘김과 연동될 것이다.
  • 홈버튼을 클릭해서 자주 쓰는 기능을 구동하는 기능은, 버튼의 어느 영역에 손가락을 올리고 눌렀느냐에 따라 다르게 수행될 수 있다. 한번 눌러 홈스크린을 띄우거나 첫페이지/검색페이지로 가는 기능은 어떨지 몰라도, 두번 혹은 세번 누르는 기능은 이로 인해서 몇 배로 다양한 기능을 할 수 있게 된다.
... 아님 말고.


Voice UI
Voice UI Setting for iOS5, partnered with Nuance
iOS5에서 음성 UI를 본격적으로 지원한다는 것 또한 사실상 확정된 것같다. 애플은 이미 MacOS와 iOS에 구현된 VoiceOver 기능을 통해서 검증된, 쓸만한 음성합성 엔진을 갖고 있다. 하지만 음성인식 분야에서는 그닥 눈에 띄는 활동이 없었는데, 지난 몇달간 그 분야의 일인자라고 할 수 있는 Nuance사와 온갖 소문이 다 났다. Apple와 Nuance는 이전에도 협력관계에 있기는 했지만, 한때는 애플이 아예 뉘앙스를 사버린다는 소문도 있다가, 결국은 그냥 어느 정도 선에서 합의한 모양이다. (사실 애플이 실제로 뉘앙스를 가져가 버렸다면, 뉘앙스 외에는 구글의 Android를 쓰는 것 말고 딱히 음성인식 대안이 없는 휴대폰 제조사들로선 청천벽력같은 상황이 될 수도 있었다. -- 뭐 VUI에 대해서 신경이나 쓴다면 말이지만.)

어쨋든 저 앞의 설정화면에 드러난 대로라면, 관련된 옵션이 새로 최소한 3개는 들어가는 것 같다. 우선 가장 흥미있는 것은, Android에서 구현되어 몇번 언급했던 가상 키보드의 "음성 버튼"이다. "Mic on space key"라고 묘사된 저 기능은 왠지 스페이스(공백) 키 자체에 마이크를 표시하고 이를 길게 누르거나, 심지어 누르고 있는 동안(push-to-talk; PTT) 음성인식을 할 수 있도록 할 것같다.

출시할 때 이름이 바뀌긴 할테지만, 그 외에 "Nuance Dictation"이나 "Nuance Long Endpoint Detection"이라는 옵션들은 감히 "받아쓰기(dictation)"를 언급했다는 게 특히나 놀랍다. 사실 이미 구글은 물론 우리나라의 인터넷 포털까지 자유발화를 통한 음성검색을 지원하고 있는 마당에, 사실 더이상 빼기도 뭐 했을게다. 남은 건 과연 이 음성인식을 어느 범위로 지원하냐는 건데, 과연 아이폰 내의 기능으로 제한될지, 음성을 통한 인터넷 검색까지 지원할지, 아니면 기왕 Dictation을 넣은 김에 새로 들어가는 iMessage나 이메일의 음성 받아쓰기를 포함시킬지, 혹은 심지어 모든 키보드 입력 상황에서 음성입력의 대안을 제공하는 소위 "Hybrid VUI"까지 구현할지 말이다. 아니 기왕 꿈을 꾸는 김에, 일전에 인수한 대화형 검색엔진 Siri의 기능을 몽땅 아이폰에 넣어서 제대로 된 대화(nested adjacent pair 등을 포함한) 로 대부분의 PIMS를 이용할 수 있도록 한다면? ㅎㅎ (물론 보통 이런 상황에서는, 애플은 보수적인 접근을 택해서 나를 실망시키곤 한다.)

끝으로 "Long EPD"라는 옵션도 아마 PTT 기능과 관련해서, 버튼을 누르고 떼는 순간과 음성발화에 공백이 있는 순간을 비교해서 음성인식에 유리한 발화를 선택하는 기능이 아닐까 싶다. 실제로 그렇게 된다면 '그런데 그 일이 정말 일어났습니다!' 라는 느낌일 듯 하지만.

한가지 확실한 것은, 만일 이 기능들이 출시되는 iPhone 5에 그대로 들어간다면 더이상 장애인 접근성에 포함되지 않을 거라는 거다. 그렇게 된다면 -- 안드로이드에 이어 아이폰에까지 주요 사용방식으로 음성이 적용된다면 -- Voice UI도 사용자 인터페이스의 주류에 들어갔다고 말할 수 있겠지.

... 하지만 역시, 그런 일이 일어날까나. -_-a;;


Assistive Touch
iOS에서의 장애인 접근성 기능 중에도 추가되는 기능이 있다. 이전 버전에서는 다이얼을 돌리는 동작을 하면 그 상대적인 회전 각도에 따라 다른 기능을 실행시키는 Rotor라는 기능이 있었는데, 이 방식은 상하좌우가 비슷하게 생긴 iPhone이나 iPad에서는 특히 전맹인(全盲人)을 고려할 때 꽤 괜찮은 접근이었다고 생각한다. 그런데, 이번 방식은 반대로 장치의 방향을 안다는 전제 하에, 특정 위치에 손가락을 댄 후에 화면 중앙에서 상하좌우의 미리 설정한 방향으로 손가락을 움직이면 해당 기능을 선택할 수 있다.

Assistive Touch in iOS5



위 동영상에서 볼 수 있듯이, 손가락을 움직여서 구동시킬 수 있는 기능 중에는 멀티터치 기능도 있어서 여러 손가락을 자유롭게 움직일 수 없는 지체장애인의 경우에도 멀티터치 동작명령을 쓸 수 있게 해준다.

Assistive Touch in iOS5 - Custom gesture
유출된 왼쪽의 설정화면에 따르면, 이 기능을 쓰기 위해서 처음 터치해야 하는 지점(adaptive accessory?)은 미리 설정된 터치 제스처(가로 지그재그)로 활성화시킬 수도 있는 것같다. 이 동작은 사용자가 바꿀 수도 있는데, 어쩌면 그 동작이 다음에 뜨는 pie menu의 방향성을 결정할 수도 있겠다. Pie menu는 최대 8개까지의 기능을 설정할 수 있는데, 이런 방향 버튼의 조합은 다양한 장애인 보조기술(assistive technology)에서 지원하고 있는 입력으로 접근가능한 웹사이트 UI 설계 지침에도 들어가는 대목이기도 하다.

사실 장애로 인한 니즈가 없는 일반 사용자의 경우에도, 이 방식은 주머니 속에 손을 넣은 채 주요 기능을 사용하게 해줄 수 있을 것같다. 어쩌면 Universal Design의 개념과 맞물려 좋은 사례가 되어줄지도...?


Deep touch
설마 하니 아닐 거라고 생각하긴 하지만 -_-, 어쩌면 이번 아이폰5에는 터치 이전에 손가락의 감지를 느낄 수 있거나, 터치 이후에 압력 혹은 클릭을 느낄 수 있는 방법이 들어가지 않을까. 화면 자체는 아니더라도, 앞서 말한 방식의 터치방식의 홈버튼이 구현된다면 터치와 클릭/압력을 조합해서 제한된 범위나마 딥터치가 구현될지도 모르겠다.

Deep Touch

Apple Mighty Mouse

앞에서 적었듯이 "마이티마우스"의 기술이 아이폰의 홈버튼에 들어간다면, 사실 누군가는 그 제품에서 별로 빛을 보지 못한, 하지만 사실은 꽤 중요한 기술을 재검토했을지 모른다. 바로 마이티마우스의 양쪽에 있는 압력센서. 아이폰5의 홈버튼이 단순한 물리 스위치가 아니라 압력센서를 겸하는 것이라면 그것도 재미있는 딥터치 사례가 되겠다. 실제로 그 마이티마우스의 사례처럼, Expose 화면들의 축소 정도가 압력에 따라서 결정된다면 사용자는 화면을 완전히 전환하지 않고도, 자신이 필요로 하는 만큼만 정보를 훔쳐볼 수 있을 것이다. ... 하지만 다른 버튼도 아니고 홈버튼에 그런 불안한 아날로그 센서를 넣으리라는 기대는 나로서도 좀 무리. =_=

... 이러나 저러나, 역시 이건 그냥 개인적인 소망일 뿐이다.


NFC/RFiD
이게 언제부터 나오던 이야긴데 아직도 안 넣냐. -_-;; 루머에 따르면 애플에서는 아직 그 상품화 필요성을 못 느끼고 안 넣으려고 하는 것같지만, 이미 안드로이드 스마트폰에서는 이를 이용한 어플리케이션을 이용해서 아이폰과 차별화가 이루어지고 있고, 얼마전에는 Google Wallet이라는 서비스가 나오면서 이 방식이 아예 주류 통신채널 중 하나로 급부상하고 있다.

즉 이 대목에서 애플이 iOS에 NFC를 포함시키지 않는다면 안드로이드 기기와 비교될 수 밖에 없을테고, 따라서 그런 결정은 내리지 않을꺼라고 기대하고 있다. 애플 입장에서는 소위 "iTunes 생태계(eco-system)"에 다른 결제 방식이 끼어드는 것을 싫어하는 게 당연하다. 그래서 In-App 결제니 뭐니 만들면서 앱에서 직접 결제하려고 할 때마다 어떻게든 막아왔는데, 이제 와서 전자지갑이니 앱을 통한 인증이니 결제니 하면서 통제할 수 없는 돈의 흐름이 생기는 게 내키지는 않겠지.

... 그래도 이것만큼은, 이번에도 안 들어간다면 애플이 너무 욕심이 많은 거다.



여기까지. 사실 이런 예측... 혹은 제목에 적었듯이 희망사항들(wishlist)이 얼마나 애플의 의사결정권자들의 생각과 맞을지는 모른다. 저번에 그랬듯이 대박 틀릴 수도 있겠지. 단지 정식으로 공개되기 전까지는, 내 생각을 한번 정리해 보고 싶었다.

이건 그저, 후견지명의 오류에 빠지지 않으려는 애플 빠돌이의 몸부림일 뿐이다.
저작자 표시 비영리 변경 금지
신고
Posted by Stan1ey
(앞의 글에서 계속...이라지만 사실 앞글과는 별 상관이 없을지도 모르겠다;;)


이 글은 벌써 세번째인가 쓰는 글이다. 야심차게 적었다가 다음에 읽어보면 너무 무모한 내용이라고 생각해서 지우고, 블로그를 몇개월 방치했다가 다시 열어보고 써내려 가다가 다음에 읽어보면 또 지우고... 아무래도 자신이 없었나보다. 글 번호 순서로 보면 지난 2007년말에 쓰기 시작한 모양인데, 뭐 워낙 우유부단한 걸로 악명높은 놈이라지만 이건 좀 심했다고 본다. ㅎㅎ

어쨋든, 이젠 더 미룰 수 없을 것같은 상황이 됐다. 삼성은 갤럭시 노트라는 걸 발표했고, 아이폰5의 발표가 임박한 것같고, 아마존의 새 이북리더도 곧 나올 예정이다. 더 늦으면 뒷북이 될 것 같아서, 빈약한 논리와 어거지 주장을 그냥 그대로 적어 올리기로 했다. (제목도 이제는 좀 민망해졌지만, 그래도 밀린 숙제니 어쩔 수 없이 그대로...) 몇년을 말그대로 "썩혀온" Deep Touch 이야기다.


그래서 대뜸.

터치스크린의 최대 약점은 그 조작의 순간성에 있다.

PC 중심의 UI를 하던 UI/HCI/HTI 연구자들은 터치스크린을 보고 무척이나 당혹스러웠다. 지금 인터넷 상에서는 도대체 찾을 수가 없는 누군가의 글(아마도 Ben Shneiderman 할아버지일텐데, 이 분의 논문을 다 뒤지기도 귀찮고... 해서 통과)에서는, 터치스크린이 전통적인 사용자 인터페이스의 기본 개념인 "Point-and-Click"을 지킬 수 없게 한다고 지적한 적이 있었다. 즉 물리적인 버튼을 누르는 상황에서는 손가락으로 그 버튼을 만지는 단계와 눌러 실행시키는 단계가 분리되어 있고, PC의 전통적인 GUI에서는 그것이 point 단계와 click 단계로 구분되어 있는데, Touch UI에서는 point 단계없이 바로 click(tap) 단계로 가버리게 되면서 사용성 오류가 발생하고 있다는 것이다.

Mouse Pointers, Hand-shaped
GUI에 이미 익숙한 사용자들은 이런 손모양 포인터를 통해서 사용에 많은 도움을 받는다. 이런 포인터들은 마우스의 저편 가상세계에서, 손을 대신해서 가상의 물체를 만지고 이해하며, 사용 이전과 사용 중에는 선택한 기능에 대한 확신을 준다. 추가설명이 필요한 영역에 포인터를 올렸을 때 활성화되는 툴팁(tooltip)이나, 포인터에 반응해서 클릭할 수 있는 영역을 시각적으로 강조하는 롤오버(roll-over; hover) 등의 기법도 이런 사례이다.

그런데, iOS의 기본 UI 디자인 방식을 중심으로 표준화되어 버린 Touch UI에서는 이런 도움을 받을 수가 없다. 물론 페이지, 토글버튼, 슬라이더 등의 즉물성(physicality)을 살린 -- 드래그할 때 손가락을 따라 움직인다든가 -- 움직임이 도움이 되긴 하지만, 기존에 손→마우스→포인터→GUI 설계에서 제공해주던 만큼 도움이 되지는 않는다. 요컨대 전통적인 GUI에서 "클릭"만을 빼서 "터치(혹은 탭)"으로 간단히 치환하는 것으로는 부족한 거다.

이 부족한 부분을 어떻게든 되살려서, 사용자가 고의든 아니든 어떤 기능을 실행시키기 전에 그 사실을 인지시킬 수 있는 방법을 주는 것. 그리고 실행을 시키는 중에확신을 줄 수 있고, 명령이 제대로 전달되었음을 따로 추론하지 않고도 조작도구(손가락) 끝에서 알 수 있게 하는 것. 아마 그게 터치UI의 다음 단계가 되지 않을까 한다. 버튼 입력이 들어올 때마다 휴대폰 몸통을 부르르 떤다든가 딕딕 소리를 내는 것 말고 말이다.

개인적으로 생각하고 있는 것은, 오래전부터 끼고 있는 아래 그림이다.

Deep Touch - Pre-touch detection, and Post-touch pressure/click


터치 이전. Pre-touch.

앞서 말한 (아마도 Ben 할배의) 연구 논문은 터치 이전에 부가적인 정보를 주기 위해서, 앞의 글에서도 말한 광선차단 방식의 터치스크린과 유사한 방식의 "벽"을 화면 주위에 3cm 정도 세워 사람이 화면 상의 무언가를 "가리키면" 이를 알 수 있게 한다..는 내용이었다. (혹시 이 논문 갖고 계신 분 좀 공유해주삼!) 말하자면 'MouseOver' 이벤트가 가능한 인터페이스를 만든 거 였는데, 불행히도 이 방식은 그다지 인기가 없었던 모양이다.

하지만 그 외에도 손가락이 접촉하기 전의 인터랙션을 활용하고자 하는 사례는 많았다. 지금은 Apple에 합병된 FingerWorks사의 기술은 표면에서 1cm 정도 떠있는 손가락의 방향이나 손바닥의 모양까지도 인식할 수 있었고, 이미 이런 센서 기술을 UI에 적용하기 위한 특허도 확보했다. 카메라를 이용한 사례로는 Tactiva의 TactaPad나 Microsoft Research의 Lucid Touch 프로토타입이 있고, 역시 Microsoft Research의 또 다른 터치 프로토타입에서도 터치 이전에 손가락을 추적할 수 있는 기술을 제시한 바 있다.

iGesture Pad, FingerWorks (Apple)Looking Glass, Microsoft ResearchLooking Glass, Microsoft Research


터치 이후. Post-touch.

일단 터치가 감지되면, 대부분의 시스템에서는 이것을 일반 마우스의 "KeyDown" 이벤트와 동일하게 처리한다. 즉 생각 없는 개발팀에서는 이를 바로 클릭(탭)으로 인식하고 기능을 수행하고, 좀 더 생각 있는 팀에서는 같은 영역에서 "KeyUp" 이벤트가 생기기를 기다리는 알고리듬을 준비할 것이다. 하지만 어느 쪽이든, 이미 터치 순간에 기능 수행을 활성화시켰기 때문에 사용자가 의도하지 않은 조작을 할 가능성은 생겨 버린다.

손가락이 화면에 닿은 후에, 추가적으로 사용자의 의도를 확인할 수 있게 해주는 것으로는 Drag와 Press의 두가지 동작을 생각할 수 있다.

이 중 Drag의 경우는 이제 터치 기반 제품에 명실상부한 표준으로 자리잡은 "Slide to Unlock"을 비롯해서 사용자의 의도를 오해 없이 전달받아야 하는 경우에 널리 쓰이고 있지만, 화면을 디자인해야 하는 입장에서 볼 때 어째 불필요하게 커다란 UI 요소를 넣어야 한다는 점이 부담으로 다가온다. 특수한 경우가 아니면 단순한 버튼을 클릭/탭하도록 하는 편이 사용자에게 더 친숙하기도 하고.

이에 비해서, 압력 혹은 물리적인 클릭을 통해 전달받을 수 있는 Press의 경우에는 화면 디자인 상의 제약은 덜하겠지만 이번엔 기술적인 제약이 있어서, 일반적인 터치 패널을 통해서는 구현에 어려움이 많다. (불가능하다..라고 할 수도 있겠지만, 클릭영역의 분포나 시간 변수를 활용해서 간접적으로 압력을 표현한 사례도 있었으니까.) 한때 우리나라의 많은 UI 쟁이들 가슴을 설레게 했던 아이리버의 D*Click 시스템은 제한된 범위에서나마 화면 가장자리를 눌러 기능을 실행시킬 수 있게 했었고, 화면과는 동떨어져 있지만 애플의 노트북 MacBook의 터치패드나 Magic Mouse에서도 터치패널 아래 물리적 버튼을 심어 터치에 이은 클릭을 실현시키고 있다. 몇차례 상품화된 소니의 PreSense 기술도 터치와 클릭을 조합시킨 좋은 사례였다고 생각한다.

이진적인 클릭이 아니라 아날로그 신호를 다루는 압력감지의 경우에도 여러 사례가 있었다. 일본 대학에서는 물컹물컹한 광학재료를 이용한 사례를 만들기도 했고, 앞서 언급한 소니의 PreSense 후속연구인 PreSense 2는 바로 터치패드 위에 다름아닌 압력센서를 부착시킨 물건이었다. 노키아에서 멀티터치로 동일한 구성을 특허화하려고 시도하고 있기도 하다. 하지만, 최근 가장 눈길을 끄는 것은 단연 TouchCo 라는 회사의 투명한 압력감지 터치스크린이다. 이 기술은 아무래도 압력감지를 내세우다보니 외부충격에 예민한 평판 디스플레이와는 맞지 않아서, 상대적으로 외부충격에 강한 전자종이와 같이 쓰이는 것으로 이야기 되다가 결국 Amazon에 합병되고 말았다. 사실 플라스틱 OLED 스크린도 나온다고 하고, 고릴라 글래스라든가 하는 좋은 소재도 많이 나왔으니 잘 하면 일반 화면에도 쓰일 수 있을텐데, 그건 이제 전적으로 아마존에서 Kindle다음 버전을 어떤 화면으로 내느냐에 달려있는 것같다.

D*Click, iRiverMagicMouse, AppleMagicMouse, Apple



Deep Touch

곧 iPhone 5를 발표할 (것으로 보이는) Apple은 Pre-touch에 해당하는 FingerWorks의 기술과 Post-touch에 해당하는 터치+클릭 제작 경험이 있고, 아마도 며칠 차이로 Kindle Tablet이라는 물건을 발표할 Amazon은 Post-touch 압력감지가 되는 터치스크린을 가지고 있다. 단순히 순간적인 터치가 아닌 그 전후의 입력을 통해서, Touch UI의 태생적인 단점을 개선할 수 있는 '가능성'이 열리고 있는 거다. 이렇게 확장된 터치 입력 방식이, 그동안 이 블로그에서 "딥터치(Deep Touch)"라고 했던 개념이다. (그렇다. 사실 별 거 아니라서 글 올리기가 부끄럽기도 했다.)

얼마전 발표된 삼성의 갤럭시 노트도, 압력감지를 이용한 입력을 보여주고 있다.

Galaxy Note, SamsungS-Pen with Galaxy Note, Samsung

압력감지가 가능한 스타일러스를 포함시켜 자유로운 메모와 낙서를 가능하게 함은 물론, 스타일러스의 버튼을 누른 채로 탭/홀드 했을 때 모드전환이 이루어지게 한 것 등은 정말 좋은 아이디어라고 생각한다. (사진을 보다가 버튼을 누른 채 두번 탭하면 메모를 할 수 있고, 버튼을 누른 채 펜을 누르고 있으면 화면을 캡춰해서 역시 메모할 수 있다.)

하지만 PDA 시절 절정을 이뤘던 스타일러스는 사실 가장 잃어버리기 쉬운 부속이기도 했다든가(게다가 이 경우에는 단순히 플라스틱 막대기도 아니니 추가 구매하기도 비쌀 것같다), 화면에서 멀쩡히 쓸 수 있던 펜을 본체의 터치버튼에서는 쓰지 못한다든가 하는 디자인 외적인 단점들이 이 제품의 발목을 잡을 수도 있다. 게다가 무엇보다도, 만일 앞으로 발표될 iPhone 5와 Kindle Tablet에서 스타일러스 없이 Deep Touch를 구현할 수 있는 방안이 제시된다면 갤럭시 노트의 발표에서 출시까지의 몇개월이 자칫 일장춘몽의 시기가 될 지도 모르겠다.

개인적으로는 출시 준비가 거의 되고나서 발표를 해도 좋지 않았을까 싶은 아쉬움과 함께, 아예 펜을 이용한 인터랙션(이 분야는 동작인식과 관련해서 많은 연구가 있던 주제이고, 검증된 아이디어도 꽤 많다.)을 좀 더 적극적으로 도입해서 손가락이 아닌 펜의 강점을 최대한 부각시키면 좀 더 robust한 경쟁력이 있는 상품이 되지 않을까 상상해 본다. 물론 남이 만든 OS를 쓰다보니 독자적인 인터랙션을 구현하는 데 한계가 많았다는 건 알겠지만, 무엇보다 홍보 문구대로 "와콤 방식"의 펜을 적용했다면 pre-touch pointing 이라든가 압력과 각도에 반응하는 UI도 구현할 수 있었을텐데 말이다. (특허 문제는 뭐 알아서 -_- )



Multi-touch든 Deep-touch든, 혹은 HTI가 적용된 다른 어떤 종류의 새로운 UI 방식이든, 우리는 그것이 모두 어떤 군중심리에 사로잡힌 설계자에 의해서 "임의로 정의된 입출력"임을 잊으면 안 된다. 사용자가 익숙하게 알고 있는 어떤 물리적 법칙도 적용되지 않고, 상식으로 알고 있는 공리가 반영되어 있는 것도 아니다. 새로운 UI 기술이 주목받게 되었을 때 그 기술을 충분히 이해하고 그 잠재력을 발휘하도록 해주는 최후의 보루는, 결국 사용자 중심의 관점를 프로젝트에 반영하는 전문성을 가진 UI 디자이너이다. (혹은 유행따라 UX.)

하나하나의 UI 기술이 상용화될 때마다, UI/UX 디자이너들 사이에는 그 완성본을 먼저 제시하기 위한 물밑 경쟁이 치열하게 이루어진다. 기술과 사용자의 입장을 모두 고려해서 최적화된 UI를 설계한 팀만이 그 경쟁에서 승자가 되고, 결국 다른 이들이 그 UI를 어쩔 수 없는 표준으로 받아들이는 모습을 흐뭇한 표정으로 볼 수 있을 것이다. 아마도.

한줄결론: Good luck out there.

신고
Posted by Stan1ey
Wii도 그렇고 Kinect도 그렇고, 요새 재미있는 UI가 죄다 게임 쪽에서 나온다는 데에는 이견이 없을 것같다. 심지어 iPad에 적용된 (멀티)터치도 뭔가 심각한 어플리케이션에 적용되는 경우보다 게임에서 제대로 활용되는 경우가 훨씬 많아 보인다. 그러니 게임쪽의 소식에서 눈을 뗄 수가 없는데(절대로 업무적인 관심이다!), 엊그제 도착한 메일에 재미있는 물건이 소개되어 있었다.

Razor Blade - Gaming LaptopRazor Blade - Gaming Laptop - Close up

"세계 최초의 진정한 게임용 노트북"이라는 홍보문구를 달고 나온 이 Razor Blade라는 놈은, 게이밍 하드웨어로 잔뼈가 굵은 Razor사의 제품이다. 그동안은 그저 반응이 빠르고 정확한 마우스/키보드를 만들어서 인기 좋은 게임 브랜드를 입혀 팔아왔는데, 얼마 전에 뭔가 게임콘솔 같은 요상한 물건을 컨셉 디자인이라고 내놓더니 결국 노트북을 만드는 쪽으로 선회한 모양이다. (아 물론 이 회사 웹사이트를 보면 멋진 게임전용 키패드 - 내가 쓰고 있기도 하다 - 를 팔고 있고 PC에 연결해서 쓸 수 있는 동작인식 컨트롤러도 만들고 있지만, 전자는 사실 Belkin의 OEM이고 후자는 범용을 고집하느라 별 재미를 못 보고 있다.)

그래서, 이 노트북은 뭐가 그렇게 특별할까?



Razor Blade - Gaming Laptop - Close up
결국 이전에 발표했던 Switchblade의 개념을 조금 완곡하게 다듬고 멀티터치 화면을 노트북의 기본 조작을 위한 터치패드와 합쳐서 심었다는 건데, 뭐 일단 기본적으로는 이전 개념보다 훨씬 가능성이 있어 보인다. 뭔가 처음보는 기술을 주렁주렁 달고있기 때문이 아니라, 이미 안정된 용도를 가지고 있는 기존의 물건에 그걸 차별화시킬 수 있는 부가적인 기능를 넣고, 거기에 맞는 적당한 수준의 UI 기술을 적절히 짝지어 놓았기 때문이다.

터치스크린 위에 올려놓은 10개의 버튼은 결국 각각 화면이 달려있는 버튼인데, 이런 아이디어 자체는 이미 이 블로그에서만도 몇번이나 소개한 적이 있다. 이 "화면 달린 버튼"의 응용사례가 그동안 꽤 여러가지 나오기는 했지만 (프로그램 단축키, Ctrl-Alt-Del, 휴대폰 가로세로 모드 버튼 등), 그래도 하드웨어 드라이버 설정 프로그램을 만들어 본 경험으로는 둘째 가라면 서러울 Razor에서 만든다니까 단순한 기술의 조합 이상을 기대하게 되는 건 어쩔 수 없다. 물론 그 컨텐츠라고 할 수 있는 프로파일들은 제조사보다 사용자들로부터 나오겠지만, 그게 또 재미있는 점이 되지 않을까. 사람들은 이 아이콘 달린 버튼들을 게임이 아닌 일상적인 컴퓨팅 작업에서 어떻게 활용하려나?



이렇게 이미 알려진 UI 기술을 기존의 기기에 덧붙여서 제품을 차별화시키고, 심지어 새로운 용도로 확장시킬 수 있는 건 노트북 뿐만이 아닐 것이다. 언제나 가장 어려운 대목은 소비자들이 맘속으로 원하는 기능이 무엇이고, 그걸 만족시키기 위한 목적으로"만" UI 기술을 적용하는 것이다. 그 이하는 물론 안 되고, 그 이상은 위험하다. 물론 실제로 프로젝트를 하다보면 그 선이라는 걸 알아채는 것도 지키는 것도 참 힘든 일이었지만.

많은 회사가 갖가지 UI 기술을 가지고 여러 시도를 했고 또 실패했지만, 결국 앞서의 실패에 맘을 접지 않고 끝까지 "고민해서" 해답을 찾아내는 자가 최후의 승자가 되리라 생각한다. 애플이 Newton MessagePad초고속으로 실패해 놓고도 절치부심해서 iPhone과 iPad를 내놓은 것처럼...

야단났네... 노트북 바꿀 때가 됐는데. ㅡ_ㅡa;;;
저작자 표시 비영리 변경 금지
신고
Posted by Stan1ey
Wii도 그렇고 Kinect도 그렇고, 요새 재미있는 UI가 죄다 게임 쪽에서 나온다는 데에는 이견이 없을 것같다. 심지어 iPad에 적용된 (멀티)터치도 뭔가 심각한 어플리케이션에 적용되는 경우보다 게임에서 제대로 활용되는 경우가 훨씬 많아 보인다. 그러니 게임쪽의 소식에서 눈을 뗄 수가 없는데(절대로 업무적인 관심이다!), 엊그제 도착한 메일에 재미있는 물건이 소개되어 있었다.

Razor Blade - Gaming LaptopRazor Blade - Gaming Laptop - Close up

"세계 최초의 진정한 게임용 노트북"이라는 홍보문구를 달고 나온 이 Razor Blade라는 놈은, 게이밍 하드웨어로 잔뼈가 굵은 Razor사의 제품이다. 그동안은 그저 반응이 빠르고 정확한 마우스/키보드를 만들어서 인기 좋은 게임 브랜드를 입혀 팔아왔는데, 얼마 전에 뭔가 게임콘솔 같은 요상한 물건을 컨셉 디자인이라고 내놓더니 결국 노트북을 만드는 쪽으로 선회한 모양이다. (아 물론 이 회사 웹사이트를 보면 멋진 게임전용 키패드 - 내가 쓰고 있기도 하다 - 를 팔고 있고 PC에 연결해서 쓸 수 있는 동작인식 컨트롤러도 만들고 있지만, 전자는 사실 Belkin의 OEM이고 후자는 범용을 고집하느라 별 재미를 못 보고 있다.)

그래서, 이 노트북은 뭐가 그렇게 특별할까?



Razor Blade - Gaming Laptop - Close up
결국 이전에 발표했던 Switchblade의 개념을 조금 완곡하게 다듬고 멀티터치 화면을 노트북의 기본 조작을 위한 터치패드와 합쳐서 심었다는 건데, 뭐 일단 기본적으로는 이전 개념보다 훨씬 가능성이 있어 보인다. 뭔가 처음보는 기술을 주렁주렁 달고있기 때문이 아니라, 이미 안정된 용도를 가지고 있는 기존의 물건에 그걸 차별화시킬 수 있는 부가적인 기능를 넣고, 거기에 맞는 적당한 수준의 UI 기술을 적절히 짝지어 놓았기 때문이다.

터치스크린 위에 올려놓은 10개의 버튼은 결국 각각 화면이 달려있는 버튼인데, 이런 아이디어 자체는 이미 이 블로그에서만도 몇번이나 소개한 적이 있다. 이 "화면 달린 버튼"의 응용사례가 그동안 꽤 여러가지 나오기는 했지만 (프로그램 단축키, Ctrl-Alt-Del, 휴대폰 가로세로 모드 버튼 등), 그래도 하드웨어 드라이버 설정 프로그램을 만들어 본 경험으로는 둘째 가라면 서러울 Razor에서 만든다니까 단순한 기술의 조합 이상을 기대하게 되는 건 어쩔 수 없다. 물론 그 컨텐츠라고 할 수 있는 프로파일들은 제조사보다 사용자들로부터 나오겠지만, 그게 또 재미있는 점이 되지 않을까. 사람들은 이 아이콘 달린 버튼들을 게임이 아닌 일상적인 컴퓨팅 작업에서 어떻게 활용하려나?



이렇게 이미 알려진 UI 기술을 기존의 기기에 덧붙여서 제품을 차별화시키고, 심지어 새로운 용도로 확장시킬 수 있는 건 노트북 뿐만이 아닐 것이다. 언제나 가장 어려운 대목은 소비자들이 맘속으로 원하는 기능이 무엇이고, 그걸 만족시키기 위한 목적으로"만" UI 기술을 적용하는 것이다. 그 이하는 물론 안 되고, 그 이상은 위험하다. 물론 실제로 프로젝트를 하다보면 그 선이라는 걸 알아채는 것도 지키는 것도 참 힘든 일이었지만.

많은 회사가 갖가지 UI 기술을 가지고 여러 시도를 했고 또 실패했지만, 결국 앞서의 실패에 맘을 접지 않고 끝까지 "고민해서" 해답을 찾아내는 자가 최후의 승자가 되리라 생각한다. 애플이 Newton MessagePad초고속으로 실패해 놓고도 절치부심해서 iPhone과 iPad를 내놓은 것처럼...

야단났네... 노트북 바꿀 때가 됐는데. ㅡ_ㅡa;;;
저작자 표시 비영리 변경 금지
신고
Posted by Stan1ey
오픈소스 소프트웨어 운동의 사고방식을 이어받은, 오픈소스 하드웨어라는 움직임이 있다. 내가 처음 접한 것은 작년 TED 강연을 통해서인데, 주로 어떤 물건의 입체 CAD 도면을 인터넷을 통해서 공유하고, 다운로드 받은 도면을 저렴한 3D 프린터를 이용해서 제작하는 것에 대한 것이다. 강의 자체는 길고 지루하지만, 이 운동을 주도하고 있는 Reprap.org 프로젝트 홈페이지에서 찾아볼 수 있는 아래 동영상은 훨씬 흥미로운 내용을 담고 있다.



결국 이런저런 물건들이 공장에서 만들어져서 집앞 가게까지 오기를 기다렸다가 제조원가보다 비싼 유통마진을 주고 구입하는 대신, 인터넷에서 다운로드 받아서 직접 만들어 쓸 수 있다는 거다. 옷걸이 같은 물건이야 그 정성이면 직접 손으로 깎아 만드는 게 더 낫겠다 싶지만, 전문적인 지식과 정밀성을 요구하는 기계장치의 부속을 깎아야 한다면 어떨까. 그런 생각의 연결을 하게 해준 것도 올초에 본 또 다른 TED 강연이다.



동영상에서 언급된 Open-source ecology라는 단체의 홈페이지를 보면 쉽게 만들 수 없다고 생각되는 온갖 장비와 기계들을 디지털 형태로 공유된 도면을 이용해서 손으로 제작한 사례를 많이 볼 수 있다. (참고로 이 운동에는 장비의 제작뿐 아니라 진흙으로 집 짓기 노우하우 등도 포함되어 있어서, 인터넷 즐겨찾기에 등록해두면 문명의 혜택이 없는 곳에서 살게 됐을 때에 무척 유용하게... 응? -_-;; )

OSE 운동의 도면과 제작방법이라는 것을 잘 들여다보면 마치 '자취 요리' 프로그램에서 "냉장고에 쓰다남은 토마토 소스랑 브로콜리 같은 거 있죠?" 라고 하는 식으로 오토바이 엔진이라든가 기어박스 같은 핵심 부품들은 따로 구해야 한다. 하지만 정밀한 하드웨어 부속은 위의 RepRap 3D Printer를 이용해서 제작하고, 전자회로는 역시 open-source electronics를 내세우고 있는 Arduino를 이용해서 구성한다면 그렇게 따로 구해야 하는 공산품을 극소화할 수도 있지 않을까?

실제로, 위 세 회사/단체들의 홈페이지를 각각 방문해보면 서로 링크도 되어 있고,각기 다른 분야의 장단점을 잘 조합/활용해서 그 시너지 효과를 극대화하는 모습도 볼 수 있다.





... 뭐 이렇게 오픈소스 삼인방(하드웨어/에콜로지/전자회로)에 대한 이야기를 끄적거려 놓고 블로그를 닫아놓은 게 몇개월 전 이야기다. 요새 다시 블로깅 좀 해볼까...하고 밍기적 거리던 참에, 오늘 페북친구를 통해서 아래 동영상을 보게 됐다. 내가 짝사랑하고 있는 키넥트를 이용해서, 3차원 물체를 3D 컴퓨터 그래픽 데이터로 바꾸는 것은 보여주고 있는 SIGCHI 2011 데모 동영상이다.



이 동영상에서 소개하고 있는 KinectFusion이라는 Microsoft Research 프로젝트는 거리센서로부터의 입력을 동적으로 조합해서 (어쩌면 가속도 센서를 써야 했을지도 모르겠다) 공간을 3차원 정보로 입력하고, 이를 확장해서 물체와 배경을 입체적으로 구분한다든가, 손가락 끝을 인식해서 가상입력 도구로 쓰는 모습을 보여주고 있다. 말하자면 기존 물체인식 기술의 3D... 혹은 2.5D 버전이라는 건데, 나올 기술이 나왔다는 생각은 들지만 여러가지로 무척이나 재미있는 가능성을 열어주는 기반기술이라고 생각한다.

KinectFusion as Interaction Technology

그런데, 내가 이렇게나 재미있고 잠재적인 UI 기술을 보면서 든 생각은, 오히려 앞서 말한 오픈소스 하드웨어 개념과의 연계 가능성이다.

RepRap.org 3D PrinterArduino Uno
Bulldozer from Open-source EcologyKinectFusion Dynamic Object Recognition

그렇다면, 이제 Kinect 센서를 이용한 3D 물체의 "copy-and-paste" 가 가능해지는 걸까? 물론 실제적으로는 해상도/정밀도 문제라든가, 재질의 한계 같은 문제가 있기는 하겠지만, 그래도 위 키넥트퓨전 동영상을 보면서 위에 나열한 기술들과 더불어 오픈소스가 하드웨어의 해킹/크래킹으로 연결되는 고리가 채워지는 소리를 들은 것같다.

어쩌면 멀지 않은 미래에 "해킹된 하드웨어"를 단속하기 위한 각 제조업체의 노력이 있을 수도 있겠고, 반대로 사람들이 "커스텀 하드웨어 롬"을 구해서 자신에 맞게 변형시킨 물건을 들고다니게 될 지도 모르겠다. 제조사가 자기 제품의 소프트웨어를 통제할 수 있는 시대는 이미 떠나갔고, 조만간 그 껍데기마저도 제멋대로 변경해서 쓰는 사람들이 나올꺼라는 거다.


뭐 어쨌든 이제 OSE 홈페이지에는 심지어 증기기관을 자체 제작하는 방법을 찾는 프로젝트가 한창이고, RepRap 3D printer 웹사이트도 꾸준히 운영되고 있고, Arduino는 뭐 이젠 학계에서 꾸준히 사용해주는 덕택에 (개인적으로는 Phidget을 애용했지만, 이미 대세는 넘어가 버린 듯...) 안정적으로 회사를 꾸려나가고 있는 듯하다. 여기에 위의 KinectFusion 기술이 fusion되기만 한다면 꽤나 재미있는 그림이 그려지지 않을까 싶은 때다.

... 역시 링크나 줄줄이 걸고 끝냈어야 했어.
저작자 표시 비영리 변경 금지
신고
Posted by Stan1ey

BLOG main image
by Stan1ey

카테고리

분류 전체보기 (347)
HTI in General (45)
User eXperience (11)
Voice UI (50)
Vision UI (14)
Gesture UI (25)
Tangible UI (28)
Robot UI (14)
Public UI (9)
Virtuality & Fun (56)
Visual Language (15)
sCRAP (70)

글 보관함



www.flickr.com
This is a Flickr badge showing public photos and videos from Stan1ey. Make your own badge here.