iPhone 5 Wishlist

2011.10.04 06:13
애플의 "Let's talk iPhone" 행사가 코앞으로 다가왔다. 매번 새로운 OS 버전이 발표될 때마다 내심 혁신에 대한 기대를 하게 하는 아이폰이지만, 이제 모바일 상황에서 쓸 수 있는 센서들은 대충 (2개 빼고) 다 들어갔고 MobileMe에서 환골탈태한 iCloud 서비스의 새로운 윤곽도 많이 알려진 터라 뭐 또 새로운 게 나올까 싶긴 하다. 요컨대 출시하기 전부터 새로운 기능들이 식상해지고 있는 희한한 형국인데, 주요 업데이트인 만큼 큰 변화들이 많아 그 와중에 별로 주목을 받지 못하고 있는 소소하지만(?) 재미있는 기능들이 많다.

실제 발표가 되기 직전이니만큼 조금 무모한 포스팅이지만, 그래도 그런 기능들에 개인적인 소망-_-을 담아보자면 이렇다.


Magic Home Button

iPhone 5 CAD Drawing - Wider Home Button
아이폰의 홈버튼이 커지고, 제스처 기능이 들어간다는 건 이제 기정사실화 되어있는 것같다. 이 이야기는 소문만 있는 게 아니라 이미 아이폰 케이스를 만드는 업체를 통해서 도면까지 나왔는데, 결국 어떤 동작이 사용되느냐에 대해서는 어째 그다지 구체적인 소리가 없다. 동작이라는 힌트를 바탕으로 멋대로 추측성 "소설"을 써보자면 (요새 이게 유행이라면서 -_- ), 아마도 애플은 이미 Mighty Mouse와 Magic Mouse에서 보여줬던 물리 버튼과 터치센서의 조합을 보여주지 않을까 싶다.

Touch Sensor Layout inside Apple's Mighty Mouse

처음 나왔던 "마이티마우스"는 멀티터치 동작을 지원하는 매직마우스와 달리 (저렴하고) 단순한 기술의 조합이었는데, 하나의 플라스틱 표면에서 어느 부위에 손가락이 닿아있는냐에 따라 왼쪽 클릭과 오른쪽 클릭을 구분하고, 몸통 전체가 통채로 버튼 역할을 함으로써 물리적인 입력을 가능하게 했다. (왼쪽 그림을 보면 좌우로 한쌍의 터치센서가 펼쳐져 있음을 볼 수 있다.)

그리고 유출된 아이폰5의 넓다란 홈버튼에도, 딱 손가락 3개 폭만큼의 터치센서를 올릴 수 있어 보인다. 3개의 영역만 구분되면 좌우로 쓸기(swipe) 동작은 인식할 수 있을테고, 그렇다면 이런 식의 활용이 가능하지 않을까? 내멋대로 이름하여 유치찬란한 "매직홈버튼"이다. ㅎㅎ


Magic Home Button for iPhone 5
요컨대 기본적으로 홈버튼 위의 세 영역 중 한 곳에 손가락을 얹고 누르면, 그 위치에 따라 다른 동작을 하는 조작이 가능할 것이다. 여기에 추가로 버튼을 누르기 전이나 후에는 좌우쓸기 동작을 이용해서 몇가지 변용을 추가할 수 있겠다.

  • 홈버튼을 눌러서 화면을 켜고 홈스크린이 나오면, 홈버튼 자체에서 "slide to unlock" 동작을 할 수 있다.
  • 멀티태스킹을 지원하는 상황에서 버튼에 손을 올리면, 오래전부터 소문만 많았던 Mac OS의 Expose 같은 화면을 보여주다가 좌우쓸기로 불러올 기능을 선택할 수 있다.
  • Springboard나 웹브라우저 등 여러 페이지를 앞뒤로 넘길 수 있는 상황에서는, 이 좌우쓸기 동작이 페이지 넘김과 연동될 것이다.
  • 홈버튼을 클릭해서 자주 쓰는 기능을 구동하는 기능은, 버튼의 어느 영역에 손가락을 올리고 눌렀느냐에 따라 다르게 수행될 수 있다. 한번 눌러 홈스크린을 띄우거나 첫페이지/검색페이지로 가는 기능은 어떨지 몰라도, 두번 혹은 세번 누르는 기능은 이로 인해서 몇 배로 다양한 기능을 할 수 있게 된다.
... 아님 말고.


Voice UI
Voice UI Setting for iOS5, partnered with Nuance
iOS5에서 음성 UI를 본격적으로 지원한다는 것 또한 사실상 확정된 것같다. 애플은 이미 MacOS와 iOS에 구현된 VoiceOver 기능을 통해서 검증된, 쓸만한 음성합성 엔진을 갖고 있다. 하지만 음성인식 분야에서는 그닥 눈에 띄는 활동이 없었는데, 지난 몇달간 그 분야의 일인자라고 할 수 있는 Nuance사와 온갖 소문이 다 났다. Apple와 Nuance는 이전에도 협력관계에 있기는 했지만, 한때는 애플이 아예 뉘앙스를 사버린다는 소문도 있다가, 결국은 그냥 어느 정도 선에서 합의한 모양이다. (사실 애플이 실제로 뉘앙스를 가져가 버렸다면, 뉘앙스 외에는 구글의 Android를 쓰는 것 말고 딱히 음성인식 대안이 없는 휴대폰 제조사들로선 청천벽력같은 상황이 될 수도 있었다. -- 뭐 VUI에 대해서 신경이나 쓴다면 말이지만.)

어쨋든 저 앞의 설정화면에 드러난 대로라면, 관련된 옵션이 새로 최소한 3개는 들어가는 것 같다. 우선 가장 흥미있는 것은, Android에서 구현되어 몇번 언급했던 가상 키보드의 "음성 버튼"이다. "Mic on space key"라고 묘사된 저 기능은 왠지 스페이스(공백) 키 자체에 마이크를 표시하고 이를 길게 누르거나, 심지어 누르고 있는 동안(push-to-talk; PTT) 음성인식을 할 수 있도록 할 것같다.

출시할 때 이름이 바뀌긴 할테지만, 그 외에 "Nuance Dictation"이나 "Nuance Long Endpoint Detection"이라는 옵션들은 감히 "받아쓰기(dictation)"를 언급했다는 게 특히나 놀랍다. 사실 이미 구글은 물론 우리나라의 인터넷 포털까지 자유발화를 통한 음성검색을 지원하고 있는 마당에, 사실 더이상 빼기도 뭐 했을게다. 남은 건 과연 이 음성인식을 어느 범위로 지원하냐는 건데, 과연 아이폰 내의 기능으로 제한될지, 음성을 통한 인터넷 검색까지 지원할지, 아니면 기왕 Dictation을 넣은 김에 새로 들어가는 iMessage나 이메일의 음성 받아쓰기를 포함시킬지, 혹은 심지어 모든 키보드 입력 상황에서 음성입력의 대안을 제공하는 소위 "Hybrid VUI"까지 구현할지 말이다. 아니 기왕 꿈을 꾸는 김에, 일전에 인수한 대화형 검색엔진 Siri의 기능을 몽땅 아이폰에 넣어서 제대로 된 대화(nested adjacent pair 등을 포함한) 로 대부분의 PIMS를 이용할 수 있도록 한다면? ㅎㅎ (물론 보통 이런 상황에서는, 애플은 보수적인 접근을 택해서 나를 실망시키곤 한다.)

끝으로 "Long EPD"라는 옵션도 아마 PTT 기능과 관련해서, 버튼을 누르고 떼는 순간과 음성발화에 공백이 있는 순간을 비교해서 음성인식에 유리한 발화를 선택하는 기능이 아닐까 싶다. 실제로 그렇게 된다면 '그런데 그 일이 정말 일어났습니다!' 라는 느낌일 듯 하지만.

한가지 확실한 것은, 만일 이 기능들이 출시되는 iPhone 5에 그대로 들어간다면 더이상 장애인 접근성에 포함되지 않을 거라는 거다. 그렇게 된다면 -- 안드로이드에 이어 아이폰에까지 주요 사용방식으로 음성이 적용된다면 -- Voice UI도 사용자 인터페이스의 주류에 들어갔다고 말할 수 있겠지.

... 하지만 역시, 그런 일이 일어날까나. -_-a;;


Assistive Touch
iOS에서의 장애인 접근성 기능 중에도 추가되는 기능이 있다. 이전 버전에서는 다이얼을 돌리는 동작을 하면 그 상대적인 회전 각도에 따라 다른 기능을 실행시키는 Rotor라는 기능이 있었는데, 이 방식은 상하좌우가 비슷하게 생긴 iPhone이나 iPad에서는 특히 전맹인(全盲人)을 고려할 때 꽤 괜찮은 접근이었다고 생각한다. 그런데, 이번 방식은 반대로 장치의 방향을 안다는 전제 하에, 특정 위치에 손가락을 댄 후에 화면 중앙에서 상하좌우의 미리 설정한 방향으로 손가락을 움직이면 해당 기능을 선택할 수 있다.

Assistive Touch in iOS5



위 동영상에서 볼 수 있듯이, 손가락을 움직여서 구동시킬 수 있는 기능 중에는 멀티터치 기능도 있어서 여러 손가락을 자유롭게 움직일 수 없는 지체장애인의 경우에도 멀티터치 동작명령을 쓸 수 있게 해준다.

Assistive Touch in iOS5 - Custom gesture
유출된 왼쪽의 설정화면에 따르면, 이 기능을 쓰기 위해서 처음 터치해야 하는 지점(adaptive accessory?)은 미리 설정된 터치 제스처(가로 지그재그)로 활성화시킬 수도 있는 것같다. 이 동작은 사용자가 바꿀 수도 있는데, 어쩌면 그 동작이 다음에 뜨는 pie menu의 방향성을 결정할 수도 있겠다. Pie menu는 최대 8개까지의 기능을 설정할 수 있는데, 이런 방향 버튼의 조합은 다양한 장애인 보조기술(assistive technology)에서 지원하고 있는 입력으로 접근가능한 웹사이트 UI 설계 지침에도 들어가는 대목이기도 하다.

사실 장애로 인한 니즈가 없는 일반 사용자의 경우에도, 이 방식은 주머니 속에 손을 넣은 채 주요 기능을 사용하게 해줄 수 있을 것같다. 어쩌면 Universal Design의 개념과 맞물려 좋은 사례가 되어줄지도...?


Deep touch
설마 하니 아닐 거라고 생각하긴 하지만 -_-, 어쩌면 이번 아이폰5에는 터치 이전에 손가락의 감지를 느낄 수 있거나, 터치 이후에 압력 혹은 클릭을 느낄 수 있는 방법이 들어가지 않을까. 화면 자체는 아니더라도, 앞서 말한 방식의 터치방식의 홈버튼이 구현된다면 터치와 클릭/압력을 조합해서 제한된 범위나마 딥터치가 구현될지도 모르겠다.

Deep Touch

Apple Mighty Mouse

앞에서 적었듯이 "마이티마우스"의 기술이 아이폰의 홈버튼에 들어간다면, 사실 누군가는 그 제품에서 별로 빛을 보지 못한, 하지만 사실은 꽤 중요한 기술을 재검토했을지 모른다. 바로 마이티마우스의 양쪽에 있는 압력센서. 아이폰5의 홈버튼이 단순한 물리 스위치가 아니라 압력센서를 겸하는 것이라면 그것도 재미있는 딥터치 사례가 되겠다. 실제로 그 마이티마우스의 사례처럼, Expose 화면들의 축소 정도가 압력에 따라서 결정된다면 사용자는 화면을 완전히 전환하지 않고도, 자신이 필요로 하는 만큼만 정보를 훔쳐볼 수 있을 것이다. ... 하지만 다른 버튼도 아니고 홈버튼에 그런 불안한 아날로그 센서를 넣으리라는 기대는 나로서도 좀 무리. =_=

... 이러나 저러나, 역시 이건 그냥 개인적인 소망일 뿐이다.


NFC/RFiD
이게 언제부터 나오던 이야긴데 아직도 안 넣냐. -_-;; 루머에 따르면 애플에서는 아직 그 상품화 필요성을 못 느끼고 안 넣으려고 하는 것같지만, 이미 안드로이드 스마트폰에서는 이를 이용한 어플리케이션을 이용해서 아이폰과 차별화가 이루어지고 있고, 얼마전에는 Google Wallet이라는 서비스가 나오면서 이 방식이 아예 주류 통신채널 중 하나로 급부상하고 있다.

즉 이 대목에서 애플이 iOS에 NFC를 포함시키지 않는다면 안드로이드 기기와 비교될 수 밖에 없을테고, 따라서 그런 결정은 내리지 않을꺼라고 기대하고 있다. 애플 입장에서는 소위 "iTunes 생태계(eco-system)"에 다른 결제 방식이 끼어드는 것을 싫어하는 게 당연하다. 그래서 In-App 결제니 뭐니 만들면서 앱에서 직접 결제하려고 할 때마다 어떻게든 막아왔는데, 이제 와서 전자지갑이니 앱을 통한 인증이니 결제니 하면서 통제할 수 없는 돈의 흐름이 생기는 게 내키지는 않겠지.

... 그래도 이것만큼은, 이번에도 안 들어간다면 애플이 너무 욕심이 많은 거다.



여기까지. 사실 이런 예측... 혹은 제목에 적었듯이 희망사항들(wishlist)이 얼마나 애플의 의사결정권자들의 생각과 맞을지는 모른다. 저번에 그랬듯이 대박 틀릴 수도 있겠지. 단지 정식으로 공개되기 전까지는, 내 생각을 한번 정리해 보고 싶었다.

이건 그저, 후견지명의 오류에 빠지지 않으려는 애플 빠돌이의 몸부림일 뿐이다.
저작자 표시 비영리 변경 금지
신고
Posted by Stan1ey
가을에 출시된다는 iOS 5는 아마도 함께 출시되리라 생각되는 iPhone 5의 화면 크기나 외형 디자인에 대한 온갖 루머에 밀려 상대적으로 그닥 관심을 받지 못하는 듯하다. 그런 건 스티브 잡스의 말을 빌자면 소프트웨어를 담아내는 예쁘장한 상자(beautiful box)일 뿐인데.

그 중에서 개인적으로 주목하고 있는 것 두 가지.

Location-based To-do List

할일목록(To-do List)에 위치정보를 넣자는 기획은 내가 몸담은 회사들마다 한번씩은 다룬 내용이다. 전자제품을 만드는 회사는 물론이고, 게임 회사나 디자인 에이전시도 나름의 목적을 가진 알림 기능이 필요하기에 아이디어 회의를 하다보면 조금씩 다르지만 늘 등장하는 조합들 중 하나다. 안드로이드는 공개적인 개발환경 덕택에 이미 이런 아이디어가 실현되어 있지만 상대적으로 폐쇄적인 iOS의 경우에는 일반 앱이 위치정보에 접근하기가 쉽지 않았는데, 결국 Apple에서 이런 기능을 만들어 버림으로써 이제까지 iOS에 빈약했던 To-do List 기능을 보완하는 앱을 만들어온 회사들은 닭 좇던 개 신세가 되어 버렸다.

하지만 위 그림에서 볼 수 있듯이, 애플에서 만든 앱은 단순히 할일목록과 위치정보를 조합하는 것에서 조금 발전되어, 그 위치에 "도착했을 때" 혹은 그 위치에서 "벗어날 때" 라는 이벤트를 구분한 것을 볼 수 있다. 위치에 별명("Work")을 붙일 수 있는 기능도 있는 모양이고. GPS 신호를 내내 받을 경우 배터리 소모가 장난 아닐테니까 (실제로 앱 개발 가이드라인에도 GPS를 이용한 실시간 위치추적 기능은 구현이 상당히 제한되어 있다) 아마도 휴대폰 망이나 WiFi 위치정보를 활용하는 등 이런저런 방편을 썼을텐데, 그로 인해서 위치 이벤트가 불안정해지는 부분은 어떻게 해결했을지 기대가 된다.


두번째는 뭐, 이미 예전 FingerWorks에서 구현한 방식의 재탕이다.

Multi-finger Swipe on iPad

뒤늦게지만 그래도 드디어, 아이패드에서 네/다섯 손가락 swipe 동작을 이용해서 멀티태스킹 중인 앱들 간의 전환기능을 제공한다고 한다. 원래 핑거웍스에서 제시했던 동작명령과 차이점이 있다면 엄지손가락의 접촉을 따로 구분하지 않는다는 건데, 이건 뭐 기술의 차이로 인해서 손가락들을 명확하게 구분할 수 있는 가능성도 좀 줄었고 접근성 측면에서도 문제를 일으킬 수 있을테니 (오른손잡이/왼손잡이, 신체장애인 등등) 당연한 수순이라고 생각한다.



끝으로 관심이 있는 부분은 뭐 당연히 그 접근성 부분이다. 하지만 아직 여기에 대한 부분은 iOS 웹사이트에 언급이 되어 있지 않고, 뭔가 개선이 될 거라는 언급만 되어 있다. 하지만 최근 공개한 Mac OS X Lion의 Accessibility 항목을 보면 그 꾸준한 투자에 경건한 마음으로 기립박수를 치고 싶은데, 과연 모바일 OS에는 그런 기능들을 어떻게 조합해 넣었을지 벌써부터 두근두근하다.


끗.
저작자 표시 비영리 변경 금지
신고
Posted by Stan1ey
모든 HCI 기술들은 거기에 걸맞는 어플리케이션을 만났을 때 비로서 빛을 발한다. 그렇다면 비교적 최근에 가까스로(ㅎ) 상용화됐다고 할 수 있는 증강현실의 진정한 효용가치는 뭘까. AR의 상용화에 가장 큰 영향을 줬다고 할 수 있는 휴대폰 시장초창기 AR앱들만 보면 대세는 주변지역에 대한 정보를 주는 용도인데, 한편으로 광고계에서는 이와 조금 다른 응용사례들이 여럿 나오고 있다. 바로 플래시 플러그인에서 AR 태그 인식이 가능하게 되면서다.


웹기반 증강현실
개인적으로 처음 접한 웹사이트 상의 AR 실용사례(연구실에서나 개인이 기술시연용으로 만든 게 아니라)는, 2009년 미국 우체국에서 발송할 물건에 따라 소포상자의 크기를 가늠할 수 있게 해주려고 만든 Virtual Box Simulator이다.


(사족이지만, 이 서비스를 기획한 광고 에이전시인 AKQA는 좀 눈여겨 볼 가치가 있는 집단이다. 뭐 여러가지로. ^^; )

사용자 컴퓨터에 웹캠만 달려 있다면, 웹페이지에 포함된 Flash을 통해서 간단한 증강현실을 보여줄 수 있게 된 거다. 이 방식은 별도의 특별한 센서나 모바일 기기나 어플리케이션을 신경써야 할 필요가 없기 때문에, 가히 "범용 AR 플랫폼"이라고 생각하고 있다. 이 조합은 증강현실이 퍼지는 데 상당한 파급력이 있을 거라고 생각하는데, 점점 더 많은 사례들이 온라인에 등장하고 있다.

위 미국 우체국의 사례를 발견한 이후에 재미있는 Flash AR 사례를 짬짬이 모았는데, 대부분의 응용사례들은 광고쪽에서 나오고 있다. 글 쓰는 걸 1년 가까이 차일피일 미루다보니 이젠 모두 나열하기도 벅차게 많아졌고, 그동안 이미 온라인에서 사라져버린 것도 있다. 그러니 그냥 최근의 사례나 몇 가지 소개하고 말기로 하자.


최근의 Flash AR 사례
AR Tag on KitKat
우선 킷캣. -_-; 좋아하는 과자인데, 얼마전 집어들다가 뜻밖에 뒷면에 AR 태그가 인쇄되어 있는 걸 발견했다. 함께 인쇄되어 있는 웹사이트로 들어가서 카메라를 태그를 비추면 뭔가가 나온단다. 결과는 아래 동영상과 같다.



딸랑 저 한 곡뿐이긴 하지만, 손바닥 위에서 돌려가며 볼 수 있는 뮤직비디오라니 나름 신선하다. 이 경우와 같이 가장 단순한 형태인 흑백 도형을 태그로 사용한 경우는 그야말로 우후죽순처럼 많다. 아래는 작년에 발행된 <Desktop>지의 AR 특집의 경우.



찾아본 바로는, 플래시 기반의 AR들은 모두 흑백태그를 사용하고 있는 것같다. 영상처리라든가 하는 데에 제약이 있는 걸까. 반면에 범용성을 포기하고라도 별개의 플러그인을 설치하는 방식을 채택한 경우에는 보다 자유로운 응용이 가능하다.


별도의 AR Plug-in을 사용한 경우
아래의 나이키 LunarGlide 광고 캠페인이라든가 스포츠 수집품 Topps의 경우에는보통의 인쇄물이 태그대신 사용된 경우로, 이 경우엔 별도의 플러그인을 깔고 브라우저를 다시 시작해야 하므로 반칙. 이런 식으로는 과거 연구실 기술시연에 비해서 크게 범용화됐다고 말할 수 없겠다. 하지만 이 플로그인을 개발한 회사 Total Immersion의 경우에는 그동안 여기저기에서 수없이 홍보하고 다닌 효과를 나름대로 거두는 것 같다.





아마 플래시에서 이런 수준의 물체인식이 가능해지면 웹 상에서 구현되는 온라인 AR도 훨씬 더 재미있는 사례가 많겠지만, 현재로선 AR을 적용한 어플리케이션을 최소한의 진입장벽으로 퍼뜨릴 수 있게 해주는 건 Flash AR이고, 그렇다면 결국 크고 단순화된 AR 태그를 사용하는 수 밖에 없어 보인다. 굳이 흑백일 필요는 없을 거라고 생각하지만.


Better Flash AR
그렇다면 Flash AR이라는 그 접근성 좋은 조합은, 그냥 이렇게 그닥 보기도 좋지 않은 흑백 태그를 포장지나 잡지나 광고에 인쇄해 놓고 웹캠을 통해서 홍보용 입체 컨텐츠를 보여주는... 이게 최선입니까? 확실해요?

가장 최근에 눈에 띈, 곧 출범한다는 아이다스의 광고 캠페인을 보면 그렇지도 않은 것같다. 이름하여 무려 "Augmented Reality Shoes" 시리즈라는. ㅡ_ㅡ;;; 우선 동영상.



Adidas Original - Augmented Reality Shoes
위에 링크한 웹페이지에 걸려있는 왼쪽 사진을 잘 보면, 운동화 발등부분에 떡하니 AR태그가 찍혀있다. (솔직히 헉! 내 생전에 AR 태그가 패션 아이템이 되는 모습을 보는 건가!!! ;ㅁ; 싶은 상황이다.) 도대체 무슨 일을 꾸미는 걸까? 위 동영상의 마지막에 나오는 다섯 개 태그를 가지고 뭔가 "AR Game Pack"이라는 개념으로 접근하려나 본데, 위 동영상에서 나온 것처럼 신발의 색이 변하고 구조를 보여주고 거창한 장식이 가상적으로나마 표현되는 거라면 꽤 재미있겠다.

AR Tags for Adidas Originals Augmented Reality Shoes

물론 고정되지 않은 부분에 태그를 달았으니까 화면상에서 실제 신발의 위치/방향과 가상물체를 정확히 일치시킬 수는 없겠지만, 진짜 신발을 들고 움직임으로써 가상신발을 그냥 가상배경 위에서 돌려보고 확대해보고 부분부분의 색상을 바꿔볼 수 있다면 그것만으로도 꽤 재미있지 않을까? 나이키에서 했던 자신만의 신발 디자인하기를 실제 신발을 손에 들고 돌려보면서 해볼 수도 있을 것이다.

이런 사례를 잘 응용한다면 휴대폰 화면에 태그를 띄우고 웹사이트에서 케이스 색상이나 무늬를 선택할 수 있게 한다든가, PC를 연결한/내장한 TV에 웹캠을 달아서 인쇄광고나 태그를 비춤으로써 뭔가 입체적인 홍보영상을 볼 수 있게 하는 등도 가능해질꺼다. 어쨌든 플래시는 여기저기 적용되고 있으니까.

그리고 무엇보다 Adobe에서도 분명히 이 흐름을 보고 있을테니, 앞으로는 영상인식 부분을 강화해서 tag-free AR 수준까지도 가능하도록 해줄지 모르는 일이다.


Accessible AR
휴대기기에 카메라가 들어간 지는 십여년이 지났지만, 그 OS가 표준화되면서 비로서 온갖 증강현실 어플리케이션들이 시장에 쏟아지기 시작했다. 비슷한 시기에 보편화된 웹캠도, 이제 Flash라는 보편적인 플랫폼과 연결이 됐으니 뭔가 재미있는 걸 쏟아내지 않을까하고 상당히 기대하고 있다.




... 해묵은 이슈를 가지고 글을 쓰려니, 이미 김새서 신선한 맛이 없을 뿐이고... 재미도 없고 감동도 없고 딱히 뚜렷한 방향도 주장도 없고... 휴.

앞으론 정말 짧게 써야지. ㅡ_ㅡ

신고
Posted by Stan1ey
이미 제품의 외형이며 어떤 부품이 들어가는지까지 속속들이 드러나 버린 상태에서 이만한 관심을 끄는 제품도 없을 거다. 새로운 아이폰이 드디어 공식발표되고 웹사이트에 관련 내용이 올라왔길래, 한번 훑어보니 역시 짧은 키노트에 모두 포함되지 못한 내용이 좀 있다. 사실 키노트의 내용 중 많은 부분(이를테면 HD영상 녹화, 화상통화)은 오히려 하드웨어를 보고 예상할 수 있는 부분이었기 때문에 조금은 김이 빠져 있었는데, 발표에서 빠진 내용을 보면서 "역시 애플은 대단해..."이라는 덕심이 다시 한번 치솟는 기분을 느꼈다.

iPhone 4의 발표 소식(?)에 대해서는 이미 여기저기서 많이들 올라와 있을테니, 난 HTI 관점에서 직접적인 발표내용 외에 주목할만한 내용들, 그리고 누군가 열심히 UX 개선을 위해서 애쓴 흔적이 눈물겹도록 보이지만, 솔직히 물건을 파는 데 크게 도움이 되지 않아서 발표에서 제외된... 그런 내용이나 좀 정리해 보려고 한다. 서로 돕고 살아야지. (무슨 도움이 되겠다는 건지는 모르겠다만 -_- )

(1) Gyro Sensor
Gyro Sensor in iPhone 4

아 물론 자이로 센서가 포함된다는 사실 자체는 발표 내용에 대대적으로 포함됐다. 근데 이게 무슨 의미를 가질까? 잡스가 보여준 데모는 젠가라는 보드게임이었는데, 사실 휴대폰을 돌리면 화면이 돌아가는 정도는 기존의 가속도 센서로도 거의 불편함을 느끼지 못한 것이기 때문에 조금은 고개를 갸우뚱하게 한다. 이미 관련 블로그에도 그 의미에 대해서 의구심을 표시하고 있기도 하고. 사실 젠가 게임은 순수하게 자이로 센서의 특성을 보여주기에는 좋은 사례일지 모르지만, 실상 가장 강조되어야 할... 위 사진의 맨 아래에 등장하는 6축 동작인식이라는 부분이 잘 드러난 것 같진 않다. 자이로 센서가 들어감으로써, 기존 가속도 센서를 이용했던 회전 감지에 비해서 나아지게 되는 건 뭘까? 

기존에 들어있던 가속도계는 원래 상하좌우로의 직선운동을 잡아내는 물건이다. 마침 지구에는 중력가속도라는 게 있는 덕택에, 아래로 떨어지려는 움직임(정확히는 그 반작용)의 방향을 상하좌우 센서의 입력값을 비교함으로써 알아내고, 그걸 바탕으로 기기의 자세(가로/세로)를 알아내거나 매시각 비교함으로써 상대적인 회전을 찾아내는 것이다. 이렇게 직선운동을 잡아내는 물건으로 회전운동을 찾아내려다 보니, 직선운동과 회전운동을 둘 다, 실시간으로 구분해서, 함께 인식하기가 어렵다는 문제가 있다.

이제 순수하게 회전을 담당할 자이로 센서가 들어감으로써 아이폰은 회전과 직선운동을 동시에 알아낼 수 있게 된 것이다. 이건 단지 잡스의 데모에서처럼 사용자가 폰을 들고 제자리에서 돈다는 정도가 아니라 3차원 공간에서의 자유로운 위치와 자세 변화를 (상대적으로) 인식할 수 있다는 거다. 한동안 유행했던 증강현실(AR)을 예로 들자면, 이제 기준이 되어 줄 AR-Tag가 없이도 임의의 공간을 상정하고 그 주변으로 아이폰을 움직이면서 그 공간에 떠 있는 가상의 물체를 관찰할 수 있을 것이다. 아니 심지어 공중에 직접 3차원 그림을 그리는 건 어떨까. 3차원 그림을 그리고 감상하는 어플도 충분히 가능하리라 생각한다. (가속도 센서와 자이로 센서의 악명높은 오류 누적 문제는 일단 덮어두자. -_- )

사실 이제까지 회전인식을 도와주던 게 3GS부터 들어가 있던 전자나침반인데, 이건 주변 자기장의 변화에 따라 초기화를 시켜주지 않으면 제멋대로 돌아가 버리는 아주 심각한 문제를 가지고 있다. 그렇다고 지도 서비스에서 동서남북을 알아낼 수 있는 기능을 버릴 순 없으니, 결국 다소 중복되는 것 같더라도 자이로 센서를 다시 추가했음을 짐작할 수 있다.

이로서 아이폰에는 자세를 알아내는 센서만 3개다. 이 센서값들을 개발자에게 어떻게 활용하기 쉽게 제공할지가 관건이 되겠지만, 이제 사실 더이상 넣을 센서도 없게 된 만큼 iPhone 4는 뭔가 궁극의 입력장치가 되지 않을까 기대하고 있다. 특히 닌텐도 Wii의 MotionPlus 리모트가 가속도 센서와 자이로 센서, 그리고 적외선 마커를 이용한 기준위치(화면)를 알아내서 정밀한 움직임을 측정하고 있다는 걸 생각해 보자. 아이폰은 이제 시각적 마커를 카메라로 알아낼 수도 있고, 심지어 나침반과 GPS 정보로 마커를 대신할 수 있게 됐다. 이상적으로 말하자면, 아이폰은 지구상 어디서 어떤 위치/높이에 어떤 자세로 어떤 움직임으로 사용되고 있는지를 완벽하게 계산할 수 있게 된 것이다. ... 어떻게 보면 좀 무섭다. ㄷㄷㄷ


(2) FaceTime using Rear Camera
FaceTime on iPhone 4
뒷면 카메라를 이용한 화상통화. 이것 역시 키노트에서 발표된 주요 내용 중 하나이긴 하지만, UX 관점에서는 꽤 신선한 느낌이다. 사실 화상통화(WiFi를 이용해서만 된다니 화상채팅?)는 거는 사람이나 받는 사람이나 다소 부담스러울 수 있는 상황이고, 사실 얼굴이야 서로 잘 알고 있을테니 얼굴만 봐도 좋은 연인 사이가 아니라면야 그보다 내가 지금 보고 있는 장면을 공유하면서 화제로 삼는 게 좀더 유용한 화상통화의 활용방법일 수 있겠다.

사실 이런 식의 활용에 대해서는 예전에 좀 들여다 본 적이 있는데, 이 특허 - 화상통화를 하면서 전면 카메라와 후면 카메라를 전환할 수 있는 - 는 국내 L모사가 6년전 쯤에 출원했던 것으로 기억한다. 결국 그게 특허로 등록이 되었는지, 그리고 그 특허가 혹시나 이번에 FaceTime을 굳이 WiFi 버전으로만 내는 데에 어떤 영향을 미쳤는지는 모를 일이다. (사실 애플이 언제 특허 신경 썼나... 아마 전송되는 화상의 품질 때문에 내린 결정이라고 보는 게 더 타당할꺼다.)

이 기술은 기존에 3G 망을 통해서 할 수 있었던 화상통화와 전혀 다르지 않아 보이기 때문에 처음 발표를 접한 사람들도 "남들은 이미 다 하고 있었다"면서 시큰둥한 반응이 있기는 했지만, 전화통화 상대방과 전화망 외의 ad-hoc IP 네트워크 연결을 순간적으로 해준다는 건 꽤 혁신적인 발상이다. 다른 네트워크(3G 등)으로 확장하는 것도 어렵지 않은 방식이긴 하지만, 사실 굳이 화상통화를 WiFi로 제한한 것은 아이폰 덕택에 기하급수적으로 늘어나는 통신사의 데이터 통신망의 부하를 어떻게든 줄여주고자 하는 제스처 아니었을까. 이런 식이라면 화상통화를 하면서도 통신사의 데이터망은 건드리지 않을 수 있을테니까.

이게 만일 MSN 메신저와 같은 방식으로 어딘가에서 각 통화자들의 IP를 연계해주는 화상채팅 중계 서버가 있는 거라면 여러가지로 문제가 되겠지만... 굳이 "zero set up"을 강조하고 "open standard"로 추진하는 걸로 봐서는 그냥 폰과 폰이 직접 P2P로 IP를 주고받고 화상망을 구축하는 방식인 듯 하다. (만일 따로 중계서버가 있어서 아이폰 사용자의 화상통화 상황을 알 수 있다면... ㄷㄷㄷ )


(3) The Second Camera
Front Camera on iPhone 4
화상통화와 함께, 드디어 결국 전면카메라가 들어갔다. 이미 지난 수년간 디지털 카메라에 들어간 얼굴인식/미소인식 등의 영상인식 기술이 특허침해 같은 거 검토하지 않고 무작위로 App으로 등장하고 있는 와중에, 전면카메라가 갖는 의미는 각별하다. 이를테면, 아래와 같은 걸 아이폰에서 볼 수 있게 된 것이다!



혹은 이전에 소개했던, 전면카메라를 활용한 NDSi의 (조금은 우스꽝스러운) 게임들은 어떨까. 앞의 자세 인식 센서들과 함께 전면카메라의 사용자 얼굴인식 기능이 합쳐진다면, 이건 뭐 어떤 괴물 앱이 나와도 이상하지 않겠다. 키노트 내용에 따르면 전면 카메라에 대한 API도 개방될 것 같으니, 개발자들이 어떤 사고를 쳐줄지 두근두근 기다려 보자.


(4) Dual Mic

마이크가 위아래로 2개 들어간다는 소리가 나오는 순간 눈이 번쩍 떠졌다. 전화를 표방하는 기기에서 마이크가 2개 들어간다면, 이유는 뻔하다. 발표 내용에도 나왔듯이, 배경의 잡음을 없애 깨끗한 음성을 보내기 위함이다. 양쪽 마이크에 입력되는 음의 파형을 시간축으로 미리 설정한만큼 평행이동 하면, 아래쪽 마이크 가까이 있고 위쪽 마이크에는 어느 정도 떨어져 있는 (즉, 음성이 전달되기까지 시간이 좀 걸리는) 사용자의 음성이 겹쳐지게 된다. 나머지 음향정보는 사용자 음성이 아닌 주변 잡음이기 때문에 신호를 줄여버리면, 깨끗한 음성만 보낼 수 있는 거다.

사실 이 기술은 2년전쯤 "알리바이폰"이라는 명칭으로 국내에도 상품화된 적이 있으니, 새롭다고 하긴 어렵다. 기술에 붙인 이름이 좀 위험스러워서인지 마이크 하나 더 붙이는 단가가 부담스러웠는지, 어쨋든 "깨끗한 통화"라는 본래의 취지가 무색하게 이후의 휴대폰에서 이 기술이 적용된 사례는 찾아보기 어렵다. :(

어쨋든 dual mic의 채용에 반색하는 개인적인 이유는, 물론 음성인식률의 향상을 기대하기 때문이다. 여러 개의 마이크(mic array)를 이용해서 음성명령의 공간 상의 위치(방향/거리)를 파악하고 나머지 음향을 소음으로 여길 수 있다거나, 심지어 여러 명이 동시에 말하는 내용을 따로따로 구분할 수 있다는 기술만큼은 아니겠지만... 그래도 이 마이크 입력을 이용하면 통화나 음성인식 뿐만 아니라 박수소리의 방향/거리를 알아낸다든가 동영상 녹화 시에 배경음을 녹음할지 녹화자의 음성을 녹음할지 선택할 수 있다든가 하는 기능도 구현할 수 있을 것이다. 단지 이 마이크들에 대한 API에 대해서는 따로 언급이 없었고, 무엇보다 이런 신호처리를 하려면 그냥 주어진 조건(귀옆에 대고 통화하는)에 맞춰서 하드웨어에 프로그램을 박아 버리는 게 편하기 때문에 과연 그 정도의 자유도가 개발자에게 주어질지는 모르겠다. 그냥 위 조건에 맞춰진 잡음제거 기능의 강도를 조정하는 정도가 아닐까?


(5) N-Best Type Correction
Type Correction on iPhone 4
터치스크린의 잦은 오입력을 보완하기 위해서 아이폰을 필두로 많은 스마트폰은 어절 수준에서 오류를 인식하고 자동으로 수정해 주는 방식을 채택하고 있다. 어절을 기준으로 한 수정방식이 한글이나 조사/어미를 갖는 다른 언어들에 맞지 않는다는 점은 차치하더라도, 기존의 방식은 띄어쓰기나 마침표 등을 입력할 때 무작정 오류(라고 생각한) 입력을 지우고 대안으로 바꿔버리기 때문에 자주 쓰지 않는 단어를 입력할 때마다 사용자가 아차하는 순간에 의도하지 않은 내용이 입력되는 경우가 많다. 사실 이건 모든 인공지능 입력 기술이 가지고 있는 공통적인 인식률의 문제이기도 하고.

그런데 이번에 공개된 내용 중 한 페이지에는 다른 부분과 달리 오타로 추측되는 어절을 분홍색으로 표시한 후 사용자가 터치하면 몇가지 대안(인식기술 쪽에서는 N-Best라는 표현을 쓰는, 사실은 가장 흔한 방식이다.) 중 하나를 선택할 수 있게 해 주는 내용이 나와 있다. 문자 메시지의 경우에는 안 되고 이메일에만 되는 기능이라면 사용자의 혼란이 있을 것도 같은데, 어쨋든 이렇게 사후수정 방식이라면 터치스크린과 잘 어울리기도 하고, 의도하지 않은 수정을 없애거나 다시 복구하기 쉽게 만들 수 있을 듯 하니 반가운 일이다. 터치스크린의 오터치 보완 방식이 조금은 인간을 위해 겸손해진 느낌이랄까.


(6) Faces and Places
Faces - Face Recognition on iPhone Photo Album on iPhone 4Places - Location-based Photo Album on iPhone 4

이미 iPhone OS 4 (이젠 iOS 4가 됐다)의 개발자 버전을 통해서 많이 누설됐지만, 데스크탑용의 Mac OS에서 구동되는 iPhoto를 통해서 가능했던 Faces와 Places 사진정리 기능이 아이폰으로 들어왔다. 어찌나 반갑던지. :)

설명을 보면 Faces 기능은 iPhoto와 함께 사용할 수 있다고 되어 있는데, 이거 iPhoto에서 얼굴인식한 내용을 가지고 모바일에서 보여주기만 한다는 건지, 아니면 그냥 얼굴인식은 각자 하고 그 meta-tag를 공유한다는 얘긴지 모르겠다. 작년에 보여준 iPhoto의 얼굴인식 및 등록 기능은 아이폰에서 똑같이 만들기에 사용자 입장에서도 기술적으로도 어려워 보이지 않았으니 전자는 아니라고 생각하지만, 그렇다면 왜 굳이 iPhoto를 언급했을까... 이 부분은 조만간 개발자 버전을 깐 사람들이 규명해 주리라 생각한다.



그리고...

ASL Users using FaceTime on iPhone 4
아래의 나머지는 늘 굳이 내세워 발표하지 않는, 장애인을 고려한 확장된 접근성에 대한 부분이다. 애플은 위 FaceTime을 홍보하는 동영상에도 수화로 대화하는 연인을 넣을 정도로 장애인에 대해서 고려하고 있으면서, 절대로 그걸 크게 부각시키는 법이 없다. 어쩌면 "특정 사용자 전용이 아닌, 더 많은 사용자에게 편리한" universal design의 철학에 가장 걸맞는 모범을 보이고 있다고나 할까.


(7) Gesture-based Voice Browsing
Gesture-based Voice Browsing on Safari, iPhone 4
우선 첫번째는 웹 브라우저. 이미 들어가 있던, 웹페이지 내용을 음성으로 읽어주는 기능에 더해서, 웹페이지의 특정부분에 손가락을 대면 바로 그 부분의 텍스트를 읽어주는 기능을 추가했다. (왼쪽 그림에서는 오른쪽 아래 광고(?) 영역을 선택해서 듣고있는 상태)

기존의 screen reader 프로그램들은 HTML 코드를 내용 부분만을 잘라내어 처음부터 줄줄이 읽어주는 게 고작이었고, 일부러 시각장애인을 고려해서 코딩하지 않는다면 어디까지가 메뉴고 어디부터가 본문인지도 알기 힘들었다. 그런데 이렇게 모바일 기기의 터치스크린의 장점을 살려서 손에 들고 있는 페이지의 특정 위치를 항행할 수 있게 한다는 것은 정말 혁신적인 장점이 되리라 생각한다.


(8) Rotor Gesture

이 기능은 3GS부터 있던 기능이라는 것 같은데, 왜 이제서야 눈에 띄었는지 모르겠다. 화면 상에 실제로 뭔가를 표시하는 건 이번이 처음인 것 같기도 하고... 어쨋든 이 기능은 두 손가락을 이용해서 회전식 다이얼(로터)를 돌리는 듯한 동작을 하면, 아마도 그 각도변화에 따라서 몇가지 음성항행 모드 중 하나를 선택해 준다. 이를테면 목록을 읽을 때 제목만 읽기라든가, 바로 기사 본문으로 가기라든가, 링크된 영역만 읽기라든가... 기존의 음성 웹 브라우징은 키보드 단축키를 통해서 이런 모드를 지원했는데, 이 로터 제스처는 터치스크린에 맞춘 나름의 좋은 해법인 것 같다.


(9) Braille Keyboard Support
iPhone 4 Supports Braille Keyboards via Blutooth
말 그대로, 블루투쓰를 통한 25개 언어의 점자 키보드를 지원한단다. 휴... 이건 정말 쉬운 결정이 아니었을 듯. 점자 키보드라는 게 얼마나 표준화가 잘 되어 있는지 모르겠지만, 경쟁사의 다른 무선 키보드와도 연동하기 까다롭게 만들어 놓기로 유명한 애플사다. 이렇게 점자 키보드를 위한 입력을 열어놓으면 분명히 제한없이 공개되어 있을 그 방식을 적용한 비장애인용 키보드 제품이 쏟아질 건 자본주의의 이치. 비록 악세사리라고는 해도 독점이 가능한 키보드도 팔고 있으면서 이런 결정을 내린 사람들은 도대체 어떤 경영진, 어떤 책임자, 어떤 월급쟁이일까. 어쨋든 훌륭한, 심지어 존경스럽기까지 한 결정이다.



이상. 사실 별다른 관심이 없던 발표여서 신나는 내용이 많기는 했지만, 왠지 개인적으로 다음 달에 판매한다는 iPhone 4를 바로 구매할 만한 큰 계기는 찾지 못했다. 무엇보다 루머의 RFiD도 안 들어갔고... 지금 쓰고 있는 아이폰을 1년반 넘게 썼으니, 2년을 채우고 고민해 봐야 할 듯 하다.
저작자 표시 비영리 변경 금지
신고
Posted by Stan1ey
관공서에 가는 것은 언제나 큰 도전이었다. 마치 어떻게 하면 사용자 중심 디자인에서 멀어질 수 있는가를 열심히 연구한 듯, 일단 내가 하고 싶은 일을 '행정용어'로 뭐라고 하는지 부터 알아야 어디로 발걸음을 옮겨야 할지 알겠는데, 사용하는 단어 하나하나가 모르는 한자어에 약자 투성이인데다가 '그것도 모르냐'는 고자세의 공무원들에게 압도되는 건 기본, 복잡한 서류 채우기를 진땀 흘리며 하다보면 내가 무슨 죄를 지어서 이런 벌을 받나 싶을 때도 있는 것이다.

이런 경험들은 영국에서도 마찬가지인지, 여기서 만들어진 이야기인 <Hitchhiker's Guide to the Galaxy>에서도 "은하계에서 가장 역겨운 종족"이라는 보곤족을 묘사하는 장면에서는 그런 모습을 속속들이 풍자하고 있다.

Bureaucracy in Hitchhiker's Guide to the GalaxyBureaucracy in Hitchhiker's Guide to the Galaxy

결국 그 날이 오고야 말았다. 이제 새 집을 구했으니 법적인 거주지로 등록하고 세금을 내겠다고 신고하러 가야 했던 거다. ㅎㄷㄷ.

그런데 정작 찾아간 시청 창구에는 우리나라처럼 뭔가 채워야할 양식이 잔뜩 있는 게 아니라 그냥 번호표만 뽑아서 기다리게 되어 있다. 기다리다가 가라는 창구로 가서 앉아보니 바로 옆에 눈에 확 띄는 안내문들이 붙어 있었다.

Accessibility for All, beside Administration Office Agent

왼쪽 위의 안내문은 눈이 안 좋거나 해서 글자가 크게 인쇄된 안내문이 필요하면 요청하라는 내용이고, 오른쪽의 것은 영어를 못할 경우 -_-;; 필요한 언어를 손가락으로 가리키면 전화통역사를 통해서 관공서 서비스를 할 수 있게 해주겠다는 내용이었다. (한국어는 왼쪽 맨 아래에 있다.) 여러가지로 신경을 쓴 흔적이 보인다.

게다가 뒤쪽의 기둥에 붙어있는 포스터들에는, 동성커플과 청각장애인을 위한 안내문까지도 붙어있었다.

Accessibility for All, beside Administration Office Agent

... 뭐 이런 걸 가지고 일일이 감동하기도 지쳤다. 이제 슬슬 오버라는 생각도 들고. 그러니 그냥 뭐 그런가보다 하고 넘어가려는데, 정작 나를 담당한 agent 아줌마가 이것저것을 물어보면서 자기가 서류를 작성하는 걸 보고 그만 감동해 버렸다. ;ㅁ; 공문서라는 게 내가 직접 작성하지 않아도 되는 거구나!!! 사실 나보다는 담당자가 훨씬 더 잘 알테고, 그럼 내가 나 편한대로 이야기하면 공무원이 형식에 맞게 채워넣는 게 효율적이라는 건 당연지사. 실제로 내가 주소를 이야기하니까 그게 공문서에서는 이렇게 적는 편이 더 정확하기 때문에 이렇게 바꿔 적습니다..라고 설명해 주기까지 했다.

신고절차를 마치자 내가 내야 할 세금이 얼마인지를 바로 계산기 두들겨가며 설명해주고, 어떻게 내는 방법들이 있는지를 설명한 후에 같은 내용을 우편으로 다시 보내기로 하고 돌려보낸다. 와... 한국에서는 내 돈을 내고 상담을 받을 때에도 이렇게 눈높이를 낮춰주는 '전문가'를 본 적이 없다. ㅡ_ㅡa;;;


창구 옆에 쌓여있길래 집어든 안내문도 이런 관점에서 아주 흥미롭다.

MONEYmadeclear leafletMONEYmadeclear leaflet
사용자 삽입 이미지사용자 삽입 이미지

관공서에 쌓여있지만, 경고로 가득한 정책 설명이나 전문용어 투성이 법규의 나열도 아니고, 표지에 적혀있듯이 상품을 팔려는 홍보물도 아니다. 마치 초등학교 참고서마냥, 돈을 아끼는 방법을 쉬운 말로 조목조목 적고 있다.

이 문서를 만든 것은 FSA(Financial Services Authority)라는 회사인데, 분명히 .gov.uk 주소를 가지고 있으면서 스스로는 재무 서비스 기업으로부터 돈을 받는 회사라고 정의하고 있다. 뭐 이건 별로 상관없을 것 같으니 넘어가자. 위 소책자는 이 회사의 MONEYmadeclear 라는 홍보전략(?)의 일환인 듯 한데, 이 캠페인 웹사이트를 가보니 더 멋지다.

MONEYmadeclear website

단어 하나하나에 어찌나 공을 들였는지가 보이는 웹사이트다. IA나 GUI에 신경을 많이 쓰는 웹사이트는 많이 늘었지만 글로 적힌 내용에 이 정도 공을 들였다니 참 대단하다 싶다. 특히 저 위의 소책자에는 "from Financial Services Authority"라고 되어 있는 부제가, 웹사이트에는 "from the UK's financial watchdog (FSA)"란다. 자기 이름까지도 어려우면 쉽게 바꿔주는 센스. 다른 곳에서는 생전 찾아볼 수 없는 한자어로 복잡하게 만들어놓고 게다가 약자로 부르면서 그것도 모르냐는 어디의 누군가와는 달라도 너무 다르지 않은가. -_ㅜ

(참고로 위 웹사이트에서는 내가 집어온 것 외에도 다른 시리즈 소책자를 PDF로 제공하고 있다. 기껏 어렵게 찍어서 올렸으니 그냥 두련다. 자세한 내용은 다운로드할 수 있는 PDF 파일들을 참고하시길.)



물론, 우리나라도 많이 변했다. 이제 "구정도 서비스"라는 주장도 하고 있고 (하지만 여전히 구정 - 구 행정(?) - 이라는 자기만의 용어를 사용하면서), "대민 서비스"도 (대민 -_-; 어디서는 tax payer인데 어디서는 백성이다) 많이 개선하겠다고 하는가 하면, "민원 처리"(처리해야 할 민원? ;ㅁ; 떼쓰러 온 것 같잖아) 프로세스를 간략화 하겠다는 기사도 봤다. 하지만 뭐랄까 그런 말부터 속보이는 전시행정 말고, 진짜 성심껏 몸을 낮춰주는 이런 자세는 어떻게 배워갈 수 없을까? (배워 가겠다고 윗분들 우르르 놀러 오라는 뜻이 아니다. -_-=3 )
신고
Posted by Stan1ey
얼마전 Apple이 iPod nano의 4세대 모델과 touch의 2세대 모델, iTunes 8 등을 발표했다. 황당한 부고기사까지 나돌았던 스티브 잡스는 그 기사를 농담꺼리로 삼으며 재치있게 발표를 시작했지만, 지난 일년간 부쩍 노쇠해진 모습은 여전히 안타깝다.

이번에 발표된 제품군들은 비록 몇건의 사전누설 '루머'로 좀 김이 빠지긴 했지만, 애플의 엔지니어링 철학이라고 생각되는 "we are selling software, in a beautiful box"에 그야말로 부합되는 내용이었다고 생각한다. 유출된 내용들은 대부분 그 껍데기의 모양이 어떻다는 것에 대해서 였지만, 발표 내용은 주로 새로운 기능에 대한 것이었고, 그에 대해서는 여전히 놀라운 새로운 경험 일색이었으니까 말이다.



그런데, 며칠 늦게서야 키노트 연설 발표를 모두 들을 수 있는 시간이 생겨서 한번 쭉~ 틀어보던 중에 조금 석연치 않은 부분이 눈에 띄었다. iTunes 8에서 앞으로 HD 방송을 볼 수 있다는 이야기를 하고 나서다.

New Features in iTunes 8, including Accessibility

iTunes의 새로운 4가지 특징들을 소개하면서, 앞서 소개한 HD 컨텐트 외에 접근성 Accessibility 이 개선되었으며, 새로운 브라우징 방식이 도입되었고, "Genius"라는 새로운 음악추천 기능이 포함되었음을 소개하고 있다. 그리고 나서 잡스는 접근성에 대해서 간단히 몇마디 언급한 다음, "그럼 다른 2개의 기능에 대해서 자세히 봅시다" 라고 하고 훌쩍 넘어가 버린다. 왜 (최소한 나에게는 괜시리) 중요한 접근성만 그냥 얼렁뚱땅 넘어가는 건데, 잡스옹! ㅡ_ㅡ;;;

흠... 뭔가 미심쩍다. 애플이 이제까지 Mac OS X에서 장애인을 위한 접근성 옵션을 위해서 그렇게 노력한 걸 생각하면 그냥 그렇게 어물쩍 넘어갈 것 같지 않은데, 게다가 발표 뒷부분으로 가면 iPod 제품이 환경에 미치는 영향에 대해서도 그렇게 강조하고 있으면서 말이다. 그래서 웹사이트를 뒤져서 관련 정보를 좀 알아봤다.

Website on the New Features of iTunes 8
우선, Mac OS X에는 MS Windows XP/Vista와 마찬가지로 음성합성 엔진이 내장되어 있다. 기본적으로는 영어 뿐이지만, 그래도 시각장애를 가지고 있는 사람이라면 이 기능을 이용해서 OS의 다양한 기능들을 이용하거나, 웹사이트를 읽어주는 screen reader 소프트웨어로 인터넷을 돌아다닐 수 있는 것이다. iTunes에서는 8 버전부터 내장된 iTunes Music Store(ITMS)와 음악 리스트에서도 screen reader를 지원한다고 한다. iTunes의 기본 기능들 자체는 이미 Mac OS X의 "VoiceOver" 기능으로 지원하고 있었겠지만, 사실 그것만으로는 음악 컨텐트 관리 프로그램으로서의 의미가 없었던 셈이다. 그런데 이번에 실질적인 컨텐트 수준에서도 음성을 지원함으로써 '다른 누구보다도 청각적 니즈가 절실한' 시각장애인들에게 iTunes와 iPod의 편리함이 '접근 가능하게'  됐다.

그런데, 사실은 웹사이트를 더 뒤적이다 보니, 이외에도 더 추가된, 심지어 발표에서는 언급조차 되지 않은 기능이 iPod의 접근성을 향상시키고 있었다. iPod를 사용할 때 메뉴나 곡명 등을 음성으로 읽어주는 "spoken menu" 기능이 이번부터 새로 옵션으로 들어간 것이다. 메뉴나 다른 정보를 음성으로 읽어주는 MP3 Player가 기존에 없었던 것은 아니지만 내장형 embedded 음성합성기를 이용했거나, 녹음된 메뉴이름(만)을 지원했거나, 혹은 그냥 번들로 제공되는 PC용 음성합성기가 MP3 파일을 만들어 줘서 그걸 플레이어에 다운로드 받을 수 있다는 정도였다. (앞의 사례들은 기억이 확실치 않다...) 그에 비해서, 이번에 애플에서 지원하는 방식은 조금 특이한 구성을 가지고 있다.

Spoken Menu - New Feature on iTunes 8 and iPod nano
이 기능은 새로운 4세대 iPod nano를 iTunes 8에 연결시켰을 때 사용할 수 있으며, 왼쪽 그림과 같이 연결화면에서 아래의 4번째 옵션(고해상도 이미지가 없다... 그만큼 관심들이 없는 듯 -_ㅜ )을 보면 "Enable spoken menus for accessibility"라는 항목을 체크할 수 있고, 이를 체크함으로써 iPod에 들어있는 메뉴와 곡명에 해당하는 음성파일을 PC에서 합성(이때 MS Windows에서도 Mac OS X에서도 기본 제공되는 음성합성엔진 형식을 사용하게 된다!)해서 iPod에 다운로드하게 되는 것이다. 이에 따라서 iPod의 용량이 다소 줄어들게 되고 (각 곡명이나 아티스트에 대한 것일테니 그다지 크진 않겠다) 음성합성과 추가된 음성파일의 다운로드를 위해서 Sync 시간은 좀더 늘어나게 된다.

이렇게 iPod + iTunes라는 시스템을 이용해서, 그것도 시스템 기본사양인 음성인식엔진을 활용함으로써 합성음의 품질도 보장할 수 있는 방식으로 제공된다는 것은 Voice UI 입장에서 무척 고무적인 일이다. 비록 많이 향상되었다고 하지만 음성합성을 위한 DB의 용량이 곧 합성음의 품질에 영향을 미치는 것을 생각해 보면 (많이 주관적인 기준이 되겠지만, '듣기 좋은 소리'로 그럭저럭 용납되기 위해서는 압축과 최적화를 거친다고 해도 1GB 이상이 필요하다고 보면 된다) embedded 버전의 음성합성은 아무래도 DB 용량과 이를 관리하기 위한 CPU의 효율성에 있어서 한계가 있다. 하지만 PC에 설치되어 있는 비교적 고사양의 음성합성기를 사용함으로써 (이것마저 충분히 듣기좋은 소리인지는 잘 모르겠고, 무엇보다 고유명사와 은어가 난무하는 음악의 곡명 등에 최적화되기는 불가능하지만;; ) 좋은 음성을 서비스할 수 있게 된 것이다.

애플은 왜 이런 접근성에서의 큰 향상을 이루어 놓고서는, 그렇게 대충 발표하고 넘어간 것일까? iPod touch나 classic에는 못 넣고 nano에만 넣은 게 미안해서? 발표를 듣는 사람들이 대부분 눈이 잘 보이는 일반적인 프로그래머들이어서? 아니 아무리 그래도 이 정도 노력을 기울였다면 "주머니에 넣고도 조작할 수 있습니다!" 라는 핑계를 대서라도 대서특필 했어야지! ㅡ_ㅡ=3 응?



가만 ... 그러고보니, 한가지가 더 마음에 걸리기 시작한다. 이번에 함께 발표된 iPod의 기능 중 하나로 'Voice Recorder'를 넣었다. 사실 뭐 대단할 것도 없는 기능이고, 기존에도 마이크와 함께 파는 3rd party software를 사면 사용할 수 있었던 기능이다. 물론 기존의 iPod에는 마이크가 없었기 때문에, 이번에 함께 발표된 이어폰 2종류는 볼륨조절, 재생, 멈춤, 앞뒤이동 기능이 달린 컨트롤러 뒷면에 마이크가 포함되어 있는 채로 출시되었다.

Headphone with microphone ... for nano?Voice Recorder on Mic-less iPod nano 4G

애플이 마이크라는 하드웨어 단가상승을 감수하고 넣은 게 기껏 음성을 녹음할 수 있는 기능이라고? 그 이어폰을 '우연히' 음성입력이 별 필요없고 분명히 니즈도 크지 않은 iPod nano와 함께 발표했다고? 그나마 음성인식기능은 기본 탑재되어 있고 마이크 달린 이어폰은 돈 주고 사야 돼? 애플이 이렇게 생뚱맞은 기능이 추가되는 그런 기획을 하는 회사였던가?

그럴리가 없다... 뭔가 있어... -_-+ ☜ 애플빠돌이 ㅋㅋ

물론 간단히 생각할 수 있는 것은, 헤드폰과 iPhone과의 관련성이다. 이번 발표는 주로 iPod 위주였고, 따라서 iPhone의 핸즈프리 hands-free set 로도 사용할 수 있다고 굳이 언급하지 않았을 뿐이라고 생각할 수 있겠다. 물론 사실 그도 그렇겠고 나름대로 기대되는 조합이지만, 왜 하필 nano와 함께 발표하게 된 걸까?



순전히 나의 개인적인 기대일수도 있지만, 어쩌면 조만간 iPod nano는 주머니 속에 넣은 채로, 음성인식을 통해서 조작되게 되지 않을까 싶다. 혹시나 싶어서 특허를 뒤져보니 음성인식과 음악감상을 연결시킨 것은 사실 찾아볼 수 없었다. (단지 위의 음성메뉴 기능은 2003년에 출원했다가 아직 등록이 안 되고 있다;; ) 그냥 죽은 VUI XX 만지기가 될지도 모르겠지만, 그래도 이번에 발표된 내용에 숨어있는 이야기를 조합해 보면, 다음 애플의 주요 발표에 과연 어떤 것이 들어갈지, 혹은 최소한 App Store를 통해서 출시될 제품들이 이 마이크를 이용해서 어떤 짓을 할지가 무척이나 기대된다. 특히 일전에 iPhone에 음성인식기를 넣은 사람들, 모든 iPod에 적용되는 표준화된 마이크를 보고 얼마나 눈을 반짝이고 있을지는 익히 상상이 된달까. ㅎㅎ


... ㅠ_ㅠ (註: 피눈물)
신고
Posted by Stan1ey
Welcome to Dundee City Council - in various language
Welcome to Dundee City Council - in sign language

BrowseAloud supported for the visually challenged persons
Large font size supported for the visually challenged persons


위의 그림들은 Dundee City Council 홈페이지에 가면 늘 떠있는 것들이다. 일전에도 이 동네에서 소수자들의 인권을 얼마나 신경쓰는가에 대해서 몇번 이야기한 적이 있는데, 이 쪼만한 도시에서 분명 소수에 주장도 강하지 않을 외국인과 장애인을 위해서 이만큼 씩이나 애쓴다는 게 참 신기하다.

아래는 홈페이지를 캡춰한 것... 위의 아이콘들을 찾아보자. (응? -_-;; )

Home
웹사이트 중 여러 말로 바뀌는 애니메이션 배너를 누르면 나오는 페이지

이 웹사이트에는 이 외에도 BrowseAloud의 설치 및 사용방법에 대한 페이지라든가, 웹페이지의 접근성에 대한 별도의 페이지W3C의 WAI 가이드라인을 기준으로 전문적으로 제시되어 있다던가, 보통 크기의 글자 외에도 큰 글자를 지원한다든가, 화면 가로해상도가 1024 픽셀이 아니라 800 픽셀일 경우를 위한 레이아웃을 지원하는 등 애를 많이 쓰고 있다. 한때 웹디자인의 접근성에 대해서 목아프게 설교했던 입장에서는 그야말로 감동적인 수준이랄까.

웹 디자인 자체는 도시 규모에 맞게 뭐 그만저만 하지만, 그 관리자의 의식만큼은 이제까지 내가 '들여다 본' 어떤 사이트 - BBC나 NYT를 포함해서 - 에도 뒤지지 않는 듯 해서 새삼 고개가 숙여진다.
신고
Posted by Stan1ey

BLOG main image
by Stan1ey

카테고리

분류 전체보기 (347)
HTI in General (45)
User eXperience (11)
Voice UI (50)
Vision UI (14)
Gesture UI (25)
Tangible UI (28)
Robot UI (14)
Public UI (9)
Virtuality & Fun (56)
Visual Language (15)
sCRAP (70)

글 보관함



www.flickr.com
This is a Flickr badge showing public photos and videos from Stan1ey. Make your own badge here.