Cover Image of Interactions, 2008 Nov-Dec issueSignifier, Not Affordance, a column by Don Norman

지난 달(11월 중순에 쓰기 시작한 글이 이제서야 ;ㅁ; )에 도착한 <Interactions>지 11-12월호를 보면서 순간 얼마나 기대를 했는지 모른다. 무려 머릿기사가 "Designing Games"... 아무리 뭐 눈에 뭐만 보인다고 해도, 요새 업계가 어쩌면 이렇게 내 관심사를 잘 긁어주는 거냐... 하며 열심히 들여다 봤다.

... 싸우자. -_-+=3

어떻게 기사 딱 하나를 가지고 머릿기사로 세울 수 있으며, 그나마 하고많은 기사 중에서 이번 호에 가장 횡설수설하고 무슨 소린지 모르겠는 기사를 골랐냐고. 기사의 내용도 결국 '게임 플레이 디자인도 인터랙션 디자인인데, 좀 많이 다르고 경우에 따라 다르다'는 요지. 아하... ( '-')y~oO



어쨋든 다른 기사도 보자..하다가 발견한 게 Donald A. Norman 할아버지가 매번 싣는 컬럼이다. 이번의 제목은 <Signifiers, Not Affordances>. 사실 심리학에서 사용되던 affordance라는 개념을 디자인 분야(당시에는 뭐 딱이 'UI'라고 따로 할만한 분야도 없었으니까)로 가져온 것도 돈 노먼 할아버지 였는데, 딱 20년만에 이런 제목의 컬럼을 썼다는 건 딸랑 2쪽짜리 컬럼이라고 해도 좀 곱씹어 읽어줄 필요가 있겠다. 고맙게도 이 컬럼은 이 분 홈페이지에도 올라와 있다.


그냥 내멋대로 요약정리하자면, 결국 '사용 방법의 예감'을 주는 무언가(physical affordance)를 의도적으로 디자인해 넣지 않고, 심지어 물리적으로 존재하지 않는 상황에서도 그 맥락 속의 사람들이나 물체의 행태(social signifier)에서 사용 상황을 파악할 수 있다는 것을 지적하면서 다음과 같이 주장하고 있다.

Social signifiers replace affordances, for they are broader and richer, allowing for accidental signifiers as well as deliberate ones, and even for items that signify through their absence, as the lack of crowds on a train platform. The perceivable part of an affordance is a signifier, and if deliberately placed by a designer, it is a social signifier.

Designers of the world: Forget affordances. Provide signifiers.

(컬럼 맨 끝부분에서 발췌)

위 말미의 주장 자체는 상당히 강한 어조로 씌여있지만, 결국 본문에서 말하고 싶은 내용은 원래 affordance를 통해서 '지각된 의미' 대목이 중요한 거 였는데 어쩌다보니 손잡이니 뭐니 하는 물리적인 디자인 요소로 많이 치우쳐 졌다는 게 안타까우신 거고, 그러니 다른 개념의 도움을 좀 받아서 그 '지각된 의미' 개념을 추상적인 인지 수준으로 확장해서 signifier라고 하자는 내용으로 보인다. 이를 위해서 들고 있는 사례를 보면 과연 행동과학 activity science 에서 보여주던 사례(현금입출기 앞에 가로로 선을 하나 그어놓으면 괜시리 그 선을 넘지 않는다던가), 분산인지 distributed cognition 연구에서 보여주던 사례(명확하게 주어진 정보가 아닌 주변환경 속의 힌트를 통해 상황을 이해한다던가) 등이 포함되어 있다.

개인적으로는 행동과학 분야도 분산인지 분야도 UI에 적용할 수 있는 부분이 많다고 생각했던 분야이기 때문에, 어쩌면 이 컬럼이 단지 전문용어 바꿔치기로 끝나기보다 UI 디자인의 대상을 뭔가 새로운 개념으로 확장시키는 데에 기여하지 않을까 하는 기대를 해 본다. 물론 말하고 있는 주장들은 얼핏 전통적인 사용자 중심 디자인 user-centered design 이나 근래의 맥락기반 디자인 contextual design 과 흡사해 보일지 모르겠지만, 위 두 분야의 학문적 깊이는 나름 오랜시간 동안의 실증적 연구에 기반하고 있으니 그 내공을 한번 믿어본다.

아, 물론, 이 뭔가 있어 보이고 의미심장해 보이는 글이 사실은 곧 나올 노먼 할배의 <Sociable Design> 책에 실린 내용의 일부란다. 결국 책을 사서 보라는 말씀이신 거죠... OTL



... 이 글, 제대로 전달이 되려나 모르겠다. 도움이 되기를.
신고
Creative Commons License
Posted by Stan1ey
마이크로소프트에서 Surface Computing을 가지고 구형으로 뿌리나 싶더니 이번에는 SecondLight라는 개념을 추가했다고 한다. 첫번째 소식을 듣고는 저걸 어떻게 만들었을까를 이리저리 그려봤었는데, 동영상에서는 2개의 프로젝터와 액정필름을 이용했다는 것만 이야기하고 있다.



저 위의 손으로 들어 옮기는 '스크린'은 그냥 기름종이라고 하니, 결국 거기서 뭔가 하지는 않을테고, 결국 뭐 프로젝터에서 나오는 광선을 하나는 가로방향, 하나는 세로방향의 편광필터를 통과시켜서 역시 편광필터가 있는 스크린에 투과해서 편광 방향이 일치하는 화면은 상이 맺히지 않고 통과, 일치하지 않는 화면은 상이 맺히는 거 아닐까라는 게 첫번째 생각이었다.

그랬다가 다른 곳에서 접한 동영상은 좀 더 자세한 설명이 포함되어 있었다.



결국 대충은 생각한 것과 비슷하지만 테이블 스크린의 편광 필터도 액정으로 동작하는 전자식이었다는 건 좀 의외다. SecondLight를 이용하지 않을 경우에는 전원을 꺼서 (즉, 빛을 거르지 않음으로써) 화면 밝기를 확보하거나, 아니면 그냥 두가지 화면이 모두 맺히는 걸 보면서 두 화면의 X, Y축 좌표를 맞추고 디버깅하는 용도로 쓰이는 거 아닐까 싶다. (원래 AR 계열 연구는 뭐 하나 세팅하려면 이 가상세계와 현실세계를 서로 calibration하는 게 큰 일이다. ㅡ_ㅡ;; )

SecondLight Explained from Microsoft

... 근데 고해상도 카메라라는 게 얼마나 고해상도인지 모르겠지만, 일반 사람들이 생각하는 고해상도 - 요새는 1600×1200 해상도의 디카사진도 고해상도로 안 치는 듯 - 라면 이 뒤에는 데스크탑 PC 본체가 2대는 연결되어 있어야 할 거다. 어쩌면 그 둘에서 인식한 영상을 연동해주는 정보처리 PC가 하나 더 필요할지도 모르고. 그게 아니라 영상인식에서 말하는 고해상도 - 640×480이나 요새는 혹시나 800×600 정도도 가능하려나 - 라면 멀티코어 PC 한 대로 어떻게 될 것도 같고. 어쨋든 PC가 빠지는 바람에 이 그림이 많이 간단해진 것 같다.



잠시 딴 이야기로 새자면, 2005년 쯤인가 HelioDisplay라는 '공중에 투사되는 화면'이 꽤나 주목받은 적이 있다.



내가 이 제품을 직접 볼 기회가 있었던 것은 2006년 6월에 있었던 전시회에서 였는데, 아래와 같은 사진을 찍으면서 이 제품의 '숨겨진 모습'을 볼 수 있었다.

3D Projection in the Air ... and the wall behind.3D Projection in the Air ... and the wall behind.

위 그림에서의 3D 공간 상의 스크린(사실은 수증기로 만든 2D 막으로, 특수한 노즐이 달린 가습기라고 생각하면 된다. 실제로도 물을 리필해줘야 하는데, 회사 광고에는 그런 소리 절대로 안 나온다. ㅎㅎㅎ )에 화면을 투사하는 방식으로 적당한 거리(이론 상 약 3m 떨어지면 양안시차로 구분할 수 있는 물리적/지각적 입체감은 거의 의미가 없고, 이미지 상의 패턴을 인지적으로 해석함으로써 입체감을 느끼게 된다.)에서 떨어져서 보면 실제 뭔가가 입체적으로 떠있는 듯한 느낌이 들기도 한다.

HelioDisplay with Somehow-Black Background
하지만 저 수증기 스크린은 투사되는 빛을 제대로 잡아주지 못하기 때문에 화면이 어둡고 화면 자체도 반투명하다. 그러다보니 회사 웹사이트의 이미지도 교묘하게 배경을 검게 만들었고, 위의 동영상이나 전시장도 검은배경을 만드는 게 관건이었던 것 같다. 위의 직찍 사진 중 한장은 일부러 비스듬하게 찍어서 흰색 배경을 넣었는데, 화면이 전혀 보이지 않는 걸 볼 수 있다.

저 위의 사진을 찍고 뒤돌아 서다가 본 광경은 좀 더 놀라왔는데, 스크린의 투과성이 높다 보니 화면에 뿌려지는 내용이 그대로 뒷쪽에도 뿌려지고 있었던 거다.



... 다시 Microsoft의 SecondLight로 돌아와서 -_-a;;

이 놀라운 시스템도, 결국은 테이블 스크린를 반투명하게 한 장치이고, 두번째 화면만 생각하자면 거의 대부분이 테이블 표면을 통과하기 때문에 그냥 투명하다고 할 수도 있겠다. 결국 동영상에서 보이는 두번째 화면은 사실 작은 화면(기름종이)에만 뿌려지는 게 아니라 천정과 발표자의 얼굴에도 뿌려지고 있을 것 같다. 그것만 해결한다면 실용적으로도 쓸모가 있을텐데, 지금으로선 천정이 높거나 검은 곳에서만 사용해야 할 것 같은 시스템이다. 특히 누군가가 테이블에 붙어서 열심히 쓰고 있다면 다른 사람은 모두 사용자의 얼굴에 비춰진 두번째 화면을 볼 수 있을지도. ㅎㅎ
신고
Creative Commons License
Posted by Stan1ey

TV를 보다가 제목과 같은 말이 들려서 정신이 번쩍 들었다. "Butterfly Ballot that Changed the World"... 지난 번에 올렸던 2000년 미국 대선에서의 사건을 기억하는 UI 디자이너로서 TV에서 자기 이름 나온 거에 버금가는 칵테일 파티 효과를 경험했다고나 할까.

Recount the Movie

맙소사. 2000년의 그 일이 영화화되어 있었다. 이곳 공중파 방송국에서 이번 토요일에 방송한다고 광고를 하고 있었다. 미국 대선이 코앞으로 닥친 마당에!!! 이런 걸 어떻게 놓칠 수가 있지?!! 당장 검색에 들어갔다.

... 이 영화는 극장에는 걸리지는 않고, HBO에서 TV용 영화로 만들어서 지난 5월에 (빨리도 알았다...OTL..) 상영한 모양이다. 한참 선거운동이 시작되었을 시점이다. 현 정권에 대한 공격이 될 이런 영화가 만들어진 것만으로도 대단하다고 생각했는데, 예고편을 보니 당시의 두 대표주자 - 조지 부시와 알 고어 - 의 실명이 그대로 사용되고 있었다.



비록 극장망으로 유통되지 못하고 한두번 방영하는 한계를 보이긴 했지만, 그래도 미국의 그 자유에 대한 존중[제스처] 만큼은 참 봐줄 만하다. 유투브에는 이 영화가 상영되니 꼭 보라는 사람들의 동영상들이 함께 많이 검색되고 있다. 이럼에도 불구하고 결과가 어떻게 나올지 모른다는 게 또한 한심한 점이긴 하지만서도. (이 나라나, 저 나라나... -_-; )

... UI 얘기나 하자. 내 입장에서 이 영화가 의미 있는 이유는, 분명 UI 상의 문제를 큰 소재로 삼고 있다는 거다. 실제로 예고편을 보면 어떤 사용자들이 어떤 이유로 실수를 했고, 그게 어떻게 반영되지 못했는지를 잘 설명하고 있는 것 같다. 물론 영화 자체는 그 작은(?) 실수가 어떻게 "정치적으로 이용되었는가"에 초점을 맞추어 진행되는 것 같지만, 그래도 평소에 이렇게 큰 무대에 올라와보지 못한 UI 디자이너로서는 그저 황송할 뿐이다. ㅎㄷㄷ.

Scene from Recount: Confused Voter/UserScene from Recount: Confused Voter/UserScene from Recount: Confused Voter/User

이곳 TV 광고 중에는 실제로 butterfly ballot이 나비 모양으로 날아다니는 장면이 있다. 꽤 인상적인 장면이라 캡춰해두고 싶은데, 그게 토요일 방영 전까지 기회가 있을지 모르겠다.

Recount the Movie
어쩌면 천년에 한번쯤은, 보다 많은 사람이 쉽게 이해하고 사용할 수 있는 물건을 만드는 일이 세상을 바꿀 수 있었을지도 모른다는 가능성을 믿는 사람들은, 이 영화를 열심히 퍼뜨릴지어다. 물론 순수하게 UI의 영향력과 risk management의 일환으로서 UI 부서에의 투자를 정당화하기 위한 전문가적인 의견을 피력하기 위해서다. 무엇보다 이 영화의 포스터 자체가 이 어려운 짝짓기 UI에 대해서 통렬한 풍자를 하고 있지 않은가! 이 영화는 "실화에 바탕을 둔" UI 사건사고의 훌륭한 사례다.

그나저나, 참고로 이 영화가 우리나라 공중파에서 방영될 가능성은 "당분간" virtually zero 라고 본다.

신고
Creative Commons License
Posted by Stan1ey
기왕 또 구글 빠돌이 티를 낸 김에... 랄까. -_-a;;

내 웹브라우저의 첫페이지는 구글뉴스다. iGoogle도 좀 써봤는데, 솔직히 이것저것 갖다 넣으니 네이버나 다음이랑 뭐가 다른지 모르겠어서 그냥 뉴스 페이지만 올려놓았다. 그런데, 벌써 한달 가까이 신경쓰이는 기사가 눈에 밟힌다.

당신의 눈길을 사로잡을 비주얼 컴퓨팅의 미래 (중앙일보080727)

비주얼 컴퓨팅이라... 이 단어를 사용한 글이 인터넷에서 간간히 눈에 보이더니, 아예 제목으로 삼은 기사까지 등장해서 (최근 UI를 다룬 기사가 없는 바람에) 웹브라우저를 띄울 때마다 시야에 들어와 주시는 거다.

시각적 컴퓨팅 visual computing 이라니, 일단 시각언어에 대해서도 컴퓨터가 할 수 있는 일에 대해서도 관심을 가지고 있는 사람으로서 왠지 땡기는 주제다. ... 우선 위키피디아를 뒤적여 봤다. ... 그런 거 없단다. 구글을 찾아보면 약 915,000개의 검색결과가 나오는 용어가 위키피디아에 안 나오다니! -_-+ 갑자기 오기(?)가 생겨서 좀 뒤를 캐봤다. ㅎㅎ



1. 역사 - The Origin of Visual Computing

우선 몇가지 검색 끝에, 내가 찾을 수 있었던 visual computing 이라는 말의 첫 등장은 1983년~1991년에 수행되었던 MIT의 분산 컴퓨팅 연구과제 Project Athena에 참여한 Visual Computing Group (VCG)이라는 명칭에서부터다. Project Athena를 소개하는 문서를 보면 VCG의 대표적인 연구성과는 Athena MUSE라는, 멀티미디어 저작 도구 및 그 기술언어 descriptive language 라고 한다. 같은 해인 1991년의 다른 논문보고에서는 멀티미디어를 이용한 교육을 다루고 있는데, 이것으로 미루어볼 때 처음 visual computing 이라는 단어는 당시 화두가 되었던 신기술인 multi-media에 대한 관심에 초점이 맞춰져 있었던 것 같다.

Visual computing에 대한 단행본 중 아마존 검색에서 가장 오래된 것은 그로부터 몇년 후인 1994년의 것인데, 이 책을 지은 Markus H. Gross라는 쥬리히 공대의 교수는 컴퓨터 그래픽스를 전공으로 연구하고 있다. 절판된지 오래된 모양인지 이 책의 내용에 대한 정보는 거의 없는데, 아마존의 소개글을 보면 "늘어나는 시각정보의 필요성에 부응하고자 컴퓨터 그래픽과 시지각의 특성, 그리고 시각화 imaging 에 대한 이해"를 목적으로 했던 것 같다.

우리나라에서도 2003년 연세대에 Visual Computing Lab이 생긴 것을 보면, 그 이전부터도 관련 개념이 있었으리라고 생각한다. 홈페이지로만 판단하자면, 연세대의 연구실에서는 오히려 전통적인 컴퓨터 그래픽의 범주에 해당하는 연구를 주로 진행하고 있는 듯 하다.

독일 위키피디아에는 최근까지 계속 업데이트되고 있는 visual computing에 대한 정의가 수록되어 있는데, 소싯적에 배운 독일어로는 M. Gross 교수의 단행본 소개글과 과히 다르지 않고, 단지 HCI에 대한 관점이 추가된 것으로 보인다.

여기까지만으로 억지춘양으로 판단하자면, 비주얼 컴퓨팅이라는 분야는 처음엔 그냥 멀티미디어의 다른 이름 정도로 시작했다가, 컴퓨터 그래픽스의 일부로서 연구되면서 정보시각화 information visualization와 흡사하지만 보다 컴퓨터 중심의 연구로 방향을 잡아온 것 같다. 그렇다면 화려한 그래픽이 당연해진 오늘날에는 굳이 CG를 강조할 것도 아니고 infoviz와 확연히 차별화되는 것도 아닌데 왜 갑자기 이렇게 눈에 띄는 걸까?



2. 오늘날 - Visual Computing Revisited

Search Trend of 'Visual Computing' - from Google Trends
(다시 한번, 기왕 구글 빠돌이 티를 낸 김에 ㅎㅎ ) Google Trends에 "visual computing"을 쳐보면 사실 그 이유를 짐작할 수 있다. 20년이 넘도록 다른 용어의 그늘 - multimedia, computer graphics, information visualization, ... - 에 가려있던 이 단어가, 2006년 이후로 조금씩 관련 뉴스와 검색건수를 올리고 있다. 위 구글 트렌드를 참고로 보면, 2006년은 바로 그래픽 카드 회사인 NVidia에서 'visual computing'이라는 용어를 본격적으로 홍보에 활용하기 시작한 해다. 실제로 이 회사의 홍보자료를 뒤적여보면 1993년 설립 이래로 가끔씩만 사용하던 'visual computing'이라는 표현을 2006년부터는 하나의 홍보자료에서도 여러번 언급하는 것을 볼 수 있다. Visual computing은 현재 NVidia의 메인 마케팅 캐치프레이즈로, 회사 홈페이지의 첫화면부터 아래처럼 "World Leader in Visual Computing Technologies"임을 자청하고 있다. 게다가 며칠 후에 열리는 NVision '08 이라는 행사도 "The Biggest Visual Computing Show"라는 홍보문구와 함께 대대적으로 이 비주얼 컴퓨팅 vizcomp(?) 분야를 홍보할 예정이다.

사용자 삽입 이미지

우리나라의 구글 뉴스에서 최근 "비주얼 컴퓨팅"이라는 단어가 보이기 시작한 것도, 사실 지난 7월에 엔비디아의 설립자가 한국에 와서 몇몇 행사에 참석해서 강연을 했기 때문이다. -_-a;;

사실 visual computing을 언급하는 회사가 NVidia만 있는 것은 아니다. 인텔에서도 이 개념을 적극적으로 도입하기 시작했고, 최근에는 connected visual computing  (CVC)이라는 새로운 개념(?)도 내세우고 있는 것이다. 사실 인텔에서 주장하는 CVC라는 개념은 좀 웃긴데, Social Networking Service(SNS)에 온라인 서비스에 화려한 그래픽을 더한 것이 CVC라고 되어있다. 솔직히 발표자 아니면 기자, 둘 중의 한명은 실수했다고 생각하지만. 어쨌든 NVidia에서 강조하고 있는 '고성능 그래픽'이라는 측면과 그닥 다르지 않다.

[O] Connected Visual Computing에 대해서 다음날 조금 더 추가


각각 PC의 핵심부품인 CPU와 그래픽 카드(요즘은 GPU라고 해야 한다지만)를 대표하는 회사에서 너도나도 이야기하는 개념이니 뭔가 중요하긴 한 것 같은데, 사실 이런 다분히 상업적인 목적을 가지고 접근한 결과, 현재 visual computing의 정의는 Whatis.com에 기술된 아래 내용이 가장 적당한 듯 하다.

Visual Computing

Visual computing is computing that lets you interact with and control work by manipulating visual images either as direct work objects or as objects representing other objects that are not necessarily visual themselves. The visual images can be photographs, 3-D scenes, video sequences, block diagrams, or simple icons. The term is generally used to describe either (or both) of these:
  1. Any computer environment in which a visual paradigm rather than a conventional (text) paradigm is used
  2. Applications that deal with large or numerous image files, such as video sequences and 3-D scenes
(이하 광고 -_-; )

... 뭐야, 이거. 1번은 GUI 이고, 2번은 멀티미디어 (어플리케이션)이잖아? 시대가 바뀌면서 조금은 확장되었을지 모르지만, 결국 달라진 게 뭔지... ㅡ_ㅡ+



3. 소감 - My Thought on VizComp

그냥 '이게 뭐지?' 하는 마음에서 시작한 것 치고는 심심한 김에 이것저것 많이도 모았다. -_-a;; 앞의 내용을 최대한 간단하게 요약하자면, 그럴듯한 학술용어 하나가 다른 용어에 밀려 다 죽었다가 한 회사의 홍보전략이 되면서 유행할 조짐을 보이고 있다..는 내용 되겠다.

한가지 섭섭한 점이라면 visual computing의 범주에 한때 들었던 visual perception에 대한 연구라든가, 정보의 특성/속성과 그 시각화에 대한 information visualization 분야에 대한 고민이 오늘날의 "visual computing"에는 보이지 않는다는 거다. 컴퓨터 성능을 좌우하는 부품의 제조사가 내세우는 방향이니만큼 당연히 그래픽 장치의 성능과 그로 인한 출력물의 품질에 대한 언급이 대부분이고, 정작 그 안에서 어떤 정보를 어떻게 효율적이고 인지하기 쉽게 표시할 수 있는지에 대해서는 전혀 ㅡ_ㅡ 언급이 없는 것이다. 고맙게도 이 용어를 홍보해주고 있는 두 회사의 마케팅 파워 덕택에, 앞으로는 그냥 "화려한 그래픽"이라는 의미로 "visual computing"이라는 용어를 사용하게 될 듯 하다.

뭐 그런 걸 가지고 섭섭해하고 그래..라고 할 수도 있지만, 그나마 하나의 개념이 아쉬운 분야이다 보니 이렇게 또 좋은 용어를 하나 뺐기는구나 하는 마음이 들지 않을 수 없는 것이다. ㅠ_ㅠ



A. 추신

위에 언급한 NVision '08 행사를 보면 주 대상은 역시나 그래픽 품질이 점점 더 중요해지고 있는 게임업체를 겨냥하고 있다. 게임에서도 점점 더 향상된 실사와 같은 그래픽을 보여주고 있고, 게임의 내용조차도 현실과 같이 다방향으로 전개될 수 있도록 변화하고 있다. 최근의 한 기사에서는 자연스러운 애니메이션이 게임에 미칠 수 있는 영향에 대해서 다루기도 했다. ... 생각해보면 PC가 단지 정보를 이해하고 사용하기 편한 데에서 멈추지 않고, 보다 화려한 그래픽을 필요로 하게 하고 한편 그것이 가능하게 한 것은 다름 아닌 게임업계인데, 게임 회사의 녹을 먹는 사람으로서 visual computing에 UI 비중이 사라진 것에 대해서 너무 실망을 표현하는 것도 좀 그런가... ㅡ_ㅡa





미뤄뒀던 글을 한달 채우기 전에 억지로 썼더니, 역시 앞뒤도 없고 그냥 몇가지 검색엔진의 결과를 나열한 꼴이 되어 버렸다. 그냥 묻어둘까 하다가, 좋아하는 드라마도 안 보고 쳐댄게 아까와서 그냥 올린다. ㅎㅎ 누군가는 이 링크더미 속에서 보물을 찾을 수 있기를!
신고
Creative Commons License
Posted by Stan1ey

영국 거리를 걷다보면, 도로교통을 제어하기 위해서 사용하는 꼬깔(콘...이라고 하는 -_-; )을 도로표지판이나 신호등 위에 어떻게든 올려놓은 걸 종종 보게 된다. 십중팔구 술취한 십대의 장난인 듯 하다.

그 중에, 어제의 에딘버러 기행에서 만난 모습.

Traffice Sign Wearing Traffic Cone

신호등이 고장나서 기울어진 것에 꼬깔을 씌운 걸까? 아니면 꼬깔을 씌우고 보니 재미있을 것 같아서 신호등을 기울여 놓은 것일까? 어느 쪽이든, 작은 일탈이 우연히 방향이 겹친 것만으로도 이야기를 만든 것이 재미있다.

Scott McCloud가 <만화의 이해 Understanding Comics>에서 지적했듯이 사람들은 임의의 추상적인 형태 속에서 사람의 얼굴을 연상하는 경향이 있다. 두뇌의 시각중추 중에서 많은 부분이 사람 얼굴을 인지하는 데에 투자되고 있다는 것도 잘 알려져 있는 사실이니, 인간의 뇌는 분명히 일반적인 정보처리 기계라기보다 특정한 목적에 부합되어 있는 기계라고 보아야 할 것이다.

이야기를 만들어내고 즐기는 것도 그러한 경향의 일부라는 것 또한 여러 학자들에 의해서 연구되고 있고. ... 어떤 요소가 그 이야기를 보다 쉽게 형성되도록 하는 걸까? 요새 관심을 갖고 있는 방향이다. 어디까지 고민하게 될지 - 며칠이 될지, 몇년이 될지 - 는 아직 모르겠지만.

신고
Creative Commons License
Posted by Stan1ey

Exoskeleton for Sale

2008.07.03 21:41

외골격계 로봇 강화복...하면 내게 떠오르는 이미지는 이렇다.

Exoskeleton from Bubblegum Crisis
Exoskeleton from Iron Man

(왼쪽은 내가 강화복을 처음으로 - Starship Troopers보다 먼저 - 접한 애니메이션 Bubblegum Crisis ^^* , 오른쪽은 가장 최근의 영화 Iron Man이다.)

뭐 이런저런 SF 매니아로서의 소회는 접어두고, 이게 슬슬 실제로 팔리나보다. 몇년전 버클리 대학에서 BLEEX라는 미군용 강화복을 만든다며 크고 무겁고 뜨겁고 시끄러운 배낭을 맨 군인복장의 사진을 돌렸을 때는 참 돈이 많으니 별 걸 다 하는구나 싶었고, 얼마 후 일본의 츠쿠바 대학에서 HAL이라는 물건을 만든다며 쌀가마니나 여성관객을 번쩍번쩍 들어올리는 시범 동영상이 돌 때는 그냥 쇼를 한다고 생각했던 것 같다.

BLEEX from UC Berkeley
HAL from Cyberdyne


그런데, 오른쪽 강화복 HAL - Hybrid Assistive Limb - 이 일본 내 판매를 시작했다. 물론 시장에서 쌓아놓고 누구나 살 수 있는 가격으로 파는 건 아니지만, 실제로 판매를 담당하는 회사가 생기고 구매상담을 할 수 있는 웹페이지가 있다!

Screenshot of Cyberdyne Website

마치 소니에서 로봇 강아지 AIBO를 처음 팔기 시작했을 때의 느낌이다. 한편으로는 이 사람들이 미쳤나? 이게 시장성이 있나? 싶고, 한편으로는 UFO를 주웠나? 미래에서 온 거 아냐? 라는 생각도 든다. 어느 쪽이든 이 회사 - Cyberdyne - 는 역사 속에 외골격계 로봇 강화복을 최초로 상용화한 회사가 될테지만. (그나저나 회사 이름은 영화 <Terminator>에서 인류절멸을 추진?한 컴퓨터를 만든 회사의 이름이고, 상품의 이름은 영화 <2001: A Space Odyssey>에서 승무원을 모조리 살해하려 했던 우주선 컴퓨터의 이름이다. 도대체 뭘 생각하고 있는거야... ㅡ_ㅡ; )

위의 두 물건 다, 사실 별도의 사용자 인터페이스라고 할만한 것은 없다. 아니, 정확히 말하자면, '전통적인 의미의' 사용자 인터페이스는 없다고 해야 하겠다. "사용" 전에 세밀한 설정 등을 어딘가 붙어있을 무슨 버튼과 화면을 통해서 미리 해야 할지는 모르겠지만, 중요한 사용법은 그냥 "움직이고 싶은대로 움직이면" 나머지는 기계가 알아서 지원해주는... 그야말로 Intelligent UI의 궁극적인 모습을 보여주고 있는 것이다. 사실 내 팔다리를 움직이는 데에 하나하나의 움직임을 명시적으로 지시할 수는 없다고 하더라도, 저렇게 많은 관절들을 동시에 움직이는 데 [예비]동작을 통한 암묵적인 지시가 과연 안정적인 사용성을 제공할 수 있을까? 그것도 이 말 한마디 통하지 않는 - 굳이 분류하자면 - '로봇'을 대상으로 말이다.



VTAS: Visual Tracking Acquisition System
Cyberdyne사의 HAL처럼 근전도도를 이용한 명령방식이나, 전투기 조종사의 안구추적을 이용해서 목표를 조준하는 선택방식은 IUI의 사례 중에서도 아주 특별히 성공적인 사례다. (몸의 기울임으로 전진/후진/회전을 조정하는 방식은 반대로 명백한 실패사례다.) 성공 사례들의 공통적인 특징이라면 역시 주어진 분야에 특화된 극히 제한된 영역을 사용했다는 것이 되려나? 그 제한된 영역이 굳이 "틀려도 상관없는 기능"이라는 주장은 이제 "비겁한 변명"으로 치부될 수 있을 것 같다.

사실은 뭐 눈엔 뭐만 보인다는 좋은 예시일지도 모르겠지만... 아무래도 센서 기반의 암묵적 입력과 인공지능 기반의 인식 알고리듬이 결합된 앞으로의 HTI에서는, 인간과 기계 간의 기능 분배와 협업(Autonomy vs. Control)이 UI 디자인의 핵심이 될 것 같은 생각이 든다.

신고
Creative Commons License
Posted by Stan1ey
한국 착시 연구소 ( http://www.koii.kr/ ) ... 이런 데가 있다!!

Website of KOII

신문사 홈페이지에서 광고를 보고, 평소 인간에게 일상 이상의 감각적 경험을 하게 해주는 방법으로서 관심이 많던 분야라 클릭해봤다. ... 웹사이트를 보고 마치 착시를 경험하는 듯한 기분이 들었다. 이게 뭐하자는 웹사이트일까. ㅡ_ㅡa;;;

다루고 있는 내용 중에서 어떤 것은 실제 착시 optical illusion을 다루고 있고, 다른 것들은 그냥 재미있는 시각적 효과나 이를 이용한 광고사례, 혹은 우연히 찍힌 재미있는 사진들로 보인다. 어느 쪽이든 꽤 흥미로운 사진과 동영상인 건 사실이지만, 아무리 그래도 KOII 라는 단체가 있고 이만큼 활발한 활동을 하고 있다는 것은 솔직히 아주 의외다. 특히 언론홍보도 아주 적극적인 것 같고.

Optical이든 아니든, 애당초 논리적으로 구획지어져 만들어지지 않은 인체 감각기관의 혼란현상은 언제나 재미있는 아이디어를 제시해 준다. 이를테면:

[○] 재미있는 게임이 될 수도 있고,

[○] 2차원 화면에서 3차원을 느끼게 할 수도,

[○] 존재하지 않는 돌기를 만져지게 할 수도,

[○] 들은 것과 다른 것을 들리게 할 수도,

[○] 음향 데이터의 용량을 줄일 수도 있다.



Perceptional Illusion에 대해서는... 언젠가 한번 이것저것 "쓸모있는 걸로" 모아서 정리하고 싶다. 시각과 청각은 물론이고 촉각도 꽤 쓸만한 게 많았는데, 하도 처박아둬서 일삼아 꺼내지 않으면 안 될 듯.

... 또 이렇게 미루고 잊어버리는 거지 뭐. ㅋㅋㅋ
신고
Creative Commons License
Posted by Stan1ey
급고백. 나는 애니메이션 <공각기동대>에 나온 "다치코마"라는 로봇을 좀 과하게 좋아한다. -_-;; 사무실 책상에는 작은 피규어 인형이 숨어있고, 집에는 조립하다 만 프라모델도 있다. 한동안 PC 배경으로 다치코마를 깔아두기도 했고.

Tachikoma Welcoming

애니메이션을 본 사람이라면 공감하겠지만, 인간적인 상호작용과는 전혀 동떨어지게 생긴 이 로봇(들)은 독특한 장난스런 말투와 동작, 그리고 무엇보다도 더없이 인간적으로 만드는 그 호기심으로 인해 그야말로 사랑스러운 캐릭터라고 할 수 있다.

하지만 내가 다치코마를 좋아하는 건 거기에 더해서, <공각기동대>에서 다치코마가 맡고 있는 '캐릭터' 때문이다. 다치코마는 '대체로 인간'인 (세부 설명 생략;;) 특수부대 요원을 태우고 달리거나, 그들과 함께 작전에 투입되어 어려운 일(이를테면, 총알받이)을 도맡는다. 이들은 인간에 준하는 지능을 갖고 인간을 돕지만, 자신들이 로봇임을 알고 있고 부상이나 죽음에 대한 두려움이 불필요함을 안다. 하지만 시리즈가 거듭될수록 다치코마의 집단지능이 높아지고, 이들은 점차 사유라고 할 수 있는 수준의 대화를 하게 된다.

Tachikoma Discussing

"인간보다 뛰어난 인공지능이, 왜 인간에 의해 통제되어야 하는가?"
"전뇌를 가진 인간이 왜 여전히 비효율적인 언어를 사용하는가?"
"로봇에게 죽음은 아무 의미가 없는가?"
"남을 위해서 자발적으로 자신을 희생한다는 이유는 무엇인가?"

이런 '담론'들은 아주 조금만 과장하자면, 이미 우리 생활에 들어와있는 많은 자동화 기기와 Intelligent UI의 이슈인 Autonomy vs. Control 에서 다뤄져야 할 내용이다. 청소로봇의 사례까지 갈 것도 없이, 사람이 가까이 가면 열리는 자동문에서부터 이러한 이슈는 크고 작은 사용성 논쟁을 벌일 수 있는 소재가 된다. 실제로 <공각기동대>의 어떤 에피소드들은, 보다가 자꾸 HRI 이슈가 등장하는 바람에 몇번이나 되돌려 보곤 한다.


실은, 이 다치코마를 간단한 대화와 제스처가 가능한 정도로 만든 '프로토타입'이 공개되어서 이런저런 생각이 들어 한번 적어 보았다.



물론 위의 '더미'에는 별 관심이 없다. (판매용이 아니라고도 하고;;) 하지만 미래에 다치코마의 머리가 될 인공지능의 발달과, 그 훨씬 전단계인 오늘날의 상용화된 인공지능들 - 다양한 센서와, 단순하더라도 무언가를 판단하는 중첩된 if 문들 - 은 아무래도 굉장히 많은 숙제를 던져주려고 저 멀리서 성큼성큼 걸어오고 있는 게 분명하다. 이제는 발소리가 들릴 정도로 아주 가까우니까 말이다.

Tachikoma Exhausted

신고
Creative Commons License
Posted by Stan1ey

예전 웹툰들을 들춰보다가, 지난 2006년 11월 28일자 와탕카를 보고 그냥 스크랩해 놓으려고 한다. 전체를 갖다놓는 건 요즘은 좀 위험할 것 같고, 그냥 로봇의 궁극적인 '인공지능'에 대해서 가장 인간적인 부분 - 게으름과 눈치 - 이 구현되었을 때의 로봇 청소기를 상상한 장면이 재미있다. (전체 스토리는 위 링크를 참조할 것)

와탕카 685호 (06.11.28)

로봇의 인공지능에 빗대어 인간의 "지능적인" 속성을 이야기하는 것은 웹툰에서도 자주 보이는 모습이다. 일전에 컴퓨터 대 인간의 카드 게임에서 인간이 인간 만이 가지고 있는 특징 - bluffing - 을 이용해서 컴퓨터를 이겼다는 뉴스와 맞물려서, 참 이런 로봇이 나온다면 나름대로 귀엽겠다는 생각이 든다.

물론 그 수준의 인공지능을 영화 <I, Robot>이나 <The Matrix>에서처럼 사용하지 않는다는 보장은 전혀 없지만. ㅡ_ㅡ;;;

신고
Creative Commons License
Posted by Stan1ey
저녁을 먹으면서 사무실에 굴러다니는 Dr. Dobb's Journal을 보다가, "Getting Better Search Results: Human-aided filtering can make the difference" 라는 기사를 보게 됐다. (어라. 이거 2008년 5월호다 -_-;;; 미래에서 배달왔나... 그래선지 인터넷에서는 검색이 안 된다. 이거 뭐야.. 몰라 무서워 ;ㅁ; )

Human-Aided 라... 내가 이런 표현을 본 적은 대학에서 배웠던 Computer-Aided Design (CAD) 이라든가 Manufacturing (CAM), Engineering (CAE) 같은 명칭을 통해서 였다. 학과 과정 중에 Computer-Aided Industrial Design (CAID) 라는 강의를 두세번 들어야 했기도 했고. 어쨋든 "aided"라는 단어 앞에서는 "computer"만 있는 줄 알았는데, "Human-Aided"라니 재미있다.

이거 새로운 흐름인가?

그래서 구글신께 여쭤봤더니, 이미 골백년전부터 있는 개념이라고 나무라신다. 특히 검색 분야에 있어서 human-aided search 라는 건 인터넷의 태초부터 yahoo에서 쓴 거고, naver에서도 쓰고 있는 거고, 그 외에도 컴퓨터에 의존한 지능에 만족하지 못하는 많은 분야에서 쓰는 방식이라는 거다.

풀이 죽어 있다가 발견한, 첫번째 링크. "Human-Aided Computing" ... 이거 이름 섹시하다. 들어가보니 Microsoft에서 두뇌를 읽어서 인공지능의 부족한 부분을 채우려한다는 내용이다. 짜식들 돈이 많으니 별 걸 다... 그나저나 참 황당생소불쾌한 연구네... 하고 읽다가, 뜻밖에 아는 이름을 발견했다.

Desney Tan

이번 CHI 2008 학회에 무려 5편의 논문에 이름을 올리면서, 내 레이더에 걸린 사람이다. 알고보니 학회 committee 중의 한명이었고, 마지막 날에는 연단에서 paper review process를 총괄했는데 힘들었다고 푸념하던 젊은 남자다. 그런 사람이 HCI와는 다소 거리가 있는 EEG 연구라니?

위 기사에 링크된 홈페이지를 보니 재미있는 연결고리가 계속 나온다. Microsoft에서는 BCI 팀을 이끌고 있고, IUI 관련 연구를 많이 해온 Eric Horvitz도 거기에 참여하고 있고, 닌텐도 Wii Remote로 신나게 뜨고 있는 Johnny Lee와도 연결이 있다. 전공은 HCI 지만, BCI 는 물론 위 기사와 같은 인지공학 (혹은, 응용 인지과학) 분야의 연구도 하고 있는 거다.

이 사람... 눈여겨 봐야겠다.



P.S.
Detecting faces with human-aided computing

참고로 위의 "
Human-Aided Computing" 기사는, 인간의 두뇌 중 특정영역이 사람 얼굴을 볼 때 활동이 많아진다는 것을 이용해서 (여기까지는 뇌과학 혹은 인지과학 분야에서 이미 잘 알려진 사실이다) 이미지 속에 사람 얼굴이 있는지 없는지를 컴퓨터 대신 인간이(!) 판별해 낸다는 것이다. 특히 같은 이미지를 2번씩 보면 정확률은 98%까지 나온다고 하니 사실 꽤 쓸만한 시스템인 셈이다.

물론 무슨 영화 <매트릭스>도 아니고 실제로 인간을 프로세서로 쓰는 것이 최종 목적은 아니고, 그 결과를 reference로 해서 컴퓨터를 학습시킨다면 컴퓨터의 성능 향상에도 기여할 수 있을 것이라는 내용이다. ... 물론 두뇌를 실시간으로 정밀하게 읽기위한 fMRI 라든가 하는 방식이 더욱 더 개발된다면, facial lobe 같은 눈에 띄는 영역뿐 아니라 모든 종류의 tagging에 인간 프로세서를 쓰는 편이 훨씬 효율적이겠지만. ... ㅎㄷㄷ.
신고
Creative Commons License
Posted by Stan1ey

BLOG main image
by Stan1ey

카테고리

분류 전체보기 (347)
HTI in General (45)
User eXperience (11)
Voice UI (50)
Vision UI (14)
Gesture UI (25)
Tangible UI (28)
Robot UI (14)
Public UI (9)
Virtuality & Fun (56)
Visual Language (15)
sCRAP (70)

글 보관함



www.flickr.com
This is a Flickr badge showing public photos and videos from Stan1ey. Make your own badge here.