업무시간에 '이것도 일이지 뭐' 싶어서 IxDA에서 최근에 한 Interaction '10의 강연 동영상을 보다가, 문득 나랑 참 생각의 방향이 비슷한 사람을 알게 됐다.




결론은 조금 너무 소극적이라는 생각이 들긴 하지만, 그래도 내가 관심있는 주제나 관련된 모델들을 비슷한 관점에서 엮고 있다는 생각이 든다. 보아하니 강연도 별 인기가 없었고 글에는 리플도 없는 상황인 것 같지만, 그래도 반가운 걸 어쩔 수 없다고나 할까.

나중에 혹시 찬찬히 다시 볼 일이 있을까 싶어서 스크랩해 두기로 했다.
신고
Posted by Stan1ey
설정을 안 바꿨더니 예전에 설정해 놓은 뉴스레터를 꾸준히도 보내주고 있는 Google Alert. 오늘 웬 PDF판 이북링크를 찾아서 보내줬길래 간단히 공개해 본다. 제목은 무려 <Human-Robot Interaction>이지만, 2007년에 논문을 몇개 - 다소 두서없이 - 취합해서 출판한 사례라고 하겠다. 우리나라에서 쓰인 논문도 한두편 있는 것 같아서 반갑다.

Human Robot Interaction download here

끝.

요새 통 블로깅할 짬이 안 나서 대충 제목만 적어놓은 글만 늘어가고, 제대로 내용을 갖출 시간도 없지만 그냥 이런 건 한번에 쓸 수 있으니 바로 써 올리기로. -_-;;;
신고
Posted by Stan1ey
앞의 글에 대한 속편이랄까. -_-;;; 이전 시합에서 지고 나서 몇가지 대대적인 공사를 하고, 다시 도전한 끝에 결국 이길 수 있었다. 딱 2명이 한달에 한번 싸우는 시합이지만 그래도 이기니 기분은 좋다. ㅋㅎㅎ

지난 번의 시합 후에, 몇가지 심각한 약점을 발견하고 짬짬이 보완했다. 우선은 하드웨어... 로봇 몸체를 거의 다시 설계...라기보다 그냥 조립하면서 설계를 바꿔 나갔다. 일전에는 조금이나마 멋진 디자인을 목표로 했다면, 이번에는 최대한 목표에 맞게 바꾸는 게 목표.

SsirumBoy X

뭐가 달라졌는지 잘 안 보인다. -_-;;; 포인트는 무게중심을 낮춰서 발랑 뒤집어지는 일이 없도록 하고, 3륜이었던 것을 4륜 혹은 6륜으로 바꿔서 역시 안정성을 높였다. 그러기 위해서 런던에 간 김에 바퀴부품을 사오기도 하고 동네 테스코에서 할인해서 파는 소방차 세트를 낼름 집어오기도 했다는. ㅡ_ㅡ 그리고 약간 변칙이지만, 씨름장에 높이가 있어서 그 가장자리에 바퀴가 빠졌을 때 어이없게 떨어지는 걸 방지하려고, 바닥에 임시로 균형을 잡을 수 있는 지지대를 설치했다.

SsirumBoy XSsirumBoy XSsirumBoy X

덕택에 저번처럼 여유있고 비례감있는 디자인은 아니지만, 좀처럼 넘어지지는 않게 됐다. 제풀에 넘어지지는 않게 했으니 일단 (자체적으로) 합격.

다음은 소프트웨어인데, 이건 사실 딱 두 군데만 수정했다. 이전 버전에서 상대방의 거리를 측정한 다음 딱 그만큼만 달려가도록 한 것을 (생각해 보면 왜 그랬는지 모르겠다 -_-;; ) 링 가장자리까지 계속해서 밀어붙이도록 했고, 먼저 주변을 살피고 눈앞을 살피던 방식을 먼저 눈앞을 살피는 '보초병 알고리듬'으로 바꿨다. 요컨대 눈앞에 적이 있으면 무조건 "으싸으싸" 밀어붙이는 공격형이랄까.

뭐 덕택에 좀 피에 굶주린 듯한 행동거지를 보이는 놈이 되기는 했지만, 마침 이마팍에 갖다붙인 소방차 부품과 어울리므로 그럴 듯하다. 시합 내내 그야말로 미친듯이 밀어붙이는데, 뭐 다행히도 폭주해서 도장 밖으로 뛰쳐나가지 않고 끝났다. (테스트에서는 꽤 자주 그랬는데 천만다행 ㅎㅎㅎ )

결과는 5판 3승제로 했는데 3:1로 승부를 지을 수 있었다. 훗훗훗.



이제 상대 로봇을 이겼으니 상대방도 다시 업그레이드를 시작할 테고, 나는 나름대로 바퀴 버전의 최선의 모습을 보였다고 생각하고 다리 버전으로 넘어갈까 생각 중이다. 그런데 과연 4족 보행로봇(사실은 이미 설계안 확정;;) 이 기동력에서 과연 바퀴달린 놈을 이길 수 있을까나. -_-a;;;

거기, "그래서 이게 Robot UI랑 무슨 상관인데?"라고 하신 분. 덕후의 로망을 이해하지 못하는구먼! 버럭!!! *_*=3 ... 사실은 요새 영 재미있는 소재가 없기 때문이긴 하지만.
신고
Posted by Stan1ey

늘 갖고싶었던 장난감이 있었다. MIT와 합작으로 개발 중이라는 소문에 가슴이 설레고, LEGO에서 출시되었다는 소문을 듣고 업무핑계로 사놓고서도 당장의 일에 바빠서 손대지 못하고, 경제적/시간적인 여유가 없다는 핑계로 미뤄온 게 어느새 10년이 넘었다. 그러던 장난감을 드디어 이번에 대대적으로 -_- 질러 버렸다.

LEGO Mindstorms

레고 마인드스톰 LEGO Mindstorms... 덴마크가 코앞(?)인 이 동네까지 와서 이걸 안 산다면 도대체 무슨 핑계를 더 대야 하는 건가 싶었는데, 마침 회사에서 로봇 스모 경기(그냥 '경기장 밖으로 밀어내기' 게임; 원래는 로봇의 면적 규정이 있는데, 회사에서 하는 친선놀이에는 그런 거 없다. ㅎㅎ )를 하는 친구들이 있어서 동참하기로 하고 질렀다. ... 그리고 이어진 잠 못 이루는 주말 3연타. ㅠ_ㅠ

처음 목표는, 그래도 로봇 좀 구경해본 입장인데 센서나 액츄에이터 특성을 잘 활용한 물건을 만들자! 라는 야심찬 계획이었으나, 결국 현실과 타협하다보니 그만그만한 놈이 나와 버렸다. 지난 몇주간 짬짬이 작업하면서 겪은 수많은 변화 중에서 그 세가지 (주요) 버전의 로봇 디자인은 다음과 같다.

SsirumBoySsirumBoy Mark IISsirumBoy X

... 사실 뭐가 달라졌는지는 잘 보지 않으면 안 보인다. OTL... 첫 버전에서는 터치센서(라고는 하지만 사실은 그냥 soft dome switch)을 앞에 달아서 상대방을 명확히 감지하려고 한 건데, 사진을 본 동료들이 "... Boy 구나.*-_-* " 라고 하는 바람에 디자인 상의 결격사유로 탈락. 때마침 추가주문 -,.-;;; 한 가속도 센서와 광센서가 도착한 덕택에 두번째 버전을 만들었으나, 광센서를 좌우로 배치하는 게 '밀어내기' 경기에서는 그닥 도움이 되지 않는 관계로 전면적인 재설계. 결국 세번째처럼 광센서를 앞뒤로 배치하고 가속도 센서를 등에 짊어진 형태가 됐다.

최종적으로 정해진, 아무도 궁금해하지 않는 하드웨어의 설계 스펙은 이렇다.

Distance Sensor of SsirumBoy
초음파 거리 센서
: 눈처럼 생긴 부분으로, 한 방향 밖에 보지 못하므로 몸체 자체를 회전시켜서 상대방을 찾도록 되어 있다. 미로찾기 경기에 사용되는 마이크로 로봇의 경우처럼, 센서를 경사지게 배치해서 시야를 제한시켰다. 실제로 시합장 바깥까지 보면 로봇도 정신이 없어진다. 초음파 센서는 인식면의 반사특성에 따라 거리를 다르게 인식하기 때문에 균일하게 만들어진 시합장 표면만 내려다 보도록 한 거다. 결과적으로 오인식률은 낮췄다고 생각하는데, 실제로는 어떤지 모르겠다.

Light Sensor of SsirumBoy
광 센서
: 로봇 스모 경기는 흰색 테두리가 있는 검은색 원형 경기장에서 치뤄지는데, 우선 경기장 안에서 스스로 뛰쳐나가지 않는 게 기본이다. 그러다보니 일반적인 line tracer와 같은 식으로 반사형 광센서를 바닥을 향해서 설치해서 경기장 안을 향하고 있는지 밖을 향하고 있는지 알 수 있도록 했다. 광 센서는 주변광에 대한 영향을 많이 받아서 회사하고 집에서 동작이 너무 달라지길래, 자체 calibration 기능을 넣어 경기를 시작하기 전에 약간의 쑈를 하면서 해당 조명조건 하에서 바닥을 판단/학습하는 기능이 있다.

Accelerometer of SsirumBoy
가속도 센서
: 가장 고민이 많이 된 센서로, 로봇 자체가 움직이다 보니까 계속해서 극단값이 들어오는데 그것만으로는 자세를 판단하기가 어려웠다. 몸체 중심에 배치해서 진동을 최소화하는 것도 실패하고 나서, 결국 고민 끝에 오히려 가장 많이 흔들리는 등에 짊어지게 해 놓고 별도로 normalizing 하는 함수를 넣었다. -_-a;; 결국 센서 신호가 있는 후에 판단까지 0.1 초 정도의 지연이 있지만, 사실 자세 신호를 써먹을 수 있는 것은 상대방이 로봇을 들어올리려고 하는 경우 뿐이고, 넘어진 상태라면 뭐 팔이 있는 것도 아니니 그냥 밀려나가는 수 밖에 없다. 그다지 경우의 수가 많이 않지만 순간회피동작만 하나 넣고 말았다. (비싼 센서인데 써먹을 데가 없다니!)

Step Motors of SsirumBoy
스텝 모터(x2)
: 기본으로 제공하는 모터가 스텝모터라는 건 좀 의외였다. 로봇을 앞세우는 컨셉이라 그런가. 어쨋든 꽤 다양하게 조작할 수 있었는데, 각 센서에서 내세우는 우선권을 비교해 가면서 동작을 움직이려니까 모터가 앞뒤로 흔들리면서 고민하는 경우가 많아서 (상충되는 명령이 무한반복으로 돌아갈 경우) 의외로 다루기가 어려웠던 부분이다. 처음에는 MIT의 synthetic agent 모델을 들여다보면서 넣어보려고 하다가, 결국은 그냥 확률과 랜덤, 그리고 두어개의 우선권 flag로 대충 구현해 버렸다.

Status Indicator of SsirumBoy
LED
: 사실은 포트가 남아서 넣은 거지만, 로봇이 무슨 '생각'을 하고 있는지를 표시하는 데에 도움이 많이 되고 있다. 상대방을 발견하면 불을 켜고 달려들고, 긴가민가 할 때는 깜박이거나 하는 등 유일하게 외부로의 표현이 들어간 부분이다. <Affective Computing>에 따르면 로봇의 이런 상태들이 인간의 감정에 해당하는 부분이라고 했으니, 이런 깜박임이 이 로봇의 표정이라고 해도 되겠다. 이 포트에는 모터를 달 수도 있는데, 좋은 아이디어가 떠오르기만 하면 표정이고 나발이고 집게 팔을 하나 달아서 공격용으로 쓸까 생각 중이다. ㅎㅎㅎ

Debug Screen of SsirumBoy
화면 및 음성
: 중앙의 정보처리 및 통신 모듈인 RCX 상자에는 작은 LCD 화면과 스피커가 있는데, 이 안에도 몇가지 표시가 들어오도록 했다. 그래봐야 각 센서의 상태와 입력값, 그리고 그에 따른 판단결과를 두 가지 모드(실전 및 debug)로 표시하고, 특정 상황이 인식되면 적당한 대사를 - "Hello", "Ooops!", "Watch Out!", "Game Over" 따위의 - 말하도록 해 두었다.



위와 같은 내용을 구현한 소프트웨어는 NXT-G라는, 그냥 기본으로 포함되어 있는 그래픽 방식의 프로그램을 이용해서 개발했다.

LEGO Mindstorms Education NXT: Screenshot

이 프로그램은 레고하고 똑같이 각 모듈의 블록을 연결해서 시각적으로 프로그래밍을 할 수 있게 해주는데, 'Pure Data' 같은 그래픽 프로그래밍 도구의 좀 과하게 화려한 버전이라고 생각하면 된다. 굳이 "과하게"라고 한 이유는, 이게 워낙 다운이 잘 되어서, 마치 10년전의 포토샵 교본에 나와있는 것처럼 "수시로, 자주, 여러 파일로 저장해 놓을 것!" 이라는 게 첫번째 사용지침이었다. (실제로도 얼마나 날려먹었는지. -_ㅠ )

여하튼 하드웨어와 소프트웨어가 만나자면 이건 뭐 예상치 못한 문제가 한두가지가 아니다.


이런저런 고생 끝에 이제 완성(했기로)하고, 이제 이번 주에 대망의(?) 첫번째 경기를 하기로 했다. 상대방이야 마이크로 로봇 키트로 만들어진 로봇이라 사실 기동력 면에서 영 불리하지만, 뭐 선무당이 사람 잡는 경우도 있으니까. (아, 이게 아닌가 -_-;; )

이 글은 그동안 왜 블로그가 한적했는지에 대한 핑계를 겸하고 있다. ^-^a

저작자 표시 비영리 변경 금지
신고
Posted by Stan1ey

Pre-Script. 제목에 맘 상하신 분들께는 심심한 사과를 드린다. 좀 다른 말로 바꿔보기도 했는데, 저만큼 딱 맞는 제목을 만들 수가 없었다. ㅡ_ㅡa;;;

제목을 시원하게 썼더니 왠지 그 핑계로 본문은 구구절절이 쓰지 않아도 될 것 같다. 사실은 연말연시 황금같은 휴가에 블로깅 길게 할 짬이 어딨냐. ^^* (그렇다고 놀 시간이 있는 것도 아니지만 OTL... ) 어쨋든 그러니 간단하게 스크랩만 하는 방향으로 가자. 좋게 좋게. 기껏해야 네 가지 사례를 나열할 뿐이잖아.

(... 번쩍 -_-+)


1.
지난 CHI 2008에서 발표된 게임 UI (정확히는 '게임과 UI' 정도?) 관련 논문 중에, <Game Over: Learning by dying>이라는 사례가 있었다. 개발자와 기획자가 UI가 중요하다는 디자이너의 말을 자꾸 안 들어서, 아예 UI 디자인 가이드라인을 모두 극단적으로 반대로 적용해 버린 게임을 만들어 놓고 "니들이 만든 게임이 이렇다고. 어디 해볼테면 해봐."라는 '교훈성 시도'였던 것이다.

Game Over: Learning by dyingGame Over: Learning by dying - AWARDED

뭐 발상이 좀 유치하긴 하지만 의미있는 시도일 수도 있었는데, 이 게임이 오히려 네티즌들이 좋아해서 게임으로서 상을 받으면서 그야말로 "사용성과 게임성은 반대 방향 아니냐"는 논란에 기름만 붓는 꼴이 되어 버렸다. ... 이 얘기는 다음에 자세히 한번 해보려고 하니까 이쯤하고 넘어가자. (이미 충분히 길거든 -_-+ )


2.
위의 발표 중에 들었던 다른 "일부러 어려운 게임"의 사례로, 뜻밖에 익숙한 이름이 나왔다. 바로 일본의 만능 연예인인 다케시 키타노. 이 사람이 게임을 만든 적이 있었던 것이다. 이름하여 <다케시의 도전장>. 링크한 위키피디아의 설명을 참고해야 하겠지만, 어쨋든 이 게임은 제법 악명이 높아서 동영상도 많이 올라와 있다.



원래는 실제 플레이 장면을 보여준 TV 프로그램도 올라와 있었는데, 방송국에서 저작권을 이유로 지워달라고 했다고 한다. 뭐 어쨋든 이 다케시 선생이 사실은 비디오 게임을 무지 싫어한단다.  (실제로 게임 화면에 나온다 -_- ) 그래서 이래도 게임하고 싶냐며 만든 게임이다. 게임의 각 스테이지에는 차마 시도하지 못할 '도전'이 주어지는데, 이를테면 버튼을 4시간 동안 누르고 있어야 한다든가, 1시간 동안 노래를 계속 불러야 한다든가(그 시대에 음성을 인식한 모양인데 대단하다!), 최종 보스의 경우에는 20,000번을 때려야 게임이 끝이 난다고 하니 진짜 뭐라 할 말이 없다.


3.
게임에서만 이런 "일부러 어려운" 게 있는 게 아니다. 물론 코메디언의 장난이긴 하지만 이런 동영상도 있는 것이다.



사실 이 BBC 동영상은 회사에서 바로 며칠 전에 돌려본 거다. 사무실 여기저기에서 푸하하 하는 소리가 들리길래 뭔가 했더니 이 동영상이 공전의 히트를 치고 있었던 거다. ㅋㅋㅋ 영국 코메디언들은 대체로 black comedy를 지향하면서도 나름 색깔들이 있어서 재미있다.



4.
Roomba feeding itself

재미있는 이야기는 여기까지. 바로 저 동영상을 본 다다음날이었나? 사진은 전에도 올렸지만, 벌써 일주일 넘게 집안을 청소해주고 있는 iRobot의 Roomba 매뉴얼을 들여다 보다가, 내가 뭔가 헛것을 보나 싶은 페이지를 보게 됐다. ... 아래 이미지는 글자가 엄청 깨졌으니까, 꼭 클릭해서 크게 보시길.
12 Beeps from Roomba Owner's Manual, iRobot

이건 절대로 농담이겠지? 하는 간절한 마음에도 불구하고, 실제로 이 로봇 청소기가 오류상황을 만나서 삐- 소리를 낼 때에는, 그게 몇번인지를 세어야 한다!!! 한 번만 삐- 하고 마는 경우에서부터 무려 12번이나 삐-삐-삐-삐-삐-삐-삐-삐-삐-삐-삐-삐- 하는 경우까지 다양한 상황이 있으므로, 딴 생각 하지 말고 정신을 바짝 차려야 할 거다. 거기에 비하면 1~7번 불이 깜박이는 것에 따라서 또 다른 경고상황을 알려주는 건 상대적으로 해볼만한 일이다. 아니 오히려 그 상황들도 소리로 알려주지 않은 것을 - 하마트면 19번까지 세고 있어야 할 뻔 했잖는가 - 감사히 여겨야 하나? 삐- 소리 횟수에 따라 달라지는 오류상황이 읽어보면 알송달송하게 구분이 가지 않고 사실 사용자 입장에선 두어가지 정도로 생각되는 것 정도는 차라리 애교에 가깝다.

게다가 이 우스꽝스럽고 동시에 울화가 치미는, 독창적인 정보표시 방법의 백미는 저 표에도 나와있듯이 바로 룸바는 말을 할 수 있다는 점에 있다. 물론 녹음된 음성이긴 하지만, 도대체 말을 할 수 있는 로봇이 왜 갑자기 열두번 삐-삐- 거리거나 눈만 껌벅 거리고 있으면서 사람을 미치게 하는 건데! 아 진짜!!!

아이로봇, 디자인 철학이 마음에 들어서 좋아했는데 실망이 이만저만이 아니다. 접때 나와서 인터뷰하던 디자이너는 스톡옵션 팔고 어디로 옮겼나?






... 화딱지 나서 더 못 쓰겠다.



...... 절대로 짧게 쓰려다가 길어져서 결론도 없이 후다닥 끝내는 거 아니다.
신고
Posted by Stan1ey

an Introduction to HRI

2008.08.12 00:17

Human-Robot Interaction에 대한 연구가 한창 싹이 터서 물이 오를 무렵, HCI Journal의 HRI 특별호의 소개문이 어쩌다 구글 검색에 떴다. 2004년이니 이젠 곰팡내가 날만도 하지만, 내가 그동안 공부를 하지 않은지라 이런 자료도 고맙기 그지 없다. 그래서 스크랩.


게임에서도 HRI의 지식을 이용할 날이 올까? 분명히 올꺼라고 호언장담하긴 했지만, 솔직히 그게 언제가 될지는 잘 모르겠다. 혹은, 이미 HRI의 허상에 대해서 게임이 증명해 버린 후에야 이러고 있는 건 아닐까 싶기도 하고.

신고
Posted by Stan1ey

Exoskeleton for Sale

2008.07.03 21:41

외골격계 로봇 강화복...하면 내게 떠오르는 이미지는 이렇다.

Exoskeleton from Bubblegum Crisis
Exoskeleton from Iron Man

(왼쪽은 내가 강화복을 처음으로 - Starship Troopers보다 먼저 - 접한 애니메이션 Bubblegum Crisis ^^* , 오른쪽은 가장 최근의 영화 Iron Man이다.)

뭐 이런저런 SF 매니아로서의 소회는 접어두고, 이게 슬슬 실제로 팔리나보다. 몇년전 버클리 대학에서 BLEEX라는 미군용 강화복을 만든다며 크고 무겁고 뜨겁고 시끄러운 배낭을 맨 군인복장의 사진을 돌렸을 때는 참 돈이 많으니 별 걸 다 하는구나 싶었고, 얼마 후 일본의 츠쿠바 대학에서 HAL이라는 물건을 만든다며 쌀가마니나 여성관객을 번쩍번쩍 들어올리는 시범 동영상이 돌 때는 그냥 쇼를 한다고 생각했던 것 같다.

BLEEX from UC Berkeley
HAL from Cyberdyne


그런데, 오른쪽 강화복 HAL - Hybrid Assistive Limb - 이 일본 내 판매를 시작했다. 물론 시장에서 쌓아놓고 누구나 살 수 있는 가격으로 파는 건 아니지만, 실제로 판매를 담당하는 회사가 생기고 구매상담을 할 수 있는 웹페이지가 있다!

Screenshot of Cyberdyne Website

마치 소니에서 로봇 강아지 AIBO를 처음 팔기 시작했을 때의 느낌이다. 한편으로는 이 사람들이 미쳤나? 이게 시장성이 있나? 싶고, 한편으로는 UFO를 주웠나? 미래에서 온 거 아냐? 라는 생각도 든다. 어느 쪽이든 이 회사 - Cyberdyne - 는 역사 속에 외골격계 로봇 강화복을 최초로 상용화한 회사가 될테지만. (그나저나 회사 이름은 영화 <Terminator>에서 인류절멸을 추진?한 컴퓨터를 만든 회사의 이름이고, 상품의 이름은 영화 <2001: A Space Odyssey>에서 승무원을 모조리 살해하려 했던 우주선 컴퓨터의 이름이다. 도대체 뭘 생각하고 있는거야... ㅡ_ㅡ; )

위의 두 물건 다, 사실 별도의 사용자 인터페이스라고 할만한 것은 없다. 아니, 정확히 말하자면, '전통적인 의미의' 사용자 인터페이스는 없다고 해야 하겠다. "사용" 전에 세밀한 설정 등을 어딘가 붙어있을 무슨 버튼과 화면을 통해서 미리 해야 할지는 모르겠지만, 중요한 사용법은 그냥 "움직이고 싶은대로 움직이면" 나머지는 기계가 알아서 지원해주는... 그야말로 Intelligent UI의 궁극적인 모습을 보여주고 있는 것이다. 사실 내 팔다리를 움직이는 데에 하나하나의 움직임을 명시적으로 지시할 수는 없다고 하더라도, 저렇게 많은 관절들을 동시에 움직이는 데 [예비]동작을 통한 암묵적인 지시가 과연 안정적인 사용성을 제공할 수 있을까? 그것도 이 말 한마디 통하지 않는 - 굳이 분류하자면 - '로봇'을 대상으로 말이다.



VTAS: Visual Tracking Acquisition System
Cyberdyne사의 HAL처럼 근전도도를 이용한 명령방식이나, 전투기 조종사의 안구추적을 이용해서 목표를 조준하는 선택방식은 IUI의 사례 중에서도 아주 특별히 성공적인 사례다. (몸의 기울임으로 전진/후진/회전을 조정하는 방식은 반대로 명백한 실패사례다.) 성공 사례들의 공통적인 특징이라면 역시 주어진 분야에 특화된 극히 제한된 영역을 사용했다는 것이 되려나? 그 제한된 영역이 굳이 "틀려도 상관없는 기능"이라는 주장은 이제 "비겁한 변명"으로 치부될 수 있을 것 같다.

사실은 뭐 눈엔 뭐만 보인다는 좋은 예시일지도 모르겠지만... 아무래도 센서 기반의 암묵적 입력과 인공지능 기반의 인식 알고리듬이 결합된 앞으로의 HTI에서는, 인간과 기계 간의 기능 분배와 협업(Autonomy vs. Control)이 UI 디자인의 핵심이 될 것 같은 생각이 든다.

신고
Posted by Stan1ey

Machine Got Faces

2008.06.22 23:53
찾아보니 2004년의 일이다. 한창 가정용 로봇의 얼굴표정을 가지고 고민하고 난 참에, 일본 Toyota의 "얼굴표정으로 감정을 표현하는 자동차" 특허가 외신에 보도된 적이 있다. 이미 일본은 다양한 스펙 -_- 의 얼굴을 가진 가정용 로봇이 만들어져 있었고, 특허 내용은 사실 그런 방식을 자동차에 적용한 것으로, 기준이 되는 감정상태는 운전자와 승객으로부터 직접 입력되기도 하지만, 운전 조작의 상태로부터 자동차 스스로 판단하기로 한다고 한다.
Car with Facial Expression - Toyota patent

Picard 교수의 <Affective Computing>를 인용하자면, - 비록 이 저서가 논문 한편 분량의 아이디어를 책으로 만들 수 있다는 대표적인 사례이긴 하지만, 그 아이디어만큼은 무척 재미있다 - 인간의 감정이라는 것이 인간의 내적 상태를 표현함으로써 인간과 인간 사이의 사교적 관계를 개선하고자 하는 행위라면, 기계의 감정 역시 기계의 내적 상태를 표현함으로써 인간과 기계 사이의 사교적 관계를 개선하고자 하는 행위로 정의할 수 있다. 즉, 기계의 내적 상태 - 이를테면 CPU가 과부하되고 있다든가, 저장용량이 그득히 찼다든가, 반대로 메모리가 텅 비어서 별 작업을 하고 있지 않다든가 - 를 적절히 표현하는 것이 MMI 혹은 HCI 환경에서 보다 풍부하고 만족스러운 상호작용을 도와줄 거라는 거다.

그런 관점에서 2004년의 "감정을 표현하는 자동차" 특허는 사뭇 유치해 보이더라도, 상당한 발전 가능성을 가지고 있다고 보였다. 문제는 이 로봇장치를 통한 감정표현이라는 것이 잘 디자인된 경우를 봐도... 유치해 보이거나, 섬칫해보인다는 부분이었다. 아래의 두 그림은 내 생각에 가장 대표적인 사례이다.
 
PaPeRo, a Home Robot by NEC
Kismet, a Sociable Robot by MIT Media Lab.


위 왼쪽의 유치해 보이는 로봇은 NEC의 PaPeRo, 오른쪽의 섬칫해 보이는 로봇은 MIT의 Kismet이라는 로봇이다. 사실 위 자동차 특허는 기술적 구성 상으론 Toshiba의 ApriAlphaPhilips의 iCat을 좀더 닮았지만, 해당 나라의 디자인 취향을 반영한다고 쳐도, 앞서 말한 잘 디자인된 경우는 아니다. (어쩌면 내 취향일지는 모르겠다... -_-;; ) 특히 PaPeRo는 몸통에 머리만 달린 대부분의 가정용 로봇(=홈로봇, home robot)의 원형이라고 할 수 있을 정도의 구성을 가지고 있다. Kismet은 이후 보다 '덜 무생물스러운' 후속 로봇들이 많이 있지만, 그 기괴함은 여전하다. 이 두가지 로봇은 아마도 아래의 Uncanny Valley에서 서로 반대쪽 변곡점에 위치하고 있는 사례일 것이다.

Uncanny Valley

[○] 우리나라의 사례: ETRI (6월25일 추가)



얼굴 표정을 통해서 인간-기계 사이의 관계를 개선하려는 이런 노력도 결국 이 골짜기를 헤어나오지 못하는 걸까... 라는 생각을 마지막으로 접어두고 있던 이 "기계의 표정"이는 주제가 다시 떠오른 것은, 얼마전부터 인터넷에 돌기 시작한 BMW의 컨셉 자동차 GINA 덕택이다.
사용자 삽입 이미지

표면재질을 천으로 만들고, 대신 내부의 골격으로 안전성을 (최대한) 유지하며, 무엇보다 천의 탄성과 유연성으로 자동차의 모양이 물리적으로 변형하면서도 유기적 형상을 유지할 수 있는 이 혁신적인 디자인의 자동차는 물론 그 사진들만 봐도 입이 떡 벌어질 정도의 멋진 물건임에는 틀림이 없다. 천 소재를 사용했기에 상상할 수 있는 현실적인 문제들도 있겠지만, 그래도 아이디어만큼은 두말할 나위 없이 기똥차다.

BMW Gina - Light Visionary Model
BMW Gina - Light Visionary Model
BMW Gina - Light Visionary Model


단지, 나에게 중요하게 느껴진 것은 그 디자인보다... 수석 디자이너인 Chris Bangle이 등장하는 아래 소개 동영상의 마지막 1컷이다.



순간 숨이 멎는 줄 알았다. 기계장치(레버, 축, 직선 같은 시각요소들)가 철저히 감춰져 있다는 것이 이런 느낌을 주는구나... 이런 방식이라면, 기계의 얼굴표정이라는 개념이 Uncanny Valley를 빠져나오는 데에 도움이 되지 않을까...? 게다가 항상 실내에 머무는 가정용 로봇이라면 자동차에 비해서 천 재질을 사용함에 따른 문제가 훨씬 덜 할 것이고, 게다가 기존에 문제가 되었던 다른 것들 - 주로 이 단단하고 무거운 것이 집안을 헤집고 다닌다는 것에 대한 - 이 천 재질의 표면을 사용함으로써 해결될 수 있을 것이다. 표면의 오염이라든가 하는 문제는 요새 많이 나오는 '첨단' 재질을 사용한대도 플라스틱이나 금속 코팅보다는 싸게 먹힐 것 같다.

아직 내가 로봇 UI... 혹은 HRI를 하고 있다면, 꼭 고려해보고 싶은 방식이다. 뭐 사실은 그렇다고 해도, 그보다는 더 큰 질문 - "그래서 그 비싼 로봇이 집안에서 뭘 해주는데?" - 에 여지껏 대답하지 못해서 끙끙대느라 정작 중요한 다른 생각(?)은 못하고 있겠지만.
신고
Posted by Stan1ey
급고백. 나는 애니메이션 <공각기동대>에 나온 "다치코마"라는 로봇을 좀 과하게 좋아한다. -_-;; 사무실 책상에는 작은 피규어 인형이 숨어있고, 집에는 조립하다 만 프라모델도 있다. 한동안 PC 배경으로 다치코마를 깔아두기도 했고.

Tachikoma Welcoming

애니메이션을 본 사람이라면 공감하겠지만, 인간적인 상호작용과는 전혀 동떨어지게 생긴 이 로봇(들)은 독특한 장난스런 말투와 동작, 그리고 무엇보다도 더없이 인간적으로 만드는 그 호기심으로 인해 그야말로 사랑스러운 캐릭터라고 할 수 있다.

하지만 내가 다치코마를 좋아하는 건 거기에 더해서, <공각기동대>에서 다치코마가 맡고 있는 '캐릭터' 때문이다. 다치코마는 '대체로 인간'인 (세부 설명 생략;;) 특수부대 요원을 태우고 달리거나, 그들과 함께 작전에 투입되어 어려운 일(이를테면, 총알받이)을 도맡는다. 이들은 인간에 준하는 지능을 갖고 인간을 돕지만, 자신들이 로봇임을 알고 있고 부상이나 죽음에 대한 두려움이 불필요함을 안다. 하지만 시리즈가 거듭될수록 다치코마의 집단지능이 높아지고, 이들은 점차 사유라고 할 수 있는 수준의 대화를 하게 된다.

Tachikoma Discussing

"인간보다 뛰어난 인공지능이, 왜 인간에 의해 통제되어야 하는가?"
"전뇌를 가진 인간이 왜 여전히 비효율적인 언어를 사용하는가?"
"로봇에게 죽음은 아무 의미가 없는가?"
"남을 위해서 자발적으로 자신을 희생한다는 이유는 무엇인가?"

이런 '담론'들은 아주 조금만 과장하자면, 이미 우리 생활에 들어와있는 많은 자동화 기기와 Intelligent UI의 이슈인 Autonomy vs. Control 에서 다뤄져야 할 내용이다. 청소로봇의 사례까지 갈 것도 없이, 사람이 가까이 가면 열리는 자동문에서부터 이러한 이슈는 크고 작은 사용성 논쟁을 벌일 수 있는 소재가 된다. 실제로 <공각기동대>의 어떤 에피소드들은, 보다가 자꾸 HRI 이슈가 등장하는 바람에 몇번이나 되돌려 보곤 한다.


실은, 이 다치코마를 간단한 대화와 제스처가 가능한 정도로 만든 '프로토타입'이 공개되어서 이런저런 생각이 들어 한번 적어 보았다.



물론 위의 '더미'에는 별 관심이 없다. (판매용이 아니라고도 하고;;) 하지만 미래에 다치코마의 머리가 될 인공지능의 발달과, 그 훨씬 전단계인 오늘날의 상용화된 인공지능들 - 다양한 센서와, 단순하더라도 무언가를 판단하는 중첩된 if 문들 - 은 아무래도 굉장히 많은 숙제를 던져주려고 저 멀리서 성큼성큼 걸어오고 있는 게 분명하다. 이제는 발소리가 들릴 정도로 아주 가까우니까 말이다.

Tachikoma Exhausted

신고
Posted by Stan1ey
이 블로그 최초의, 해외 특파원 소식이다. -_-;;;

출장 와서 동료들과 함께 아침을 먹으면서 (1인당 하나씩 시키기엔 양이 너무 많았다 -_-a ) 영국 TV를 보는데, 재미있는 걸 발견해서 이야깃꺼리가 됐다. BBC UK TV 와 Channel 4+1, E4+1 채널 중 몇 군데에서 청각장애인을 위한 수화를 뉴스나 드라마, 심지어 쇼프로에 이르기까지 제공해 주는데, 우리나라처럼 화면 한쪽에 동그란 영역을 따로 설정한 게 아니라 수화 narrator가 화면에 포함되어 있는 형태인 것이다. 게다가 특이한 것은, 대사가 없을 경우에도 배꼽에 손을 얹고 정면을 바라보고 있는 '차례' 자세가 아니라 아래와 같이 "같이 TV를 보는" 자세를 취하고 있는 게 이채롭다.

Watching TV Show ALONG WITH Sign Language Narrator

위와 같이 시청자와 같이 TV를 보다가, 대사가 나오면 아래와 같이 수화로 대사와 내용을 - 수화는 모르지만, 대사의 양과 수화의 양을 비교해 보면 가끔은 내용을 요약하기도 하는 것 같다 - 전달해 준다.

Sign Language Narrator of BBC, UK

그런데, 더욱 재미있는 건, 우리나라의 수화자(이 narrator를 뭐라고 하는지 모르겠다)처럼 시종일관 무표정한 표정으로 전달하는 게 아니라, 매우 다양한 표정을 함께 '연기'하면서 실감 있게 극을 전달하고 있다는 거다.

Nice Face Acting Screen Shot of Sign Language Narrator

이런 표정 연기는 드라마에만 국한되는 게 아니라, TV show는 물론 뉴스를 전달할 때에도 슬픈 소식에는 슬픈 표정과 추가적인 감정표현을, 좋은 소식에는 좋은 표정을 더해기 때문에 단지 시선을 공유하는 게 아닌 실제로 해당 방송 컨텐트를 함께 보고 있다는 느낌을 주고 있었다. 같이 TV를 보던 사람들이 말했듯이 "이건 마치 (수화를 쓰는) '변사'잖아!" 라는 것이 매우 적합한 묘사인 듯 하다.


Robot을 Hardware Agent라고 부르며 Software Agent와의 공통점을 찾던 시절에, 로봇이나 on-screen agent의 시선 처리는 중요한 디자인 요소 중 하나였다. 특히 로봇은 3차원에 있기 때문에 시선이 더욱 중요했는데, 동시에 3차원이기 때문에 시선처리의 자유도가 사용성에 반하는 경우 - 로봇이 뒤돌아 있으면, 사용자는 로봇이 어딜 보는지 알 수 없다 - 도 발생하기 때문에 여러가지 방식의 실험연구가 보고되기도 했다.

그 중 약간은 유연한 연구에서는, Agent의 시선처리를 사용자와 직접 대화를 할 경우 적절한 눈맞춤 eye contact 을 갖거나(mutual gaze), Agent가 사용자와 같은 사물이나 방향을 함께 봄(shared looking)으로써 함께 대화를 하고 있다는 감각을 주기 위해서 활용하고 있다. 위의 수화자가 화면에 등장하는 방식이나 그 시선처리와 표정연기는 모두 그 연구에서와 같이 그 경험을 Agent가 사용자와 공유하고 공감하고 있다는 것을 강조함으로써 UI가 컨텐트와 분리된 것이 아니라 하나로 융합된 경험이 되어 있다는 생각이 들었다.

UI와 컨텐트가 융합되어 하나의 완성된 경험을 이룬다는 것은, 멀티미디어 정보기기의 개념이 처음 나왔을 때 H/W와 S/W가 하나의 컨셉 하에 디자인되어야 한다는 것과 궤를 같이 하는 것 같다. 게임 <Call of Duty>가 보여준 것 - Storytelling에 있어서 autonomy와 control의 다양한 혼합 비중 - 도 좋은 모델이 되겠지만, Agent가 등장할 경우 그 역할모델이 무엇이어야 할지에 대한 것도 하나의 재미있는 연구 주제가 될 것 같다.

(외국에서 현장 르포 한번 올려보고 싶어서 주절 거리긴 했지만, 이거 주제도 없고~ 재미도 없고~ 교훈도 없고~ ㅋㅋ 나 뭐한 거니...)
신고
Posted by Stan1ey

BLOG main image
by Stan1ey

카테고리

분류 전체보기 (347)
HTI in General (45)
User eXperience (11)
Voice UI (50)
Vision UI (14)
Gesture UI (25)
Tangible UI (28)
Robot UI (14)
Public UI (9)
Virtuality & Fun (56)
Visual Language (15)
sCRAP (70)

글 보관함



www.flickr.com
This is a Flickr badge showing public photos and videos from Stan1ey. Make your own badge here.