본문 바로가기
Robot UI

Sharing Eyesight with Agent

by Stan1ey 2008. 5. 12.
이 블로그 최초의, 해외 특파원 소식이다. -_-;;;

출장 와서 동료들과 함께 아침을 먹으면서 (1인당 하나씩 시키기엔 양이 너무 많았다 -_-a ) 영국 TV를 보는데, 재미있는 걸 발견해서 이야깃꺼리가 됐다. BBC UK TV 와 Channel 4+1, E4+1 채널 중 몇 군데에서 청각장애인을 위한 수화를 뉴스나 드라마, 심지어 쇼프로에 이르기까지 제공해 주는데, 우리나라처럼 화면 한쪽에 동그란 영역을 따로 설정한 게 아니라 수화 narrator가 화면에 포함되어 있는 형태인 것이다. 게다가 특이한 것은, 대사가 없을 경우에도 배꼽에 손을 얹고 정면을 바라보고 있는 '차례' 자세가 아니라 아래와 같이 "같이 TV를 보는" 자세를 취하고 있는 게 이채롭다.

Watching TV Show ALONG WITH Sign Language Narrator

위와 같이 시청자와 같이 TV를 보다가, 대사가 나오면 아래와 같이 수화로 대사와 내용을 - 수화는 모르지만, 대사의 양과 수화의 양을 비교해 보면 가끔은 내용을 요약하기도 하는 것 같다 - 전달해 준다.

Sign Language Narrator of BBC, UK

그런데, 더욱 재미있는 건, 우리나라의 수화자(이 narrator를 뭐라고 하는지 모르겠다)처럼 시종일관 무표정한 표정으로 전달하는 게 아니라, 매우 다양한 표정을 함께 '연기'하면서 실감 있게 극을 전달하고 있다는 거다.

Nice Face Acting Screen Shot of Sign Language Narrator

이런 표정 연기는 드라마에만 국한되는 게 아니라, TV show는 물론 뉴스를 전달할 때에도 슬픈 소식에는 슬픈 표정과 추가적인 감정표현을, 좋은 소식에는 좋은 표정을 더해기 때문에 단지 시선을 공유하는 게 아닌 실제로 해당 방송 컨텐트를 함께 보고 있다는 느낌을 주고 있었다. 같이 TV를 보던 사람들이 말했듯이 "이건 마치 (수화를 쓰는) '변사'잖아!" 라는 것이 매우 적합한 묘사인 듯 하다.


Robot을 Hardware Agent라고 부르며 Software Agent와의 공통점을 찾던 시절에, 로봇이나 on-screen agent의 시선 처리는 중요한 디자인 요소 중 하나였다. 특히 로봇은 3차원에 있기 때문에 시선이 더욱 중요했는데, 동시에 3차원이기 때문에 시선처리의 자유도가 사용성에 반하는 경우 - 로봇이 뒤돌아 있으면, 사용자는 로봇이 어딜 보는지 알 수 없다 - 도 발생하기 때문에 여러가지 방식의 실험연구가 보고되기도 했다.

그 중 약간은 유연한 연구에서는, Agent의 시선처리를 사용자와 직접 대화를 할 경우 적절한 눈맞춤 eye contact 을 갖거나(mutual gaze), Agent가 사용자와 같은 사물이나 방향을 함께 봄(shared looking)으로써 함께 대화를 하고 있다는 감각을 주기 위해서 활용하고 있다. 위의 수화자가 화면에 등장하는 방식이나 그 시선처리와 표정연기는 모두 그 연구에서와 같이 그 경험을 Agent가 사용자와 공유하고 공감하고 있다는 것을 강조함으로써 UI가 컨텐트와 분리된 것이 아니라 하나로 융합된 경험이 되어 있다는 생각이 들었다.

UI와 컨텐트가 융합되어 하나의 완성된 경험을 이룬다는 것은, 멀티미디어 정보기기의 개념이 처음 나왔을 때 H/W와 S/W가 하나의 컨셉 하에 디자인되어야 한다는 것과 궤를 같이 하는 것 같다. 게임 <Call of Duty>가 보여준 것 - Storytelling에 있어서 autonomy와 control의 다양한 혼합 비중 - 도 좋은 모델이 되겠지만, Agent가 등장할 경우 그 역할모델이 무엇이어야 할지에 대한 것도 하나의 재미있는 연구 주제가 될 것 같다.

(외국에서 현장 르포 한번 올려보고 싶어서 주절 거리긴 했지만, 이거 주제도 없고~ 재미도 없고~ 교훈도 없고~ ㅋㅋ 나 뭐한 거니...)
반응형