이 블로그 최초의, 해외 특파원 소식이다. -_-;;;

출장 와서 동료들과 함께 아침을 먹으면서 (1인당 하나씩 시키기엔 양이 너무 많았다 -_-a ) 영국 TV를 보는데, 재미있는 걸 발견해서 이야깃꺼리가 됐다. BBC UK TV 와 Channel 4+1, E4+1 채널 중 몇 군데에서 청각장애인을 위한 수화를 뉴스나 드라마, 심지어 쇼프로에 이르기까지 제공해 주는데, 우리나라처럼 화면 한쪽에 동그란 영역을 따로 설정한 게 아니라 수화 narrator가 화면에 포함되어 있는 형태인 것이다. 게다가 특이한 것은, 대사가 없을 경우에도 배꼽에 손을 얹고 정면을 바라보고 있는 '차례' 자세가 아니라 아래와 같이 "같이 TV를 보는" 자세를 취하고 있는 게 이채롭다.

Watching TV Show ALONG WITH Sign Language Narrator

위와 같이 시청자와 같이 TV를 보다가, 대사가 나오면 아래와 같이 수화로 대사와 내용을 - 수화는 모르지만, 대사의 양과 수화의 양을 비교해 보면 가끔은 내용을 요약하기도 하는 것 같다 - 전달해 준다.

Sign Language Narrator of BBC, UK

그런데, 더욱 재미있는 건, 우리나라의 수화자(이 narrator를 뭐라고 하는지 모르겠다)처럼 시종일관 무표정한 표정으로 전달하는 게 아니라, 매우 다양한 표정을 함께 '연기'하면서 실감 있게 극을 전달하고 있다는 거다.

Nice Face Acting Screen Shot of Sign Language Narrator

이런 표정 연기는 드라마에만 국한되는 게 아니라, TV show는 물론 뉴스를 전달할 때에도 슬픈 소식에는 슬픈 표정과 추가적인 감정표현을, 좋은 소식에는 좋은 표정을 더해기 때문에 단지 시선을 공유하는 게 아닌 실제로 해당 방송 컨텐트를 함께 보고 있다는 느낌을 주고 있었다. 같이 TV를 보던 사람들이 말했듯이 "이건 마치 (수화를 쓰는) '변사'잖아!" 라는 것이 매우 적합한 묘사인 듯 하다.


Robot을 Hardware Agent라고 부르며 Software Agent와의 공통점을 찾던 시절에, 로봇이나 on-screen agent의 시선 처리는 중요한 디자인 요소 중 하나였다. 특히 로봇은 3차원에 있기 때문에 시선이 더욱 중요했는데, 동시에 3차원이기 때문에 시선처리의 자유도가 사용성에 반하는 경우 - 로봇이 뒤돌아 있으면, 사용자는 로봇이 어딜 보는지 알 수 없다 - 도 발생하기 때문에 여러가지 방식의 실험연구가 보고되기도 했다.

그 중 약간은 유연한 연구에서는, Agent의 시선처리를 사용자와 직접 대화를 할 경우 적절한 눈맞춤 eye contact 을 갖거나(mutual gaze), Agent가 사용자와 같은 사물이나 방향을 함께 봄(shared looking)으로써 함께 대화를 하고 있다는 감각을 주기 위해서 활용하고 있다. 위의 수화자가 화면에 등장하는 방식이나 그 시선처리와 표정연기는 모두 그 연구에서와 같이 그 경험을 Agent가 사용자와 공유하고 공감하고 있다는 것을 강조함으로써 UI가 컨텐트와 분리된 것이 아니라 하나로 융합된 경험이 되어 있다는 생각이 들었다.

UI와 컨텐트가 융합되어 하나의 완성된 경험을 이룬다는 것은, 멀티미디어 정보기기의 개념이 처음 나왔을 때 H/W와 S/W가 하나의 컨셉 하에 디자인되어야 한다는 것과 궤를 같이 하는 것 같다. 게임 <Call of Duty>가 보여준 것 - Storytelling에 있어서 autonomy와 control의 다양한 혼합 비중 - 도 좋은 모델이 되겠지만, Agent가 등장할 경우 그 역할모델이 무엇이어야 할지에 대한 것도 하나의 재미있는 연구 주제가 될 것 같다.

(외국에서 현장 르포 한번 올려보고 싶어서 주절 거리긴 했지만, 이거 주제도 없고~ 재미도 없고~ 교훈도 없고~ ㅋㅋ 나 뭐한 거니...)
Posted by Stan1ey

댓글을 달아주세요:: 네티켓은 기본, 스팸은 사절

  1. creep
    2008.05.13 19:36
    댓글 주소 수정/삭제 댓글
    잘 가셨군요. 근데 변사 아줌마가 화면을 가리는 것은 좀 답답하게 보여요. Transparency parameter를 조절하기도 애매하고. 그런 점도 감안되어서 컨텐츠 제작이 이루어지고 있는 것이겠지요?
  2. Stan1ey
    2008.05.15 11:33
    댓글 주소 수정/삭제 댓글
    흠... 사실 그렇게까지 했을 거라는 생각은 안 들지만, 어쨋든 기왕 가리는 거 둥그렇게 영역을 차지하는 것보다 필요한 부분만 가린다는 점에서는 오히려 화면을 덜 차지한다는 생각이 들긴 하네요.
  3. 2009.02.04 08:48
    댓글 주소 수정/삭제 댓글
    따로 블로깅할 것까지는 없어서 그냥 댓글 하나 추가.

    오늘 자막을 켜놓고 드라마를 보는데, 주인공들이 바에서 이야기하는 모습이 배경음악과 함께 나오는 마지막 장면이 있었다. 주인공들은 뭔가 재미있게 이야기하고 있는데, 사실 대화내용은 중요하지 않고 해피엔딩을 표현하는 음악만 나오는 장면. 그런데 이 자막으로 표현할 거 없는 장면에서 "(Inaudible)" 이라는 자막이 뜨는 거다. 엥? 하다가 깜짝 깨달아 버렸다.

    애당초 청각장애인을 주 대상으로 한 이 자막을 보는 사용자들은, 소리가 안들리는 상태에서 주인공이 입만 뻥긋거리고 있는 장면에서 자막이 나오지 않으면 답답할 거다. 그러니 실제로 자막으로 바꿔야 할 건 없어도 사용자의 입장에서는 (뭐라는지 안 들림)이라고 해두는 편이 맞는 것이다. 진짜 사용자 중심의 자막이랄까.

    살짝 감동 먹어서 끄적끄적. :)


BLOG main image
by Stan1ey

카테고리

분류 전체보기 (347)
HTI in General (45)
User eXperience (11)
Voice UI (50)
Vision UI (14)
Gesture UI (25)
Tangible UI (28)
Robot UI (14)
Public UI (9)
Virtuality & Fun (56)
Visual Language (15)
sCRAP (70)

글 보관함



www.flickr.com
This is a Flickr badge showing public photos and videos from Stan1ey. Make your own badge here.