robot2_1

logofinale로봇은 인간의 감정이나 비언어적 요구를 읽어낼 수 있단 말인가? 이에 관한 메커니즘을 확인할 수 있는 국내 연구 논문 한 편을 소개한다. 윤상석, 김문상, 최문택, 송재복 박사의인간의 비언어적 행동 특징을 이용한 다중 사용자의 상호작용 의도 분석 (『제어로봇시스템학회 논문지』, 19, 2013)이다.

 

로봇, 인간의 8가지 비언어적 행동을 포착하다

필자들은 제일 먼저 인지과학적으로 어떻게 인간이 타인과 상호작용을 수행하는지 밝힌다. 그에 따르면 말의 내용보다 목소리의 떨림, 시선, 제스처, 억양, 표정, 자세 등 비언어적 요소가 내면적 정보를 더욱 많이 가지고 있다. 심지어 비언어적 요소가 호감도에 영향을 미치는 것이 93퍼센트라고 하니 그 위력에 놀라지 않을 수 없다. 고로 비언어적 의사전달은 언어보다 의도를 더 정확하게 전달하는 고차원적 의사소통이라고 할 수 있는 것이다.

그래서 필자들은 상호작용을 수행하는 로봇이 복합적인 상황을 이해하고 다양한 서비스를 제공하기 위해 인간의 인지 과정과 유사한 기능 구현이 필요하다고 보았다. 특히 단 한 사람이 아니라 많은 이가 방문하는 박물관이나 쇼핑몰과 같은 동적 환경에서 복수의 사람을 대상으로 적극적으로 소통하는 로봇의 인지 요소에 대해 집중적으로 연구했는데, 그 결과 로봇이 다중 사용자와 상호작용하는 데 있어서 사용자 의도 지수를 정량적으로 판단할 수 있는 통합 사용자 평가 모델을 제시하는 데 성공했다.

필자들은 인간 사이의 상호작용 의도를 나타내는 지배적인 기능을 시각, 동작, 공간, 발성, 촉각의 다섯 가지로 구분했는데 이 중 촉각을 제외한 네 가지 요소들을 사용자의 친밀도를 측정하는 데 사용했다. 그리고 좀 더 세분화된 8가지 상호작용 의도 속성을 파악했는데. 정리된 것은 다음과 같다.

논문 739쪽 수록.

위 8가지 비언어적 행동을 로봇이 효과적으로 인식하기 위해 멀티 센서에 기반을 둔 로봇 인식 시스템이 통합적으로 구성된다. 일단 카메라 센서가 사람 눈높이에 맞춰져 있어 인간과 면대면 상호작용을 수행하면서 사용자를 인식하고, 다양한 행동 표현을 하며 지속해서 사용자의 의도를 추적한다. 이어서 장착된 마이크로폰이 음원 신호를 측정하고, 3차원 깊이 센서는 넓은 영역의 깊이 정보를 획득해 개별 사용자에 대한 위치 정보 및 신체 정보를 추출한다. 이 세 가지 멀티센서로부터 8가지 사용자 행동 정보를 추출하는 과정이 논문에 세세하게 나와 있다.

논문 740쪽 수록.

위 그림처럼 정면 얼굴 검출기를 적용해 사용자의 로봇 응시 여부를 판별한 후, 사용자의 표정을 일반, 웃음, 놀람, 화남 총 4가지 상태로 분류한다. 그 후 스켈레톤 정보를 제공해 제스처를 인식하고, 공간요소로 사용자 포즈, 상체 기울임 각도, 공간적 거리를 측정하며, 마이크로폰으로 발화자의 위치를 추정한다. 이로써 멀티센서로 8가지 비언어적 행동을 인식하게 되는 것이다.

 

로봇, 높은 성공률로 사용자 의도를 파악하다

사용자가 실제 상호작용 의도를 나타내는 행동을 수행했음에도 오인식이 되는 경우가 발생할 수 있다. 이를 막기 위해 개별 인식정보를 통합하고 오인식 정보의 사용을 가급적 배제하고 연속적인 신뢰도 기반의 인식정보를 적용하기 위해 TCR(Temporal Confidence Reasoning)에 기반한 후처리 방법을 적용한다. 이 방법을 적용하면 사용자 행동 특징 정보가 설정된 의도 속성에 따라 정규화된 값으로 전환된다. 또한 개별 인식기에 대하여 빈도나 중요도에 따라 가중치를 적용해 보다 효과적인 사용자의 의도 평가가 가능해진다.

연구자들은 위의 시스템이 적용된 로봇이 제대로 비언어적 행동을 인식하는지 총 10명의 20~30대 성인을 대상으로 실험을 했다. 그 결과 97.4퍼센트의 성공률로 정면 얼굴을 판별하고, 76.2퍼센트로 표정을 인식했으며, 제스처와 보행 인식은 각각 88.2와 83.1퍼센트의 성공률을 나타냈다. 사용자 포즈와 상체 기울임도 96.7퍼센트와 83.1퍼센트로 높은 성공률을 보였다. 마지막으로 음원 검지율 실험에서는 10도 이내에 있는 실제 발화자를 신뢰성 있게 추적하는 것으로 나타났다. 이후 복수의 사용자를 대상으로 제시된 사용자 평가 모델 성능 실험에서 3명의 사용자 5개 조를 실험한 결과 전체 실험 참가자의 의도와 93.3퍼센트의 일치율을 보임으로써 필자들은 복수 사용자의 개인별 의도를 로봇이 효과적으로 분석할 수 있음을 확인했다.

배경지식이 있는 독자들은 논문 안에서 자세한 실험과정과 연산과정을 확인할 수 있다. 비전공자들 역시 수학적 연산을 제외하고 보더라도 각 센서의 메커니즘과 후처리 과정을 흥미롭게 따라갈 수 있을 거라고 생각한다.

권성수 리뷰어  nilnilist@gmail.com

<저작권자 © 리뷰 아카이브, 무단 전재 및 재배포 금지>

Reporter, R

깊.게 판 진짜 지.식 @깊지라고 불러주세요.

RRESEARCH, REPORT, LIBRARY의 R입니다.