2016년 한반도를 뜨겁게 달군 이세돌 9단과 구글 딥마인드 알파고의 바둑 대국장, 그곳에는 이세돌 9단 이외에 알파고를 대신해 바둑돌을 잡은 알파고의 ‘대리기사’ 아자 황 박사도 있었다. 당시의 흥미로운 장면을 한 신문 기사는 다음과 같이 전했다.
“이번 대국의 주인공은 이세돌 9단과 알파고였기에, 아자 황은 최대한 자신의 존재감을 드러내지 않으려고 노력한 것이다. 그러나 아자 황의 무표정은 오히려 그의 존재감을 더욱 드러나게 했다. 인간의 대국에서는 상호 작용도 큰 영향을 미친다. 그러나 아자 황이 인간적인 반응을 철저히 숨기면서 이세돌 9단은 알파고와 대국을 더욱 낯설게 느끼게 됐다.” (연합뉴스 2016년 3월 16일자)
실제로 이세돌 9단은 종종 맞은 편에 인간 기사가 있을 때 할 법한 ‘습관적 반응’을 보이기도 했고, 어떤 이들은 대국자를 볼 수 없는 상황이 불리하게 작용할 수도 있다며 차라리 인간 대국자 역시 모니터와 마우스를 통해 대국을 펼치는 편이 나을 것이라고 논평하기도 했다.
인공 지능이 미래의 꿈이 아니라 오늘의 현실이 되고 있는 상황에서 아자 황이라는 중개자의 이미지로 포착된 알파고와 이세돌의 만남은 인공 지능이 인류에게 제기할 문제가 그저 지능이 무엇인가라는 문제에 머물지 않을 것임을 짧지만 강렬하게 보여주고 있다. 이화여대 이화인문과학원 천현득 교수의 논문, 「인공 지능에서 인공 감정으로 – 감정을 가진 기계는 실현가능한가?」 (『철학』, 131, 2017)은 인공 지능이 인간에게 제기할 현실적 문제 중 하나로 ‘인공 감정’을 들고 이에 대한 철학적 분석을 시도하고 있다.
인공 감정에 대한 논의가
왜 중요한가
오랫동안 ‘지성’ 혹은 ‘이성’은 인간을 동물과 같은 비인간 생물종들과 구별해주는 독특한 특징으로 여겨져왔다. 그러나 “인지적인 능력에서 기계의 추월을 염려하며 초라해진 인간의 위상을 개탄하는 사람들은 이제 감정으로 눈을 돌린다.” (220쪽)
“[퀴즈쇼 제퍼디에서 우승한] 왓슨은 경쟁에서 이기긴 했지만 승리를 기뻐하지는 못했다. 당신은 왓슨의 등을 두드리며 축하해줄 수 없고, 함께 축배를 들 수도 없다. 로봇은 이런 행동들이 무엇을 의미하는지 이해할 수 없을 뿐더러 자신이 이겼다는 사실조차 인식하지 못한다.” (220쪽)
그러나 최근에는 사교 로봇이나 감정 로봇처럼 인간과 유사한 감정을 가진 로봇을 구현하려는 시도들이 도처에서 이뤄지고 있다. 필자는 이처럼 인공 감정을 지닌 로봇을 제작하려는 시도가 널리 퍼진 배경으로 크게 세 가지 요인을 꼽는다. 첫째, 개체화된 삶을 사는 현대인들 사이에 “똑똑하게 행동하는 로봇뿐 아니라 정서적으로 교감할 수 있는 로봇”에 대한 수요가 증가하고 있다. (221쪽) 둘째, “로봇에게 감정 능력을 부여함으로써 로봇의 전반적인 성능을 향상하거나 사용자의 세밀한 필요에 더 잘 부응하[는]” 로봇을 제작할 수 있을 것이라는 예측이 있다. (222쪽) 셋째, 로봇이 인간처럼 감정을 갖게 함으로써 인공 지능이 인류에게 위협이 되는 상황을 피할 수 있을 것이라는 기대감이 있다.
필자에 따르면 이런 현실과 기대가 교차하는 지점에서 인공 감정에 대한 논의를 시작할 당위를 발견할 수 있다. 그리고 그 논의는 인공 지능이 제기하는 문제처럼 이중적 성격을 띤다. 즉, 인공 지능이 지능적 기계를 인간이 만들어 낼 수 있는가라는 기술적 문제와, 그렇게 기술적으로 구현하려는 인간의 지능이란 도대체 무엇인가라는 개념적, 철학적 문제를 우리에게 제기한 것처럼, 인공 감정 역시 기술적 문제와 개념적, 철학적 문제를 모두 제기한다.
“인공 감정에 대한 연구는 감정적 존재인 인간과 유사하게 행위하는 기계를 제작하려는 시도이면서, 동시에 감정 과정에 대한 계산 모형을 통해 감정 일반과 인간의 감정을 더 깊이 이해하기 위한 노력이기도 하다. 로봇에 감성을 불어넣는 작업이 새로운 화두로 등장한 이때, 인공 감정에 대한 철학적 탐구는 더 이상 미룰 수 없는 과제가 되었다.” (223쪽)
 |
와세다 대학에서 개발한 감정을 표현하는 로봇 코비안. ⓒTakanishi Lab (http://www.takanishi.mech.waseda.ac.jp/top/research/kobian/KOBIAN-R/index.htm) |
감정이란 무엇인가?
인공 감정은 실현가능한가?
감정을 인공적으로 구현한다는 말은 무엇을 뜻할까? 이 물음에 대한 대답은 당연히 우리가 어떤 대상에 감정을 부여하는 기준과 관련돼 있다. 즉 로봇이 인공 감정을 갖추었다고 말하기 위해서는 적어도 우리가 어떤 대상에 감정을 부여할 만한 일반적 기준들을 해당 로봇이 만족해야 한다. 그러므로 인공 감정과 관련한 논의에서는 감정의 부여 가능성을 따지려는 인공물의 생물학적 유사성보다는 인지심리학적, 행동학적 차원의 기능적 유사성에 주목할 필요가 있다.
필자에 따르면 이런 차원에서 볼 때 감정은 여러 기능적 역할을 수행한다. 첫째, 감정은 “개체의 생존, 안녕, 혹은 항상성 유지에 관련된 중요한 정보를 제공”한다. 둘째, “감정은 인지 과정을 촉진하거나 증진하기도 하고, 추론 양식에 영향을 미치기도 한다.” 예컨대 산에서 뱀과 유사한 매끈하고 긴 물체가 꿈틀거리는 모습을 보았을 때 우리가 느끼는 공포심은 위급한 상황에 주의를 집중하도록 만들어 “빠르고 효과적[으로]” 상황을 판단하고 의사결정을 내릴 수 있도록 유도한다. 셋째, 감정은 “일의 우선권을 조정”하고 상황 대처의 완급을 조절하는 등 “행위를 안내하는 역할을 한다.” 마지막으로 감정은 “특징적인 신체 반응이나 표정 등[을] 동반”하는데, 이는 감정이 추후에 취할 행동을 예비하는데 도움을 주거나, 표정이나 제스처에서 미묘한 감정이 전달되는 사례에서 알 수 있듯 “사회적 상호작용에서 중요한 역할을 담당”하기도 함을 보여준다. (226-228쪽)
그러므로 인공 감정을 구현한다는 것은 적어도 인간이 보기에 이러한 기능적 역할을 수행하는 것처럼 보이는 인공물을 제작하는 것이라 할 수 있다. 그렇다면 이런 관점에서 볼 때 인공 감정은 과연 구현 가능한 것일까? 필자의 현재 진단은 다음과 같다. “현재의 기술 수준에서 인공 감정을 가진 로봇은 없을 뿐 아니라 가까운 미래에 그런 로봇이 등장할 가능성은 희박하다고 판단된다.” (230쪽)
왜 그런가? 우선 감정이 수행하는 여러 기능적 역할을 고려할 때, 인공 감정이 구현된 로봇은 적어도 “어떤 것이 ‘자신에게’ 해가 되는지 도움이 되는지 평가할 수 있[는],” “자기 자신에 대한 기초적인 모형, 혹은 원초적 자아(proto-self model)를 가져야 한다. 둘째, 그러한 로봇은 “상당한 수준의 감각 능력과 일반 지능(general intelligence)을 갖고 있[어야]” 할 것이다. “감정은 지능적인 동물에게서 나타나며, 더 지능적일 수록 더 풍부한 감정을 나타내는 경향이 있[기]” 때문이다. (230-231쪽) 필자에 따르면, 이 두 가지 조건을 갖춘 로봇은 아직은 아주 먼 미래의 희망에 가깝다.
한편 필자는 기술사회사적, 기술철학적 논의를 통해서도 감정 로봇의 가능성에 의문을 표한다. 특히 필자는 기술결정론적 논의를 비판하는 데 더해, “사람들이 감정 로봇을 원하는 이유가 과장되어 있거나, 실제로는 진정한 감정을 가진 로봇을 만들어야 할 좋은 이유가 없[다]”고 주장한다. 우선, 감정을 갖춘 로봇이 더 안전할 것이라는 보장은 어디에도 없다. “인간들 사이에서 벌어진 끔찍한 전쟁들, 살인사건들, 모욕적인 언사와 행위들은 인간이 감정을 가졌기에 혹은 감정을 가졌음에도 불구하고 벌어졌다.” 둘째, 인간이 애초에 로봇을 만든 목적이 감정을 지닌 로봇의 존재와 상충할 수 있다. “우리는 [감정까지 갖춘!] 권리를 가진 주체로서의 로봇을 원하는가, 아니면 시키는 일을 똑똑하게 처리하는 노예로서의 로봇을 원하는가?” 셋째, 설사 인공 감정을 부분적으로 구현하는 일이 가능하다 할지라도 우리가 로봇에게 허용할 수 있는 감정은 무엇이고 억제해야 할 감정은 무엇일까? 가령 인간과 교감하는 로봇은 “분노, 공포, 슬픔, 역겨움, 수치, 모욕감, 당황스러움의 감정”도 느낄 수 있어야 할 것이나 이런 감정을 로봇에게 부여하는 일이 바람직한 일인지는 매우 논쟁적이다. (231-233쪽)
인공 감정(의 가능성)에 기댄
일방적 감정 소통의 위험성
이처럼 인간과 유사한 방식으로 감정을 느끼는 로봇이 단시일 내에 제작될 것 같지 않다고 해서 인공 감정과 관련한 문제가 모두 사라진 것은 아니다. 지금도 사람들은 다양한 ‘사회적 서비스 로봇’이나 ‘사교 로봇(social/sociable robots)’들과 교감을 나누고 있기 때문이다. 가령 2016년에 한 스탠포드대학 연구팀이 보고한 결과에 따르면, 사람들은 로봇이라 할지라도 “인간의 성기와 엉덩이에 해당하는” 부위를 만질 때 “가장 강한 성적 흥분”을 느끼는 듯했다. 더욱이 이러한 감정적 관계는 로봇이 감정을 더 잘 표현할 수록 강화되는 경향이 있다.
 |
스탠포드 대학 연구팀의 로봇과 인간의 접촉 반응 연구 장면. (http://www.zdnet.co.kr/news/news_view.asp?artice_id=20160408074044) |
이런 현상들은 비록 로봇이 인공 감정을 완벽히 갖추지 않아도 사람들이 로봇과 얼마든지 깊은 교감 관계를 형성할 수 있음을 보여준다. “사람들의 명시적 믿음 체계 속에서 로봇의 ‘감정’은 따옴표 속에 있지만, 실제 행동에서는 그 따옴표가 쉽게 사라지기 때문이다.” 필자에 따르면 바로 이 지점이 매우 중대한 사회적 문제를 유발할 수도 대목이다. “사교 로봇에 대한 심리적 의존으로 인해, 사용자가 조종되거나 착취당할” 수가 있기 때문이다. (235쪽) 가령 로봇 제작 회사는 사용자가 로봇과 ‘일방적으로’ 맺는 감정적 유착 관계를 이용해 로봇과 관련한 수익을 창출할 수 있다. 이 문제는 사람들이 어떤 로봇에게 더 강한 감정적 유착관계를 느끼는지 더 잘 알게 됨으로써 더욱 심화될 것이다.
그러므로 인공 감정을 구현할 수 있을 것인가, 그런 로봇이 등장하면 무슨 일이 벌어질 것인가를 논하기에 앞서 우리가 ‘지금’ 고민해야 할 문제도 그리 가벼워 보이지는 않다. “기계에 더 많이 의존하고 사람과의 대면 접촉을 피한다면, 결국 우리는 ‘함께 외로울’” 미래를 맞게 될지도 모르기 때문이다. (238쪽) 이런 미래를 피하기 위해 우리는 인간이 다양한 로봇과 어떤 방식으로 관계를 맺는지, 특히 인간과 “감정 로봇[의] 일방적 정서적 교감이 가져올 수 있는 잠재적 위험”이 무엇인지 진지하게 논의해야 할 것이다.
*함께 읽으면 좋은 자료:
「1960년대 인간과 기계」
홍성욱, 2002, 『철학사상』, 14, 173-199.
「인간과 기계 – 갈등과 공생의 역사」
홍성욱, 2015, 『문학과 사회』, 28(3), 466-488.
문지호 리뷰어 lunatea3@gmail.com
<저작권자 © 리뷰 아카이브, 무단 전재 및 재배포 금지>