혹시 게임 디트로이트: 비컴 휴먼(Detroit: Become Human)라는 게임을 알고 있나요?
안드로이드가 보편화된 2038년의 디트로이트를 배경으로 진행되며 세계 곳곳에서 인공지능이 탑재된 안드로이드가 생활에 밀접하게 이용되고 있다는 설정의 게임입니다.
게임에서는 개인 장소에서의 업무부터 공공장소에서의 업무까지 사람들이 하던 일을 안드로이드가 하면서 안드로이드에게 의존하여 살아가는데요.
게임 속에서 등장하는 남성 안드로이드 ’다니엘’은 주인이 새 안드로이드를 가져오기로 했다는 이유로 인질극을 벌이기도 합니다. 버려진다는 것에 앙심을 품는 등 명령에만 따르는 기계가 아니라 사람처럼 감정적인 행동을 하기도 하는데요.

게임을 진행하다 보면 진짜로 먼 미래가 아닐 수도 있겠다 싶습니다.
인공지능의 기술이 가속화되어 인간 사회와 보다 밀접해짐에 따라 윤리에 대한 문제나 점차 로봇이 인간을 대체하는 문제에 대해서는 생각해야 할 부분이 많은 것 같습니다.



디트로이트: 비컴 휴먼(이미지 출처: quanticdream)

3차 산업혁명과 4차 산업혁명의 핵심적 차이는 바로 인공지능(AI)의 활용 여부라고 합니다.
이처럼 AI 개발 여부는 빠르게 확산되고 있지만 어떻게 윤리 법칙과 법적 의무를 적용할지에 대해서는 명확한 합의점은 없습니다. 예컨대 AI가 자동차 운전이나 외과수술 등 사람의 생명에 영향을 미칠 행위를 할 때 법적 윤리적 책임을 AI에게 물릴지, AI의 제조사나 사용자가 대신 책임을 져야 하는지에 대해서는 끊임없는 논란이 되어왔습니다.

유럽의회는 지난 1월 결의안을 채택해 로봇에 전자 인간(Electronic Personhood)이라는 법적 지위를 부여하고 로봇의 지위, 개발, 활용에 대한 기술적, 윤리적 가이드라인을 제시한 바 있습니다. 또한 우리나라 한국로봇산업진흥원은 지난해(2018년) 9월, 제1차 로봇윤리포럼을 열어 로봇윤리헌장 제정 등 규범화 작업에 본격적으로 시동을 걸기도 했습니다.



이미지 출처: 로봇신문

인공지능 기술이 가속화되고 로봇의 구매가격도 지속적으로 하락하는 현 상황에서 소셜로봇이나 헬스케어 로봇들의 각 가정마다 보급은 그리 먼 미래는 아닐 것 같습니다.
이렇게 사람과 로봇이 한 가정이나 사무실에서 같이 지내다 보면 서로를 이해하고 적절히 소통할 수 있어야 합니다. 특히 사람은 로봇 하드웨어와 지능 소프트웨어가 융합된 기계인 로봇에 쉽게 공감하게 되어 은연중에 로봇을 사람처럼 대하고 로봇이 사람처럼 행동하기를 기대하게 됩니다.

로봇의 창조자인 인간은 로봇을 잘 이해하지만, 로봇은 아직 인간이 무엇을 추구하는지, 어떤 것을 좋아하고 어떤 것을 싫어하는지 등을 제대로 알지 못합니다. 하지만 이제는 로봇이 인간의 명령을 완벽하게 수행하는 것을 넘어서 인간들이 추구하는 보편적인 가치(사랑, 행복, 정의, 평등, 신뢰, 질서 등)를 기본적으로라도 이해해야 하는 시대가 되었습니다.
정상적인 사고와 판단력이 흐려진 사람이 비윤리적인 명령(’남의 지갑을 훔쳐라!’, ’저 사람을 때려라!’ 등)을 로봇에게 내렸을 때 로봇은 윤리적 상황인지를 하고 비윤리적인 명령이라고 판단되는 경우 그 명령을 거부하거나 다른 대안을 제시해야 합니다.

로봇윤리 분야는 로봇이라고 인정되는 모든 지능형 기계에 적용될 수 있기 때문에 인공지능 소프트웨어, 로봇 제어기술, HRI(Human-Robot Interaction) 등의 공학 기술과 윤리학, 철학, 심리학, 법학, 사회학, 경제학 등 다양한 비공학 기술들이 유기적으로 잘 융합되어야 비로소 10세(미국의 심리학자인 콜버그가 정의한 1수준의 최고 나이) 소년 정도의 기본적인 윤리적 판단을 할 수 있을 것입니다.

이를 위해 동아대학교 인공지능·로보틱스 연구실(deas.donga.ac.kr)의 김종욱 교수팀은 변순용 교수(서울교육대학교) 팀과 협력하여 소셜로봇과 헬스케어 로봇에 적용 가능한 가장 기본적 수준의 인공도덕행위자(Artificial Moral Agent, AMA)를 개발하였습니다.

SOAR라는 오픈소스 인지에이전트 아키텍처를 기반으로 윤리적 판단 SW 패키지를 개발하고, SOAR와 ROS(Robot Operating System)를 연동하여 휴머노이드 로봇의 하드웨어를 구동하였습니다.
AMA의 윤리적 판단은 크게 하향식(Top-Down)과 상향식(Bottom-Up) 접근법이 있습니다. 먼저 하향식 접근법으로는 우리가 잘 알고 있는 의무론과 공리주의를 SOAR로 구현하는 것이고 상향식 접근법으로는 콜버그의 이론과 상벌에 기반한 도덕적 학습(강화학습)을 적용할 계획이라고 합니다.

인공지능·로보틱스 연구실에서는 인지 에이전트 아키텍처인 SOAR에 도덕적 의사결정이 가능한 윤리판단 레이어(Ethical Decision Layer)를 구현 중인데요, 이는 윤리학의 이론과 분류에 따라 크게 하향식(Top-Down)과 상향식(Bottom-Up) 접근법으로 나누어집니다. 하향식 접근법은 Mill의 공리주의 이론과 Kant의 의무론을 결합하여 구현하며, 로봇에게 어떤 명령(충치가 있는 여자아이가 로봇에게 과자를 달라고 함)이 주어졌을 때 아래 그림과 같이 공리주의 이론에 따라 최대 효용 값을 가지는 응답을 선택한 후 그 응답이 의무론에 위배되는지를 검증하는 단계를 거쳐 로봇이 최종적으로 수행할지를 결정합니다.

윤리판단 레이어의 상향식 접근법은 콜버그의 인습이전 수준(1수준)을 구현하는 것으로 SOAR의 강화학습 기능을 이용하여 행위에 대한 상벌 알고리즘을 개발함으로써 복종 지향 윤리 모듈을 개발하고, SOAR의 청킹(Chunking) 기능과 Episodic/ Semantic/ Procedural Memory를 이용하여 개인주의, 도구적 목적 및 거래 지향 윤리 모듈을 개발하는 것입니다.



AMA의 하향식 윤리판단 레이어의 흐름도 예(이미지 출처: 기계·건설공학연구정보센터)

2017년 1월 12일에 유럽연합(EU) 의회에서 AI 로봇을 전자 인간(Electronic Person)으로 인정하자는 결의안을 의결한 데에는 AI 로봇이 산업계에 확산되면 대규모 실직이 발생할 수 있다는 위기감이 컸기 때문이라고 할 수 있다고 합니다.
특히 이렇게 로봇에게 준 인격체로서 권리와 의무를 부여하면 로봇이 인간 사회의 법률이나 도덕 기준에 따라 작동되도록 제한되고, AI 로봇을 노동자와 대체하여 얻은 이득에 세금을 걷는 로봇세도 적용할 수 있게 됩니다. 현재 로봇세는 유럽로봇산업협회에서 로봇산업의 발전을 저해하는 새로운 규제라고 주장하며 반대하고 있습니다.

한마디로 ’전자 인간’이라는 표현은 AI 로봇이 사람과 비슷한 수준의 독립적 존재가 될 수 있다는 의미라기보다는 인간 사회에 로봇이 편입될 때 이 로봇에게 어떤 의무와 권리를 부여해야 하고, AI 로봇의 증가로 인해 사람들에게 발생할 수 있는 피해를 최소화하자는 의도에서 만들어진 용어라고 할 수 있습니다.

궁극적으로 AMA가 성인 수준의 윤리적 판단을 하기 위해서는 선악미추와 같은 인간의 가치관, 일반 상식, 역사·문화적 지식, 특정 분야의 지식, 예술적 심미안, 대인 관계, 예절, 에티켓, 주변 상황 인식 등을 소프트웨어와 DB로 구현할 수 있어야 합니다.
또한 윤리적 판단은 인종, 지역, 국가별로 큰 규범(’거짓말해서는 안 된다’, ’남의 것을 허락 없이 훔쳐서는 안 된다’ 등)은 비슷하더라도 세세한 방식에서는 조금씩 차이가 날 수 있으므로(’연장자에게는 고개를 숙여서 인사를 해야 한다’ 등) 표준적인 AMA를 어느 정도로 세세히 구현하는가 하는 것에는 전 세계적 규모로 논의와 합의가 반드시 필요할 것으로 보입니다.

참고 자료
1. 로봇신문(2018). 로봇윤리 규범화 본격 시동. 로봇신문, 9월 20일.
2. SKhynix 블로그(2018). [게임 속 IT] ’디트로이트: 비컴 휴먼’속 안드로이드를 통해 본 미래의 인공지능. SK하이닉스 블로그, 4월 25일. https://blog.skhynix.com/2540

※ 본 내용은 MATERIC(www.materic.or.kr)에서 제공받은 연재 내용 중 일부를 인용하였습니다.
인용 출처: http://www.materic.or.kr/community/mterview/content.asp?f_id=95