[비바100] 더 크기 전에… 걸음마 단계 AI에 윤리를 훈육하라

김희욱 국제전문기자
입력일 2017-03-06 07:00 수정일 2017-03-06 13:46 발행일 2017-03-06 13면
인쇄아이콘
[김희욱의 언더커버] 상용화 앞둔 AI… '성장통' 대비할 떼
21

지난 1월 유럽의회 법사위는 로봇에게 ‘전자인격(Electronic personhood)’을 부여하며 이를 인간이 통제하고 규제하는 법안을 발의했다.

찬성 17, 반대 2, 기권2로 통과된 해당 법안은 가까운 미래에 인공지능이 인간의 지능은 물론 응용력과 창의력에서도 인류를 압도하게 될 상황을 미리 대비한다는 것을 골자로 하여 약 2년에 걸친 다양한 연구와 각계 전문가들의 견해를 토대로 마침내 입법 발의된 것이다.

그렇다면 인간이 로봇을 통제하는 데는 어떤 수단이 활용될 것인가, 또 그렇다면 그 기준은 누가 정하게 되는 것인가 등 아직 여러 미결과제가 남아있지만 일단 걸음마에서 갑자기 달리기를 준비하는 인공지능(AI)의 눈에 띄는 성장에 대해 일종의 ‘성장통’은 불가피하다는 관측이다.

올해 모바일 월드 콩그레스(MWC)에서 가장 많은 주목을 받았던 신기술은 단연 커넥티드 카(Connected car, 원격조종 자동차)였다.

clip20170305085256
셀프 드라이빙 콘셉트카, 퓨쳐리즘

스마트폰은 물론 각종 무선 통신망을 이용하는 커넥티드 카는 내비게이션을 기본으로 원격 차량제어 그리고 운전에 필요한 각종 정보들이 양방향으로 연결되는 시스템이다. 이에대해 전문가들은 ‘셀프 드라이빙’ 즉 무인운전시스템 완성으로 가는 가장 중요한 관문을 마침내 통과했다고 평가했다.

지난해 이세돌 9단과 알파고의 바둑대결을 기점으로 인공지능(AI)은 우리 삶의 거의 모든 분야에서 ‘스마트라이프’ 물결을 일으키고있다.

인공지능의 초기단계였던 자동화시스템(Automation)은 이미 생활 전반에 걸쳐 인간이 하기 힘들고 위험한 업무를 로봇이 대신 하게 하는 등 범용(凡庸)의 단계에 진입한 지 오래다. 여기다 양과 질을 혁신적으로 향상시킨 것이 바로 스마트라이프의 토대가 된 것이다.

그렇다면 이렇게 완성을 눈앞에 둔 스마트라이프를 위해 인류가 준비해야 할 것은 무엇일까?

바로 인공지능(AI)를 올바르게 훈육하는 일이다. 현재 인공지능을 활용한 기술 중 상용화에 가장 근접한 것 중에 하나가 바로 셀프 드라이빙이다. 말 그대로 운전자의 도움 없이 인공지능이 내비게이션과 각종 도로교통정보를 취합 후 스스로 차를 운전하여 목적지에 도달하는 시스템이다.

clip20170305101357
포톨리아 로봇, Adobe 시스템

이론적으로는 인공지능에 입력된 프로그램을 통해 빨간불에 서고 파란불에 주행하며 차선을 바꾸거나 교차로를 통과할 때도 사람의 눈이나 판단력보다 더욱 정확한 각종 센서와 디텍터(감지기) 등 첨단장비가 제공하는 정보만으로 훨씬 안전하고 빠르게 목적지에 도달 할 수 있다.

하지만 여기에는 치명적인 약점이 있으니 바로 사고상황에 대한 대처가 바로 그것이다. 인공지능은 어떤 상황에서도 확률과 통계를 바탕으로 학습된 ‘과학적’ 결정을 내린다는 차원에서 상황에 따라 당황하고 실수할 수도 있는 사람의 위기상황 대응보다 훨씬 합리적일 수 있다.

그렇다면 인공지능(AI)의 사고확률은 제로일까? 아직 시범운행 단계지만 구글의 셀프 드라이빙 차가 횡단보도 신호를 위반하는 모습이 목격돼 화제가 됐고 테슬라 역시 지난 10월 오토 파일럿(사람이 탄 상태에서 일시 자동운전 모드) 실험 도중 교차로에서 대형사고를 냈다.

물론 본격적인 상용화 전 단계에서 충분히 해결될 수 있는 기술적 문제일 수 있지만 문제는 과연 인공지능의 판단이 과학적인 동시에 윤리적이냐 하는 문제다. 사실 인공지능은 디지털의 최신기술의 결정판이라고 할 수 있지만 모든 데이터와 로직을 입력해 주어야 하는 ‘아날로그식’ 기술이다.

예를 들어 인공지능이 셀프 드라이빙으로 차를 몰고 교차로를 통과하는 순간에 갑자기 자전거가 뛰어들었다고 가정해 보자.

순간 인공지능은 데이터 베이스를 찾아보고 적절한 판단과 실행에 나설 것이다. 그런데 속도를 감안하니 급브레이크를 밟으면 자전거와 충돌하고 만일 오른쪽으로 피하면 옆에 횡단보도에 있는 사람들을 덮치게 되며 왼쪽으로 피하면 마주 오는 스쿨버스와 추돌할 수밖에 없는 상황이다.

clip20170305092240
셀프 드라이빙 프로그램, 디지털 트랜드

여기서 인공지능이 어떤 선택을 하든 사고는 발생할 수밖에 없고 문제는 그 이후다.

만일 횡단보도로 핸들을 꺾는다면 인공지능은 할리우드 재난영화에 등장하는 어린이·여성·노인의 우선순위를 따라 서 있는 사람들을 ‘골라서’ 치게 될까? 물론 이 경우 감정의 동물인 사람이라면 십중팔구 당황하여 비이성적이고 비과학적인 조치를 실행할 것이다. 하지만 ‘불가항력’ 내지는 ‘심신미약상태’라는 이유로 면책이 적용될 수 있는 것도 인간이라는 특성 때문이다.

이와 달리 인공지능은 ‘미필적 고의’ 대상이 될 수 있다. 인공지능이 피해를 줄이기 위해 내린 과학적 판단도 결국은 기존에 주입된 ‘로직’에 따른 것인 만큼 피해자나 보험사는 해당 인공지능 개발사에 대해 법적으로 문제제기를 할 수 있다.

왜냐하면 사고당시 인공지능이 내린 판단과 조치는 모두 인간이 일일이 입력한 기본 데이터와 로직에 따른 것이기 때문이다. 이를 테면 주행중 무단횡단자를 만난 돌발상황에서 ‘중앙선을 넘으면 법적인 책임이 있음’. ‘사람을 치면 소송비용이 많이 듦’, ‘방향을 틀어 피할 경우 2차사고의 가능성이 있고 옆의 차량에 사람이 2명이상 타고 있을 경우 갓길 전봇대를 충돌하는게 피해가 적음’ 등의 각종 정보가 모두 아날로그 방식으로 사람을 통해 인공지능에 입력되는 것들이다.

또 다른 문제는 이 같은 측면을 감안하면 보험사는 이를 보험이 보장해야 하는 ‘우연성에 기초한 사고’가 아니라는 이유로 보험금 지급을 거부할 가능성도 배제할 수 없다는 것이다.

그렇다면 인공지능으로 하여금 윤리를 학습하도록 하는 것이 가능한 일인가? 지난 유럽의회 ‘전자인격(Electronic personhood)’ 도입에 대한 초안에는 이것이 가능하다는 전제를 두고 있다.

인공지능이 일으킬 수 있는 각종 사고에서 ‘윤리적 판단에 따른 것’이라는 로직은 사법적 그리고 정서적으로 인공지능의 ‘면책’에 가장 중요한 역할을 할 것이고 인공지능 개발회사들도 이에 대해 이미 진지한 연구를 착수한 것으로 전해지고 있다.

김희욱 국제전문기자 hwkim@viva100.com