인공지능 시대가 왔다. 인류가 경험하지 않은 신세계를 앞두고 다양한 의견이 쏟아진다. 예컨대 로봇의 노동에 세금을 매기자는 일명 로봇세 논쟁(경제), 자율주행자동차가 탑승자와 보행자 중 택일해야 하는 트롤리 딜레마(윤리) 등이다. 법적 측면에서는 인공지능을 어떻게 바라보면 좋을까. 특히 첨단기술산업은 사전 규제와 친하지 않으므로 더 많이 고민해야 한다.

1950년 수학자 알란 튜링(Alan Turing)의 논문에서 출발한 인공지능은 반세기 남짓 지난 2010년 즈음 획기적으로 발전했다. IT 인프라가 성장함에 따라 상당한 빅데이터(big data)가 축적되고, 강력해진 컴퓨팅 기술은 기계학습(machine learning)을 향상시켰기 때문이다. 최근엔 구글 알파고, IBM 왓슨과 같이 대중의 관심을 갖는 인공지능 시스템까지 등장했다. 로봇이 인간을 지배할 디스토피아를 두려워하는 의견도 있다.

인공지능을 한 마디로 말하기는 어렵지만, 기술이나 관점에 따라 다양한 서술이 가능하다. ‘지능형 로봇 개발 및 보급 촉진법’은 지능형 로봇을 스스로 인식하고 상황을 판단하여 자율적으로 동작하는 기계장치라고 정의한다(제2조 제1호). 인공지능은 로봇과 같은 하드웨어에서 동작하나 본질은 소프트웨어로 표현된 알고리즘이다. 정리하면, 인공지능을 ‘스스로 인식하고 상황을 판단하는 자율성을 지닌 알고리즘(algorithm)’이라고 설명할 수 있다.

강한 인공지능(strong AI)과 약한 인공지능(weak AI)으로 구분하기도 한다. 전자는 인간 수준의 지능을 가지며 독립하여 행동하는 인공지능을 말한다. 실현될 수 없다는 견해와 특이점을 넘어 등장할 거라는 견해가 대립한다. 약한 인공지능은 주어진 영역에서만 활용할 수 있고, 사람이 실행 과정을 적절히 통제해야 한다. 금융, 방송, 의학 등 특정 영역에서 규칙에 따라 데이터들을 학습하여 예측하는 식이다.

흔히 사용되는 소프트웨어는 대개 단순 자동화(automated) 기능에 머문다. 일단 완성된 소프트웨어는 설계 당시 프로그래밍된대로 행동할 뿐, 개발자가 의도하지 않은 내용을 새롭게 발견하지 못한다. 반면 인공지능은 기존 데이터를 딥러닝(deep learning) 등 기술을 이용해 통계적으로 분석한다. 분석 결과는 개발자가 미처 알지 못했던 현상을 설명하거나 미래를 예측하는데 쓰인다. 바로 이 지점에서 새로운 법제도가 요구된다.

먼저 인공지능은 권리·의무의 주체가 될 수 있을까. 우리 법은 자연인과 ‘의제된 자연인’인 법인에게만 권리능력을 부여한다. 강한 인공지능에 이르지 않는 한 인간처럼 취급할 수 없다. 법인이 정관으로 정한 목적 범위 내에서 능력을 갖는 것처럼, 인공지능에게 특정 조건하에 권리능력을 부여하는 입법은 가능하다. 참고로 지난 1월 12일 EU 의회는 인공지능 로봇에게 ‘전자인간(electronic person)’의 법적 지위를 인정하는 결의안을 채택했다.

약한 인공지능이 스스로를 위해 행동하는 모습을 상상하기 어렵다. 대신 특정 영역에서 최소한 의사능력을 지녔다면 그를 대리인(agent)으로 활용 가능하다. 각종 계약을 분석하는 인공지능이 있다고 치자. 매일 대량의 거래가 일어나는 회사는 그에게 대리권을 수여하고, 계약 내용을 승인하거나 변경, 취소하는 작업을 맡길 수 있다. 반면 단순 자동화 소프트웨어라면 관리자가 매번 의사결정을 내려야 한다. 이는 마치 대리인과 사자(使者)의 차이와 유사하다.

어느 의사결정이 제3자에게 손해를 입힌 상황을 가정해 보자. 불법행위책임은 가해행위와 손해 사이에 인과관계를 요건으로 한다. 만약 자연적 조건들을 모두 원인으로 인정하면 개발자는 인과관계에서 벗어날 수 없다. 인공지능에서도 상당인과관계(相當因果關係)를 판단할 기준이 필요하다. 인공지능이 어느 수준을 넘어야 개발자로부터 벗어났다고 할 수 있을까, 개발자에게 책임이 없다면 시스템 소유자나 관리자는 어떠한가.

한편 인공지능이 만든 글, 그림 등 창작물의 저작권은 누가 가질까. 저작권법은 ‘저작물을 창작한 자’를 저작자라고 정의하며, 창작이라는 사실행위는 자연인만이 할 수 있다고 해석된다(이른바 창작자원칙). 인간이 아닌 소프트웨어 내지 시스템은 저작자가 될 수 없다. 다만 저작권법은 이 원칙의 예외로서 업무상저작물 제도를 도입했다(제9조). 인공지능이 만든 창작물에도 비슷한 규정을 만들어 적용할 수 있다.

인공지능의 공정성(fairness) 문제도 중요하다. 우리는 인공지능이 합리적이길 기대한다. 편견에 빠진 인간과 달리 공정한 결론을 내려줄 것만 같다. 인간과 크게 다르지 않다는 생각이 많아질수록 인공지능이 설 자리가 없어지게 된다. 개인이라면 그의 나이, 출생지, 인종, 거주지, 학력, 종교, 신념 등 정보를 통해 편견 유무를 추측할 수 있다. 이와 달리 인공지능의 공정성은 훨씬 알기 어렵다.

개발자가 처음부터 편견을 가지고 알고리즘을 설계했거나 충분한 주의를 기울였지만 잘못 설계했을 가능성이 있다. 주어진 데이터 자체가 편향되었어도(biased) 문제가 발생한다. 그렇다면 인공지능이 내린 의사결정의 상대방이 이의를 제기하여 구제받을 수 있는 공적(公的) 절차가 필요하다. 조세, 노동, 특허와 같은 분야처럼 인공지능 분쟁만을 다루는 위원회나 전담재판부의 운영도 한 가지 방법이다.

첨단기술의 특성상 미리 완벽한 법률을 준비할 수는 없다. 따라서 진입 단계에서는 다양한 시도를 허용하되, 잘못된 결과에는 확실한 책임을 묻는 입법이 바람직하다. 아직은 제한된 영역에서 활동하는 인공지능만이 존재하므로, 발생 가능한 각 케이스를 다룰 특칙부터 만들어 가는 방법도 좋다. 인공지능기술이 핵심 자원인 지능정보사회가 곧 도래한다. 인공지능산업을 뒷받침하는 훌륭한 법제도가 마련되길 바란다.

저작권자 © 법조신문 무단전재 및 재배포 금지