긴 법정공방 끝에 법원의 판결이 내려지게 되면 재판의 승자는 정의가 살아있음을 느끼며 기뻐하는 반면, 그 상대방은 법원의 판결이 불공정하고 차별적이라며 불만을 품기도 한다. 같은 판결을 두고 원고와 피고 모두가 만족할 수 있는 완전한 판단을 내리는 것은 생각만큼 쉽지 않다. 그렇다면 사람이 아닌 기계가 빅데이터를 근거로 판단을 내리면 그 판단은 공평하고 공정하다고 여겨질 수 있을까?

사람들은 인공지능이라면 객관적이고 공정한 판단을 할 것이라고 생각한다. 사람과 달리 감정에 휘둘리지 않고 원리원칙대로 프로그래밍된 논리에 따라 정확한 결과값을 내려줄 것이라고 믿기 때문이다. 실제로 현재 의료영역에서 활용되고 있는 암 예측 인공지능 중 하나인 IBM의 ‘왓슨’의 경우 환자들로부터 인간의사의 진단 결과보다 더 신뢰를 받고 있다는 연구도 있다.

일부 미래학자들은 머지않아 법조분야도 인공지능으로 대체될 것이며, 인공지능판사가 일부 판결을 하게 될 것이라고 예측하고 있다. 미국의 일부 주에서는 특정 알고리즘을 이용하여 범죄자의 재범률을 산출하고 그 결과를 고려하여 범죄자의 형량을 정하는 시스템인 ‘콤파스(COMPAS)’를 활용한 사례가 있다.

그러나 이 콤파스가 출소 후 2년 내에 재범을 저지를 가능성을 계산하는 과정에서 백인 범죄자보다 흑인 범죄자에게 2배 가까이 높은 재범률을 부여했다는 것이 드러나 인종차별 문제가 불거지기도 했다. 이렇게 객관적이고 불편부당하다 믿었던 인공지능이 이와 같은 ‘차별’을 갖게 되는 이유는 간단하다. 인공지능 알고리즘을 인간이 만들기 때문이다. 인공지능의 알고리즘을 구성함에 있어 개발자의 편향된 가치관과 신념 등이 고스란히 반영되는 경우, 인공지능은 인간과 마찬가지로 근원적인 편견을 가진 개발자의 ‘차별 복제품’이 될 수 있다.

인공지능이 가진 편견과 차별성으로 인한 문제는 사후처리는 물론 그 예방에도 큰 관심과 연구가 필요하다. 인공지능 알고리즘에 개발자의 편견이나 고정관념 등이 반영되는 경우 심각한 문제가 발생하기 전까진 이를 발견해내는 것이 쉽지 않기 때문이다. 우리나라는 인공지능 윤리헌장을 선언하는 등 인공지능의 윤리문제에서 선도적인 역할을 하고 있다. 또한 우리나라는 유럽연합이나 미국 등 많은 선진국과 더불어 인공지능이 가진 편견 등으로 인해 발생할 수 있는 윤리문제에 관한 가이드라인을 마련하기 위한 논의를 활발하게 하고 있다.

인공지능 역시 인간과 마찬가지로 ‘차별’과 ‘편견’ 등 여러 윤리문제에 대한 논란들이 존재한다. 하지만 이러한 이유만으로 다가오는 인공지능시대를 막을 수는 없다. 다만 인공지능 역시 편견과 차별을 가질 수 있다는 사실을 주지하고, 발생할 수 있는 문제들에 대해 철저히 준비하여 인간의 차별을 피하고자 만들어 낸 인공지능으로부터 또 다시 차별을 받는 일은 없어야 할 것이다.

 

 

 

/임경숙 변호사

서울회, 법무법인(유) 산우

저작권자 © 법조신문 무단전재 및 재배포 금지