대한변협, 27일 '2023년도 인권보고대회' 개최

"인공지능 발전과 인간의 인권 함께 보장해야"

안면인식AI 사회문제 대두… "개인정보 보호를"

'AI 판사 도입' 주장에… "오히려 차별강화 우려"

△ 양희철 변호사가 27일 서울 서초구에 있는 대한변협회관 지하 1층 세미나실에서 열린 '2023년도 인권보고대회'에서 발표를 하고 있다

이미 생활 속 깊숙한 곳까지 인공지능이 자리잡은 가운데, AI를 활용한 구체적인 법률상담이나 법률 관계 문서 작성 등은 변호사법 위반으로 봐야 한다는 주장이 나왔다. 

대한변호사협회(협회장 김영훈)는 27일 서울 서초구에 있는 대한변협회관 지하 1층 세미나실에서 '2023년도 인권보고대회: 인공지능(AI)과 인권, SNS와 인권'을 열었다.

양희철(사법시험 52회) 대한변협 난민이주외국인특별위원은 '인공지능이 변화시키는 현실 속 인권의 미래'를 주제로 발표했다.

양 위원은 "AI는 우리가 인지하지 못하는 사이 이미 우리 생활 깊숙이 들어와 있다"며 "OTT로 영상 콘텐츠를 볼 때도, 은행에서 대출을 받을 때도, 해외여행을 가기 위해 공항 심사대를 지날 때도 바로 곁에 있다"고 말했다.

이어 "AI로 인해 인권이 침해될 여지를 줄이기 위해서는 AI를 개발하고 활용하는 인간이 윤리적으로 행동해야 할 뿐 아니라, 인공지능도 윤리적으로 판단하고 행동하도록 해야 한다"며 "이것이 바로 인공지능 윤리와 인권이 분리되기 어려운 이유"라고 설명했다.

또 "각국 인공지능 윤리에서 가장 빈번하고 일반적으로 제시되는 원칙 중 △차별금지를 포함하는 공정성 △책무성 △투명성 △개인정보·사생활 보호 △안정성 등이 중요도가 높아 주로 언급된다"며 "공정성을 위반하면 평등권을, 투명성을 위반하면 절차적 권리와 알 권리를, 개인정보·사생활 보호를 위반하면 개인정보자기결정권과 사생활의 비밀을 각 침해받는 등 인공지능 윤리 위반은 인권 침해로 이어질 가능성이 높다"고 우려했다.

그러면서 "다양한 이해관계 충돌에도 불구하고 인류사회가 지속적으로 발전하기 위해 향후 AI 발전과 함께 이를 이용하는 인간의 인권도 함께 보장되는 길을 반드시 찾아야 할 것"이라고 강조했다.

우리나라에서는 과학기술정보통신부 등 관계부처 합동으로 2020년 12월 23일 인공지능 윤리기준을 공표했다. 이듬해에는 과기부에서 11월 인공지능 윤리기준을 구체적으로 확인할 수 있는 실천을 위한 자율점검표를 발표하고, 국가인권위원회는 2022년 AI 개발과 활용에 관한 인권 가이드라인을 발표했다.

양 위원은 특히 AI를 통한 개인정보 침해 문제가 점차 심해지고 있다고 지적했다.

그는 "개인정보는 사생활의 비밀과 자유, 개인정보자기결정권이라는 기본권과 밀접한 관련이 있어 양자 균형을 잡는 게 쉽지 않다"며 "기업들은 챗GPT를 사용해서 업무 효율성을 높이고자 했으나 영업비밀이 운영사인 오픈AI로 넘어가는 상황이 발생하자 이제는 업무용 챗GPT 사용을 제한하고 있다"고 했다.

또 "법무부 출입국외국인정책본부는 출입국심사과정에서 내·외국인 생체정보 제공을 의무화해서 수집하고, 이를 데이터베이스화 해 이용해 왔다"며 "수집된 개인정보들은 정보주체 동의 없이 공항 내 실시간 얼굴인식 시스템 구축을 위한 학습데이터로 활용되면서 다수 민간기업에도 제공됐다"고 지적했다.

그러면서 "안면인식 AI 관련해서는 세계 각국에서 문제가 되고 있어 개인정보 보호를 위한 법제도와 정책이 도입되고 있다"며 "미국에서는 중대범죄 수사를 제외하고 공무원이 안면감시 시스템이나 데이터 수집·보유·사용 등을 하거나 제3자와 수집·사용 등을 허가하는 것을 금지하고 있다"고 말했다.

또 AI가 편향된 데이터를 학습해서 차별을 더욱 공고히 하는 결과를 낳을 수도 있다고 우려했다.

그는 "판결 내용이 일반적인 상식과 맞지 않다는 이유로 AI판사를 도입하자는 주장도 나온다"며 "실제 이러한 상황이 발생하면 AI 역시 기존 판결과 사회시스템 등을 학습하여 완전 새로운 판결은 나올 수 없을 것"이라고 지적했다.

이어 "오히려 차별이 강화되는 결과가 발생할 수도 있다"며 "컴퓨터 업계에서 주로 회자되는 '쓰레기가 들어가면 쓰레기가 나온다(Garbage in, garbage out)'는 격언은 AI의 편향된 데이터 햑습에서도 동일하게 적용된다"고 했다.

또 "미국에서는 CCTV 영상에 안면인식 기술을 활용해 범죄자를 체포하는 과정에서 흑인을 피의자로 잘못 인식하는 사례가 빈발했다"며 "이러한 사례는 안면인식 프로그램 자체가 제도적으로 사회적 차별을 공고히 하는 측면이 있다고 볼 수 있다"고 비판했다.

그러면서 "AI가 인간의 편향된 가치관과 행동패턴을 학습해 잘못된 의사 결정을 할 가능성이 있다"며 "이를 바로잡을 절차적 권리도 보장되지 않는다면 그 자체가 중대한 인권침해이고, 그 결과 역시 인권을 침해하는 것일 가능성이 높다"고 우려했다.

법조 전문 영역에서 AI를 활용한 결과를 그대로 사용해서는 안 된다고 강조하기도 했다.

양 위원은 "최근 미국에서 변호사들이 챗GPT를 활용해 허위 판례를 바탕으로 한 의견서를 법원에 제출해 자격증 박탈 위기에 놓이기도 했다"며 "이번 사례처럼 존재하지 않는 사실이 마치 존재하는 것처럼 허위로 답변하는 환각현상(Hallucination)은 정도의 차이일 뿐 대다수 생성형 AI에서 벌어지고 있다"고 말했다.

이어 "고도의 정확성을 요구하는 전문가 영역에서는 AI 결과물을 적용하기 어려울 것"이라며 "일본 법무성은 최근 AI를 이용한 계약서 작성·검토 서비스도 비변호사가 보수를 얻을 목적으로 법률상 다툼이 있는 사건에 관해 법률상 전문지식에 근거해 견해를 제시하면 변호사법 제72조 위반으로 보는 가이드라인을 발표하기도 했다"고 설명했다.

또 "향후 국내에서 AI를 통한 계약서 검토나 소장 등 법률문서 작성 서비스가 가능할지는 (이같은 행위를) 변호사법 제109조상 비변호사가 유상으로 법률상담, 법률 관계 문서 작성 등 법률서비스를 제공하는 것으로 볼 것인지에 달렸다"며 "일반 국민의 사법접근권 강화 측면에서는 AI를 활용한 이용자의 구체적인 사실관계를 반영한 법률 관계 문서 제공이 필요할 수도 있다"고 했다.

그러면서도 "국민에게 제공되는 법률사무는 업무 수행의 적정성이나 적법성 등 공공성이나 문제 발생 시 책임 문제가 중요하다"며 "이용자의 구체적 사실관계를 반영한 AI 법률상담이나 법률관계문서 작성은 변호사법 위반으로 봐야 할 것"이라고 강조했다.

/임혜령 기자 

저작권자 © 법조신문 무단전재 및 재배포 금지