새로운 기술을 활용한 상품이나 서비스를 규제하는 1차적인 목적은 그로 인한 위험을 방지하여 안전을 보장하는 데 있다. 일찍이 아이작 아시모프(Issag Asimov)는 1942년작 단편 ‘런어라운드(Runaround)’에서 ‘이른바 로봇공학의 삼원칙(Three Laws of Robotics)’을 제시하였는데, 그 제1원칙이 “로봇은 인간에 해를 가하거나, 혹은 행동을 하지 않음으로써 인간에게 해가 가도록 해서는 안 된다”는 것이었다. 이 원칙은 나중에 모든 도구에 대해 확장되어 “도구는 안전해야 한다”는 원칙으로 발전한다.

그런데 안전과 위험은 0/1의 이진법으로 환원될 수 없다. 위험이 ‘0’일 것을 목표로 한다는 것은 현실적으로 불가능하다. 안전이 확보된다는 것은 얼마나 안전한가라는 정도의 문제이고, 이는 달리 말하면 어느 정도의 위험을 허용할 것인가의 문제이다. 여기서 전통적인 법원칙인 비례원칙에 따른 판단이 필요하게 된다. 새로운 기술을 허용함에 있어서는 건강, 안전, 환경, 윤리적·사회적 리스크와 사회경제적 영향(기존 산업과 경쟁, 고용에 대한 영향) 등 여러 요소들이 고려되어야 한다. 특히 위험의 중대성과 발생가능성의 상호관계도 고려되어야 한다. 위험발생 시 예견되는 위험의 크기도 매우 미약하고 그 발생가능성도 매우 적다면 위험하지 않다는 평가도 가능해질 것이다.

그렇다면 허용되는 위험의 정도에 대한 결정은 누가 어떠한 과정을 거쳐야 할 것인가? 이것은 신기술에 직면한 사회에서 민주적 가버넌스 문제이며, 위험배분에 있어서 세대 간, 계층 간 배분적 정의와도 관련된 문제이다.

현대과학기술의 복잡성으로 인해 위험에 대한 판단에서 전문가들의 역할이 지배적으로 되는 것은 불가피한 일이다. 그러나 전문가들이 종국적인 의사결정권한을 가지게 되어서는 안 된다. 가장 객관적일 것으로 여겨지는 과학적 지식의 근저에도 논자의 신념체계가 작용한다. 전문가의 의견을 소홀히 하면 어처구니없는 실수를 반복하고 합리적인 사회발전을 기할 수 없다. 그러나 전문가의 판단을 과대평가하면 우리 사회는 테크노크러시로 전락할 것이다.

우리 사회가 허용할 수 있는 위험의 정도에 대해서는 사회적 합의가 필요하다. 물론 이러한 사회적 합의과정에서는 해당 분야의 전문가 그룹의 역할이 충분히 보장되어야 한다. 절차와 관련해서는 공식적 절차는 물론 비공식적 절차에 이르기까지 다양한 방식이 활용될 수 있지만, 무엇보다 중요한 것은 투명성이 보장되어야 한다는 것이다. 그리고 일회적 절차에 의해 의사결정이 완결되어서는 안 된다. 해당 기술에 대한 과학적 이해와 그러한 기술의 활용이 가지는 산업적 의미에 대한 이해가 성숙될 때까지 관련 데이터의 집적, 결과평가, 시스템 수정이 반복되는 구조를 갖추어야 한다.

새 정부의 탈핵정책을 두고 말이 많다. 정부에서는 신고리 원자력발전소 5·6호기 건설 중단 여부를 결정하기 위해 공론화위원회를 구성했다. 공론화위원회의 법적 근거와 공론화절차에 대해 여러 문제점도 지적되고 있다. 공론화 절차를 어떻게 적절히 만들어갈 것인가는 앞으로 큰 숙제이다. 20개월간 활동 끝에 2015년 6월 권고안을 제출했던 ‘사용후핵연료 공론화위원회’의 실패를 거울삼아야 할 것이다. 에너지정책에서 탈핵 여부는 국민 모두의 안전과 국가에너지정책 및 산업정책에 막대한 영향을 미치는 사안이다. 이제라도 공론화가 시작된 것은 다행이다.

저작권자 © 법조신문 무단전재 및 재배포 금지