본문 바로가기
사회/<나는 인공지능을 변호한다>

03. 윤리와 법이라는 양면

by BOOKCAST 2022. 5. 5.
반응형

 


 


“저 하늘엔 별이 빛나고 내 마음에는 도덕이 빛난다.”

철학자 칸트가 그의 저서 《실천이성비판》에서 한 말이다. 황사, 미세먼지 가득한 요즘 밤하늘이라면 별 밝기에 버금가는 도덕 정도는 우리 마음속에 있을지 모르겠다. 그 마음속의 도덕을 행동으로 드러낼 때 기준이 윤리다.

2020년 12월 23일, 정부는 인공지능 윤리 기준을 발표했다. 이 안에 정부, 공공기관, 기업, 고객이 인공지능 개발 및 활용 과정에서 지켜야 할 주요 원칙과 핵심 요건을 담았다. 사람 중심 인공지능을 목적으로 행복 추구, 인권 보장, 개인정보 보호, 다양성 존중, 해악 금지 등의 인간 존엄성 원칙에 이어 공공성, 개방성, 연대성, 포용성, 데이터 관리 등 사회공공선 원칙, 그리고 책임성, 통제성, 안전성, 투명성, 견고성 등 목적성 원칙을 정하고 있다.

유럽연합, 미국 등 해외 각국 정부와 연구기관, 카카오, 구글 등 국내외 기업들도 다양한 윤리 기준을 제시했다. 최근 유럽연합은 인공지능으로 인해 닥칠 위험을 용납할 수 없는 위험, 높은 위험, 낮은 위험, 최소한도 위험 등 단계별로 분류하고 합당한 규제를 법으로 만들라고 제안했다. 이에 따르면 사람의 행동 조작 등이 용납할 수 없는 위험에 속하며, 높은 위험은 도로교통, 수술, 생체인증 등을, 챗봇 등의 낮은 위험에 이어 최소한도 위험은 비디오게임 등이다.

윤리와 법은 어떻게 다를까?
윤리는 양심에 따라 마땅히 해야 할 도리이며, 법은 반드시 지켜야 할 강제규범이다. 윤리를 위반하면 비난받는 데 그치지만, 법을 위반하면 처벌받는다.

위반해도 처벌할 수 없으면서 왜 인공지능 윤리 기준이 필요할까? 윤리 기준은 의학 실험, 수술 등 치료와 의약품, 자율주행, 로봇 등 생명, 신체 안전에 중대한 피해를 가져올 수 있는 분야에서 논의된다. 인공지능 활용은 도로교통, 수술 등 생명, 신체를 위험에 빠뜨리거나 범죄 악용, 범인 체포 및 구속 등 법집행에서 인간의 가치를 훼손할 수 있다. 경각심을 높이려면 윤리 기준이 필요하다.

이 대목에서 인공지능 통제가 중요하다면 윤리 기준이 아니라 법으로 규제하는 것이 옳다고 할 것이다. 인공지능이라 해도 개인정보보호법, 신용정보법, 민법, 형법, 각종 사업법 등 현행법이 당연히 적용된다. 그러나 인공지능이 딥러닝을 통해 사람의 정신활동을 크게 능가하다면 그 위험을 미리 가늠하기 어렵다. 현행법이 충분하지 않을 수 있으며, 새로운 법이 필요해도 인공지능이 야기하는 위험을 연구하거나 해결책 마련에 시간이 필요하다. 그래서 먼저 윤리 기준으로 통제하는 것이다. 섣불리 법을 들이밀었다가 인공지능 산업의 발전을 가로막을 수도 있다.

윤리 기준을 만들면 모든 것이 해결될까? 그렇지 않다. 윤리 기준은 강제성이 없으며, 내용은 추상적이고 모호하다. 윤리 기준에 다양성 원칙으로 ‘인공지능은 다양성에 따른 불공정 대우를 최소화하는 데 사용해야 한다’라고 정한다면 어떻게 행동해야 윤리 기준을 지키는 것이 될까?

기업이 윤리 기준을 만들어 지키는 시늉만 해도 책임 감경 등 면죄부를 받을 위험도 있다. 윤리 기준을 만들었다고 인공지능의 위험이 사라진 것은 아니다. 인공지능 기업들이 자정 의지와 자정능력을 갖고 시장에서 자정 기능을 작동시킬 수 있는 시스템을 만들어야 한다. 그 과정에 정부, 고객, 전문가 그룹도 당연히 참여해야 한다.

윤리 기준이 있으니 법은 없어도 될까? 유럽연합에서 인공지능 규제에 관한 입법을 제안한 만큼 국내에서도 법을 통해 인공지능의 부작용을 해소해야 한다는 견해가 나오고 있다. 이미 국회에도 인공지능 법안 일곱 개 정도가 발의되어 있으며, 인공지능 육성을 지원하는 법안도 들어있다.

윤리 기준은 정부, 공공기관, 기업, 국민이 그 내용을 숙지하고 경각심을 가지는 것에 그친다. 인공지능은 빅데이터를 인공지능 알고리즘에 넣어 분석 결과를 제시하므로 무엇이 나올지 알 수 없다. 혜택을 줄 수 있고 피해를 줄 수도 있다. 피해가 생명, 신체 안전에 관계된 것이라면 더욱 걱정이다. 그래서 반드시 입법을 검토해야 하며, 신중해야 한다. 인공지능의 부작용을 막으려다 인공지능 자체를 막는 실수를 범할 수 있기 때문이다.

인공지능의 활용 폭을 높이되 부작용을 억제하는 것, 이 중 어느 하나도 포기할 수 없다. 지금, 외과의사가 도려내야 할 환부를 들여다보듯 꼼꼼한 대비가 절실한 이유다.

반응형

댓글