본문 바로가기
반응형

인공지능윤리2

04. 인공지능에게 결정권을 주지 말라 인공지능에게 결정권을 주지 말라 알고리즘은 사람과 마찬가지로 일반적인 범주로서 신뢰할 만하지도, 불신할 만하지도 않다. 그래서 사람을 대할 때와 마찬가지로 “알고리즘을 신뢰해야 할까?”라고 물을 것이 아니라 “어느 알고리즘을 신뢰할 수 있고, 어떤 일을 믿고 맡겨도 될까?”라고 물어야 한다. 오노라 오닐은 신뢰성을 증명하고 싶다면 결정의 토대가 “지적 개방성”을 지녀야 한다고 주장한다. 그는 지적 개방성을 지닌 결정의 네 가지 속성에 대한 점검 목록을 제안한다. 오닐의 네 가지 원칙은 비유하자면 범죄자 석방 여부를 결정하거나 아동 학대에 대한 대응 방법을 결정할 때 우리가 숙고해야 하는 여러 사항과 같다. 즉, 알고리즘에게 인간 삶을 바꾸는 문제를 맡길 상황이라면 오닐의 네 가지 원칙은 반드시 고려되어야.. 2022. 10. 31.
03. 윤리와 법이라는 양면 “저 하늘엔 별이 빛나고 내 마음에는 도덕이 빛난다.” 철학자 칸트가 그의 저서 《실천이성비판》에서 한 말이다. 황사, 미세먼지 가득한 요즘 밤하늘이라면 별 밝기에 버금가는 도덕 정도는 우리 마음속에 있을지 모르겠다. 그 마음속의 도덕을 행동으로 드러낼 때 기준이 윤리다. 2020년 12월 23일, 정부는 인공지능 윤리 기준을 발표했다. 이 안에 정부, 공공기관, 기업, 고객이 인공지능 개발 및 활용 과정에서 지켜야 할 주요 원칙과 핵심 요건을 담았다. 사람 중심 인공지능을 목적으로 행복 추구, 인권 보장, 개인정보 보호, 다양성 존중, 해악 금지 등의 인간 존엄성 원칙에 이어 공공성, 개방성, 연대성, 포용성, 데이터 관리 등 사회공공선 원칙, 그리고 책임성, 통제성, 안전성, 투명성, 견고성 등 목적.. 2022. 5. 5.
반응형