[기고] AI의 윤리 문제를 어떻게 극복할 것인가?
글 : 미셸 네다쉬코브스카야(Michelle Nedashkovskaya) 제공 : 마우저 일렉트로닉스(Mouser Electronics)
데이터와 툴에 편향성이 존재한다는 것을 이해해야 한다.
그러한 편향성을 인식하고 완화하기 위해 노력해야 한다.
엔지니어링 프로세스에 윤리적 사고를 제도화해야 한다
데이터와 툴에 편향성이 존재함을 이해
최근 들어 AI의 윤리 문제가 화두로 떠오르고 있다. 이는 공공 의료, 법률 시행, 형사 제도 같은 공공 행정 분야로 알고리즘을 활용한 의사결정 및 의사결정 지원 시스템이 도입되는 데 따른 것이다. 이들 애플리케이션은 AI 기술 도입의 윤리 문제를 중요하게 환기하며, AI 툴이 편향되거나 공정하지 않은 결과를 낳았을 때 그 여파는 심각할 것이다.
편향성의 인식과 해결책 향상
이러한 편향성들이 드러남에 따라서 AI의 윤리 문제에 관한 많은 고찰이 이루어지고 있다. 옥스포드 대학의 저명한 철학자인 닉 보스트롬(Nick Bostrom)과 루치아노 플로리디(Luciano Floridi) 같은 많은 철학자들은 이러한 문제와 관련한 틀들을 마련하기 위해 애쓰고 있다. 이러한 학계의 노력은 머신 러닝의 ‘공정성(fairness), 책임성(accountability), 투명성(transparency)’이라는 개념에 초점을 맞추고 있다. 이러한 전문가들의 고찰에 귀 기울이고 관심을 두는 것은 앞으로의 위험성 완화 전략에 중요한 역할을 할 것이다.
AI의 윤리 문제를 이해하고 문제 의식을 고양하기 위해서는 다방면에 걸친 협력이 필요하며, 이미 많은 협력 활동이 그러한 목표 선상에서 이루어지고 있다. 여기에는 미래의 삶 재단(Future of Life Institute)이 추진하는 것과 같은 싱크 탱크 프로그래밍에서부터 구글의 “책임 있는 AI 실행(Responsible AI Practices)” 발행 같은 활동들이 포함된다. 2020년 1월에는 공정성, 책임성, 투명성에 관한 3차 연례 ACM 컨퍼런스(The third annual Association for Computing Machinery Conference on Fairness, Accountability, and Transparency(ACM FAccT), 이전 ACM FAT*)가 개최되었으며, 이 행사는 다양한 분야의 종사자들이 모여 컴퓨팅 시스템의 윤리 문제를 탐구하는 장이 되었다. 이러한 노력들 자체가 발전의 징표이기는 하지만, 이 같은 다영역간 대화에 참여하고 이미 이루어진 작업으로부터 배우는 것은 각 개인들이 해야 할 일이다.
엔지니어링 프로세스에 윤리적 사고 제도화
책임 있는 AI를 제도화하기 위한 새로운 사고를 불어넣기 위해서는 엔지니어링과 컴퓨터 과학 바깥의 영역들에서 힌트를 얻을 수 있을 것이다. 예를 들어 국제 안보의 사고 논리는 최악의 상황에 대한 시나리오에 초점이 맞춰져 있다. 군대가 만일의 사태에 대비한 계획을 수립하듯이, AI 윤리 문제와 관련해서도 최악 상황의 시나리오를 염두에 둔 사고를 도입할 수 있다. 어떤 특정 제품이 어느 정도까지 잘못될 수 있을까? 그러한 위험성을 어떻게 완화할 수 있을까? 군에서 무기를 설계하고 도입할 때 심사숙고하는 것을 본받아서 ‘악의적인 행위자가 이 새로운 능력을 습득하면 어떻게 될 것인가?’에 대해 논의해 볼 수도 있다.
저자 소개
미셸 네다쉬코브스카야(Michelle Nedashkovskaya)는 프린스턴 대학의 우드로 윌슨 대학원에서 공공 업무(Public Affair) 석사과정을 밟고 있다. 유럽 부흥 개발 은행(EBRD)의 미국 국장 참모 및 미국 유엔 대표부 참모로 재직한 이력이 있다. 프린스턴 대학에서 국제 관계 학사학위를 받았다.