글 : 미셸 네다쉬코브스카야(Michelle Nedashkovskaya)
제공 : 마우저 일렉트로닉스(Mouser Electronics)
인공 지능(AI)의 발전은 사회적으로 많은 이득을 가져올 것으로 기대된다. 인공 지능은 이미 다양한 영역에서 전세계의 중대한 과제들을 극복하기 위해 활용되고 있다. 농업에서부터 천문학에 이르기까지 모든 분야에 AI 애플리케이션이 도입되고 있으며, 적용 범위가 더 크게 확장하지 못하는 이유는 오직 우리 상상력의 한계 때문이다.
하지만 어떤 툴이나 마찬가지로 AI도 한 쪽의 문제들은 해결하면서 또 다른 쪽의 문제를 일으킬 수 있다. 아무리 좋은 의도를 가지고 설계한다고 하더라도 말이다. AI에 수반되는 윤리적 위험성은 AI 적용의 확장과 함께 확대될 것이다. 새롭게 펼쳐지는 이 영역에서 완벽한 윤리적 틀을 세우기란 어렵겠지만, 이는 매우 중요하고도 심각한 과제이다. 새로운 기술을 위해서는 새로운 규범이 필요할 것이다.
이러한 위험성을 해결하기 위해, 기술 종사자들은 다음과 같은 노력을 해야 한다
데이터와 툴에 편향성이 존재한다는 것을 이해해야 한다.
그러한 편향성을 인식하고 완화하기 위해 노력해야 한다.
엔지니어링 프로세스에 윤리적 사고를 제도화해야 한다
데이터와 툴에 편향성이 존재함을 이해
최근 들어 AI의 윤리 문제가 화두로 떠오르고 있다. 이는 공공 의료, 법률 시행, 형사 제도 같은 공공 행정 분야로 알고리즘을 활용한 의사결정 및 의사결정 지원 시스템이 도입되는 데 따른 것이다. 이들 애플리케이션은 AI 기술 도입의 윤리 문제를 중요하게 환기하며, AI 툴이 편향되거나 공정하지 않은 결과를 낳았을 때 그 여파는 심각할 것이다.
편향된 AI 툴은 개인의 삶에 근본적이고도 장기적인 영향을 미칠 수 있다. 범죄 기록, 신용도, 고용 전망 등에 중대한 영향을 미칠 수 있는 것이다. 편향성은 다양한 형태로 알고리즘에 내포될 수 있다. 그러한 편향성 중 하나로서 데이터 편향성은 잘못된 데이터 수집으로부터 발생하거나, 보다 넓은 차원의 시스템적 편향성을 반영하는 것일 수 있다. 예를 들어 동일한 범죄로 소수 인종의 개인들이 백인보다 더 높은 비율로 체포되면 이 데이터를 이용해 학습된 알고리즘은 이러한 불공정을 영속적으로 내포할 수 있다. 이처럼 편향된 범주화와 관련한 위험성은 이미 실제로 모습을 드러내고 있다. 형사 소송에 사용되는 사전 심리 위험성 평가(pretrial risk assessment) 알고리즘이 반복적으로 소수 인종을 차별한다는 사실이 확인된 것이다.
편향성은 컴퓨터 과학자들이 문제를 규정하고 알고리즘에 고려하고자 하는 속성을 선택하는 방식에서도 발생할 수 있다. 예컨대 직원 채용 알고리즘은 많은 가정(assumption)을 기반으로 한다. 지원자들의 어떤 속성을 훌륭하다고 평가할 것인가? 그러한 속성들은 성(gender) 또는 인종적 함의를 지니는가? 이러한 종류의 편향성 때문에 아마존(Amazon)은 2018년에 AI 채용 툴을 폐기했다. 이 모델이 여성을 심각하게 차별하는 것으로 드러났기 때문이다. 이 모델은 유능한 지원자를 남성성과 연관 짓도록 ‘학습’됐다. 이 회사는 기존에 남성을 여성보다 더 많이 채용했기 때문이다.
편향성의 인식과 해결책 향상
이러한 편향성들이 드러남에 따라서 AI의 윤리 문제에 관한 많은 고찰이 이루어지고 있다. 옥스포드 대학의 저명한 철학자인 닉 보스트롬(Nick Bostrom)과 루치아노 플로리디(Luciano Floridi) 같은 많은 철학자들은 이러한 문제와 관련한 틀들을 마련하기 위해 애쓰고 있다. 이러한 학계의 노력은 머신 러닝의 ‘공정성(fairness), 책임성(accountability), 투명성(transparency)’이라는 개념에 초점을 맞추고 있다. 이러한 전문가들의 고찰에 귀 기울이고 관심을 두는 것은 앞으로의 위험성 완화 전략에 중요한 역할을 할 것이다.
AI의 윤리 문제를 이해하고 문제 의식을 고양하기 위해서는 다방면에 걸친 협력이 필요하며, 이미 많은 협력 활동이 그러한 목표 선상에서 이루어지고 있다. 여기에는 미래의 삶 재단(Future of Life Institute)이 추진하는 것과 같은 싱크 탱크 프로그래밍에서부터 구글의 “책임 있는 AI 실행(Responsible AI Practices)” 발행 같은 활동들이 포함된다. 2020년 1월에는 공정성, 책임성, 투명성에 관한 3차 연례 ACM 컨퍼런스(The third annual Association for Computing Machinery Conference on Fairness, Accountability, and Transparency(ACM FAccT), 이전 ACM FAT*)가 개최되었으며, 이 행사는 다양한 분야의 종사자들이 모여 컴퓨팅 시스템의 윤리 문제를 탐구하는 장이 되었다. 이러한 노력들 자체가 발전의 징표이기는 하지만, 이 같은 다영역간 대화에 참여하고 이미 이루어진 작업으로부터 배우는 것은 각 개인들이 해야 할 일이다.
좀더 나아가, 기술 분야 전반에 걸쳐서 새로운 윤리적 틀을 마련하는 것도 중요하다. ‘인간 지향적’ AI를 구축하는 것과 궤를 같이 해서, 엔지니어링 프로세스의 모든 단계에 윤리적이고 사회적으로 책임 있는 사고를 새롭게 제도화해야 한다. 윤리 문제를 저명한 철학자들의 전유물로 여길 것이 아니라, 누구나 자신의 업무에서 훈련하고 연마해야 할 관행이나 기술로 바라보아야 할 것이다.
엔지니어링 프로세스에 윤리적 사고 제도화
책임 있는 AI를 제도화하기 위한 새로운 사고를 불어넣기 위해서는 엔지니어링과 컴퓨터 과학 바깥의 영역들에서 힌트를 얻을 수 있을 것이다. 예를 들어 국제 안보의 사고 논리는 최악의 상황에 대한 시나리오에 초점이 맞춰져 있다. 군대가 만일의 사태에 대비한 계획을 수립하듯이, AI 윤리 문제와 관련해서도 최악 상황의 시나리오를 염두에 둔 사고를 도입할 수 있다. 어떤 특정 제품이 어느 정도까지 잘못될 수 있을까? 그러한 위험성을 어떻게 완화할 수 있을까? 군에서 무기를 설계하고 도입할 때 심사숙고하는 것을 본받아서 ‘악의적인 행위자가 이 새로운 능력을 습득하면 어떻게 될 것인가?’에 대해 논의해 볼 수도 있다.
기술 개발과 관련해서 윤리적 사고를 제도화하기 위한 또 다른 방법들도 있을 수 있다. 예를 들어 반복적 발전(iterative progress) 개념은 기술 분야에서도 잘 이해하고 있는 것이다. 애자일 소프트웨어 개발은 동시적인 개발과 테스트를 필요로 한다. 이는 점증적 인도(incremental delivery)뿐만 아니라 지속적인 팀 협력과 학습의 중요성을 역설한다. 지속적인 혁신을 통해 기술적 결점을 해결하는 것과 마찬가지로, 민첩한 구축과 제도화된 피드백은 윤리적 고려를 항상 염두에 두도록 할 것이다.
마지막으로 무엇보다도 중요한 것은, 우리 모두가 기술의 한계에 대해 거시적인 관점에서 끊임없이 질문해야 한다는 것이다. AI를 활용하는 모든 제품 또는 접근법에 대해, 특히 공공 분야의 맥락에서, AI가 정말로 그 기능을 수행하기에 적합한지 물어야 한다. 사람의 판단력은 명백하게 불완전하며, 종종 인지적 편향성에 빠지고는 한다. 그러므로 우리는 경계심을 늦추지 말아야 한다. 그래야 이미 있는 결점을 또 다른 결점으로 대체하는 일이 없을 것이다.
저자 소개
미셸 네다쉬코브스카야(Michelle Nedashkovskaya)는 프린스턴 대학의 우드로 윌슨 대학원에서 공공 업무(Public Affair) 석사과정을 밟고 있다. 유럽 부흥 개발 은행(EBRD)의 미국 국장 참모 및 미국 유엔 대표부 참모로 재직한 이력이 있다. 프린스턴 대학에서 국제 관계 학사학위를 받았다.