Artificial Intelligence
“세계는 AI가 인류에게 이익이 되기 위한 규칙을 필요로 한다.”
2021년 Audrey Azoulay 유네스코 사무총장은 AI윤리에 관한 권고를 발표하면서 AI기술이 인류에게 이익이 되기 위해서는 글로벌한 AI윤리 기준이 필요함을 시사하였다.
최근 AI알고리즘이 계산한 결과에 관한 사회적 책임이 주요 현안으로 대두 된 상황으로서, 이와 같은 문제인식이 비단 관련 이슈가 불거진 특정 국가에만 국한 되지 않은
전 세계적 해결 과제임을 다시금 확인했다는 측면에서 주목해 볼 필요가 있다.
관련 사안의 본질은 AI가 도출해 낸 결과와 예측 결과의 정확도만으로 솔루션의 가치와 품질을 보장할 수 있는지에 관한 의문에서부터 출발한다.
가령 인간 사회에서 내포된 관행, 차별적 요소, 불평등한 특성, 비도덕적 의사결정 등이 AI학습용 데이터에 고스란히 포함되어 있을 시,
이를 정확히 학습한 AI가 도출해 낸 편향적 결과를 인간이 무비판적으로 수용하는 것이 타당한지 고려해 본다면 대다수의 독자들은
한 번쯤 그 결과에 대해 의심해봄직 할 것이다.
즉 인간사회에서 비윤리적인 잣대로 분류하고 있음에도 곳곳에 존재하는 부정적 관행이 ‘정답’으로 분류되는 것을 막고자하는 노력,
그것이 오늘날의 ‘책임있는 인공지능(Responsible AI)’으로 불리우는 새로운 달성 목표로 귀결되는 추세다.
Issue
‘책임 있는 인공지능’, 우려를 넘어 표면적 이슈로 부각
AI가 도출하는 결과에 관한 실질적이고 구체화 된 우려는 알파고와 이세돌의 딥마인드 챌린지 매치(Google Deepmind Challenge match, 2016.03)가 종료되고
글로벌한 AI열풍이 불기 시작한 2017년 이후 꾸준히 제기되어 왔다.
가장 앞선 국가 단위의 결과물은 영국 캠브리지대학 실존적 위기센터(CSER)의 해악적 인공지능 보고서(2018.02),
유럽연합의 신뢰할 수 있는 AI윤리 가이드라인(2018.12)이 대표적인데 초기 문건인 만큼 AI솔루션의 설명가능성에 주목하였다고 볼 수 있다.
설명가능성이란 AI기술이 도출해 낸 결과가 어떤 절차와 원인에 의한 것인지 인간에게 이해할 수 있는 수준으로 설명할 수 있어야 한다는 것으로서, 인간이 AI의 결과에 대한 신뢰여부를 판단할 수 있는 최소한의 근거를 보장하자는 취지였다.
그러나 미국 아마존(Amazon)의 채용추천 AI에서 불거진 성차별 논란, 유나이티드 헬스그룹(Unitedhealth)의 치료 우선순위 결정알고리즘에서의
인종차별 문제가 표면화 되면서 논의의 범위가 인간의 판단권리 보장에서 AI솔루션 자체의 윤리 기준 마련으로 확장되었다.
현재에 이르러서는 이러한 논의를 AI의 신뢰성에 관련 된 사안으로 바라보는 것이 일반적이며,
미국 국립표준기술 연구소의 ‘The American Ai Initative(2019)’, ISO/IEC의 ‘Overview of trustworthiness in AI(2020)’에서
정의한 AI신뢰성에 대한 개념이 일반적으로 활용되고 있다.
책임 있는 인공지능이란 용어는 이러한 글로벌한 AI신뢰성 연구 및 표준화 추이에 입각해 변화하는 AI기술의 윤리 이슈를
AI가 아닌 사회적 수용 관점에서 서술할 때 자주 사용된다.
글로벌 컨설팅 기업 액센츄어(Accenture)에 따르면 책임 있는 인공지능을 직원과 기업의 역량을 강화하고 고객과 사회에 공정한 영향을 미치기 위해
선의로 AI를 설계, 개발 및 배포하는 관행으로 정의하였다.
AI가 전 세계적인 국가 발전 동력으로 대두 되는 요즘에 이르러 대중으로 하여금 AI기술은 기술이 아닌 현실에서 맞닥뜨릴 수밖에 없는 사회적 변화이다.
자연스럽게 AI의 사회적 책임의 관심은 높아지는 추세이며 관련 이슈에 대한 국내의 향후 대응 또한 관심사가 되고 있다.
Domestic
국내는 발빠른 제도화 추진 중
한국은 2019년 12월 발표 된 ‘인공지능 국가전략’을 통해 AI윤리기준 및 실천방안 마련을 공론화함으로써 관련 논의를 국가전체의 과제로 확대하였다.
그 이후 2020년 12월 국내차원의 인공지능 윤리기준을 제시하였고, 2021년 5월에 이르러 관련 제도화 방향이 담긴 ‘신뢰할 수 있는 인공지능 실현 전략’을 발표하였다.
2021년 자료에서 특징적인 부분은 국내 차원의 AI신뢰성에 관한 개념을 명확화 하였다는 점이다.
해당 자료는 AI신뢰성을 “인공지능이 내포한 위험과 기술적 한계를 해결하고 활용·확산 과정에서의 위험·부작용을 방지하기 위한 가치 기준”으로 정의하였다.
특히 ‘내포된 위험’ 및 ‘기술적 한계’에 대한 언급을 통해 글로벌한 AI신뢰성 논의 추세가 반영되었음을 알 수 있는데,
추진전략의 세부 내용에 신뢰확보 체계가 명시되었고 검증 및 인증체계에 대한 구상 또한 포함되었으므로 향후
국내 기업이 체감할 수 있는 인증 체계 도입이 가시화 될 것으로 예상해볼 수 있다.
실제 2021년부터 한국정보통신기술협회(TTA)는 상기 전략에 대응한 AI신뢰성 평가모델 개발과 관련 된 연구를 수행 중에 있다.
한편 과거 사례를 비추어 보았을 때 새로운 인증체계는 항상 기업을 옥죄는 불필요한 규제로 바라보는 비판적 시각을 마주해야만 했으므로 이에 대한 우려도 적지 않다.
하지만 책임있는 인공지능에 대한 세계적 관심이 결국 국가별 품질 인증 제도로 현실화될 것임은 모두가 예상해볼 수 있는 사안이므로,
이를 기업 성장을 막는 장애물로 보는 시각은 장기적 관점에서 해소될 것으로 판단된다.
Verification Method
AI신뢰 검증 방법에 관한 R&D 확대
이처럼 AI 신뢰체계 구축의 필요성은 의심할 나위 없으나 구현 과정의 현실적인 어려움 또한 존재해 다뤄보고자 한다.
예컨대 AI알고리즘과 관련하여 사회적 문제로 대두 된 사례 다수가 편향성에 의한 AI기반 예측결과의 윤리적 문제였으므로,
이를 효과적으로 예방하는 기술 및 구조화 된 평가 척도의 개발이 무엇보다 중요하다.
편향성은 크게 데이터 자체의 편향과 학습 알고리즘 상의 편향성으로 구분해볼 수 있는데 데이터 자체의 편향성은 기계적으로 검증하기 어려운 한계가 존재한다.
가령 성차별, 인종차별 등의 실제 사회적 편견을 학습데이터가 내포하고 있을 경우 그 데이터의 볼륨이 매우 방대할 시 정성적인 데이터 검증이 어려울 수 있다.
이어서 알고리즘의 편향성을 검증하는데 있어서도 쟁점은 존재한다.
현재 출시 된 AI모델의 편향성 측정 도구들은 학습 데이터를 얼마나 균형감 있게 학습해 결과를 도출하였는지를 수치적으로 계산해주는 원리이다.
그러나 인공지능 학습에 활용하는 빅데이터가 검증되지 않은 불순물을 다수 포함하고 있는 경우 역설적으로 가치있는 데이터의 편향적 학습 반영이 알고리즘의 중요한 성능 지표일 수 있다.
종합해보면 제도적인 발전과 더불어 국내차원의 신뢰성 도구 및 검증지표에 관한 R&D 확대가 필수라는 것을 알 수 있다.
향후 정책 추진과정에서 확대 검토되어야 할 요소일 것이다.
Corporate Support
AI신뢰체계의 성공적 안착. 기업 지원이 관건
‘책임 있는 인공지능’의 현실화는 피할 수 없는 흐름이다. 즉 향후 마련 될 AI 신뢰체계 및 인증체계를 사전에 대비하는 것이 국내 기업에게 있어 무엇보다 중요하다.
그러나 민간 기업이 당장 눈에 보이지 않는 AI학습 결과상의 잠재적 편향을 사전 검토하고 대비하기란 사실상 어렵다.
이는 비단 내수 시장에 국한 된 문제가 아니며 차후 글로벌한 AI신뢰성 표준이 정립될 시 국내 기업의 수출 경쟁력에 큰 영향을 끼칠 수 있다.
‘신뢰할 수 있는 인공지능 실현 전략’은 중소기업의 신뢰성 확보 지원을 위한 온라인 플랫폼 구축 계획과 스스로 편향성을 진단하고 수정할 수 있도록 지원하는 기술을
개발하기 위한 추진 전략이 제시되어 있다.
전략 문서를 통해 향후 예상되는 현안을 사전 감지하고 이에 대한 대책을 마련하였다는 점은 고무적이다.
하지만 AI신뢰체계 도입의 성패는 각 목표의 긴밀한 연계성에 있다. 신뢰확보 체계의 정밀한 설계와 민간 기업의 노력을 효과적으로 지원할 수 있는 자원의 활용.
그리고 공공 중심의 원천기술 개발과 표준화 된 배포까지.
이 모든 부문이 유기적으로 동작해야만 AI신뢰 체계의 거버넌스의 성공적 안착을 도모할 수 있다는 점에서, 향후 AI기업 지원의 구체적 수행방안에 대한 면밀한 검토가 무엇보다 중요할 것이다.