연구요약
|
본 연구는 인공지능 책임성에 관한 이슈를 포괄적으로 논의하고, 그 해결방안으로 기술적, 윤리적, 법적 메커니즘을 융합한 거버넌스 구조를 제시한다. 이와 같은 큰 틀을 토대로, 본 연구는 아래와 같이 다섯 가지의 세분화된 주제를 기초로 논의를 심화해나갈 계획이다.
<주제 1: 인공지능 의사결정의 특성과 책임성의 문제>
앞서 언급한 본 연구의 목표를 위해서는 인공지능 의사결정의 특성을 명확하게 규명하는 것이 중요한 대전제가 된다. ‘딥러닝’을 비롯하여 일부 신기술에 대한 부분적 고찰을 넘어, 본 연구에서는 보다 심화된 이해를 위해 GAN, XAI 등 최신기술의 동향은 물론이고, 인공지능의 역사적 발전과정과 의사결정의 특성에 대한 깊이 있는 학술적 논의를 병행하도록 한다.
가령, 딥러닝 기술에 대한 표면적 이해를 넘어 기술이 출현하게 된 역사적 맥락이나 최근의 공학적 방법론 추이를 고찰한다든지, 투명성과 같은 특성 자체에만 주목하는 대신, 그 근본적인 원인이 되는 편향성에 대한 이해를 동반할 것이다. 다른 한편, 법(law; liability)과 윤리(ethics; responsibility)에서 논의되는 ‘책임’과 인공지능 맥락에서의 책임성(accountability)이 어떤 차이가 있는지를 조망함으로써, 인공지능 시대의 책임성 개념을 재구성해본다.
<주제 2: 인공지능 책임성 향상을 위한 기술적 접근>
앞선 논의를 토대로, 기술 그 자체를 바탕으로 인공지능 책임성을 향상하기 위한 선행연구를 고찰해보고, 그중 실효성 있는 접근방식과 실효성이 높지 않은 접근법을 구분한다. 특히 설명가능 인공지능 등 실효성 높은 접근법의 경우에는, 세계적으로 논의되는 관련 분야 최신기술이 무엇인지 알아보고, 이를 법제도의 맥락에서 어떻게 반영할 수 있을지를 깊이 있게 탐구한다.
<주제 3: 인공지능 책임성 향상을 위한 윤리적 접근>
기술철학은 기술이 유발하는 문제를 기술적 접근만으로 해소할 수 없음을 역설한 바 있다. 그와 같은 지적이 오늘날 인공지능의 책임성 논란에서도 그대로 적용될 수 있는지를 고찰해보고, 인공지능 시대의 책임성 문제의 대안으로 인공지능 윤리가 대두되는 이유를 파악한다. 한편, 세계 각국의 사적, 공적 기관에서 공통으로 채택하는 윤리원칙 내지 가이드라인의 내용을 구체적으로 파악한 다음, 우리나라 실정에 맞게 변용하도록 한다.
<주제 4: 인공지능 책임성 향상을 위한 법적 접근>
법은 윤리만으로 해소될 수 없는 규범의 강제력 측면을 보완해주는 한편, 지나친 법적 규율은 기술의 발전을 저해할 우려가 있다. 양날의 칼이 될 수 있는 법제도에 대해, 책임성의 제고와 함께 공리의 극대화 모두를 달성할 수 있도록 하는 방안이나 원칙의 수립이 가능할지 모색한다. 특히 EU GDPR과 같은 전 세계적 영향력을 행사하는 법제의 비교법적 고찰을 병행한다.
<주제 5: 기술, 윤리, 법적 접근방식을 종합한 인공지능 거버넌스>
앞선 주제를 통한 논의와 분석을 바탕으로, 기술, 윤리, 법이라는 3대 접근방식을 종합한 인공지능 거버넌스를 도출해본다. 그동안, 예를 들어, 오바마 행정부, AI Now Institute, Google과 같은 다양한 공적, 사적 기구 및 기업에서 각자의 특성에 맞는 거버넌스 구조를 제안한 바 있으므로, 먼저 이를 참조해 국내의 실정에 맞는 거버넌스를 도출한다. 나아가, 앞서 살핀 기술의 변천사, 이에 대한 윤리와 법의 역학관계를 토대로 오늘날의 국내에 국한된 거버넌스를 넘어, 인류 전반에, 미래에까지도 통용될 수 있는 궁극적 거버넌스 구조를 모색해본다.
|