정부가 깔아주는 AI 윤리 토론판

2024년 처음 시행한 AI 윤리 영향평가와 그 결과에 대한 단상

정부가 깔아주는 AI 윤리 토론판
자동화 기술은 우리의 수동성 특성을 전면에 내세우고 능동적 행위성을 무시하도록 부추긴다.
—존 다나허 (김동환 옮김), <생각을 기계가 하면, 인간은 무엇을 하나?>
목차
1. AI 윤리 영향평가가 숙의의 장이 되려면

AI 윤리 영향평가가 숙의의 장이 되려면

by 🤔어쪈

작년 가을 AI 윤리 레터 필진 모두가 주목하고, 함께 분노하면서 동시에 어떤 담론이 필요할지 모일 때마다 논의하게끔 만든 사건이자 현상이 있었습니다. 바로 딥페이크 성범죄라는 문제입니다. 당시 함께 나눈 고민을 바탕으로 『과학잡지 에피』에 이 ‘자동화된 성착취’를 분석한 글을 싣기도 했죠. 그 사이 성적 허위영상물을 제작, 소지, 시청한 사람에 대한 처벌을 강화하는 방향으로 관련 특례법이 개정되었고, 딥페이크 성범죄 대응과 피해자 보호를 강화하기 위한 법적·정책적 논의가 계속해서 이어졌습니다.

한편 이러한 구체적인 사건과 문제에서 한발짝 떨어져서 AI를 활용해 영상을 합성할 수 있는 새로우면서도 오래된 기술이 사회에 가져오는 영향을 다각도로 분석한 사람들이 있습니다. 바로 AI 윤리 영향평가에 참여한 50여명의 평가단입니다. 현재 최종 결과보고서 발표를 앞두고 막바지 의견수렴 과정을 거치고 있는데요. 이번 시범 평가가 끝나더라도 매년 새로운 대상 AI 서비스를 선정하여 평가를 진행하게 되는만큼 관심있는 레터 구독자 분들께서는 직접 참여해보셔도 좋을 것 같습니다.

AI 윤리영향평가 포스터도 벗어나지 못한 AI의 의인화된 표현

AI 윤리 영향평가는 어떻게 이뤄지는가

AI 윤리 영향평가를 시행하는 과학기술정보통신부와 정보통신정책연구원은 그 목적을 ‘AI 제품·서비스의 윤리적 영향력에 대한 사전 평가를 통해 긍정적 영향을 극대화하고 부정적 영향을 최소화하기 위함’이라고 적고 있습니다. 두 기관은 지난 몇 년 간 꾸준히 제도 도입을 위해 노력해왔습니다. 2022년 제1기 AI 윤리정책 포럼에서 UNESCO의 ‘AI 윤리 권고’ 이행을 위해 논의의 첫 발짝을 떼어 2023년 프레임워크 개발, 2024년 첫 시범평가를 진행하게 된 것이죠.

해당 권고문 작성에 참여한 것으로 알려진 이상욱 한양대 철학과 교수가 단장을 맡은 AI 윤리영향평가단은 작년 4월부터 9월까지 장장 6개월을 평가대상 선정과 기초 분석에 할애한 끝에 AI 영상합성서비스를 평가하기로 정했습니다. 이후 전문가 평가단과 국민포럼단을 각각 30명 정도 규모로 꾸려 2개월동안 2차례씩 좌담회와 설문 기반의 서면 평가를 진행했다고 합니다.

여전히 AI 윤리 영향평가가 무엇인지, 어떻게 했다는 것인지 와닿지 않으실 것 같네요. 아직 최종보고서 발표 전이라 구체적인 진행 방식을 확인하기는 어렵지만 작년 말 평가단이 진행한 세미나공개 토론회 자료를 토대로 재구성해보자면 다음과 같습니다.

  • <국가 AI 윤리 기준> 상의 10대 핵심요건에 해당하는 인권보장, 프라이버시 보호, 다양성 존중 등의 주제를 중심으로 AI 영상합성서비스가 개인이나 사회에 긍정적 또는 부정적 영향을 미칠 수 있는 여러 시나리오와 해당 키워드를 도출합니다.
  • 이를 바탕으로 긍정적·부정적 영향 유형을 분류하고 (총 120여개), 유형별로 영향 규모와 대상, 지속 기간과 발생 및 해결 가능성을 평가합니다.
  • 추가적으로 영향에 대한 기대 및 우려 수준과 동시에 정부의 지원 필요성과 대응수준에 대한 의견을 수렴합니다.

평가가 어떻게 진행되었는지를 살펴보면 쉽게 예상하실 수 있겠지만, 기대한 분들께는 죄송하게도 AI 영상합성서비스에 대한 윤리 영향평가를 일목요연하게 요약 정리하는 것은 불가능해 보입니다. 이는 AI 윤리 영향평가가 대상 AI 기술 및 서비스가 가져올 다방면의 영향을 발견하고 탐색하는 것에 초점을 맞추기 때문이기도 합니다. 물론 올바른 기술 개발과 활용을 위한 교육의 필요성만큼은 모두가 동의했다는 유일한(!) 결론과 다소 형식적인 정책 제언을 담고 있기도 합니다. 하지만 3월에 발간될 최종보고서 역시 평가단과 온라인 소통창구를 통해 수집한 의견을 되도록 빠짐없이 나열하고, 이를 유형화하고 분류하는 것에 초점을 둘 것으로 보입니다.

아쉬웠던 점과 25년 AI 윤리 영향평가에 바라는 점

다만 이렇게 발산형으로 이뤄진 AI 윤리 영향평가 결과가 정리되어 발표된 방식에 대해서는 짚고 넘어가보고자 합니다. 정부가 AI 윤리 영향평가를 국민포럼단과 전문가 평가단 두 그룹을 중심으로 진행하는 데에는 분명 이유가 있곘죠. AI 기술과 서비스에 대한 이해도나 전문성에 기반한 영향평가도 필요하지만 일반 시민 역시 AI 이용자로서, 더 나아가 사회 구성원으로서 AI 윤리 거버넌스 참여가 요구되기 때문입니다.

하지만 AI 영상합성서비스 윤리영향평가 결과가 발표된 세미나와 공개 토론회 모두 국민포럼단의 평가 결과를 아래와 같이 두가지 쟁점으로 정리하여 이분법적으로만 묘사하고 있습니다.

  • 주요 쟁점 1: AI 영상합성서비스를 지속 개발할 것인지, 개발 중단할 것인지?
  • 주요 쟁점 2: AI 영상합성서비스를 활용한 개인 창작물은 표현의 자유로서 규제 대상이 아닌지, 부정적 영향을 고려하여 규제가 필요한지?

발표자료를 염두에 둔 발언으로 보이진 않지만, 토론회 사회를 본 이상욱 교수가 ‘AI 기술을 두고 혁신이냐 규제냐’와 같은 이분법적인 사고방식은 지양해야 한다’고 말한 것이 무색한 정리였죠.

반면 전문가 평가단의 평가는 10가지 핵심요건별 긍정적·부정적 영향 유형과 관련 키워드, 영향 대상과 각종 지표를 세세하게 정리하고 있었습니다. 발표 시간이나 장표 분량으로도 훨씬 많은 내용을 다루다보니 자료를 다 살펴볼 즈음엔 국민포럼단의 평가 결과가 생각나지 않을 정도였습니다. AI 윤리 영향평가의 취지를 고려한다면 최종보고서에서도 이러한 형식을 취하면 곤란하겠죠.

사실 저는 AI 윤리 영향평가를 설계한 사람들이 주로 참고했을 ‘기술영향평가’를 직접 경험한 바 있습니다. AI 윤리 영향평가와 마찬가지로 정부에서 매년 신기술이 가져올 여러 측면의 영향을 평가하기 위해 전문가위원회와 시민포럼을 구성하여 운영하는 제도입니다. 다만 기술영향평가는 20년째 진행중이고, 제가 시민포럼으로 있었던 것도 벌써 10년 전입니다. 당시 시민포럼 회의가 수차례 개최되고, 심지어 전문가위원회와의 교류 자리가 있었지만 영향평가를 위한 충분한 토론이 이뤄지지 않았다는 인상을 받았습니다.

한편 AI 윤리 영향평가의 경우 회의 개최 횟수가 국민포럼단 2회, 전문가평가단 1회로 너무 적어 보였습니다. 그럼에도 불구하고 평가단으로 참여한 분들은 결과 발표 세미나와 공개 토론회에서 공통적으로 다른 사람들과의 대화를 통해 관점과 시야가 확장하는 경험을 했다고 밝혔죠. 요컨대 다소 거창한 표현이지만 영향평가가 AI 윤리에 대한 숙의의 장으로서 역할을 할 수 있는 가능성을 보인 것입니다. 정부가 이러한 교훈을 바탕삼아 올해는 보다 개선된 운영을 해주기 바랍니다.


#feedback

오늘 이야기 어떠셨나요?
여러분의 유머와 용기, 따뜻함이 담긴 생각을 자유롭게 남겨주세요.
남겨주신 의견은 추려내어 다음 AI 윤리 레터에서 함께 나눕니다.