OECD, AI 사고 모니터링 포털 공개

전세계 AI 사고를 실시간 모니터링합니다

OECD, AI 사고 모니터링 포털 공개
계산은 언제나 편리하고 환상적인 (중략) 해석과 결함을 무시하는 판타지적인 것이었다.

—알렉산더 R. 갤러웨이, <계산할 수 없는>
목차
1. 상상이 아닌 현실 세계의 AI 위험: OECD AIM 발표
2. 두 유 노 ‘인공지능 윤리정책 포럼’?

💌 AI 윤리 레터가 오래 유지될 수 있도록 응원하러 가기

상상이 아닌 현실 세계의 AI 위험: OECD AIM 발표

by 🎶소소

많은 AI 정책들이 AI의 잠재적 위험을 파악하라고 요구합니다. 그러나 경험하지 않은 위험을 상상하기란 쉽지 않습니다. 위험한 AI는 사람의 통제를 벗어나 날뛰는 인공일반지능(AGI)의 형태로 묘사되곤 합니다. 핵무기, 환경 오염과 같은 기존의 위험에 비유되기도 하죠. 혹은 “제프리 힌턴이 경고했대!”, “얀 르쿤은 아니라는데?”와 같이 권위자에 의존하기도 하고요.

AI의 위험성을 너무 부풀리거나 축소하지 않으면서 구체화하기 위해서는 AI의 실제 위험에 대한 지식이 필요합니다. 그래서 OECD는 실시간으로 AI 사고를 감지하는 도구, AIM(AI Incidents Monitor)을 만들었습니다. 이 도구는 AI 관련 사고를 문서화하여, 정책입안자들이 AI 정책을 수립하는 데 필요한 지식을 제공합니다.

기존에도 AI 사고 데이터베이스(AIID)와 같이 사람들이 자발적으로 AI 사고를 기록하는 채널은 있었습니다. 이번에 OECD가 만든 AIM이 다른 점은 모니터링에 AI 모델을 활용한다는 점입니다. AI 모델은 전 세계의 뉴스를 실시간으로 모니터링하여 AI 사고 정보를 기록합니다.

출처: OECD AIM 웹사이트, AI 사고를 국가별, 산업별, 심각도, 피해 유형, 이해관계자 등의 카테고리로 검색하는 화면

AIM에 활용된 AI 모델이 어떤 기준으로 사고를 감지하고, 분류하는지 볼까요? 모니터링 대상은 전 세계의 영문 미디어에 보도되는 AI 뉴스입니다. 모델은 뉴스 기사의 제목, 요약, 첫 몇 단락을 기반으로 AI 사고를 식별합니다. 사고는 OECD의 AI 분류 프레임워크를 기반으로 심각성, 산업, 피해 유형, 영향을 받는 이해 관계자 등의 카테고리로 분류됩니다. 각 사고는 웹 트래픽 순위가 가장 높은 뉴스를 출처 삼아 정리된다고 하네요.

출처: OECD AIM. 작년 한 해 동안 한국에서 있었던 AI 사고 관련 분류

AI의 사고 정보를 관리하는 데 AI 모델을 사용하다니요. 물론, AI 모델이 전 세계의 AI 사고를 완벽하게 모니터링할 수는 없겠죠. 특히, 사고가 영어로 보도되지 않아 누락되는 소식도 많을 거예요. 이를 보완하기 위해 OECD는 직접 사고 정보를 입력하는 방식도 도입할 예정이라고 합니다. AIM이 AI의 현실적인 위험을 구체화하고 관리하는 데 도움이 되었으면 좋겠습니다.


두 유 노 '인공지능 윤리정책 포럼'?

by 🤔어쪈

최근 각국 정부가 본격적으로 AI 정책 마련에 나서면서 AI 윤리 레터 역시 여러 소식을 전해왔는데요. 우리나라 역시 부지런히 움직이고 있습니다. 최근만 하더라도 9월 <디지털 권리장전> 발표, 11월 ‘AI 안전 정상회의’ 참석 및 내년 후속 미니 정상회의 개최 뉴스가 있었죠. 저번 주 개인정보보호위원회는 자동화된 결정에 대한 정보주체의 권리 행사 절차를 담은 개인정보보호법 시행령 개정안을 내놓기도 했습니다.

하지만 ‘AI 윤리’ 키워드로 우리나라 정부의 대표적인 활동을 꼽을 때 ‘인공지능 윤리정책 포럼’을 빠뜨리면 섭섭할 겁니다. 과학기술정보통신부가 작년부터 AI 윤리체계를 마련하기 위해 운영 중인 회의체죠. 지난주 2기 포럼의 마무리 격 행사인 공개 세미나가 있었습니다. 올해 포럼이 무슨 일을 했는지 함께 살펴볼까요.

출처: 과학기술정보통신부 유튜브 화면 갈무리

포럼은 지난해와 마찬가지로 3개 분과로 나뉘어 활동했습니다. 윤리 분과는 주로 교수와 변호사, 기술 분과는 대부분 기업인으로 구성되어 있네요. 여성은 각각 2명(전체 9명), 1명(전체 11명)밖에 없습니다. 교육 분과에는 그나마 다양한 사람들이 참여하고 있네요.

포럼 개최 횟수를 보니 많은 것을 바라기는 힘들어 보입니다. 전체 회의는 4월에 있었던 출범식을 제외하면 2번밖에 없었고, 분과회의도 2시간씩 두세 번 진행한 게 전부입니다. 따라서 각 분과에서 발표한 내용은 포럼 간사인 정보통신정책연구원(KISDI)과 한국정보통신기술협회(TTA)가 도맡은 것으로 보입니다. 세션별 토론에서도 포럼위원들은 작성자가 아닌 검토자였던 것 같아요.

포럼 내용은 이렇습니다.

  • 윤리 분과: <인공지능 윤리영향평가 프레임워크(안)> 공개
    • 언론 등을 통해 사회적 논란을 일으켰거나 고위험 영역에 속한 AI 서비스를 대상으로 1) 전문가의 기초 분석을 통해 윤리적 쟁점을 도출하고, 2) 국민 포럼, 온라인 소통채널 등을 포함하여 긍정적·부정적 영향을 평가합니다.
  • 기술 분과: <인공지능 신뢰성 민간 자율 인증 체계> 발표
    • AI 서비스의 구성 요소(데이터, 모델, 시스템, 인터페이스)를 대상으로 신뢰성 개발안내서상의 요구사항을 적용해 각종 시험을 시행하여 적합 여부를 판정합니다. 생성 AI 특화 평가를 위한 별도 데이터셋도 구축한다고 합니다.
  • 교육 분과: <일반인 대상 인공지능 윤리교육 교재> 마련
    • 일반인을 대상으로 직접 AI 서비스를 체험하며 AI 윤리 이슈가 발생하는 상황을 이해하고, 이것이 어떻게 2020년 정부에서 발표한 <인공지능 윤리기준>의 여러 가치와 연결되는지 학습할 수 있습니다.

자세한 내용은 최근 개설된 ‘인공지능 윤리 소통채널’을 통해 접할 수 있습니다. 그간 포럼에서 다룬 내용이 모두 정리되어 있어 작년 포럼 성과가 올해 어떻게 발전했는지 확인할 수 있습니다.

  • 윤리기준 자율점검표가 윤리영향평가 프레임워크로 발전했습니다.
  • 신뢰성 개발안내서가 신뢰성 인증 체계로 이어졌습니다.
  • 초중고 교육교재가 일반인 교재로 확대되었습니다.

차근차근 준비하는 모습이네요. 한편 실제 적용 사례 없이 비슷한 종류의 문서만 계속해서 만들어지고 있는 건 아닌지 의문이 들기도 합니다.

한편 포럼 결과를 두고 다른 사람들과 의견을 나누고 싶어도, ‘인공지능 윤리 소통채널’엔 이름과 달리 함께 소통할 수 있는 창구가 없습니다. 토론 주제를 제안할 수는 있지만 비공개 설정만 가능하네요. <디지털 권리장전> 발표를 앞두고 급히 만들어졌던 ‘디지털공론장’이 떠오릅니다. 다소 이해하기 힘든 토론 주제를 제시하며 댓글창을 열어두었다가, 현재는 권리장전 문서만 남아있고 ‘공론장’ 기능은 사라진 듯하네요.

반면 AI 윤리 레터는 항상 열려있습니다. 어떤 의견이든 남겨주세요. 레터를 통한 소개 여부도 직접 선택하실 수 있습니다. 함께 책 읽고 이야기 나눌 수 있는 AI 윤리 북클럽도 여러분의 참여를 기다립니다.