[요약] 한국 AI 규제 총정리

국내 AI 정책을 개괄하는 자료가 공개됐습니다

[요약] 한국 AI 규제 총정리
길항 권력은 민주주의 없이는 일구기 어렵다.

—대런 아세모글루, 사이먼 존슨(김승진 역), <권력과 진보>
목차
1. [요약] 한국 AI 규제 총정리 (진보넷)
2. AI 행정명령에 담긴 불균형한 목소리

🦜 AI 윤리 레터가 그동안 다뤄 온 이슈들 모아 보기
💌 AI 윤리 레터가 오래 유지될 수 있도록 응원하러 가기

[요약] 한국 AI 규제 총정리 (진보넷)

by. 🤖아침

지난 몇 주 사이 미국영국 등에서 AI 규제 정책에 관련된 굵직한 논의가 쉴 새 없이 공개됐습니다. 글로벌한 무대에서 어떤 이야기가 오가고 그것이 갖는 의미를 따져보는 것도 중요하지만, 우리와 좀 더 가까운 한국 정부와 정치권에서는 AI 규제에 어떻게 접근하고 있는지 새삼 궁금해지는 타이밍인데요.

마침 그간 국내 AI 정책을 개괄하는 <국내 인공지능 규제 동향> 자료를 진보네트워크센터에서 공개했습니다. 2016년 이래 각 정권의 AI 정책 기조 및 주요 입법/가이드라인의 요점, 개보위/과기정통부/방통위/인권위 등 관련 부처의 활동을 타임라인식으로 소개하고, 말미에는 정보인권을 강조하는 시민사회 관점에서 바라본 평가를 덧붙입니다.

내용도 유익하지만, 저는 정부 자료의 원본 링크를 일일이 정리해 놓은 것만으로도 높은 점수를 드리고 싶습니다. 뉴스기사로 접한 정책 소식의 출처를 확인하고자 정부부처 웹사이트를 헤매며 미로에 갇힌 듯한 좌절스러운 경험을 해보신 분이라면 무슨 말인지 아시겠죠.

출처: “[APC] 국내 인공지능 규제 동향”, 진보네트워크센터

몇 가지 인상적으로 본 포인트를 공유하자면

  • 이 자료에서는 박근혜 정부가 빅데이터 산업발전을 추구하며 개인정보의 수집 목적외 활용을 추진한 것을 국내 AI 정책의 실질적 시발점으로 간주합니다. 데이터를 둘러싼 각축이 생성 AI 시대에 들어와 더더욱 중요해졌다는 점에서 유효한 지적이라 볼 만하고, 또한 AI 규제에 관한 논의가 최근 갑자기 대두된 것이 아니라 긴 맥락이 있음을 상기합니다.
  • 정부 기조는 (인권위/개보위의 일부 지적을 제외하면) 일관되게 자율규제와 산업육성에 방점을 두어왔다는 점을 지적합니다. 특히 과기정통부에 AI 정책 관련 권한이 크게 부여된 점과 "인공지능 산업진흥을 저해한다는 이유로 인공지능을 제대로 규제할 수 있는 법제도의 마련이 지체되어 왔음"을 연결지어 비판합니다.
  • 인권위가 마련한 <인공지능 개발과 활용에 관한 인권 가이드라인>는 AI 윤리 북클럽에서도 인상적으로 읽어본 문서인데요. 비록 구속력은 없지만 여기서는 인공지능 규제의 방향성을 제시한다는 의미를 긍정적으로 평가하고 있습니다.
  • 한편 입법 측면에서도 "국회 소위안을 통과한 인공지능법안은 국내외 기준이 요구되는 수준을 충족하지 못함"이라며 보다 견고하고 자세한 규제 장치의 필요성을 역설하고 있습니다. 이는 국민의 안전과 인권을 보장하는 데 있어서도 문제지만, 산업적인 측면에서도 현재 수준의 법안 내용만 따라서는 국내 업체들이 미국/유럽 등의 기준을 충족하지 못하여 경쟁력을 확보하기 어려우리라는 지적입니다.

요약하자면 갈 길이 멀다는 이야기겠네요. 갈수록 AI 기술이 실생활로 깊숙이 들어오고, 그에 따라 정책적 논의도 구체화될 필요성이 커지고 있습니다. 기술 노동자와 정책관계자뿐만 아니라 이용자, 소비자, 그리고 무엇보다 시민으로서 우리 모두의 관심이 어느 때보다 필요한 시점입니다.

AI 행정명령에 담긴 불균형한 목소리

by. 🤔어쪈

“전혀 다른 입장에서 쓴 글들을 충돌시켜 함께 뭉개 놓은 글 같다.”

지난주 레터에서 다룬 미국의 AI 행정명령을 두고 디 애틀랜틱의 AI 전문기자 카렌 하오와 마테오 웡이 내린 평가입니다. 왜 이런 비판적 평가를 내렸을까요?

제목에서부터 안전, 보안, 신뢰를 강조한 AI 행정명령은 여러 의미로 다루는 내용 범위가 방대합니다. 단순히 원칙만을 명시한 문서가 아니라 원칙을 지키기 위한 업무 지침을 여럿 담고 있어요. 크게 세 파트로 구성되어 있습니다.

  1. AI가 국가 보안이나 공공 안전을 위협하지 않는다는 것을 확인할 수 있는 표준과 평가 방안
  2. 소비자, 환자, 학생, 노동자와 같이 AI 사용 시 영향을 받는 이해관계자를 보호하고 지원하기 위한 방안
  3. 미국을 AI 기술과 정책의 중심지로 자리매김하는 데 필요한 연구개발 및 대내외 협력 정책 방안

여기서 1번 항목에 주로 등장하는 AI는 백악관이 과거 ‘프런티어 AI’라고도 불렀던 ‘이중 목적의 파운데이션 모델’입니다. 화생방 및 핵무기나 대규모의 사이버 공격과 사회적 혼란의 위협을 가져올 수 있는 무시무시한 기술이죠. 물론, 이러한 위험은 현실화되지 않았습니다.

반면 2번의 AI는 이미 실생활에 적용된 일상적인 기술입니다. 이른바 생성 AI가 개발되기 전부터 채용과 노동 감시, 보험 및 대출, 치안과 범죄 예방 등 다방면에서 의사결정을 일부 또는 전부 자동화하는 데 일조해왔죠. 그 피해는 주로 사회적 취약 계층에 집중되어 있습니다.

같은 ‘AI 윤리’를 논하더라도 누군가는 1번의 위험을, 누군가는 2번의 피해를 떠올립니다. 인공일반지능(AGI)이나 초지능(Super-intelligence)과 같은 용어가 유행하고서부터 갈수록 논의가 전자로 치우친다는 느낌이 듭니다. 디 애틀랜틱은 AI 행정명령이 2번보다 1번을 강조하며, 사회적 취약 계층이 겪고 있는 실제 위험에 대해서는 충분히 다루지 않고 있음을 비판합니다.

미국 정부의 파운데이션 모델에 대한 입장과 정책은 기업들이 제안한 내용의 폭과 깊이를 벗어나지 않습니다. 대부분의 내용이 구글, 오픈AI 등의 기업 출신 연구자가 작성에 참여한 논문과 일치하죠. 반면 많은 사람이 목소리를 내 온 것에 비해 AI로 인한 실질적인 피해와 그에 따른 조치는 이번 행정명령에서 적잖이 누락된 것으로 보입니다.

출처: 오픈 AI. ‘프런티어 AI’ 규제 논문 발표 직후, 오픈AI와 구글, 마이크로소프트, 앤스로픽은 프런티어 모델 포럼이라는 기업간 정책협의체를 만들었습니다.

AI 행정명령은 기업들이 주장하는 것처럼 AI가 기후위기 대응에 필요하다고 강조하지만 물 소비량과 같은 AI 개발로 인한 환경적 영향에 대해서는 언급하지 않습니다. 장기적으로 AI가 노동 시장에 가져올 수 있는 파급력을 조사하겠다고 했지만 당장 일어나고 있는 AI를 이용한 노동권 침해 문제는 생략했죠. 국가 안보와 공공 안전을 위협하는 AI 개발 방지를 위해 관련 학습 데이터를 관리할 구체적인 방안 마련을 지시한 것에 비해 생성 AI의 저작물 이용에 대해선 그저 연구하고 있다는 말뿐입니다.

해리스 부통령은 최근 연설에서 일상에서 AI로 인해 발생하는 피해로 실존적인 위험에 처한 실제 사례들을 소개했습니다. AI로 인해 인류가 멸종할 수 있다는 종류의 주장을 함축하던 ‘실존적인 위험(existential risk)’이라는 단어를 재정의한 것이죠. AI 행정명령을 이행하는 과정에서 문서에서 나타나는 기울어진 균형을 바로잡길 기대해 봅니다.


#feedback

오늘 이야기 어떠셨나요?
여러분의 유머와 용기, 따뜻함이 담긴 생각을 자유롭게 남겨주세요.
남겨주신 의견은 추려내어 다음 AI 윤리 레터에서 함께 나눕니다.