AI 산업을 응원하는 한국 정부

AI 기본법 통과, AI 안전연구소 출범, AI 디지털교과서 도입까지

AI 산업을 응원하는 한국 정부
인간에게 도덕성이란 적절한 행동 규범에 대한 믿음을 넘어서서 그 규범을 문화적으로 공유하고 전수해야 한다는 믿음까지 포함한 개념이다.
—로버트 M.새폴스키 지음 김명남 옮김, <행동>

AI 윤리 뉴스 브리프

2024년 12월 첫째 주
by 🎶소소

목차
1. AI 산업진흥의 동반자 AI 기본법과 AI 안전연구소
2.AI 디지털교과서 도입을 앞두고 여전한 논란
3.당신을 파악하는 데 2시간이면 충분하다는 AI

1.AI 산업진흥의 동반자 AI 기본법과 AI 안전연구소

  • AI 기본법이 지난주 국회 과학기술방송통신위원회 법안소위원회를 통과하고, 이번 주 전체 회의를 통과했습니다. 법안이 연내 국회 본회의를 통과하면 내년 연말쯤 시행될 예정입니다. 전반적으로 규제보다는 산업 진흥에 초점을 두는 방향으로 여야 합의가 이뤄졌습니다.
💡
AI 기본법 주요 내용
1. AI 데이터 센터 투자, 연구개발, 인력 양성 등 지원 방안
2. 대통령 직속 국가AI위원회 신설
3. 고영향 AI 사업자는 이용자에게 위험성 사전 고지 및 안전성 확보 조치
4. 딥페이크 확산 방지를 위한 워터마크 표시 의무화
5. 해외 AI 사업자 의무 이행을 위한 국내 대리인 지정
6. 의무사항 위반 시 사실조사 및 시정명령, 시정명령 불이행 시 3,000만 원 이하 과태료 부과
  • 법안의 주요 쟁점이었던 ‘금지 AI’ 및 ‘처벌’ 조항은 모두 포함되지 않았습니다. 고영향 AI 활용 사업자 책무 불이행에 대한 과태료 부과 조치만으로는 지적도 있습니다. 전반적으로 시민의 안전과 인권을 보호하는 데는 미흡하다는 평가입니다.
  • 한편 지난 레터에서 소식을 전했던 이번 주 한국의 AI 안전연구소가 개소식을 열고 운영 계획을 발표했습니다. 김명주 소장은 "히말라야 등정을 돕는 세르파 같은 연구소가 되겠다."며 AI안전연구소는 규제기관이 아니라 국내 AI기업들이 글로벌 경쟁력을 확보할 수 있도록 지원하는 협력 기관임을 강조했는데요. 그 뜻이 진심이라면 사실상 한국 어디에도 AI 안전을 위한 규제기관은 없는 형국입니다. 산업 진흥으로 힘을 얻은 기업들이 자율적으로 AI 안전을 위해 노력하기를 바라는 수밖에요.

2.AI 디지털 교과서 도입을 앞두고 여전한 논란

AI 디지털 교과서 검정심사 결과 및 도입 로드맵 조정(안)을 발표하는 이주호 교육부장관 출처: 대한민국 정책브리핑
  • 교육부가 AI 디지털교과서 도입 3개월을 앞두고 일부 과목의 일정 조정(안)을 발표했습니다. 특히 국어는 자기표현이 중요한 교과목으로 학생들의 프라이버시 침해 가능성이 높다는 우려를 반영해 도입 교과에서도 제외되었습니다. 영어, 수학, 정보 교과는 계획대로 내년 3월부터 초등학교 3·4학년, 중학교·고등학교 1학년에 적용됩니다.
  • 하지만 AI 디지털교과서를 둘러싼 논란은 여전히 뜨겁습니다. 여전히 많은 학부모, 교사, 전문가 등이 AI 교과서가 학생들에게 미칠 영향이 충분히 검토되지 않았음을 우려하고 있습니다. 게다가 시스템 성능에 대한 불안, 데이터 편향 문제, 네트워크 과부하 같은 기술적 결함도 완전히 해소되지 않은 상황에서 교육 현장에 도입하는 것은 지나치게 성급하다는 의견이 많습니다.
  • 아직 여야 합의도 충분하지 않은 것으로 보입니다. 특히 전날 국회 교육위에서 야당 의원들은 AI 디지털교과서를 교과용 도서가 아닌 교육자료로 규정하는 초·중등교육법 개정안을 통과시키면서, AI 디지털교과서가 교과서의 지위를 잃을 가능성도 존재합니다.
  • 교육부 장관은 AI 디지털교과서가 교실 혁명의 시작이자 교육 격차 해소의 출발점이 될 것이라고 강조했는데요. 아직 AI 디지털교과서의 충분한 효과가 검증되지 않은 상황에서 학생들이 실험 대상이 될 위험성을 간과해서는 안 됩니다.

3.당신을 파악하는 데 2시간이면 충분하다는 AI

인터뷰를 통한 AI Agent 생성 및 평가 과정 출처: Generative Agent Simulations of 1,000 People
  • AI가 인간을 모방하는 능력은 점점 더 정교해지고 있습니다. 최근 스탠퍼드와 구글 딥마인드 연구진은 1,000명의 인터뷰 데이터를 학습시킨 AI 에이전트가 실제 인간을 85% 정확도로 모방할 수 있었다고 발표했습니다. 두 시간의 인터뷰 내용이면 한 사람의 성격과 의사결정 형태를 재현할 수 있었다고 합니다.
  • 연구진은 본 연구가 개인 및 집단행동을 연구하는 새로운 도구가 될 수 있다고 강조했습니다. 전통적으로 인간 피험자를 대상으로 하는 연구는 비용이 많이 들고 윤리적인 제한을 받을 수밖에 없지만, AI를 활용해 이를 보완할 수 있다는 것입니다.
  • 그러나 이러한 기술이 지닌 가능성만큼 그에 따른 영향과 책임도 고민해야 함을 우리는 알고 있습니다. 인간의 행동을 모방하는 기술은 좋은 도구지만, 동시에 딥페이크와 유사한 문제를 일으킬 수 있습니다. 특히 동의 없이 특정 개인을 모델링하거나 이 데이터를 오용하는 경우, 개인의 신뢰와 사회적 명예가 훼손될 위험도 존재합니다.

#feedback

오늘 이야기 어떠셨나요?
여러분의 유머와 용기, 따뜻함이 담긴 생각을 자유롭게 남겨주세요.
남겨주신 의견은 추려내어 다음 AI 윤리 레터에서 함께 나눕니다.