영국이 AI 안전 정상회담을 주최한 이유

영국은 단단히 준비한 모습입니다

영국이 AI 안전 정상회담을 주최한 이유
기업이 너무 커질 경우 가장 효율적인 생산과 유통 수단이 되기 어려울 수 있다.

—루이스 브랜다이스, 미 연방대법원 대법관
목차
1. 영국이 AI 안전 정상회담을 주최한 이유
2. AI, 혁신을 가로막다?!

🦜 AI 윤리 레터가 그동안 다뤄 온 이슈들 모아 보기
💌 AI 윤리 레터가 오래 유지될 수 있도록 응원하러 가기

영국이 AI 안전 정상회담을 주최한 이유

by. 🎶소소

지난주 영국이 AI 안전 정상회담(AI Safety Summit)을 개최했습니다. 세계 각국이 모여 AI의 안전에 대해 논의하는 회담이었는데요. 참석자들은 ‘프런티어 AI로 인해 발생할 수 있는 위험’에 공감하고, 위험을 완화하는 데 협력하자는 ‘블레츨리 선언’에 합의했습니다. 오늘 윤리레터에서는 영국의 정상회담 개최 이유와 앞으로 계획에 초점을 맞춰서 이야기해 보려고 합니다.

영국은 왜 이 회담을 개최했을까요? 당연히 영국도 AI 분야에서 글로벌 주도권을 잡기 위해서겠죠. 회담 이틀 전 미국이 AI 행정명령을 발표한 것과 달리, 영국은 여러 나라를 불러 모았습니다. 국제협력을 빌미로 회담의 참석 국가를 정하면서 주도권을 가져갈 수 있기 때문입니다. 특히 중국도 회담에 참석하는지가 초미의 관심사였는데요. 영국도 고민이 많았는지 참석자 명단은 회의 전날에야 공개되었습니다. 선언문 자체는 구속력 없는 수준이지만, 글로벌 AI 리더십을 두고 경쟁하는 미국과 중국이 모두 참여했다는 점에서 국제적 협력의 시발점이 되었다는 평가도 있습니다.

출처: Picture by Kirsty O'Connor, CC BY-NC-ND 2.0. AI 안전 정상회담에 참석한 리시 수낵 영국 총리.

회담에는 유럽 연합과 아시아, 아프리카, 북아메리카, 남아메리카, 오세아니아 여섯 대륙에서 28개국이 초대되었습니다. 중국이 주도하는 ‘글로벌 AI 거버넌스 이니셔티브’ 참여국과 비교하면 지리적 분포나 정치적 다양성은 좀 더 높지만, 개발도상국의 참여가 적어 경제적 다양성은 떨어진다고 할 수 있겠습니다.

각국의 정부 외에도 구글과 같은 빅테크, 스타트업부터 다양한 싱크탱크, UN과 같은 국제기구도 초대되었습니다. 참석자들의 대표성과 다양성을 갖추려고 노력한 것으로 보입니다. 꽤 노력했지만, 결과적으로 미국과 영국의 기업 및 기관이 다수를 차지했습니다.

영국은 이번 회담에서 정부 산하의 ‘AI 안전 연구소’를 설립도 발표했습니다. 연구소의 첫 번째 과제는 AI 모델의 사회적 영향을 테스트할 수 있는 시스템을 마련하는 것이라고 합니다. 이번 정상회담에 대비해 구성한 프런티어 AI 태스크포스 멤버들이 합류할 예정이라고 해요. 좋은 AI 연구자들이 모일 수 있도록 1억 파운드(약 1,600억 원)를 R&D 자금으로 지원한다고 합니다.

이처럼 영국 정부는 정상회담에 맞춰 AI와 그 위험성을 이해하기 위해 꽤 노력한 것으로 보입니다. 지금까지 정부가 AI를 규제하기에는 AI를 너무 모른다는 지적이 제기되어 왔거든요. 구글의 전 CEO인에릭 슈밋은 "AI 기술이 너무 새롭고, 어려운 만큼 아직 정부에는 이를 제대로 이해하는 사람이 없다"고 말했었죠. 그래서 정상회담 직전까지 AI에 관한 두 개의 보고서를 발표했습니다. 게다가 영국의 과학기술부처 장관이 정상회담 참여국을 순방하며 정부 관계자와 기업을 만나 AI 안전에 대한 이야기를 들었다고 해요. 지난달에는 우리나라를 방문했었죠.

영국은 이번 정상회담으로 성공적으로 글로벌 AI 논의장에 존재감을 드러냈습니다. 그리고 한국도 국제협력의 무대에 오르고자 하는 의지를 보였습니다. 6개월 뒤, 한국에서 ‘AI 안전 미니 정상회담’을 화상으로 개최한다고 합니다. 이번 정상회담의 후속 논의를 펼치는 자리가 될 텐데요. 한국 정부와 기업을 비롯해 우리도 공부를 많이 해야겠어요!

AI, 혁신을 가로막다?!

by. 🍊산디

AI ‘기술’이 연구 단계를 졸업하고 ‘서비스’ 형태로 본격 유통되면서 시장의 불공정행위를 관리감독하는 규제기구들도 긴장 상태입니다. 두 가지 이슈 때문입니다.

우선 AI 모델이 필수 생산요소가 될 가능성이 있습니다. 챗GPT 등 주요 AI 모델을 적용한 서비스가 많아질수록 이들 AI 모델 자체가 필수 생산요소가 되겠죠. 하지만 AI 모델은 소수의 빅테크에 의해 생산, 유통됩니다. 독과점 상태가 되기 쉽죠. AI 모델이 안정적으로 제공되도록 빅테크가 자사우대, 가격 담합 등의 불법행위를 하지는 않는지 감독이 필요합니다.

또 다른 이슈는 추가적인 AI 모델 개발을 빅테크가 저해할 가능성입니다. AI 모델 개발에 필요한 생산요소를 빅테크가 통제하려 할 때 발생할 문제죠. 이에 따라 경쟁규제기구는 빅테크가 AI 모델 개발에 필요한 생산요소들을 수직계열화하지 않는지 감독해야 합니다. 미국 FTC는 다음의 세 가지를 AI 모델의 필수 생산 요소로 보고 여기서 경쟁이 저해될 수 있음을 지적합니다.

  • 데이터: 일반적으로 신규 사업자보다 기존 사업자가 데이터 확보에 더 유리합니다. 이는 기존 사업자가 데이터 확보 역량이 좋기 때문일 수도 있고, 이후 데이터 수집 및 확보 방해 움직임이 강해졌기 때문일 수도 있습니다. 지난주 구글과 MS의 갈등에서 살펴본 것처럼 기존 사업자가 데이터 축적 플랫폼을 가지고 있다면 문제가 더욱 심각해지죠.
  • 인력: 전문성을 갖춘 인력 또한 AI 개발에 필요한 필수 투입요소입니다. 어떤 기업, 나아가 어떤 국가가 고급 인력을 유치하는가가 중요해집니다.
  • 컴퓨팅 자원: 반도체, GPU, 클라우드 등의 컴퓨팅 자원 또한 AI 개발을 위한 필수 투입요소입니다. 이들 컴퓨팅 기기를 생산할 수 있는 기업도 소수로 한정되어 있죠. FTC는 엔비디아가 ARM을 인수하려 하자 이를 불법 수직결합으로 제소한 바 있습니다.

영국의 대응이 흥미롭습니다. 영국의 경쟁규제기관인 CMA(Competition and Markets Authority)는 지난 9월 AI 시장 경쟁을 위한 원칙을 다음과 같이 발표했습니다. 이 원칙들은 다양한 목적의 서비스에 적용될 수 있는 AI ‘파운데이션 모델(FM)’에 적용됩니다.

  • 책임성: FM 개발자, 배포자는 소비자에게 제공되는 결과물에 대해 책임
  • 접근성: 불필요한 제한 없이 주요 생산요소에 대한 접근성 보장
  • 다양성: 다양한 비즈니스 모델을 지속적으로 제공
  • 선택권: 기업에게 사용할 수 있는 충분한 선택지 제공
  • 유연성: 필요에 따라 FM을 바꾸거나 여러 FM을 동시에 사용할 수 있는 유연성 보장
  • 공정거래: 자사우대(self-preferencing), 끼워팔기(tying), 번들링 등 반경쟁적 행위 금지
  • 투명성: 소비자, 기업에게 FM이 생성한 콘텐츠의 위험과 한계에 대한 정보 제공

사실상 위 원칙은 MS, 구글 등 미국 기업으로부터 영국 기업과 소비자가 부당경쟁으로 인해 피해를 보지 않도록 역할하겠다는 선언과 같습니다. 이쯤 되면 우리나라는 어떤 준비를 하고 있는지 궁금해집니다. 하지만 제가 과문한 탓에 아무리 찾아도 안 보이더라구요.

출처: 대통령실

최근 영국에서 열린 AI 안전 정상회의에 화상으로 참석한 윤석열 대통령은 AI가 오로지 인간의 자유와 후생을 확대하는 데 기여해야 한다고 언급했습니다. 지극히 옳습니다. 다만 반복적으로 나타나는 ‘가짜뉴스’에 대한 염려지난 뉴스레터에서 다룬 내용도 있고 하여 아쉬울 따름입니다.

대통령께서 자유를 지극히 아끼시니, 자유롭게 경쟁하는 AI 시장은 확실히 지켜내리라 믿습니다. 그러하니 아마도 공정거래위원회를 중심으로 이루어질 거대 AI 모델의 경쟁 제한 효과를 막기 위한 논의도 설레는 마음으로 기대하고 있겠습니다. 자유 수호를 위해 ‘가짜뉴스’ 규제보다는 반독점 정책이 더 중요해 보여서요.

덧붙이는 글
🤔어쪈: 최근 앤드루 응은 최근 미국의 AI 정책이 빅테크의 ‘존재론적 위험’에 근거한 AI 규제 요구에 영향을 크게 받아 오히려 시장 경쟁을 저해할 수 있다고 지적했습니다. AI 대가라고 불리는 제프리 힌턴, 얀 르쿤 등은 응의 주장을 두고 설전을 벌이기도 했죠. 우리나라 정부는 특정 이해관계만을 반영하지 않도록 주의해서 정책을 설계하길 바라봅니다.

#feedback

오늘 이야기 어떠셨나요?
여러분의 유머와 용기, 따뜻함이 담긴 생각을 자유롭게 남겨주세요.
남겨주신 의견은 추려내어 다음 AI 윤리 레터에서 함께 나눕니다.