오픈AI의 비공개 로비

EU를 상대로 한 로비 문건이 공개되었습니다

오픈AI의 비공개 로비
목차
1. 오픈AI, 규제 완화를 로비하다
2. AI 뒤에 사람 있어요
3. AI 규제의 국제협력은 가능할까?
👉 아침과 다솔은 어른의 사정으로 이번주 휴재입니다 😂🏖️

오픈AI, 규제 완화를 로비하다

by 🍊산디

오픈AI가 AI법의 규제 내용에 대해 EU 위원회에 로비한 내용이 공개되었습니다. (AI법에 대한 자세한 내용은 🦜지난주 레터에서 다시 보실 수 있습니다.)

로비라니! 사과 박스라도 오갔을 것 같지만, 사실은 EU 위원회가 오픈AI에게 의견을 구한 것에 대한 답변서가 공개되었을 뿐입니다. 입법 과정에서 기업 의견 청취는 필요합니다. 그러니 이번에 공개된 오픈AI의 ‘로비’는 당연히 필요합니다.

흥미로운 것은 로비의 내용입니다. 오픈AI는 공개적으로 누차 AI 규제 필요성을 이야기해 왔습니다. 하지만 언제나 먼 미래에 혹시라도 등장할지 모를 인공일반지능(AGI)을 상정했지, 오픈AI 본인들을 규제해달라고는 하지 않았습니다.

이번 문건은 ‘현재’ 논의되고 있는 가장 강한 AI 규제인 EU AI법에 대한 오픈AI의 솔직한 입장을 보여줍니다 (정확히는 문건이 작성된 2022년 9월의 입장입니다). 샘 올트먼이 EU 시장에서 철수하겠다며 실언과 협박이 반씩 섞인 진심을 내비친 이유를 알 수 있죠. (역시 🦜지난 레터에서 보실 수 있어요.)

영문으로 된 "EU AI법에 대한 오픈AI 백서" 화면 캡처. 오픈AI 로고, 백서 제목, 도입부 첫 문단.
출처 : EU AI법에 대한 오픈AI 백서의 일부 캡처

타임지가 정보공개청구를 통해 확보한 백서의 기본 입장은 “챗GPT는 고위험 서비스에 사용될 가능성이 있으나 그 자체로 고위험군(high-risk)은 아니”라는 것입니다.

이외 주요 내용을 요약하면 다음과 같습니다.

  • 오픈AI는 가이드라인과 콘텐츠 정책 정비, 우수 사례 소개, 서비스 이용 제한, 모니터링 등에 많은 노력을 기울이고 있다.
  • 생성 AI 콘텐츠 규제는, 생성 AI를 고위험군으로 분류하기보다, 워터마크 등 AI 생성물이라고 이용자가 확인할 수 있도록 하는 것이 적절하다.
  • 고용, 교육 평가 분야의 모든 생성 AI 모델이 위험하지는 않다. 직무 설명, 문제 출제 등 법익을 침해하지 않으면서 생성 AI를 도입할 수 있는 영역이 있다.
  • 주요 업데이트마다 위험성 평가를 시행하도록 하면, 안전성을 높이기 위한 업데이트도 위축된다. 안전성을 높이기 위한 업데이트는 평가에서 제외되어야 한다.

번역기를 돌려봅시다. 다음과 같이 해석해 볼 수 있겠습니다.

  • 오픈AI의 자율규제만으로 충분하다.
  • 이용자의 콘텐츠 소비에 있어 오픈AI의 책임은 생성 AI가 생성한 콘텐츠라는 사실을 이용자가 알 수 있도록 고지하는 것까지이다.
  • 생성 AI의 고용, 교육 시장 진출을 막아서는 안 된다.
  • 오픈AI는 일단 모델을 공개하고 사후적으로 문제를 개선하는 반복 개선 모델(iterative deployment model)을 고수할 것이다.

타임지는 EU AI법에 오픈AI의 의견이 대체로 반영되었다고 평합니다. 앞에서는 규제를 외치면서 뒤에서는 규제에서 벗어나려 애쓴 오픈AI가 끝내 성공한 것으로 해석하기도 합니다. 글쎄요. 입법 과정상의 합리적인 의견 청취일까요? 아니면 규제 당국에 대한 기업의 입김일까요?

🦜
덧붙이는 글
- 🍊 산디 : 오픈AI의 주장이 완전히 틀렸다고 주장할 수는 없어 보입니다. 특히 고용, 교육 등 서비스 분야가 아니라, 구체적인 서비스 내용에 따라 위험도가 달라져야한다는 주장은 합리적이라고 생각해요. 하지만 ‘규제 정도는 개별 서비스마다 다르다’라고 명시하면 사업자와 이용자의 혼란이 가중될 수도 있습니다. 규제 기관 편의대로 악용될 소지도 있죠. 어떤 접근이 바람직할까요?

AI 뒤에 사람 있어요

by. 🤔어쪈

인공지능(Artificial Intelligence)이 이 뉴스레터에서 다루는 기술을 지칭하는 이름으로 적절한지에 대해서는 논란이 있습니다만, 이 합성어를 이루는 두 단어 중 앞 단어에는 좀 더 많은 관심이 필요합니다. AI를 누가 어디서 어떻게 만들었는지 묻는 질문에 우리가 보통 떠올리는 선진국 기업이나 그 대표, 또는 개발자의 모습은 일부만 편집된 장면일지 모릅니다.

잘 알려져 있다시피 AI 개발에는 좋은 데이터가 많이 필요합니다. 사실상 AI와 딥러닝이 동치된 2020년대 이후에는 더욱요. AI 학습에 필요한 데이터를 가공하는, 예를 들어 강아지 판별 AI를 위해 사진에 강아지가 있는지 확인해 정답 데이터를 만드는 일을 데이터 라벨링(data labeling) 또는 어노테이션(annotation)이라고 합니다. 정부 지원에 힘입어 ‘4차 산업혁명 시대의 새로운 직업’으로 부상하는 듯했지만, 아직 단순 반복에 저임금이라는 인식을 벗어나지는 못하고 있습니다.

뉴욕 매거진 표지. 위부터 영문으로 "뉴욕", "기술을 인간적으로 보이게 하기 위해 얼마나 많은 인간이 필요한가? 답은 수백만 명이다." "AI 공장 안에서"
출처 : New York Magazine. New York Magazine과 The Verge의 공동 탐사보도는 ‘AI 노동’의 현실적 단면을 보여줍니다.

이제 우리는 인터넷상의 방대한 데이터를 별도 라벨링 없이 학습해 글을 쓰고 그림을 그리는 초거대 AI를 두고 AGI(인공일반지능)를 논하는 시대에 살고 있습니다. 하지만 데이터 양과 모델 크기를 키울수록 성능이 좋아진다는 규모의 법칙은 우리가 경험하고 있는 혁신의 반쪽짜리 설명일 뿐입니다.

오픈AI가 챗GPT를 개발한 비법엔 규모를 키운 것 말고 하나가 더 있습니다. 바로 사람입니다. 지도미세조정(Supervised Fine-tuning), 인간 피드백 기반 강화학습(Reinforcement Learning by Human Feedback)이라는 복잡해 보이는 용어의 중심엔 사람이 있습니다. 그것도 정말 많은 사람이요.

챗GPT가 나쁜 말을 하지 않도록 오픈AI는 케냐 노동자들에게 유해 콘텐츠 분류 작업을 의뢰했습니다. 이들의 시급은 2달러가 되지 않습니다. 코딩 기능 구현을 위해 수많은 개발자 아르바이트를 구하려던 정황도 알려졌죠. AI가 더 많은 작업을 하고 또 더 사람다워지도록, AI 개발사는 이미 존재하는 데이터를 활용하기도 하지만 사람들을 직접 동원하기도 합니다. 그중 다수는 외주죠.

생각보다 훨씬 많은 사람들이 AI 학습에 동원된다는 사실 자체는 문제가 아닐 수 있습니다. 하지만 AI를 보다 제대로 이해하기 위해서는 AI가 누구에 의해 어디서 어떻게 만들어졌는지에 대해 흔히 떠올리는 단편적인 그림이 아닌 전체적인 지형을 알 필요가 있습니다.

🦜
덧붙이는 글
- 🤖 아침 : 실제로는 인간 노동이 계속 들어가고 있는 기술을, 마치 인간의 역할을 완전히 자동화한 것처럼 과대포장하는 일은 새로운 현상이 아니죠. 애스트라 테일러는 "자동화 흉내내기"라는 에세이에서 이 현상을 "포토메이션"(fauxtomation, 가짜를 뜻하는 faux와 자동화를 뜻하는 automation의 합성어)이라고 부릅니다. AI 기술을 아예 '가짜 자동화'라고 부르긴 어렵겠지만, 여기서 중요한 포인트는 '기술의 성능을 과대포장하고 노동을 비가시화함으로써 노동의 금전적/사회적 가치를 최소화하려는 자본주의적 착취'가 일어난다는 것입니다.

AI 규제의 국제적 협력은 가능할까?

by. 🎶소소

개인정보보호위원회와 디지털플랫폼정부위원회가 <AI와 데이터 프라이버시 국제 컨퍼런스>를 열었습니다. 유럽, 미국, 아시아의 개인정보 감독기관과 국제기구, 빅테크의 전문가들이 모여 AI 규제 방향과 국제적 협력 방안에 대해 논의했는데요. 누구도 뚜렷한 해결책을 갖고 있지는 못하지만, 많은 고민과 공감이 오갔습니다. 컨퍼런스의 주요 내용을 요약해 보았습니다.

컨퍼런스 연단에 연사들이 청중을 마주하고 앉아 있다. 화면에는 연사 목록이 보인다.
출처 : 직접 촬영

개인정보보호의 역사에서 교훈을 얻어야

유럽연합은 1995년부터 이미 데이터 보호 지침(Data Protection Directive)을 시행했습니다. 20년이 넘는 시간 동안 개인정보보호법을 발전시켜 온 것이죠. 유럽의 규제 담당자들은 GDPR(일반개인정보보호법) 등 이미 기존법에도 AI 규제를 위한 기반이 충분히 마련되었다고 평가합니다. 하지만 인터넷, 모바일 서비스를 적절한 시점에 규제하지 못했다는 점을 인정하고, 그래서 AI 규제에 더욱 적극적인 모습입니다. 두 번의 실패는 없다는 것이죠.

AI 규제의 파편화는 불가피

글로벌 기업의 규제 단일화 바람과 달리, 아누팜 챈더 교수는 AI 규제가 국가별로 다를 수밖에 없다고 이야기합니다. 중국은 사회주의적 가치를, 유럽은 광범위한 규제를, 미국은 분야별 보호를 강조하기 때문입니다. 국가별로 규제 내용이 달라지면 글로벌 기업의 부담이 커집니다. 기업 관계자들은 AI 영향력이 하나의 기업이나 국가에 국한되지 않으므로, 공통된 평가 체계라도 만들어야 한다고 입을 모았습니다.

그럼에도 불구하고 국제 협력

AI 규제가 국가마다 다를지라도, 핵심 가치를 공유해야 한다는 데 모두가 공감했습니다. 일본의 유지 아사이 위원은 G7 정상회의에서 작성한 생성 AI에 대한 공동성명을 예로 들었습니다. 고학수 개인정보위 위원장은 AI 관련 이슈와 대응 사례를 공유하는 국제적 논의를 지속할 것을 제안했습니다. 유럽연합 개인정보보호 감독기구(EDPS) 안나 부타 위원도 데이터 보호를 위해 만들어진 국제 협력기구들의 AI 협력을 촉구했습니다.

명확하고 구체적인 규제

기업들은 명확하고 일관된 규제 기준을 요구하고 있습니다. 하루가 다르게 변화하는 AI을 규제할 명확한 기준을 제시하기란 쉽지 않습니다. 현재 EU AI법의 근간은 위험 기반 규제(Risk based regulation)입니다. 하지만 제품이나 서비스의 특성에 따라 위험을 구분하는 것이 주관적이며 현실적이지 않다는 의견도 있습니다. 원칙 기반 규제(Principle based regulation)는 예측하지 못한 새로운 사례를 고려할 수 있는 여지를 남겨둔다는 점에서 대안으로 제시됩니다.

빅테크의 역할

빅테크의 안전한 AI를 위한 기술을 공유하는 것이 중요하다는 의견도 있었습니다. 볼보가 자동차 사고 방지를 위해 개발한 3점식 안전벨트의 특허를 포기한 사례가 대표적인데요. 물론 구글, 마이크로소프트 관계자는 이미 안전한 AI 기술을 사회와 공유하고 있다는 입장입니다. 그들이 확보한 안전장치가 충분한지는 의문이지만요.


#feedback

오늘 이야기 어떠셨나요?
여러분의 유머와 용기, 따뜻함이 담긴 생각을 자유롭게 남겨주세요.
남겨주신 의견은 추려내어 다음 AI 윤리 레터에서 함께 나눕니다.