온고지신 할리우드
할리우드 배우, 작가들이 파업에 나섰습니다
할리우드는 이미 새로운 영상 미디어, 즉 TV나 비디오, 케이블 TV와 무관할 수 없는 시청각 미디어 산업으로 변모하고 있다.
—야마다 카즈오, <영화가 시대를 말한다>, p.278.
1. 온고지신 할리우드
2. 소송에 조사에... 바쁘다 바빠 오픈AI
3. Me-We-It 책임감 있는 AI 공개 표준
4. AI 적정작명기술
5. 이 주의 논쟁 카드: 라마(LLaMA) 2
💌 AI 윤리 레터가 오래 유지될 수 있도록 응원하러 가기
온고지신 할리우드
by 🍊산디
이야기는 1960년부터 시작됩니다. 당시 최첨단 뉴미디어로 시대를 풍미했던 텔레비전은 빠른 속도로 가정에 침투합니다. 1950년에는 9%의 가정만 보유했던 텔레비전은 1960년에 이르자 90%의 가정에 보급되죠. 할리우드 영화 제작사들은 방송사에 작품을 방송할 수 있는 라이선스를 판매하기 시작합니다. 텔레비전이라는 새로운 유통망에서 발생한 수익은 그러나 배우, 작가에게 제대로 분배되지 않았고, 이에 할리우드 배우, 작가가 동시 파업에 돌입합니다. 이로써 재상영분배금에 대한 논의가 진전됩니다.
63년 뒤인 2023년, 변화한 콘텐츠 소비 환경으로 할리우드는 동일한 문제로 되돌아옵니다. 넷플릭스, 디즈니 등 OTT가 영화 및 방송 시장의 주요 행위자로 부상했고, 콘텐츠를 제작하는 작가와 배우들은 이들 기업에게 공정한 임금과 정산을 요구하고 있습니다. 지난 5월 2일부터 파업에 돌입한 미국작가조합(WGA)는 임금 인상을, 지난 13일부터 파업을 선언한 미국 배우방송인 노동조합(SAG-AFTRA)은 재상영분배금 인상과 투명한 정산을 요구하고 있습니다.
흥미롭게도 이번 파업은 임금과 재상영분배금 문제에서 그치지 않습니다. 63년 전에는 없었던 생성 AI가 등장했기 때문이죠. 영화, 방송 콘텐츠 제작사들이 콘텐츠 제작 과정에 생성 AI를 도입하려는 움직임을 보이자, 배우와 작가는 이에 반발하고 있습니다.
생성 AI에 대한 작가와 배우의 이해관계는 조금 다릅니다. 작가들의 주된 우려는 저작권 침해입니다. 작가의 허락이나 동의 없이 생성 AI 학습에 작품이 활용되거나, 작가가 작품 전체가 아니라 일부에만 관여하게 되는 등의 불공정 계약이 이루어질 수 있다는 것이죠. 이들은 작가의 역량을 평가절하하고 다만 비용을 줄이기 위해 생성 AI를 도입하려는 제작사의 논리에 반대합니다.
반면 배우들의 우려는 저작권보다는 퍼블리시티권 침해에 가깝습니다. 배우 본인들의 허락 없이 자신의 목소리와 얼굴, 표정, 움직임이 무단으로 생성되어 콘텐츠 제작에 활용되는 것에 대한 반발이지요. SAG-AFTRA는 영화·TV제작자연맹(AMPTP)이 엑스트라 배우의 이미지, 움직임 등을 영원히 소유하며, 배우의 동의 없이 언제든 그 데이터를 사용할 수 있도록 하는 ”획기적인” 계약을 제안해 왔다고 비판합니다.
할리우드가 생성 AI를 받아들이는 방식은 한국을 비롯한 전 세계 영화, 방송 콘텐츠 제작 시장에 영향을 미칠 것입니다. 넷플릭스 등 OTT 사업자는 세계 각국에서 콘텐츠를 생산하고 있죠. 이번 파업이 어떤 결과로 이어지든, 저작권과 퍼블리시티권에 있어 상당히 중요한 법적 의미를 갖게 될 것이고, 효과 역시 할리우드에 국한되지 않을 겁니다. AI와 영화, 방송 콘텐츠 시장은 어떤 결론에 도달하게 될까요.
- (🍊 산디) 많은 인터넷 정책이 시장 행위자들의 합의로 정리되곤 합니다. 이번 할리우드 파업 역시 시장 행위자들 간 교섭으로 비치지만, 어떤 결론에 도달하든 그 여파는 한국을 비롯한 전 세계에 미칠 거예요. 그 결정 과정에 한국의 이해관계자들이 쉽게 참여할 수는 없지만, 관심 갖고 지켜보면 좋을 것 같아요.
소송에 조사에... 바쁘다 바빠 오픈AI
by 🤔어쪈
오픈AI CEO 샘 올트먼은 지난 미국 상원 청문회 증인으로 참석한 이후 줄곧 AI 규제 필요성을 역설해 왔죠. (물론 EU의 AI 법에 대해서만큼은 부정적인 의견을 피력하거나 비밀 로비를 해왔지만요!) 그럼에도 불구하고 그가 지난주 미국 FTC(연방거래위원회)로부터 받아 든 조사요구서는 결코 바라던 게 아니었을 겁니다.
워싱턴포스트가 입수한 조사요구서는 20페이지로 상당히 길 뿐만 아니라 광범위하고 자세한 정보와 문서 수십 가지를 제출하도록 하고 있습니다. EU AI 법보다 요구 수준이 훨씬 더 높아 보이는데요.
FTC는 오픈AI의 챗GPT를 비롯한 거대언어모델(LLM) 기반 서비스가 데이터 및 프라이버시 보호 의무를 어기거나, 명예훼손과 같은 소비자 피해를 발생시켰는지 확인하는 것을 조사 목적으로 제시했습니다. FTC가 요구한 자료 리스트의 일부만 살펴보겠습니다.
- 회사 정보: 캡 테이블(투자 기록 및 지분관계 변화표), 수익 모델 등
- 정보 공개: 서비스 신뢰성 및 데이터 활용 관련 소비자 대상 고지사항 등
- 모델 개발 및 학습: 활용 데이터 정보(수집 방법, 출처, 종류, 처리 방법, 언어별 비중 등), 모델 (재)학습 및 수정 절차 등
- 리스크 평가 및 대응: 모델 배포 전 리스크 관리 정책 및 절차 (특히, 특정 인물 정보 생성 관련) 등
- 프라이버시 및 프롬프트 인젝션* 리스크: 지난 3월 일어난 챗GPT 유료 사용자 개인정보 유출 사건 정보 등
- 기타: 수집하는 개인정보 및 처리 방법 등
*프롬프트 인젝션(prompt injection)이란, 개발자의 의도에 벗어나는 결과를 얻어낼 목적으로 언어모델 기반 생성 AI에 특정 프롬프트를 주입하는 것을 의미해요. 탈옥(jailbreaking)이라는 표현으로도 불립니다.
어떤가요? 물론 FTC가 해당 내용을 공개하지는 않겠지만, 오픈AI의 답변에 따라 후폭풍이 꽤 클 수 있는 질문들로 보이는데요.
사실 오픈AI는 조사 내용과 관련하여 이미 여러 소송을 진행 중입니다. 대표적으로 오픈소스 커뮤니티인 깃허브에서 코드를 무단으로 수집 및 활용해 개발자 그룹과 법정에서 다투는 중이고, 챗GPT가 한 팟캐스트 진행자를 두고 사기 및 횡령 혐의가 있다는 허위 정보를 출력해 고소당한 바 있습니다. 지난 3월에는 미국 소재의 비영리단체 AI·디지털정책센터(CAIDP)가 FTC에 직접 오픈AI를 조사해달라고 요청하기도 했어요. FTC 역시 올해 초부터 현행법으로도 AI를 규제할 수 있다고 수차례 경고해왔으니, 오픈AI가 레이더망에 걸린 건 당연한 수순으로 보이기도 합니다.
하지만 FTC의 행보가 달갑지 않은 사람들도 있습니다. 2021년 FTC 수장에 임명된 리나 칸은 그의 별명 ‘빅테크 저격수’답게 마이크로소프트, 아마존, 구글, 메타 등의 빅테크를 상대로 계속해서 반독점 소송을 제기하고 있습니다. 하지만 이렇다 할 실적이 없어 FTC가 과도한 소송 제기로 기업 활동을 방해하고 세금만 낭비한다는 비판에 직면하고 있는데요. 오픈AI에 대한 조사 역시 관할권에 있는 활동인지 의문이 제기되고 있습니다. 예컨대 챗GPT의 발화에 허위 정보가 포함되어 있는지를 두고 조사하는 건 ‘표현의 자유’를 규제하는 것이라는 지적이 있죠.
샘 올트먼은 FTC의 문서가 언론을 통해 공개된 것에 불만을 표하면서도 오픈AI의 기술이 안전하고 소비자 지향적이며 합법적임을 자신한다며 조사에 성실히 응하겠다고 했습니다.
이러한 비판과 별개로 이번 조사는 챗GPT 이후 이어지고 있는 거대언어모델을 비롯한 생성 AI 열풍에 제동을 걸고 현행법 위반 여부를 따져볼 기회가 될 것으로 보입니다. 조사 결과에 따라 생성 AI 서비스 개발 관행이 크게 바뀔 수 있을 테니까요. AI 윤리 레터도 관련 소식 지켜보면서 후속 내용을 전달해 드리도록 하겠습니다.
Me-We-It 책임감 있는 AI 공개 표준
by 🌏다솔
WEDF(World Ethical Data Foundation)에서 <책임감 있는 AI 공개 표준>을 발표했습니다. WEDF는 데이터와 정보, 미래 문제를 탐구하는 비영리 단체입니다.
책임감 있는 AI 공개 표준이란?
책임감 있는 AI 개발을 위해 제작 과정을 투명하게 공개하고 명확히 하는 AI 제작 표준입니다. AI의 가치를 이해하면서 동시에 피해를 경험하기도 한 개발자, 사용자, 이해관계자들로 구성된 60개 이상의 국가에서 참여한 500여 명의 리뷰어와 실무자가 참여했습니다.
책임감 있는 AI 공개 표준의 목적은?
WEDF는 오늘날 우리는 정직한 토론, 의사결정을 돕는 명확하고 책임감 있는 소통보다는 불안을 부추기고, AI에 대한 이해를 오히려 방해하는 종말론적 서사를 만들어 내고 있다고 분석합니다. 이들은 다음의 목적 달성을 위해 책임감 있는 AI 공개 표준을 제안합니다.
- 누구나 이해할 수 있는 윤리적인 AI 개발 방법 소개
- 윤리적인 AI 개발과 관련하여 누구나 자유롭게 질문할 수 있는 공간 마련
- 누구나 AI 학습 방식과 생성된 결과물을 모니터링하는 프레임워크에 참여
책임감 있는 AI 공개 표준이 필요한 이유는?
AI는 효율성을 높이고, 의사 결정을 돕는 등의 이점도 있지만, 특정 집단에 대한 차별과 편견, 데이터 프라이버시, 보안, 지적 재산권 침해 등의 문제를 증폭합니다. 신중한 고려 없이 AI를 개발하면 다만 문제를 악화할 뿐이죠.
공개 표준은 여러분의 질문과 피드백을 수집하여 AI 개발 과정의 개선을 이루어 나가는 것을 목표로 합니다. 구독자 여러분도 깃헙(GitHub)*을 활용하여 공개 표준의 수정을 요청할 수 있습니다. <책임감 있는 AI 공개 표준> 전문을 뉴스레터에 다 싣지는 못하지만, 조금이라도 더 많은 분들이 접하셨으면 하는 마음에 미디엄에 번역해 두었습니다. AI 개발 실무에 적용할 수 있는 프레임워크가 마련될 수 있도록 관심 가져주세요.
*깃헙은 소프트웨어 개발 프로젝트를 위한 소스코드 관리 서비스입니다.
AI 적정작명기술
by 🤖아침
너도나도 'AI의 민주화'를 외치던 시절이 있었습니다. 그러지 않으면 인공지능 회사를 차릴 수 없는 게 아닐까 싶을 정도로요. 기술의 민주화, 좋은 말이죠. 하지만 그 '민주화'는 거의 언제나 기업이 만들고 통제하는 제품에 대한 접근의 민주화(즉 대중상품화)를 뜻했고, 누구를 위해 어떤 기술을 만드는지 결정하는 데 더 많은 사람이 참여한다는 뜻의 민주주의와는 대개 무관했습니다.
전유진은 <AI를 위한 새로운 이름 짓기>에서 이처럼 기술 업계가 자신들의 이익에 맞는 방식으로 언어를 차용하는 행태를 비판적으로 바라봅니다. 예를 들어 회사 이름이 '열린 인공지능'인 OpenAI의 제품은 매우 닫혀 있습니다. 이 뉴스레터에 '공개', '오픈'이라는 표현이 몇 번 나오는지만 봐도 알 수 있듯 AI 기술과 'open'은 밀접한 관계입니다. 그런데 기업 브랜딩에 이 표현을 남용하면서, 오픈소스 진영 등 공동체에서 그동안 쌓아온 의미에 혼선이 생기는 것이죠.
윗글은 이어 지적합니다. 기술 권력이 현대사회에서 점하는 우위는 언어 권력으로 이전된다고요. 기술 업계 유행어는 쉽게 신뢰를 얻고, 이는 다시 업계 이익에 복무합니다. 무언가에 이름을 붙이고, 특정 용어를 어떤 의미로 사용하는지는 존재론적이며 인식론적인 권력의 문제입니다. 이 지점에서 전유진은 비판적 개입을 요청합니다. 기술 자본주의에 복무하는 언어 사용에 대항하여 '적합'한 어휘를 찾는, "AI를 위한 새로운 이름 짓기"가 그것입니다. AGI, 초지능 등의 표현에 피로감을 느끼고, AI 하이프 뉴스가 줄어들어야 한다고 보는 입장에서 반가운 제안입니다.
말하자면 작명의 적정기술이겠네요. 흥미롭게도 적정기술의 '적정(appropriate)'과, 'open' 같은 어휘를 기업이 전용한다고 할 때의 '전용(appropriate)'은 영어로 같은 단어입니다. Appropriate의 어원인 라틴어 proprius는 '자신의, 고유한'을 뜻하는데요. 적정한(자신에게 고유한) 무엇을 찾는 일과, (남의 것인) 무언가를 가져와 자신의 것으로 만드는 일은 같은 선상에 있다고도 볼 수 있을까요?
우리는 그런 사례를 잘 알고 있습니다. 저자가 언급하듯 ‘퀴어(queer)’는 성소수자를 폄하하고 타자화하기 위해 사용되던 언어가 당사자들에 의해 전유되어 이제는 주체적인 의미를 획득한 경우죠. 한국 성소수자 커뮤니티가 사용하는 ‘이반’이라는 표현도 비슷한 맥락에서 생각할 수 있습니다. ‘이반’은 ‘일반’과 대비되는 용어라는 점에서, 전유진의 글에서 ‘일반’이라는 표현이 (특히 한국어에서 정상성을 함의하는) 규범적인 힘을 발휘하여, ‘일반적이지 않은’ 것을 호명하는 동시에 배제하는 효과를 지적하는 대목이 생각납니다.
인공일반지능(AGI)은 ‘일반’을 천명하면서도 백인, 남성, 이성애중심주의, 실리콘밸리 중심으로 펼쳐지는 기술유토피아적 상상력을 전제합니다. AI의 일반화하려는 욕망과 그런데도 태생적으로 협소한 한계는, 보편을 추구하지만 서구 중심성의 한계를 갖는 근대화 기획을 떠올리게 합니다.
그렇다면 인공이반지능(AQI, Artificial Queer Intelligence)을 상상해 볼 수 있을까요? 기술 자본주의의 이익보다 사람의 경험을 중심에 두고, 보편성을 통한 배제가 아니라 다양성을 통한 포용을 추구하는 기술의 이름은, 무엇이 되어야 할까요.
하지만 라마, 구체적으로는 라마2가 오픈소스인가 하는 물음이 제기되고 있습니다.
이 주의 논쟁 카드: 라마(LLaMA) 2
by 🎶소소
메타는 라마2(LLaMA2)를 출시하며 상업적으로도 사용 가능한 오픈소스라고 광고. 그러나 오픈소스 커뮤니티는 라마2가 진정한 ‘오픈소스’는 아니라는 입장.
오픈소스란?
- 누구나 무료로, 자유롭게 사용할 수 있는 코드와 데이터.
- 그러나 단순히 소스 코드를 오픈하는 것만 포함하는 것은 아님. 오픈소스는 누구나 기존 코드와 데이터, 연구 자료를 다운로드하여 이를 학습, 연구, 적용하며 원하는 대로 변형할 수 있어야 함.
라마2는 오픈소스인가?: 논쟁 포인트
- 출시일 기준 MAU(월간활성사용자)가 7억 명 이상인 서비스의 사업자는 상업적 목적으로 모델을 사용할 수 없다고 제한. 이는 특정 기업의 사용을 제한하는 것으로, 모든 사람에게 코드와 데이터를 공개하는 오픈소스의 정신과 다름.
- 라마2의 생성 결과물로 다른 언어모델을 교육할 수 없다고 제한. 이는 사용 분야 제한을 허용하지 않는 오픈소스의 정신에 어긋남.
- 모델 훈련 데이터를 공개하지 않은 채 ‘공개적으로 활용 가능한 온라인 데이터’라고만 밝힘. 오픈소스라면 데이터까지 공개되어야 하나, 학습 데이터의 저작권 침해 이슈를 의식한 것으로 보임.
오픈소스 대규모 언어 모델의 장단점
- 장점: 코드와 데이터셋 구성이 까다로운 대규모언어모델 구축에 필요한 시간과 자원을 줄일 수 있음. 전 세계 개발진에 의해 혁신적인 서비스가 등장할 수 있게 될 뿐만 아니라 다양성을 높여 보다 건강한 AI 생태계를 만들 것으로 기대.
- 단점: 누구나 어떤 목적으로든 활용할 수 있다는 장점은 그러나 대규모언어모델이 스팸이나 금융사기 등에 사용될 수 있다는 우려로 이어짐. 실제로 라마는 성인용 챗봇의 기반이 된 사례도 존재.
대규모 언어 모델의 ‘오픈소스’를 재정의해야 하는가?
- 라마2가 전통적인 의미의 오픈소스라고 할 수 없다는 점과 별개로, 앞으로는 ‘오픈소스’ 개념 자체가 새롭게 정의되어야 한다는 의견도 있음. 대규모언어모델 업계에서 오픈소스는 완전한 오픈에서부터 가중치 등 일부만 오픈하는 것까지 다양한 수준의 개방성을 나타낸다는 것.
- 그러나 오픈소스 정신이 지금까지 AI 분야 혁신의 기반이 된 것처럼, 앞으로의 발전을 위해서도 더 많은 작업이 공개적으로 이루어지는 것이 더 중요.