퇴출된 샘 올트먼, 돌아올까?
윤리는 조직을 결속하거나 떠나는 이유가 됩니다
이탈(Exit)이 '이것 아니면 저것'의 확실한 구분만을 필요로 하는 것이라면, 항의(Voice)는 기본적으로 계속 새로운 방향으로 발전하는 예술이다.
—앨버트 O. 허시먼(강명구 역), <떠날 것인가, 남을 것인가>
쉽지 않은 조직생활:한 명의 사임과 한 명의 퇴출 그리고 복귀?
by. 🍊산디
조직 생활, 쉽지 않네요. 이번 레터에서는 조직에서 나왔거나 쫓겨난(하지만 돌아올지도 모르는…) 두 사람을 살펴보겠습니다.
첫 번째 인물은 에드 뉴턴렉스(Ed Newton-Rex)입니다. 며칠 전까지만 해도 그는 스태빌리티 AI의 임원으로 오디오 부문 부사장을 맡고 있었죠. 2012년에 음악 생성 AI 스타트업 Jukedeck을 창업하여 바이트댄스에 인수된 성공한 사장님입니다. 그 스스로가 작곡가이기도 합니다.
에드 뉴턴렉스는 최근 스태빌리티 AI를 떠난다는 입장을 X(그러니까, 트위터)에 알렸습니다. 저작권에 대한 스태빌리티 AI 내부의 주류적 입장에 동의하기 어렵다는 이유였죠. 스태빌리티 AI의 주류 의견이란, 온라인상에 공개된 작품을 생성 AI 학습 데이터로 활용하는 것은 공정이용에 해당하므로 저작권 침해가 아니라는 의견을 가리킵니다. 스태빌리티 AI 내부의 분위기는 미국 저작권청(US Copyright Office)에 제출한 공개 의견서에도 잘 드러나죠. 지난 레터에서 소개해드린 것처럼 스태빌리티 AI는 이미지 생성 AI 서비스인 스테이블 디퓨전의 저작권 침해 문제로 소송 중입니다.
뉴턴렉스가 애정을 쏟은 서비스는 지난 6월 공개된 음악 생성 AI, 스테이블 오디오입니다. 프롬프트 입력을 통해 음악을 생성하는 서비스죠. 스테이블 오디오는 음악 라이센스 관리 플랫폼인 Audio Sparx와의 파트너십을 통해 오디오 자료의 사용 권한을 확보했습니다. Audio Sparx는 학습 데이터 활용을 원하지 않으면 옵트아웃(opt-out)할 수 있도록 창작자의 동의 여부를 확인했다고 하네요.
창작자의 동의 없이 저작물을 무단으로 학습 데이터로 활용한 후 공정이용이라고 주장하는 상황이 그로서는 받아들이기 어려웠나 봅니다. 창작자들이 자신의 시장에서의 지위를 약화할 기술을 개발하는 데에 자기 작품이 활용되는 것을 속수무책으로 바라보아야 하는 상황은 잘못되었다는 거죠.
이제, 두 번째 인물을 살펴볼 차례입니다. 오픈 AI의 전 CEO가 되어버린 샘 올트먼의 이야기입니다. 올트먼은 오픈AI 이사회에 의해 퇴출당하였으나, 곧바로 복귀를 논의하고 있습니다. 또는 별도의 회사를 창업할 수도 있어 보여요. 샘 올트먼 퇴출 소식에 놀란 직원, 투자사의 항의에 이사회도 적잖이 당황한 모습입니다.
지난 11월 6일에 그가 맡았던 오픈AI 개발자 컨퍼런스를 떠올려 본다면, 이번 퇴출은 매우 갑작스러운 일입니다. 아직 관련 정보가 많이 공개되지는 않은 상태라 내막은 좀 기다려야 자세히 알 수 있을 듯 해요. 일단, 샘 올트먼을 퇴출한 오픈AI의 공식 입장은 올트먼이 이사회와의 의사소통에 있어 솔직하지 않았다는 겁니다.
앞으로 샘 올트먼이 보일 행보도 초미의 관심사이긴 합니다만, 언론이 짐작하는 이사회의 올트먼 퇴출 사유도 흥미롭습니다. 챗GPT의 안전성을 충분히 검토하지 않고 시장에 출시하는 등 그가 오픈AI의 사명을 잊고 이익만을 좇았다는 건데요. AI 안전 문제로 이전부터 올트먼과 의견 차이를 보여 온 오픈AI 공동 창업자이자 수석 과학자 일리야 수츠케버와의 충돌이 이번 퇴출의 이유로 거론되고 있습니다.
스태빌리티 AI의 저작권에 대한 입장을 수용할 수 없어 스스로 조직을 떠난 에드 뉴턴렉스. 안전성을 충분히 검토하지 않은 채 수익 좇기에 급급하다며 이사회에 의해 쫓겨난 샘 올트먼. 두 사람의 다른 듯 비슷한 행보의 배경에는 AI 윤리가 있습니다. 윤리는 분명 조직 구성원을 결속하거나 떠나는 이유가 됩니다.
🍊산디: 윤리는 종종 조직을 떠나는 주요한 이유가 됩니다. 구독자 여러분들 중에서도 조직 안팎에서 동료, 선후배들과 윤리 고민을 털어놓으시는 분들이 많을 거예요. 상대를 설득하거나 싸우기도 하고요. AI 윤리 레터에도 조직 안에서 고민이 많다며 마음을 털어놓는 분들이 계시니까요. 사회생활이라는 게 정답은 없지만, 사직서를 마음에 품고 하루를 열심히 살아내는 여러분에게 응원과 연대의 마음을 보냅니다. (출근 싫어…)
AI의 정의(definition)가 바뀌다?!
by. 🤔어쪈
AI, 인공지능은 이제 별다른 설명이 필요 없을 정도로 일상 용어로 자리 잡았습니다. 덕분에 ‘AI 윤리 레터’ 역시 어떤 주제를 다룰지 구구절절 적지 않아도 되었죠. 하지만 놀랍게도, 우리는 아직 AI를 시원히 정의내리지 못하고 있습니다.
물론 우리가 AI를 제대로 설명할 수 없다는 뜻은 아닙니다. ‘인지, 학습, 판단, 추론 등 사람이 지닌 능력을 컴퓨터로 구현하는 기술.’ 사전이나 책에서 곧잘 찾아볼 수 있는 문장으로도 AI가 무엇인지 충분히 이해할 수 있죠.
하지만 그 어느 때보다 AI가 사회에 깊숙이 들어온 오늘날엔 산업육성이나 규제와 같이 정책의 대상으로 AI를 다루기 위해서는 더욱 명확한 정의가 필요합니다. ‘AI란 무엇인가?’라는 질문에 대한 답보다 ‘무엇이 AI고, 무엇이 AI가 아닌가?’를 알려줄 기준이 요구되고 있죠.
이 와중에 최근 OECD가 AI의 정의를 개정한다고 발표했습니다.
“AI 시스템이란, 명시적이거나 암묵적 목표를 위해 입력으로부터 예측, 콘텐츠, 추천, 의사결정 등과 같이 물리적 또는 가상의 환경에 영향을 미칠 수 있는 출력을 생성하는 방법을 추론하는 기계 기반 시스템”
2019년 OECD가 처음 제시한 정의에서 크게 달라진 것은 아닙니다. 통상적인 AI에 대한 설명과 달리 ‘인간의 지적 능력’을 언급하고 있지 않다는 주요 특징을 그대로 유지하고 있죠. 대신 AI의 작동 방식과 그 과정을 서술하고 있습니다. 그래도 2가지 달라진 점을 꼽자면 다음과 같습니다.
- ‘사람에 의해 정의된 주어진 목표를 위해’ → ‘명시적이거나 암묵적 목표를 위해’
- ‘예측 및 추천, 의사결정을 만드는’ → ‘예측, 콘텐츠, 추천, 의사결정 등의 방법을 추론하는’
기존 정의는 사실상 모든 컴퓨팅 기술을 포괄하는 것 아니냐는 비판을 받곤 했습니다. 그 때문에 AI의 기능에서 원리로 초점을 살짝 바꾼 것으로 보입니다. 그 외로 최근 기술 발전 동향을 반영해 사람의 역할을 축소하고 생성 AI가 만들어내는 콘텐츠를 담은 모습이네요.
사실 OECD에서 AI를 어떻게 정의하든 우리가 AI 기술을 연구하거나 개발하고, 이용하는 데 직접적인 영향을 주진 않을 겁니다. OECD의 AI 정의는 주로 정책 부문에서 활약할 예정이에요. 앞으로 표준, 통상, 규제 등 국제적인 AI 거버넌스 논의가 본격적으로 이루어질 텐데, 그 출발점이 될 개념과 용어 정의에 있어 OECD가 적잖은 역할을 할 것으로 보입니다. 일찍이 EU에서도 AI 법 논의 과정에서 AI를 어떻게 정의할지 갑론을박을 벌이다 결국 OECD의 정의를 따르기로 했죠.
한편, 아직 계류 중인 우리나라 AI 관련 법안들은 대부분 AI를 정의할 때 사전에서 통상적인 정의를 차용하는 것으로 보입니다. 예컨대 ‘인간이 가진 지적 능력을 전자적 방법으로 구현한 것’이라고 적고 있죠. 글쎄요. 해당 표현을 법으로 받아들이기엔 우리가 아직 인간 지능에 대한 이해가 부족하진 않나 걱정이 됩니다. 구독자분들이라면 AI를 어떻게 정의하시겠어요?
#feedback
오늘 이야기 어떠셨나요?
여러분의 유머와 용기, 따뜻함이 담긴 생각을 자유롭게 남겨주세요.
남겨주신 의견은 추려내어 다음 AI 윤리 레터에서 함께 나눕니다.