AI가 퀴어할 수 있을까?

자긍심 넘치는 AI를 만드는 사람들이 있습니다

AI가 퀴어할 수 있을까?
이제는 어떤 직업이든 개인이 아닌 기계에 노하우가 축적된다.
—필 존스, <노동자 없는 노동>, p.114.
목차
1. AI가 퀴어할 수 있을까?
2. 뉴욕시, 세계 최초 채용 AI 규제
3. 생성 AI와 저작권, 정산은 본질이 아니다
4. AI 기업의 AI 윤리: 창과 방패를 모두 팝니다
5. 이 주의 노동 카드: 생성 AI 시대 바람직한 노사관계

AI가 퀴어할 수 있을까?

by 🤖아침

올해 FAccT 컨퍼런스에서 발표된 <Queer in AI: 공동체가 이끄는 참여 AI>를 소개합니다. AI/ML 분야 퀴어 이슈에 대한 인식을 넓히기 위해 노력하는 풀뿌리조직 퀴어인에이아이(Queer in AI, QiAI) 구성원들이 공저한 이 논문은, 보다 포용적이고 공평한 인공지능을 만들기 위해 참여의 필요성을 역설합니다.

Queer in AI?

차별에 대한 별다른 규제 없이 AI 시스템이 확산되며 소수자 집단이 겪는 피해 또한 늘고 있습니다. 딥러닝으로 성적 지향을 예측한다는 유사과학부터, 퀴어 관련 용어는 검열하지만 퀴어를 향한 괴롭힘은 충분히 막아내지 못하는 소셜미디어의 콘텐츠 모더레이션 알고리즘까지 말이에요. 또한 AI 분야에 진출하는 퀴어 인구의 비율도 일반 인구에 비해 훨씬 적습니다.

QiAI는 이러한 배제를 타개하고자 합니다. 고정된 지도부가 없는 탈중앙화 구조, 다양한 맥락 속 구성원의 경험을 중심에 두는 교차성, 그리고 사람들에 의해/사람들을 위해 공동체 주도로 이루어지는 지식 생산 및 실천이라는 세 가지 원칙에 따라 운영됩니다.

QUEER in AI 로고. 뇌 모양 아이콘의 왼쪽은 트랜스젠더 깃발 색으로, 오른쪽은 무지개 색으로 칠해져 있다. 왼쪽 부분에는 회로 모양 그래픽이 추가로 그려져 있다.
출처: Queer in AI 웹사이트

Queer in AI는 어떤 활동을 해왔나?

  • 대학원 진학 응시 비용 지원: 북미 대학 위주의 AI 분야 대학원에 응시하는 데 드는 비용은 (영어 시험 비용을 빼도) 1천불을 쉽게 넘깁니다. 대출, 주거 불안정, 의료 비용 등의 추가 부담이 큰 퀴어 학자들에게는 그 장벽이 더 높죠. QiAI는 퀴어가 경험하는 불리한 장벽을 허물고자 2020년부터 현재까지, 160명에게 총 12만불 이상을 지원했습니다. 자체설문에 따르면 지원금을 받은 구성원들은 원서를 평균 6곳가량 추가로 제출할 수 있었다고 해요.
  • 워크숍 및 교류: 소수자 집단에게 비우호적일 수 있는 학술행사에서, 퀴어 참여자를 환대하는 행사를 조직하고 경비를 지원하는 노력을 해왔습니다.
  • 퀴어 포용성 개선 운동: 퀴어에게 안전하고 퀴어의 대표성과 참여를 증진하는 가이드라인을 작성하고 각 학술행사에 가이드라인 도입을 촉구해왔습니다.
  • 트랜스젠더 포용적 출판 추구: 성확정 등 당사자를 이제는 사용하지 않는 예전 이름으로 부르는 데드네이밍을 방지하기 위한 정책 및 디지털 도구 등을 만드는 데 기여했습니다.

이러한 노력에도, 여전히 해결해야 할 문제는 있습니다.

  • 핵심 스태프에 과하게 의존하는 위계구조
  • 서구 위주, 자원봉사 중심으로 활동이 전개됨에 따른 참여 장벽
  • 기업 스폰서십에 의존하는 자금 운용 문제

저자들은 소수자 집단에 권력을 부여하고, 그들의 경험을 중심에 두는 참여가 더 많아져야 한다고 말합니다. AI 윤리 연구자들이 참여에 기반한, 공동체 주도 조직에 참여하고 이들 조직의 활동을 연구함으로써, 학문적 탐구와 윤리적 실천을 결합해야 한다고요.


뉴욕시, 세계 최초 채용 AI 규제

by 🤔어쪈

올해 들어 모두의 이목이 챗GPT를 비롯한 생성 AI에 집중되고 있지만, AI 기술은 한참 전부터 여러 분야에 적용되어 왔다는 사실을 잊어선 안 됩니다. 이제는 판별 AI(Discriminative AI)라는 새로운 이름으로 불리는, 생성 AI 이전의 AI 기술이 가장 많이 활용되고 있는 영역이 있습니다. 바로 채용/구인구직 시장입니다.

지난 7월 5일, 뉴욕시는 세계 최초로 채용 과정 내 AI 기술의 활용을 규제하는 법안을 시행했습니다. 정확히는 뉴욕시 소재 구인 업체가 ‘자동화된 채용 결정 도구(automated employment decision tool)’를 사용하려면 매년 독립적인 제3자로부터 편향 감사(bias audit)를 받도록 규정했습니다. 채용 AI가 특정 성별이나 인종을 차별하지는 않는지 주기적으로 확인하라는 거죠. 또한 채용 과정에 AI를 활용한다는 사실을 구직자에게 안내하고, 감사 결과 역시 공개해야 합니다.

학습 데이터가 갖고 있는 편향을 AI 모델이 재생산하는 문제는 AI 윤리 논의에서 자주 등장하는 주제입니다. AI 윤리를 처음 접할 때 곧잘 언급되는 아마존의 여성 차별 AI 채용 시스템이 대표적인 사례죠. 각종 편견에서 자유롭지 못한 사람 대신 AI가 객관적인 의사결정을 해주길 기대했지만, 현실은 반대였습니다. 이제는 사람이 AI를 감시해야 한다는 법이 논의되고 있죠.

지난 🦜AI 윤리 레터에서 소개한 EU AI법도 채용 AI를 고위험으로 분류하고 있고, 캘리포니아, 뉴저지 등 미국의 여러 주에서도 유사한 법안 도입을 준비 중입니다. 덕분에 뉴욕시가 이 법을 어떻게 집행할지에 관심이 쏠리고 있죠. 법이 실질적인 효과를 거둘 수 있을지에 대한 의심의 눈초리 역시 받고 있습니다.

채용 AI 규제를 위해서는 몇 가지 난관을 극복해야 합니다. 우선 규제 대상인 채용 AI의 정의가 명확하지 않습니다. 채용 또는 승진 절차상의 의사 결정을 대체하거나 상당히 보조하는 경우(substantially assists or replaces)에 한한다고 적고 있는데, 어느 정도 관여하는 것을 ‘상당하다’고 할지 모호합니다. 또한 법이 규정하는 편향 감사가 성별과 인종 외 기준을 제시하고 있지 않습니다. 나이나 장애 여부 등은 고려 대상에서 제외되었다는 비판이 가능합니다.

출처: 서울시에서 지원하는 AI 역량검사 체험 프로그램 웹사이트 갈무리. 실제 운영은 해당 솔루션 개발 업체가 담당하고 있다. https://seoulyouth.co.kr/

한국 역시 수년 전부터 적지 않은 회사가 ‘AI 면접’ 등 채용 AI를 도입해 왔습니다. 일부 공공기관은 정보인권단체에서 제기한 정보공개청구 소송을 통해 채용 절차를 AI 면접 솔루션 개발 업체에 사실상 전면 위탁한 사실까지 드러났죠. 채용 AI를 도입한 곳도, 개발한 곳도 공정성 확보를 위함이었다고 말합니다. 하지만 뉴욕시의 법에서 규정한 편향 감사와 같은 절차가 없다면 이는 AI에 대한 근거 없는 믿음일 뿐입니다.

🦜
덧붙이는 글
- 🤔 어쪈: 사실 채용 AI의 허점은 편향만이 아닙니다. 채용 AI가 정말 훌륭한 지원자를 선발하는지 자체부터 분명하지 않거든요. 편향 감사를 도맡고 있는 컨설팅 업체 소속의 기사 인터뷰이가 말하듯, 일부 채용 AI는 그저 수많은 지원자를 빠르게 걸러내기 위해 도입될 뿐 정말 회사가 요구하는 인재를 골라내는지에 대한 평가는 전혀 이루어지고 있지 않습니다.

생성 AI와 저작권, 정산은 본질이 아니다

by 🍊산디

저작권 분야는 생성 AI로 인한 갈등의 주전장이라 불립니다. 예술가들게티이미지는 각각 스테이블디퓨전을 상대로 (집단)소송을 제기하기도 했죠.

저작권 전장의 논의는 대체로 (1) 학습 데이터셋 제작, (2) 학습 과정, (3) 결과물 생성의 세 단계(학자에 따라 2단계 또는 4단계…)에서 저작권 침해가 발생했는지를 쟁점으로 합니다. 현행법을 기준으로 생성 AI의 저작권 침해 여부를 판단하는 형태입니다.

🦜AI 윤리 레터에서는 조금 다른 이야기를 하려 합니다. 법의 세부 내용보다 중요한 건 법이 무엇을 위하는지 기억하는 것이니까요.

창작물 복제에 대해 창작자가 갖는 독점적 권리, 저작권은 문화와 관련 산업의 발전을 위해 도입되었습니다. 독점을 허용하면서까지 (경쟁법이 독점을 어떻게 대하는지 떠올려 보세요) 저작권을 보호하는 것은, 저작권자의 재산권과 인격권이 보호되었을 때 사회 전체의 문화가 풍요로워진다 믿기 때문입니다.

“생성 AI가 문화 발전에 기여하기 위해서는 무엇이 필요한가”. 이 질문이 생성 AI의 저작권 문제 해결을 위해 찾아야 하는 열쇠입니다.

시간을 되감아봅시다. 19세기 사진기의 등장이 새로운 회화 양식의 등장으로 이어졌고, 사진은 사진만의 예술 영역을 형성했습니다. 웹툰의 등장으로 만화 시장이 사라질거라 우려했지만 웹툰은 만화를 즐기는 새로운 문화가 되었습니다. 창작자들이 생성 AI를 활용해 만들어낼 작품들도 전에 없던 새로운 경험을 선사할지 모릅니다. 이미 창작자들은 생성 AI를 적극적으로 받아들이고 있고, 예술은 생성 AI와 상호작용 하고 있죠.

출처: 네이버의 채색 소프트웨어 웹툰 AI 페인터 서비스 화면 갈무리

생성 AI가 창작자를 위한 툴이라면 왜 문제가 발생하는 걸까요. 마치 생성 AI가 새롭게 저작권 문제를 야기한 듯하지만, 실상은 오래 묵은 갈등이 생성 AI를 계기로 수면 위로 올라온 것에 불과합니다. AI 웹툰 보이콧이 일었던 웹툰 시장을 봅시다. ‘매절 계약’으로 제작사에 공동저작권을 넘기는 계약 방식과 불투명한 정산 등 웹툰 시장의 ‘관행’은 저작권을 둘러싼 논란의 연속이었습니다. 혁신을 가로막은 건 부채가 되어버린 불신이지 기술이 아닙니다.

그러니 우리에게는 이런 질문들이 필요합니다. 생성 AI는 창작을 촉진할까요? 얼마나 다양한 삶을 담아낼까요? 창작자가 생성 AI 학습에 창작물을 제공하면서 동시에 생성 AI를 활용한 창작도 활발히 이루어지기 위해서는 어떤 정책이 필요할까요? 무엇보다, 저작권을 둘러싼 오랜 불신을 해결하기 위해 무엇을 해야할까요?

🦜
덧붙이는 글
- 🍊 산디: 정산이 본질이 아니라고 외쳤습니다만, 논의는 결국 정산 이슈로 돌아옵니다. 생성 AI의 저작권 침해에 대한 유력한 대안으로 라이선스 제도가 제시되는데요. 이 경우 라이선스란 창작물을 생성AI의 학습-생산 과정에 활용할 수 있는 조건, 즉 금전적 정산 방식을 상호 확약하는 계약을 뜻합니다. 하지만 라이선스 제도가 정착되면 경제력이 있는 거대 자본만 생성 AI를 개발하는, 더 큰 독점으로 이어질 것이라는 우려의 목소리도 있어요. 우리에게는 어떤 균형 감각이 필요할까요.

AI 기업의 AI 윤리: 창과 방패를 모두 팝니다

by 🎶소소

오픈AI가 ‘슈퍼 얼라인먼트 팀’을 출범시켰습니다. 얼라인먼트(Alignment)는 AI를 인간이 의도한 목표와 가치에 맞게 동작하도록 ‘정렬’시킨다는 의미입니다. 오픈AI는 10년 안에 슈퍼지능의 힘이 인류의 멸종 시킬 만큼 막대해질 수 있으며, 이러한 위험을 방지하기 위해 향후 4년간 컴퓨팅 자원의 20%를 투입하겠다고 발표했습니다.

많은 AI 기업은 일찌감치 AI 윤리원칙을 선언하고, AI 윤리팀을 운영하고 있습니다. 일반적으로 윤리팀은 기업의 AI 연구를 감시하고, 연구자들이 스스로 연구의 한계와 위험을 인지할 수 있도록 지원합니다. AI의 위험을 측정하고 경감할 수 있는 도구를 만들어 배포하기도 합니다. 기업의 자발적인 노력은 AI가 이용자에게 미칠 수 있는 부정적인 영향을 방지하는 데 중요한 역할을 합니다.

하지만 AI 기업이 AI 윤리를 논하는 것은 ‘윤리 세탁’으로 비판받기도 합니다. 실제로 기업 내에서 책임 있는 AI 연구개발을 장려하는 데는 어려움이 많습니다. 한 연구에서는 기업의 AI 윤리 담당자가 겪는 주요 장벽으로 제품 출시 우선 문화, 리더의 관심 부족, 문제 해결을 위한 권한과 자원 부족 등을 꼽았습니다. 조직이 해결하지 못한 윤리 문제는 때때로 개인에게 전가되어, 윤리 담당자의 번아웃으로 이어지기도 합니다. AI 윤리팀을 성공적으로 운영하기 위해서는 조직적 차원의 노력이 필요합니다.

오픈AI는 ‘윤리’ 문제에 큰 권한과 자원을 의도적으로 배분하며, 이를 대외적으로 알리고 있습니다. 기업이 스스로 AI 윤리에 자원을 투입하는 것은 매우 긍정적입니다. 장려할 만한 일이죠. 그러나 오픈AI가 존재하지 않는 위험을 강조함으로써 기술이 현재 야기하고 있는 위험을 저평가하고, 한정된 자원을 소진시킨다는 비판적 시선도 있습니다. AI 기업들이 기술이 윤리 문제 해결에 얼마나 적극적으로 대응하는지, 다만 관심을 분산시키는 것은 아닌지 지켜보아야겠습니다.

🦜
덧붙이는 글
- 🤔 어쪈: 얼라인먼트라는 표현 자체는 AI를 무엇에 ‘정렬’시킬 것인지를 내포하고 있지 않습니다. 때문에 누가 어떤 목표와 가치를 제시할 것인지 역시 관건일 것 같아요. 얼라인먼트를 연구하는 AI를 개발해서 슈퍼지능/초지능의 얼라인먼트를 맡긴다는 오픈AI의 접근 방식부터 어딘가 의뭉스럽지만, 무엇을 기준으로 얼라인먼트를 하려는지에 대해서도 지켜봐야겠어요.

정보화 시대의 프라이버시, 표현의 자유, 민주주의를 보호하기 위해 만들어진 공익 연구 센터인 EPIC에서 지난 5월 <생성 AI의 영향과 미래 Generative AI’s Impact & Parths Forward> 백서를 공개했습니다. 백서는 생성 AI 사용이 야기하는 문제들을 개괄하고 그 피해를 완화할 수 있는 방법을 제시했어요.
이번 레터는 <생성 AI의 영향과 미래> 백서의 일자리 관련 내용을 소개합니다.

이 주의 노동 카드: 생성 AI 시대 바람직한 노사관계

by. 🌏다솔

생성 AI가 일상적인 작업을 대체할 경우 고용 감소로 이어질 수 있음. 그러나 생성 AI가 고숙련 일자리에서 새로운 기회를 창출하고, 반복 작업을 자동화하는 등 생산성을 높여 창의적인 작업에 더 많은 시간을 쏟을 수 있을 거라는 주장도 있음. 하지만 비용 절감, 수익 극대화, 주주 가치 증대를 추구하는 고용주는 일자리를 대체하여 인건비를 줄이는 AI 기술을 우선시할 가능성이 높음.

생성 AI가 스며든 우리의 일자리, 바람직한 노사 관계는 무엇일까?

출처 : EPIC의 <생성 AI의 영향과 미래 Generative AI’s Impact & Parths Forward> 백서 표지

모두에게 권력과 이익을!

  • 기업은 생성 AI를 인건비 절감을 위한 수단 또는 노동자의 기여를 평가 절하하는 수단으로 사용해서는 안 됨. 생성 AI로 인해 노동자의 생산성이 향상되었다면, 이에 맞춰 임금은 인상되어야 함.
  • 생성 AI를 개발하는 기술 기업은 업무를 수행하는 직원들의 목소리를 반영하고 의사 결정권을 부여해야 함. 특히 개발도상국에 있는 노동자들이 소외되지 않도록 해야 함.
  • 기술 공급업체와 서비스 제공업체는 AI로 일자리를 대체하는 것이 아니라, 노동자의 생산성을 높일 수 있는 기술과 서비스에 투자해야 함.
  • 기업이 생성 AI를 통해 얻은 경제적 이익이 주주 등 일부의 사람에게만 집중되지 않도록 하며, 노동자와 공유해야 함.

사람에 투자하라

  • 고용주는 AI 도입으로 필요한 새로운 기술을 노동자가 학습할 수 있도록 투자해야 함.
  • 고용주는 프롬프트 엔지니어, 기계 관리자, AI 감사관 등과 같은 AI 도입으로 창출된 새로운 일자리로 이동할 수 있도록 교육 훈련에 투자해야 함.
  • 기업은 인건비 절감보다는 일자리를 유지하는 데에 힘써야 함.
  • 중앙 및 지방 정부, 기업은 생성 AI의 도입으로 실직한 사람들이 일자리를 찾을 수 있도록 적극 지원해야 함.
🦜
덧붙이는 글
- 🎶 소소: OECD 조사 결과 절반 이상의 노동자들이 AI 도입에 관한 고용주의 결정을 신뢰했다고 합니다. 하지만 회사가 도입한 AI가 개인의 데이터를 수집하는 것으로 인해 업무 수행에 압박감을 느꼈다고도 했죠. AI 도입 시, 고용주와 노동자들 간의 상호 신뢰를 만드는 과정이 필요해 보입니다.

#feedback

오늘 이야기 어떠셨나요?
여러분의 유머와 용기, 따뜻함이 담긴 생각을 자유롭게 남겨주세요.
남겨주신 의견은 추려내어 다음 AI 윤리 레터에서 함께 나눕니다.