가깝고도 먼 AI와 AI 윤리
AI 윤리는 AI를 위한 것이 아닙니다.
미래가, 우리가 상상하는 대로 이뤄지지 않을 수도 있다는 가장 깊은 의미에서의 회의적인 시선을 잊지 말아야 한다.
—김상민, <인공지능, 플랫폼, 노동의 미래> 중 '유령 노동에서 자동화된 공산주의까지: AI 자동화 이론의 지형'
1. 가깝고도 먼 AI와 AI 윤리
by 🤔어쪈
AI 윤리는 AI와 떼려야 뗄 수 없는 관계입니다. 너무도 당연한 말로 글을 여는 이유는 둘 사이의 거리를 주제삼아 이야기해보고 싶기 때문이에요.
‘AI 윤리 레터’에서조차 정의한 적이 없을 정도로 AI 윤리는 무어라 명확히 개념잡기 어려운 단어입니다. 그래서 저는 종종 다른 곳에서부터 표현을 빌려오곤 합니다. 과학기술의 윤리적·법적·사회적 함의와 영향에 대한 연구를 의미하는 ELSI(Ethical, Legal, and Social Implications)가 바로 그것입니다.
ELSI는 1990년대 인간 게놈 프로젝트의 일환으로 시작된 연구과제에 기원을 두고 있습니다. 사람의 유전정보를 분석하고 이해할 수 있게 될 때 벌어질 일들에 대한 우려가 컸던 탓에, 인간 게놈 프로젝트에 투입되는 예산 중 일부를 ELSI에 배정한 것이죠. 대표적인 연구주제 몇가지를 살펴보면 다음과 같습니다:
- 보험, 채용, 사법, 교육 등의 영역에서의 공정한 유전정보 활용 방안
- 낙인 효과와 같은 특정 개인 및 집단에 대한 유전정보의 사회심리학적 영향
- 재생산권, 치료 및 진료권과 관련 의사결정에 미치는 파급력
이후 ELSI는 미국의 나노기술 이니셔티브에서 한 분과를 차지하는 등 인간 게놈 프로젝트 이후에도, 또 생명윤리 외 분야에서도 자리를 잡았습니다. 최신 과학기술의 연구개발에 사회적 가치를 반영하고, 더 나아가 관련 정책 설계에도 상당한 기여를 했다는 평가를 받고 있죠. 최근에는 RRI(Responsible Research and Innovation)라고 불리는 보다 사회에 책임있는 방식으로 연구개발을 수행하기 위한 방법론적 프레임워크로 이어지고 있습니다.
이처럼 좋은 취지하에 유의미한 성과를 낸 연구 분야지만, ELSI에도 숱한 비판이 있었습니다. 무엇보다 가장 큰 문제는 ELSI가 결국 인간 게놈 프로젝트와 같은 특정 분야의 과학기술 이니셔티브에 종속된 과제였다는 점입니다. ELSI 연구자들이 프로젝트에 속한 다른 사람들과 같은 입장이 되어 비판적 사고나 적극적 대안 제시 보다는 기술 개발의 정당화에 기여했다는 것이죠. 이를 두고 인문학과 사회과학이 ELSI-화 (ELSI-fication) 되었다는 표현까지 등장했습니다.
ELSI를 둘러싼 논의는 AI 윤리 레터를 비롯한 AI 윤리라는 범주 아래 이뤄지는 여러 활동에도 시사하는 바가 큽니다.
AI 윤리는 AI 기술 개발에 보다 적극적이고 비판적으로 개입할 필요가 있습니다. AI 윤리가 하나의 분야로 자리잡기 시작하면서 기술 개발 주체가 ‘AI 윤리 전문가’에게 관련 문제 해결의 책임을 전가하는 것을 종종 볼 수 있습니다. 하지만 AI 윤리는 단순히 AI 기술이 야기하는 윤리적·법적·사회적 문제들이 발생한 후에야 연락을 받고 도착해 해결책을 제시하는 뒷처리 담당반이 아닙니다.
한편 AI 윤리라는 이름 아래 기술의 발전 방향과 이를 주도하는 기업들의 주장을 비판하는 대신 수용하고, 나아가 AI 하이프를 더욱 부풀리는 경우 역시 어렵지 않게 찾아볼 수 있습니다. AI 윤리 레터에서 다룬 바 있는 ‘AI 하이프 뉴스 체크리스트’를 기억하시나요? 누군가가 AI 윤리 전문가를 자청하며 AI 하이프 뉴스를 퍼나르고 있다면, 한번쯤은 그의 ‘AI 윤리’를 의심할 필요가 있습니다.
다시 처음으로 돌아가 AI 윤리와 AI는 떼려야 뗄 수 없는 관계라는 말을 살펴봅시다. AI 윤리와 AI 사이엔 너무 멀지도 않고 너무 가깝지도 않은 적당한 거리가 필요합니다. AI에 대한 AI 윤리의 개입과 거리두기는 동시에 이뤄져야 합니다. AI 윤리는 AI를 위한 것이 아니니까요.
2. AI가 당신의 글을 좋은 데 쓸 거에요.
by 🎶소소
AI 윤리 레터의 글을 AI 학습 데이터로 판매한다면 얼마가 적당할까요? 아, 온라인에 공개된 글이므로 이미 AI 학습에 활용되었는지도 모르겠네요.
최근 저는 AI 기업이 저작물을 대하는 태도가 점점 뻔뻔해지고 있다고 느낍니다. 지난 브리프의 '뉴욕타임스 소송에 대한 오픈AI 입장문’ 이야기입니다. 그래서 오늘 레터에서는 오픈AI가 입장문에서 주장하는 바가 합당한지 조금 더 살펴보았습니다. 이 소송의 결과가 AI 업계와 창작자 생태계에 미칠 영향력이 작지 않아 보이기 때문입니다. 앞으로 저작권자와 AI 사업자가 어떻게 공생할 수 있을 지 고민이 깊어집니다.
오픈AI의 주장은 전 세계의 저작권자와 AI 기업의 논쟁을 고스란히 보여줍니다.
1. 우리는 전 세계 사람들을 위한 AI를 만든다. AI 학습은 공정 이용이다.
- 저작권법에서의 공정 이용은 특정 조건에서 저작권이 있는 자료를 저작권자의 허가 없이도 사용할 수 있게 해줍니다. 일반적으로 문화 및 관련 산업의 발전을 위한 비평, 뉴스 보도, 교육, 학술 연구 등의 목적을 위한 것입니다. AI 학습의 공정 이용 여부에 대해서는 다양한 의견 대립이 있으며, 아직 직접적으로 판단한 국내외 법원의 판례는 없습니다.
- 오픈AI는 AI 훈련이 공정 이용에 해당한다고 주장합니다. AI에게 인간의 언어를 가르쳐 일상의 삶을 이롭게 한다는 점에서 공정 이용 취지에 해당한다는 겁니다. AI는 저작물을 복제하는 것이 아니라 단어 빈도수, 구문 패턴 등 통계적 정보를 새로운 형태로 변환한다는 점 역시 참작해야 한다고 합니다.
- 뉴욕타임스는 AI 기업이 저작권자의 허가나 대가 지급 없이 언론사의 자산인 저작물을 활용하고, 대체품을 생산하여 이익을 취하고 있기 때문에 어떤 기준으로도 공정 이용이 아니라고 반박하고 있습니다.
- 한편, 오픈AI의 서비스 약관은 챗GPT의 생성물로 다른 모델을 학습시키는 것을 금지합니다. 타인의 저작물을 AI 학습에 쓰는 것은 공정이용이라고 주장하면서, 자신의 AI 생성물을 다른 회사의 AI를 학습시키는 것은 사용하는 것은 막는 꼴입니다. 내로남불이랄까요.
2. 뉴욕타임스 사례는 드물게 발생한 오류이며, 심지어 의도적인 오용의 결과다.
- 뉴욕타임스가 소송에 제출한 챗GPT 응답은 거의 기사 원문을 복사한 것처럼 유사합니다. AI 모델이 학습한 원데이터를 그대로 뱉어내는 ‘역류(Regurgitation)’ 현상 때문이라고 하는데요. 아마 사람이 ‘표절’한 기사를 자신이 쓴 것처럼 돈을 받고 팔았다면 단번에 저작권 침해가 되었을 겁니다.
- 오픈AI는 이 현상은 의도하지 않은 ‘기술적 오류’라고 설명합니다. 이러한 오류의 발생 가능성은 매우 낮으며, 이미 최소화했다고 주장합니다. 하지만 원데이터의 표절에 가까운 생성물이 얼마나 자주, 어떤 상황에서 발생하는 지에 대한 질문에 직접적으로 대답하지는 않았습니다.
- 또한 오픈AI는 뉴욕타임스가 주장하는 저작권 침해가 챗GPT를 악용했기 때문이라고 주장합니다. 뉴욕타임스가 기사의 원문 노출을 유도하는 프롬프트 입력해 챗GPT가 기사를 그대로 인용하도록 했기 때문이라고요.
- 그런데 만약 뉴욕타임스가 특정 상황에서 문제 가능성을 찾았다면, 일반 사용자도 동일한 상황에서 문제를 만들 수 있는 것 아닌가요? 때로는 오류의 발견이 시스템의 결함을 찾고 고칠 수 있는 계기가 됩니다. IT 기업은 시스템 오류를 찾기 위해 의도적인 Red teaming 을 진행하기도 하죠. 그런데 오픈AI는 시스템의 오류를 사용자의 오용으로 치부하며 책임을 돌리는 것으로 보입니다.
AI 기업의 저작물 무단 사용 소송이 줄을 잇고 있지만 아직 저작권자의 손을 들어준 판결은 없었습니다. 이 소송에서 오픈AI가 승소한다면, AI 모델 학습이 공정 이용으로 법적 지지를 얻게 된다고 볼 수 있습니다. 긍정적으로 본다면, AI 연구자나 기업은 법적 문제 없이 좋은 데이터를 확보하고 더 좋은 성능의 AI를 만들 기회가 될 것입니다. 한편 저작권자의 입지는 점점 더 좁아지겠죠.
지난해 말 우리나라 문화체육관광부에서는 저작권자의 권리를 강조하는 취지의 “생성형 AI 저작권 안내서”를 발간했습니다. 안내서는 저작권자와 생성형AI 사업자가 유의해야 할 사항에 대해 다룹니다. 그러나 주요 쟁점인 ‘저작물의 AI 학습 활용’에 대해서는 기존 저작권법을 읊는 정도로 서술합니다. 도리어 국내 AI 기업의 발전을 막는 족쇄가 된다는 우려만 일으키고 있습니다. 정부가 AI 기술의 건전한 혁신을 지원하고 저작권자의 권리를 보호하는 방안을 모색하기까지는 시간이 좀 더 필요해보입니다.
- 한 명의 사임과 한 명의 퇴출 그리고 복귀? (2023-11-20)
- 창작자 생태계 상상하기: 스태빌리티 AI 집단소송 기각에 부치는 글 (2023-11-15)
#feedback
오늘 이야기 어떠셨나요?
여러분의 유머와 용기, 따뜻함이 담긴 생각을 자유롭게 남겨주세요.
남겨주신 의견은 추려내어 다음 AI 윤리 레터에서 함께 나눕니다.