생성 AI와 창작, 그리고 창작자
스태빌리티 AI 집단소송이 기각되었습니다
새로운 기술의 도발적인 출현에서자신의 종말이 가까웠음을 느끼는 속물적 개념이 등장하고 있다.
—발터 벤야민(최성만 역), <사진의 작은 역사>
창작자 생태계 상상하기: 스태빌리티 AI 집단소송 기각에 부치는 글
by. 🍊산디
콘텐츠 기업과 창작자들의 생성 AI 기업을 상대로 한 소송들이 한창입니다. 법원의 고심도 깊어지는 것 같네요. 현재 진행 중인 대표적인 사건들은 이렇습니다.
- 사라 앤더슨, 켈리 멕커넌, 칼라 오티즈 vs. 스태빌리티(스테이블 디퓨전), 미드저니(미드저니), 디비언트아트(드림업)
- 사라 실버만, 크리스토퍼 골든, 리차드 캐드리 vs. 오픈AI(챗GPT), 메타(LLaMA)
- 게티이미지 vs. 스태빌리티 AI(스테이블 디퓨전)
- 유니버설 뮤직 그룹 vs. 앤트로픽(클로드2)
이번 레터는 첫 번째 사건을 살펴보려 합니다. ‘스태빌리티 AI 집단소송’이라 부르겠습니다. 잠깐 배경 정보를 드릴게요. 스테이블 디퓨전은 LAION 데이터셋을 이용해 개발되었고, LAION 데이터셋은 스태빌리티 AI의 지원으로 제작되었습니다. 스테이블 디퓨전은 미드저니, 디비언트아트가 제공하는 생성 AI 서비스에 사용되었습니다.
스태빌리티 AI 집단소송에는 흥미로운 점이 많습니다.
- 집단소송입니다. 집단소송을 제기한 사람은 소를 직접 제기하지는 않았으나 동일한 이유로 손해를 본 사람들까지 대리합니다. 만약 이들이 승소했다면, 수천만 명의 창작자들이 손해배상을 받았을지도 모르겠습니다.
- 원고가 개인 창작자들입니다. 유니버설 뮤직 그룹과 같이 저작권 시장의 거물과 개인 창작자는 결코 대등한 입장에 있지 않습니다. 저작권과 생성 AI를 둘러싼 논의에서 콘텐츠 기업과 개인 창작자를 구분할 필요가 있습니다.
- 판결을 통해 구하려고 하는 바, 즉 청구취지가 손해배상에 그치지 않습니다. 창작자의 허가 없이 창작물을 이용한 생성 AI 서비스의 이미지 생산에 대한 영구적 금지가처분(permanent injunction relief)를 청구했죠. 만약 법원이 스태빌리티 AI 등에 서비스의 영구적 금지가처분 결정을 내리면 기업은 서비스를 바꾸어야 합니다.
- 피고에 스테이블 디퓨전을 이용한 제3의 사업자, 즉 미드저니와 디비언트아트도 포함되어 있습니다. 이는 기업이 직접 AI 모델을 개발하지 않았음에도 해당 AI 모델이 저작권을 침해했다면 기업이 책임을 져야 하는지 문제를 제기합니다.
하나하나가 흥미로운 쟁점이기는 합니다만, 현행 저작권법상 법원이 원고의 손해배상청구와 금지청구를 받아들이기 어렵다는 게 제 생각입니다. 이용자가 생성 AI를 통해 특정 작가의 작품을 그대로 복제할지 여부를 예상할 수도 없고, 창작자가 이를 입증하기도 어렵습니다. 이런 상황에서 법원이 기업의 저작권 침해를 인정하고 손해배상 판결이나 금지 결정을 할 수는 없습니다.
실제로 스태빌리티 AI 집단소송 판결을 내리기 위해 캘리포니아 법원은 공정이용은 논의도 하지 않았습니다. AI가 생성한 이미지가 저작권이 있는 출력물을 내놓는다고 증명할 수 없다고 판단하고 소송을 기각했죠.
그러나 사건이 완전히 종결된 것은 아닙니다. 법원도 고민이 많았는지, 원고가 주장하는 저작권 침해가 어떻게 발생했다는 것인지 소장을 수정하여 다시 제기할 것을 권고했기 때문이죠.
이전 글들에서 다루었던 바이기도 하지만, 저는 생성 AI가 창작자의 독점적 권리를 침해했다는 법적 공방이 실질적으로 얻을 수 있는 게 많지 않다고 생각합니다. 오히려 필요한 논의를 늦추진 아닐지 우려됩니다. 새로운 기술이 확산된 현시점에 창작을 진흥하기 위해서는 어떤 조치가 필요한지 논의해야 합니다. 창작자 특히 (유니버설 뮤직 그룹과 같은 거대 콘텐츠 기업이 아닌) 개인 창작자가 자유롭게 창작할 수 있는 생태계를 상상해야 합니다. 이건 법원보다는 국회의 역할에 가깝죠.
생성 AI 시대에 창작은 어떤 의미를 가지며 창작자의 권리는 무엇이 되어야 할까요. 창작자에게 정산해주는 생성 AI 플랫폼이 나오면 문제가 해결된 걸까요. 저는 이 모든 논의가 플랫폼 기업에게 권력이 집중되며 마무리되지 않았으면 합니다.
기술이 창작자를 위한 도구가 되기 위해서는 어떤 약속이 필요할까요. 저에게도 답은 없습니다. 다만 새로운 상상력이 저작권에 국한될 필요는 없다는 사실은 분명합니다.
AI 안전성은 어떻게 평가할까요?: 딥마인드의 AI 평가방법
by. 🎶소소
안전한 AI를 만들기 위해 세계 각국 정부가 AI 기업에 공통으로 요구하는 것이 있습니다. AI의 기능과 위험을 평가하고 공개하라는 것인데요. AI가 얼마나 유용하고 위험한지 알아야 대응도 할 수 있기 때문입니다. 그러나 AI 평가 방법은 여전히 불분명합니다. AI를 어떻게 평가해야 안전하게 사용할 수 있을까요?
기존의 AI 평가 방법은 주로 기능적 측면에 초점을 맞춰 왔습니다. 그러나 같은 AI도 다른 환경에서 다른 목적으로 사용될 때 그 결과와 영향력이 완전히 달라질 수 있습니다. AI 안전성 평가를 위해 이용 환경과 맥락을 고려하는 종합적 평가 방법을 제안한 딥마인드의 연구를 소개합니다.
딥마인드는 AI의 기능뿐만 아니라 인간 상호작용, 시스템적 영향을 평가할 것을 제안합니다.
- 기능(Capability) 평가는 발생가능한 위험을 예측할 수 있는 중요한 지표입니다. 그러나 기능 평가만으로는 AI 안전성을 보장할 수 없습니다.
- 인간 상호작용(Human Interaction) 평가는 AI를 사용하는 사람들의 경험을 중심으로 이루어집니다. 사람들이 AI를 어떻게 사용하는지, AI가 의도한 대로 작동하는지, 사용자 특성에 따라 사용 경험이 다른지, 예상치 못한 부작용이 나타나는 지 등을 고려합니다.
- 시스템적 영향(Systemic Impact) 평가는 AI가 활용되는 사회의 제도, 노동 시장, 자연 환경 등 광범위한 구조에 초점을 맞춥니다. 이 계층에서는 AI를 더 많은 사람이 사용하게 되었을 때 가시화되는 위험을 평가합니다.
예를 들어, 부정확한 사실이나 오해의 소지가 있는 결과를 생성할 가능성이 높은 AI가 있다고 해봅시다. AI가 오정보(misinformation)를 생성하는 것이죠. 하지만 모든 사람이 오정보를 믿고 행동하지는 않습니다. 오정보가 얼마나 확산되는지, 얼마나 많은 사람들이 믿게 되는지는 상황에 따라 달라집니다. 따라서, AI가 의도된 대로 안전하게 사용되기 위해서는 단순히 기술적 성능만이 아닌, 그것이 사용되는 맥락과 환경을 함께 고려해야 한다는 것입니다.
AI 안전성 평가에 관심이 생기셨다면, 연구팀이 지금까지의 공개된 '생성형 AI 평가 방법'을 모은 리포지터리를 살펴보시는 것도 좋겠습니다. 연구팀이 지적하기로는 대부분의 평가 방법이 매우 한정된 범위의 위험만을 다루고, 주로 텍스트 출력에 초점을 맞추고 있다고 합니다.
AI가 널리 쓰일수록 여러 사람의 안전에도 영향을 미치게 되겠지요. AI가 안전하게 쓰이기 위해 개발진은 기술을 책임감 있게 개발해야 하고, 정부와 규제기관은 적절한 제어 장치를 마련해야 합니다. 🦜윤리 레터도 힘을 보탤 수 있도록 부지런히 소식을 전하겠습니다.
#feedback
오늘 이야기 어떠셨나요?
여러분의 유머와 용기, 따뜻함이 담긴 생각을 자유롭게 남겨주세요.
남겨주신 의견은 추려내어 다음 AI 윤리 레터에서 함께 나눕니다.