인터넷 = 학습 데이터라는 바다에 독극물 풀기

그리고 로맨틱하지 않은 연애 AI 챗봇들

인터넷 = 학습 데이터라는 바다에 독극물 풀기
인간 노예가 기계로 대체된다면, 비록 이 노예는 인공적일지 몰라도 우리는 계속해서 노예제에 기반한 사회구조 속에서 살아가게 된다는 것이다.

—마크 코켈버그, <인공지능은 왜 정치적일 수밖에 없는가>

AI 윤리 뉴스 브리프

2024년 2월 셋째 주
by 🥨채원

목차
1. “인터넷 = 학습 데이터”라는 거대한 바다에 독극물 풀기
2. 텍스트만 입력하면 영상으로
3. 할리우드 배우노조 파업 배우들 인터뷰
4. 로맨틱하지 않은 연애 AI 챗봇

🦜 AI 윤리 레터가 그동안 다뤄 온 이슈들 모아 보기
💌 AI 윤리 레터가 오래 유지될 수 있도록 응원하러 가기

1. “인터넷 = 학습 데이터”라는 거대한 바다에 독극물 풀기

  • 생성형 AI가 그토록 빠르고 쉽게 사진이나 그림을 생성할 수 있는 것은 온라인상 존재하는 수많은 창작물을 학습데이터로 활용한 결과라는 것은 여지없는 사실입니다. 학습 데이터에 대한 저작권에 대한 논의가 이루어지고 있는 와중 실시간으로 많은 이들의 저작권이 침해되고 있지만, 개인 창작자로서 이러한 흐름에 맞서기는 쉽지 않은 상황입니다.
  • 이런 개인 창작자들이 창작물을 지키기 위해 사용할 수 있는 도구를 개발하는 연구자들이 있습니다. 글레이즈, 나이트셰이드 등의 도구를 개발하는 시카고 대학교의 벤 자오 교수입니다. 또 다른 인터뷰에서 벤 자오 교수는 충분한 ‘독극물’이 온라인에 존재하게 되어, 기업 입장에서도 저작권료를 정당하게 지불하는 선택지가 무분별한 크롤링을 기반으로 데이터셋을 구축하는 것보다 합리적인 순간이 오는 것이 목표라고 밝혔습니다.
  • 해당 도구는 이미지를 특수하게 처리하여 사람 눈에 보이는 모습은 그대로 유지하면서, AI가 학습할 때는 전혀 다른 그림으로 인식되게 합니다. 저작권을 지키는 일이 단지 개인 창작자의 책임이 되어서는 안 되겠지만, 구조적인 개선이 이뤄지기를 기다리기만 것이 아니라 당장 누구나 쉽게 적용할 수 있다는 데 큰 의의가 있는 것 같습니다. 더불어 새로운 기술을 개발하면서 그 기술로 인해 가장 큰 영향을 받는 당사자들과 함께하고 있다는 점에서도 주목할 만한 연구로 보입니다.

출처: 벤 자오 교수 Tiwml AI 팟캐스트 인터뷰

2. 텍스트만 입력하면 영상으로

  • 오픈AI에서 텍스트를 입력하면 최대 1분가량의 영상으로 전환해주는 서비스 ‘Sora’를 발표했습니다. 이미 글이나 이미지를 생성형 AI로 생성하는 기술이 빠르게 발전한 만큼, 어느 정도 예견되어 있던 미래라고도 할 수 있겠습니다. 현재 해당 서비스는 치명적인 위험이나 해를 끼칠 수 있는 부분을 발견하기 위해 OpenAI에서 선정한 일부 사용자들에게만 공개되었고, 당분간은 일반 사용자들에게 공개할 계획이 없다고합니다. 이러한 결정은 오픈AI가 생성형 AI를 둘러싼 각종 논란을 인식하고 있다는 것을 보여주는 것이기도 합니다.
  • 그러나 빠른 기술 발전의 이면에는 다양한 차원의 근본적인 문제점들이 존재하고 있습니다. 데이터 저작권문제, 편향과 차별 문제, 탄소 배출을 비롯한 환경 비용, 극소수의 (대부분 미국에 기반을 둔) 기업만 기술 개발에 참여할 수 있는 독과점적 구조, 저임금 국가의 노동력을 착취한다는 점 등입니다. 오픈AI의 구조가 처음의 약속과 달리 점점 불투명해지고 있다는 비판도 꾸준히 제기되고 있습니다.
  • 그 어떤 기술도 사회적 맥락 없는 진공에서 만들어지지 않기 때문에, 그것을 만들고 사용하는 사람들에게 어떤 의미인지, 어떤 영향을 끼치는지 평가하는 과정이 반드시 필요합니다. 기업의 편의만을 우선시한 채 무분별하게 개발되는 기술은 반드시 사회의 어딘가에서 비용을 치르게 된다는 것을 많은 역사적인 예시들이 보여줍니다. 그럴싸한 영상을 만드는 비용이 급격하게 저렴해지는 지금과 같은 추세가 사회에 어떤 영향을 끼칠 수 있는지 고민하게 되는 지점입니다.

3. 할리우드 배우 노조 파업 배우들 인터뷰

  • 지난해 말 할리우드에서 제작사와 배우조합이 몇 달에 걸친 파업 끝에 영화나 TV 프로그램 제작에 사용되는 AI의 범위에 관해 극적으로 합의한 일이 있었죠. 해당 합의에는 배우가 촬영한 화면이나 소리가 녹화 상태 그대로 유지되지 않을 경우 명시적인 동의가 필요하다는 등의 내용이 포함되었습니다. (최근 논란이 된 손석구 아역 배우의 사례가 떠오르는 대목이죠.)
  • 앞으로도 더욱 다양한 분야에서 창작자와 인공지능 사이에 마찰이 일어날 것으로 보이는데요, 이러한 흐름 속에서 다양하게 투쟁하고 있는 당사자들과 진행한 국내 언론의 인터뷰가 공개되었습니다. 인터뷰이 중 한 명은 당장 현장에서 게임 회사의 직원들이 대규모로 해고되고 인턴십이 취소되는 등 실시간으로 변화를 실감하고 있다는 사례를 전했습니다.
  • 앞으로 AI가 가져올 미래 산업계의 큰 변화가 다양하게 점쳐지는 와중에, 예술계는 지금 이미 눈에 띄는 변화를 겪고 있는 만큼 앞으로의 귀추가 더욱 주목됩니다. 기술은 항상 다양한 사회 변화를 가져왔지만, AI 기술로 인해 생산성이나 노동의 가치가 매겨지는 과정이 이렇게 빠르게 변화할 것이라고 예상한 사람은 많지 않았습니다. 인간의 노동은 인간이 한다는 이유만으로 가치 있는 것인지, AI를 비롯한 다른 기술로 대체되기 어렵기 때문인지 고민하게 됩니다.

4. 로맨틱하지 않은 연애 AI 챗봇

출처: Unsplash (Alexander Sinn)
  • 영화 ‘Her’에서 처럼 AI를 활용한 가상의 연인을 개발하는 것은 거대 언어 모델을 비롯한 생성형 AI가 활발하게 사용되고 있는 분야 중 하나입니다. 각종 유무료 서비스가 시시각각 개발되고 있는 와중, 이러한 서비스가 가져올 수 있는 다양한 윤리적 문제가 제기되어 왔습니다. 특히 연애 AI 챗봇의 경우 심리적으로 취약한 사용자에게 미칠 수 있는 영향 등을 차치하고서라도, 이러한 연애 AI 챗봇이 특히 프라이버시 문제에 취약하다는 진단이 나왔습니다.
  • 파이어폭스 브라우저로 익숙한 모질라 재단에서는 ‘Privacy Not Included’라는 시리즈를 통해, 각종 온라인 서비스의 개인 정보 보호 정책을 검토하고 소비자들이 안전한 선택을 할 수 있도록 돕고 있습니다. 모질라에서 11개의 연애 AI 챗봇을 리뷰한 결과, 11개의 서비스 모두 개인 정보 보호에 취약하다고 합니다.
  • 다양한 AI 기술이 점점 사적이고 개인적인 영역까지 녹아들고 있습니다. 대부분의 연애 AI 챗봇 서비스들은 사용자의 심리 상태나 건강 상태 등 매우 사적인 정보를 수집합니다. 그리고 이러한 서비스는 국내의 이루다 사태가 보여준 것처럼, 단순한 ‘기계 고장’ 이상의 문제들을 초래합니다. 외로움이라는, 아마도 인류 역사와 함께했을 근본적인 문제가 이러한 기술로 개선될 수 있는 것일까요?

#feedback

오늘 이야기 어떠셨나요?
여러분의 유머와 용기, 따뜻함이 담긴 생각을 자유롭게 남겨주세요.
남겨주신 의견은 추려내어 다음 AI 윤리 레터에서 함께 나눕니다.