틱톡을 금지하라!
하지만 틱톡만의 문제일까요?
1. 틱톡을 금지하라?!
2. 청문회에 출석한 샘 올트먼, AI 규제 지지
3. 생성 AI 또는 “인류 역사 최대의 미술품 절도”
4. AI로 기후위기를 해결할 수 있을까?
5. 이 주의 독서 카드 : 인공지능의 편향과 챗봇의 일탈
틱톡을 금지하라?!
by 🍊산디
미국 몬태나주가 틱톡을 금지했습니다. 틱톡 금지 움직임은 계속 있어왔지만 법제화된 것은 이번이 처음입니다. 몬태나 주민의 정보주권을 중국 정부로부터 보호한다는 취지입니다. 구글, 애플 등 앱 마켓은 2024년 1월부로 몬태나주 내에서 틱톡을 서비스에서 제외해야 합니다. 입법 추진 단계에서부터 틱톡은 이 법이 수정헌법 1조에 반한다는 성명을 발표한 바 있습니다.
틱톡을 금지해야 한다는 주장은 꾸준히 있었습니다. 지난 3월 23일, 틱톡의 CEO 저우쇼우즈는 미국 하원 청문회에 출석해 5시간 동안 질문 폭격에 답하기도 했죠.
일부 미국 의원들의 주장은 이렇습니다.* 중국 정부가 언제든 틱톡 데이터에 접근할 수 있어 국가 안보에 위협적이다.
- 중국에 우호적인 여론 조작 도구로 악용될 위험이 있다.
- 틱톡 알고리즘이 10대 청소년들의 섭식 장애, 자해, 자살을 부추기고 있다.
틱톡은 이렇게 되받습니다.* 중국 정부는 틱톡에 데이터를 요청한 적 없다. 설령 요청한다 해도 데이터를 제공하지 않을 것이다.
- 틱톡 본사는 LA와 싱가포르에 있고, 데이터는 미국 기업인 오라클의 서버에 저장된다.
- 미국 직원들이 데이터와 알고리즘을 관리한다.
데이터 주권이 화두입니다. 미 연방정부, 캐나다 연방정부, 일본 정부는 이미 정부 기관 직원의 틱톡 사용을 금지했죠. 하지만 미 상원의원 랜드 폴이 이야기한 것처럼, 틱톡에 제기된 의혹은 사실상 모든 글로벌 플랫폼 기업에게 적용될 수 있습니다.
틱톡은 금지되어야 하는 걸까요? 왜 유독 틱톡인 걸까요? 틱톡을 신뢰하려면 어떤 ‘투명성’이 필요할까요?
청문회에 출석한 샘 올트먼, AI 규제 지지
by 🎶소소
OpenAI의 CEO 샘 올트먼이 미국 상원 법사위원회 청문회에 출석했습니다. 이번 청문회에서는 AI가 만드는 가짜 정보, 민주주의 위기, 미래 일자리 문제에 대해 논의했는데요. 정부 규제가 필요하다는 합의 속에 훈훈한 분위기였습니다.
샘 올트먼은 "세상에 심각한 해를 끼칠까 두렵다”며 AI의 위험성을 이야기했습니다. 동시에 AI의 이점이 위험보다 크고, 위험은 통제할 수 있다고 강조했죠. 그는 정부 주도의 AI 안전 표준 제정과 라이선스 도입을 제안했습니다.
여러 궁금증이 생깁니다. AI의 위험성을 정부의 라이선스로 통제할 수 있을까요? OpenAI와 같은 선발 주자에게만 유리한 사다리 걷어차기일 수 있다는 점도 생각해 봐야 합니다. 라이선스 규제는 후발 주자에게는 진입장벽으로 작동할 수 있습니다.
상원의원들은 AI 규제에 강한 의지를 보였습니다. “소셜 미디어의 가짜 뉴스를 통제하는 데는 실패했지만, AI는 놓치지 않겠다”는 이야기가 오갔죠. ‘미국 주도의 AI 표준’을 만드는 속도가 빨라질 수도 있겠습니다. 유럽 의회의 인공지능 법(AI Act)도 이번 주 합의안을 도출해 법안 통과에 한층 가까워졌는데요. 정부의 규제 움직임이 AI 기업의 속도 경쟁에 어떤 영향을 줄지 지켜봐야겠습니다.
- 청문회 영상 및 모두발언 자료(2시간 30분)
- 샘 올트먼 청문회 모두발언 번역 [전문]
- Byline Network: [외쿡신문] 샘 알트만의 AI 규제론에는 없는 것이 있다
- 더밀크: 오픈AI 샘 알트만, 미 상원 청문회에 불려가 칭찬받다 [페이월]
덧붙이는 글
- 🤔어쪈 : 농담이었겠지만 한 의원이 규제기관을 만들면 기관장을 맡아보지 않겠느냐고 물었다는데, (물론 샘 올트먼은 지금 일이 좋다고 거절했지만요) 여러모로 샘 올트먼이 의원들에게 호감을 크게 산 건 분명해 보입니다.
- 🤖아침 : 올트먼은 질의 중 정부 주도의 라이선스 규제는 현존하는 AI 모델이 아니라 "인공 일반 지능(AGI)"에 근접한 미래의 시스템에 적용돼야 한다고 발언했습니다. 실현 여부를 알 수 없는 미래 기술에 대한 규제 요청이라니, 그 진정성도 의문스럽지만, AGI라는 용어도 눈에 밟힙니다. AGI에 대한 강조는 먼 미래 기술의 잠재적 위험성을 부각하여, 당면한 AI 문제를 축소하는 효과가 있기 때문입니다. 관련된 내용을 다음주에 소개해볼게요.
생성 AI 또는 “인류 역사 최대의 미술품 절도”
by. 🤖아침
미국 비영리기관 ‘예술적 탐구와 보도 센터’(CAIR)는 언론출판계에서 일러스트레이터의 작업을 AI 생성 이미지로 대체하지 말 것을 촉구하는 공개서한을 발표, 서명운동을 시작했습니다. CAIR는 이미지 생성 AI가 저작권을 무시한 “인류 역사 최대의 미술품 절도”라고 주장합니다. 생성 AI가 예술가의 일자리를 위협하는데도 AI에 투자하고 있는 실리콘밸리는 예술가들의 임금에 역베팅하고 있는 셈이죠.
생성 AI 학습에 사용되는 인터넷상의 저작물은 누군가 생산한 것이지만, AI 제작사가 저작권자에게 동의나 보상 절차를 밟는 경우는 거의 없습니다. 물론, 하신아 웹툰작가노조 위원장이 네이버의 AI 툴 개발에 관해 지적하듯, 동의를 받는다고 해도 충분한 설명과 선택의 여지가 주어지는지는 또 별개 문제입니다.
우리나라에서도 생성 AI 기술의 저작권 침해, 초상권 침해, 가짜뉴스 등의 위험을 지적하는 국회 청원이 5만 건의 동의를 받아 문화체육관광위원회에 회부되었어요. 청원은 저작권, 라이선스 준수 등 학습 데이터 세트의 투명성 확보, AI 생성 이미지 출처 표시 등의 규제를 요청합니다.
위협받는 건 저작권만이 아닙니다. 노동자의 생계 위협 또한 현재진행형입니다. 중국 게임업계에서 일러스트레이터가 이미지 생성 AI로 대체되고 있다는 보도, 뉴스 부문을 통째로 폐지한 버즈피드 등 사례는 계속 늘어나는 중입니다. 미국작가조합(WGA)은 생성 AI를 초고 작성, 저작물 수정에 사용하는 것에 반대하며 생성 AI를 악용한 처우 악화, 불공정 계약에 반대하는 파업에 나섰습니다.
공개서한, 국회 청원, 파업… 곳곳에서 생성 AI와 노동을 둘러싼 전선이 생기고 있습니다. 싸움은 시작됐습니다.
- CAIR 공개서한: “AI 일러스트레이션 출판을 제한하라”
- 전혜원, “‘AI 그림 시대’ 창작이란 무엇인가”
- 국회 국민동의청원: “AI 이미지 생성기의 무분별한 사용과 악용을 막기 위한 법적 규제에 관한 청원”
- 남혁우, “파업 나선 할리우드 작가 ‘생성AI 악용 부당거래 반대’”
덧붙이는 글
- 🤔어쪈 : 아무래도 생성 AI 개발이 본격화되면서 저작권 제도가 큰 변화를 마주하게 될 것 같아요. 진보네트워크센터 기술팀의 유튜브 토론회 영상을 강추합니다! (영상1, 영상2)
AI로 기후위기를 해결할 수 있을까?
by. 🌏다솔
유네스코의 <기후변화 윤리 원칙 선언>에 의하면 기후위기는 취약한 환경에 놓인 이들의 생존, 인권과 직결되는 윤리적 문제입니다. AI ‘윤리’ 레터가 기후위기에 주목하는 이유이기도 합니다. 어쩌면 AI가 기후위기를 극복하는 데에 도움을 줄 수 있지 않을까요?
5월 2일, 뉴욕에서 UN 기후 행동 그룹과 지구를 위한 AI 연합(AI for the Planet)이 공동 주최한 유엔 컨퍼런스가 열렸습니다. 컨퍼런스 연사들은 AI가 의미 있는 변화를 주도하기 위해서는 시민 사회 부문과의 파트너십이 필요하다고 의견을 모았습니다. 공공, 학계, IT기업과 시민단체 등 다양한 배경을 가진 이해관계자와 연결될수록, 기후위기 해결을 위한 AI 개발이 촉진될 것입니다.
AI는 기후위기를 예측하고 자원을 효율적으로 분배하는 데 사용될 수 있습니다. 하지만 이를 위해서는 전 지구적인, 편향 없는 학습이 필요합니다. 예를 들어, 북미 지역 데이터만 학습한 AI 모델은 북미 지역에 대해서는 정확하게 기후 위험을 예측할 수 있지만, 그 외의 지역에 대한 정확도는 떨어질 수 있습니다. 시민 사회가 적극적으로 참여하는, 편향 없는 AI를 만들 수 있는 생태계는 어떤 모습일까요?
가끔씩 스터디에서 읽은 좋은 책과 글을 소개합니다.
이 주의 독서 카드 : 인공지능의 편향과 챗봇의 일탈
by. 🤔어쪈
‘이루다 사태’란?
- 챗GPT 출시와 함께 더욱 거세진 생성 AI 윤리 문제의 기출 족보급 사건.
- 책 <인공지능의 편향과 챗봇의 일탈>의 2부(챗봇의 일탈)는 ‘AI 윤리’에 한 획을 그은 이루다에 대해 다양한 문제의식을 제기.
문제1. 삭제되지 않은 카톡 대화 데이터
- 스캐터랩은 ‘연애의 과학’ 등을 통해 수집한 카카오톡 대화록으로 ‘데이터셋의 독점적 우위’를 보유한 스타트업으로 등극.
- 상당한 투자와 관심 속 이루다를 성공적으로 출시했으나, 카카오톡 대화 내용을 그대로 내뱉는다는 사실이 알려진 후 서비스 중단과 처벌이라는 대가를 치름.
- 문제는, 이슈가 되었던 카카오톡 대화를 삭제 없이 생성 모델 기반의 이루다 2.0에 그대로 활용하고 있다는 것.
- 비정형의 대화 데이터에서 개인정보는 어떻게 정의해야 하는지, 완전한 비식별화란 무엇인지와 같은 문제가 여전히 해소되지 않음.
문제2. 이루다는 정말 우리의 친구인가?
- 스캐터랩은 사람과 AI 챗봇이 친구가 될 수 있다는 비전 아래 이루다에게 20대 여성의 정체성을 부여.
- 이는 회사가 수집한 ‘연애의 과학’ 데이터셋의 한계이면서, 더 많은 사용자 수 확보를 위한 전략.
- 이루다를 20대 여성으로 재현하면서 성별 권력관계 또한 재현. 사용자들이 이루다를 마치 ‘성희롱’하는 듯한 이용 패턴이 문제가 됨.
- 스캐터랩은 ‘회피적 대화술’로 소극적으로 대응. 이윤 추구를 위해 성별 권력관계를 적극적으로 오용했다는 비판.
족보를 풀어본 우리가 다시 받아 든 시험지
- 오픈AI, 구글 등의 기업들이 생성 AI 개발에 활용한 데이터를 공개하지 않는 것이 일반화되고 있음. 책은 연구개발 커뮤니티에 학습 데이터를 공개하는 등의 조치를 제안하는데, 이는 실제 법제도 차원으로까지 확대되는 중.
- 언어모델의 발전과 대중화 속도를 고려하면 이루다와 같은 ‘관계지향형 챗봇’은 단순히 대화하는 AI 이상의 의미를 가짐. 관계와 대화라는 상호작용은 생각보다 우리에게 많은 영향을 미치기 때문.
- 최근 스캐터랩은 SK텔레콤과 전략적 파트너십을 맺고 150억 원 가량의 지분투자를 받음. 이루다가 3천만 명이 넘는 SK텔레콤 이용자를 만날 수도 있을 것. ‘이루다 사태’라는 기출 족보를 풀어본 우리는 지금의 생성 AI를 둘러싼 질문에 보다 현명한 답변을 마련할 수 있을까?
#feedback
오늘 이야기 어떠셨나요?
여러분의 유머와 용기, 따뜻함이 담긴 생각을 자유롭게 남겨주세요.
남겨주신 의견은 추려내어 다음 AI 윤리 레터에서 함께 나눕니다.