보이콧! AI 웹툰
작가, 독자 모두 원치 않는 기술이 되어버렸습니다
1. AI 웹툰 보이콧, 누구를 위한 AI인가
2. 샘 올트먼 내한공연 200% 즐기기
3. 멈춰! 도덕적 아웃소싱!
4. 이번 주 학급 분위기 평점 3.6
5. 이 주의 독서 카드 : <노동의 시대는 끝났다>
AI 웹툰 보이콧, 누구를 위한 AI인가
by 🤔어쪈
누구나 창작 웹툰을 올릴 수 있는 네이버 웹툰 도전만화에서 AI 웹툰 보이콧 운동이 일고 있습니다. AI 웹툰 보이콧 운동은, AI 윤리 레터에서 이미 다뤘던 것처럼, 생성 AI로 그린 웹툰이 작가의 그림을 절도해 짜깁기한 것에 지나지 않다고 지적합니다. 나아가 네이버 등 플랫폼 기업은 이를 또 다른 창작으로 포장, 악용을 방관하면서 저작권 침해 문제에 눈감은 채 생성 AI를 개발하고 있다는 점도 문제 삼고 있습니다.
웹툰 업계는 AI 기술 개발과 활용을 두고 아슬아슬한 줄타기를 계속해 왔습니다.
네이버웹툰은 이미 2년 전 웹툰 채색을 자동으로 해주는 AI 페인터를 개발했고, ‘누끼’라고 불리는 자동배경분리, 인물이나 배경 사진을 웹툰 스타일로 바꿔주는 웹툰미(WebtoonMe)나 배경변환과 같은 기술을 공개하기도 했습니다. 그때마다 회사가 내세운 AI 개발 근거는 웹툰 작가의 일손을 덜어주고, 창작의 문턱을 낮춰 누구나 웹툰을 쉽게 그릴 수 있도록 한다는 것이었죠.
작가들은 갈수록 자신의 작품으로 AI를 학습하는지 여부에 민감해지고 있습니다. 최근 네이버웹툰이 개최한 공모전 출품작의 AI 학습 활용 가능 여부가 논란이 되었죠. AI 페인터가 연재 작품의 30만 장 이미지 데이터를 바탕으로 개발된 점을 고려할 때, 공모전과 같은 행사에서마저 AI 학습 활용 여부가 이슈가 되는 상황은 회사에 부담이 될 수밖에 없습니다.
여기에 더해 회사는 AI 기술 활용 여부 자체가 독자에게 거부감을 일으키고 있다는 사실 역시 고려해야 하는 상황입니다. 네이버웹툰이 AI 기술로 작품 주인공을 실사화, 썸네일을 교체한 만우절 이벤트는 부정적인 반응뿐이었습니다.AI 활용이 의심되는 작품엔 별점 테러와 비판 댓글이 몰리며 ‘딸깍이(클릭만으로 웹툰을 그린다는 의미)’라는 명칭까지 생겼습니다. 웹툰 공모전 역시 AI 활용 금지 정책을 전면에 내세우고 있고요.
웹툰 업계의 열악한 노동 환경을 고려하면 웹툰 제작을 ‘돕는’ AI 기술 개발은 정당해 보이기도 합니다. 하지만 작가도, 독자도 원치 않는 방식으로 개발되고 있는 AI라면, 기업은 개발 근거와 접근 방식을 재고하고 바꿀 필요가 있어 보입니다.
샘 올트먼 내한공연 200% 즐기기
by 🤖아침
이번 주 6월 9일 개최되는 샘 올트먼 내한공연 OpenAI 서울 투어 소식 들으셨나요? 저는 티켓팅에 실패했습니다만… 대담자로 참석하는 뉴욕대 교수 조경현의 최근 인터뷰를 읽고 나면 한층 흥미로울 것 같아요. 인상적인 구절 몇 개만 뽑아왔습니다.
샘 올트먼이 출석했던 미 상원 청문회에 관해:
- “녹취록을 읽고 조금 슬펐다. [중략] AI가 바로 지금 만들고 있는 해악과 이익에 관한 논의가 전무했다.”
- “샘 올트먼은 (현재 실제로 일어나고 있는 일인) AI의 군사적 이용이 어떻게 규제되어야 할지에 관해 단 하나의 제안도 내놓지 못했다.”
(OpenAI 기술의 군사적 이용이 확인된 적은 없지만 미 국방부는 챗GPT 등의 활용 의사를 표한 바 있으며, 투자사인 마이크로소프트는 국방부와 클라우드 공급 계약을 체결한 상태입니다)
제프리 힌턴, 요슈아 벤지오, 샘 올트먼 등이 서명한 ‘AI 위협에 대한 성명’에 관해:
- “공개서한이 너무 많다. [중략] 사람들이 왜 가볍게 서명하는지 모르겠다.”
위 성명 등에서 경고하는 AI에 의한 ‘존재론적 위협’, ‘멸종’에 관해:
- 이런 논의가 과도하게 이목을 끌고 있으며, 사람들이 실제 현상을 비판적으로 바라보는 것을 방해한다.
- 센세이셔널한 종말론에 맞서 결국 필요한 것은 교육 및 실질적 개선을 만드는 작업 (본인은 의료 과학 분야에 관심)
OpenAI는 AI 기술의 ‘존재론적 위협’에 맞서는 규제를 주장하는 행보를 이어오고 있는데요. 팀닛 게브루의 DAIR 연구소가 올해 3월의 FLI발 공개서한에 관해 지적한 몇 가지 측면을 여기서도 관찰할 수 있습니다.
- 현재 당면한 문제에 대한 관심을 미래의 사변적 위험으로 돌림
- AI 업계를 저작권 침해, 허위정보 등의 규제 대상에서 ‘안전한 초지능’ 관리 거버넌스의 선구자로 포지셔닝
- ‘인간을 능가하는’ AI 기술이 임박한 것처럼 현재 성과를 과대광고
인공신경망번역 기법을 제시한 AI 자연어처리 전문가 조경현은 AI 기술의 편향 문제에 관해서도 꾸준히 발언해 왔습니다. 그와 샘 올트먼이 참석하는 이번 주 대담에서 현재 AI의 해악과 이익이 구체적으로 논의될 수 있을까요?
(직관하시는 분들… 알려주세요…)
- Matteo Wong, “AI Doomerism Is a Decoy”, The AtlanticSeth
- Lazar, Jeremy Howard, & Arvind Narayanan, “Is Avoiding Extinction from AI Really an Urgent Priority?”, fast.ai
멈춰! 도덕적 아웃소싱!
by 🌏다솔
현재 AI 알고리즘의 윤리에 대한 감사(audit)를 맡고 있고 전 트위터 윤리 팀의 리더인 루만 초드리(Rumman Chowdhury)는 '도덕적 아웃소싱' 개념을 처음 만들었어요. 도덕적 아웃소싱은 AI를 인격화하고, AI에 ‘성차별자’, ‘인종차별자’ 등의 프레임을 씌워서 AI 기술을 만든 사람의 도덕적 책임을 AI에 전가하는 것을 뜻해요. 이러한 도덕적 아웃소싱은 기술에 대한 두려움을 극대화합니다.
초드리는 ‘책임감 부족’을 지적합니다. 많은 경우 기업의 리스크 관리에 도덕은 고려되지 않는다는 거죠. 도덕적으로 평판이 훼손될 위험이 크다면, 게임의 규칙이 유리한 곳으로 이동하면 그만입니다. "내가 모든 돈을 가지고 있으니 내가 이길 수 있는 게임을 해보자."라는 식으로요.
그는 '모두가 책임지는 AI'를 제안합니다. 엔지니어, 기획자, 연구원뿐만 아니라 시민 모두가 더 나은 기술을 만들기 위해 다음 3가지를 실천할 수 있어요.
- 내가 인터넷에 남기는, 또는 남기는 않는 데이터까지 모두 저장되고 AI 학습 데이터로 사용될 수 있음을 기억합니다. 내가 생성하는 데이터가 AI 모델에 영향을 줄 수 있습니다.
- 나만의 알고리즘을 만듭니다. 예를 들어, 나의 이전 선택에 기반해 자동으로 추천되는 콘텐츠가 있더라도 의도적으로 다른 분야, 관점의 콘텐츠를 소비함으로써 나만의 알고리즘을 만들 수 있습니다.
- AI 편향을 해결하기 위해 현실 사회의 차별 해결에 힘씁니다. AI는 사회를 반영하는 거울일 뿐입니다.
우리는 한 사람이 모든 것을 책임지는 영웅 서사에 이끌립니다. 하지만 우리 모두가 보다 좋은 AI 기술을 만들기 위해 함께 책임질 수 있는 구조는 어떻게 만들 수 있을까요?
이번 주 학급 분위기 평점 3.6점
by 🍊산디
MIT 테크 리뷰에 따르면, 덴마크에서는 우프(Woof), 블룸사이트(Bloomsights)와 같은 ‘에드 테크’가 교육 일선에서 사용되고 있습니다. 학생들은 매주 자신의 기분을 입력하고 교사는 ‘학급 분위기 평점’ 보고서를 매주 받아봅니다. 서비스는 학생의 외로움, 괴롭힘 징후를 읽고, 친구와의 관계도를 그려주기도 합니다.
학생들의 기분은 모니터링됩니다. 매주 자신의 기분을 앱에 ‘직접’ 입력합니다. 전문가들은 학생들이 매주 자신의 감정을 입력하면서 감시를 내재화할 수 있음을 지적합니다. 자신의 솔직한 감정이 오히려 바람직하지 않은 반응이라고 생각하게 될 수도 있습니다. 학생들은 이 서비스를 거부할 수 있을까요? 무엇보다, 교실에 이런 시스템이 정말 필요할까요?
코로나19로 학교는 문을 닫아야 했고, 교육 분야 비대면 서비스는 급물살을 타고 확산됐습니다. 수업 중 ‘부적절한 행동’이나 시험 ‘부정행위’를 탐지할 수 있다며 기뻐하면서요. 윤리적 고민은 한발 늦게 이루어졌습니다. Human Rights Watch 보고서는 한국을 포함한 세계 교육 현장에 보급된 스마트 기기와 서비스 중 다수가 동의 없이 개인정보와 위치정보, 관계망을 수집해왔음을 보여줍니다. 교육 분야로 국한하지 않아도, 얼굴인식 기술의 편향과, 감성인식 기술의 과학적 근거가 없다는 사실은 잘 알려져 있습니다.
휴대폰을 수거해 갔던 학교는 이제 교육용 기기, 서비스를 적극 도입하고 있습니다. 기술이 감시가 아닌 배움이 되기 위해 우리는 어떤 고민을 해야 할까요.
가끔씩 스터디에서 읽은 좋은 책과 글을 소개합니다.
이 주의 독서 카드 : <노동의 시대는 끝났다>
by 🎶소소
AI의 발전으로 일자리가 모두 사라질까? 과거의 걱정들이 기우였듯, 이번에도 예상을 벗어날까? 일자리가 하나씩 AI로 대체되어 결국 노동이 사라진 미래를 어떻게 대비해야 할지 다룬 책 <노동의 시대는 끝났다>와, 책을 둘러싼 스터디 멤버들의 끊이지 않는 이야기.
인간이 AI보다 뛰어나다?
인간이 특별하다는 생각은 기술이 언제나 인간을 보완한다고 믿게 함. AI는 인간을 모방하려는 기술로 시작했지만, 인간과 다른 방식으로 인간을 뛰어넘을 수 있음. 인간만이 할 수 있는 일이 남아있을 거라는 기대는 노동의 미래를 너무 낙관적으로 봄.
🦜우리의 이야기
- 자율주행 기술 등의 진전을 근거로 지나친 예측을 하고 있는 건 아닌지?
- AI는 고학력, 고소득자들의 고숙련 직업, 화이트칼라 직업을 대체하고 있어 더 큰 충격을 안기는 듯.
일자리 위협
직업은 한 번에 사라지지 않으나, 임금, 일자리의 질, 지위가 낮아지며 마침내 소멸. 기술 난이도 증가로 인한 1) 숙련의 불일치, 지위가 낮은 일자리를 꺼리는 2) 정체성의 불일치, 일자리 집중 지역에서 떨어진 3) 지역의 불일치로 인해 새로운 일자리가 생겨도 노동력은 쉽게 이동하지 않음. 기술의 번영을 모든 사람들이 평등하게 누리고 있지 못함. 문제는 분배. 소득 불평등은 불평등 구조를 심화.
🦜우리의 이야기
- 기술적 실업이 발생하는 과정과, 새롭게 등장하는 일자리로 쉽게 이동하지 못하는 이유가 인상적.
- 지금은 미처 생각하지 못했지만 AI로 자동화될 업무들도 있지 않을 것.
- 다만, 기술이 불평등을 심화시키는 유일한 요인은 아니라는 점에 유의해야. 세계화와 같은 다른 요인들도 함께 고려해야.
어떻게 대응해야 하는가?
이미 기계가 인간보다 뛰어난 업무를 교육할 필요는 없음. 큰 정부의 분배자 역할이 더욱 중요. 고소득자와 자본가의 세금을 인상하고, 조건적 기본소득을 분배할 것. 빅테크가 독점한 사용자 데이터가 정치적 힘을 행사하는 것을 감시해야 함. 노동이 없는 삶에 의미와 목적을 찾을 수 있어야 함.
🦜우리의 이야기
- 컴퓨터가 인간보다 계산을 잘한다고 계산하는 법을 가르치지 않는 게 옳은 교육인가? 무엇을, 어떻게, 언제 배우고 가르쳐야 할까? 잘 설계된 평생 교육 시스템이란 무엇인가?
- ‘조건적’ 기본소득이라니, 무엇을 조건으로 해야할까?
- 데이터 생산자에게 부를 분배하는 기획을 구체적으로 상상해 볼 수 있을까?
- 지금도 일부 산유국 시민들은 자신은 일할 필요가 없고, 다만 ‘사유(think)’한다고 답한다던데, AI 기술 발전으로 생산성이 높아지면 그런 상태가 되는 것일까? 노동이 사라진다면, 좋은 삶을 사는 데 어떤 기술이 필요할까?
#feedback
오늘 이야기 어떠셨나요?
여러분의 유머와 용기, 따뜻함이 담긴 생각을 자유롭게 남겨주세요.
남겨주신 의견은 추려내어 다음 AI 윤리 레터에서 함께 나눕니다.