생성 AI 선거는 이미 시작했다
챗GPT 열풍 이후 민주주의 최대 시험대
📌공지사항📌
🦜AI 윤리 레터 메일주소가 변경됩니다.
Gmail 스팸 정책 변경에 따른 스티비 시스템 조정에 따라, 2월 1일부터 뉴스레터 발신자 주소가 변경됩니다.
혹시 2월 초에 레터가 안 오면 저희 주소가 달라져서일 수도 있으니 스팸함을 확인해 주세요!
이제 🦜AI 윤리 레터 ‘응원하기’가 가능합니다.
디지털 시민 광장 캠페인즈에서 🦜AI 윤리 레터에 응원금을 보내주실 수 있어요. 링크에서 ‘응원하기’ 버튼을 누르시면 됩니다.
뉴스레터를 받아 보며 유용하거나 재미있다고 느끼셨다면 응원을 고려해주세요.
🦜AI 윤리 레터는 책읽기 모임 ‘AI 윤리 북클럽’ 구성원 일부가 운영진을 맡아, 본업 외의 시간을 쪼개 진행하는 사이드 프로젝트입니다.
재미있어서 하는 작업이지만, 뉴스레터 운영에 사용하는 각종 서비스 이용료 및 자료조사와 작성 시간 등 이런저런 유무형의 비용이 발생하는데요. 여러분이 응원해 주신 금액으로 비용을 보전하여 오래오래 뉴스레터를 운영할 수 있다면 영광이겠습니다.
물론, 시간을 내어 레터를 읽어주시는 것 자체로 항상 감사드립니다.
AI 윤리 뉴스 브리프
2024년 1월 다섯째 주
by 🤖아침
1. 생성 AI 선거는 이미 시작했다
- 조 바이든 미국 대통령의 목소리를 모방한 로보콜(ARS 전화)이 미국 뉴햄프셔주 유권자들에게 민주당 예비선거에 참여하지 말라는 메시지를 전달해, 주 검찰이 수사에 나섰습니다.
- 미국의 한 스타트업은 민주당 경선 후보 딘 필립스의 말투를 모방한 챗봇을 오픈AI API로 개발하다가 오픈AI로부터 계정을 차단당했습니다.
- 올해 전 세계 76개국에서 선거가 시행됩니다. 생성AI 붐 이후 민주주의 절차가 마주한 가장 큰 시험대입니다. 우리는 AI를 활용한 오정보에 어떻게 대응해야 할까요?
2. 성착취물 + 저작권 침해 = 생성 AI 산업의 악몽
- 성착취 이미지를 생성해 공유하는 텔레그램 커뮤니티에 테일러 스위프트를 묘사한 이미지가 등장했고, 이 이미지가 트위터에서 널리 퍼졌습니다.
- 뉴욕타임스는 챗지피티가 저작물인 기사 내용을 그대로 뱉는다며 오픈AI에 소송을 제기했는데요. 최근 보도에서는 이미지 생성 툴 미드저니를 이용해 만든 조커, 마리오 등 명백한 저작권 침해 사례를 선보였습니다.
- 성착취물 등에 의한 인격권 침해와 유명 캐릭터 등의 지식재산권 침해는 생성 AI 기술의 현존하는 해악이자, AI 업계가 지닌 막대한 리스크입니다. 업체들은 서비스 이용약관, 입/출력단에서의 필터링 등으로 대응하고 있지만 근본적인 해결책이 될 것 같지는 않습니다.
3. AI 교과서는 우리 아이 데이터 채굴기?
- 교육부가 속도 내어 추진하는 AI 디지털 교과서. 2025년부터 도입 예정입니다.
- 이 시스템을 이용해 학생이 배우고 교사가 지도한 기록은 교과서 출판사, 에듀테크 업체 등 사교육 업체에 제공될 예정입니다. 참여 업체 입장에서는 학생과 교육 활동에 관한 귀한 자료를 손쉽게 얻는 셈인데요.
- 과정의 투명성, 이해관계자 참여 측면에서는 매우 미흡해 보입니다. 국민일보 기사 인용입니다. “학생과 학부모, 교사들의 의견 수렴은 아예 건너 뛴 상태다. 교육부 관계자는 ‘(학기 초) 학생·학부모 동의 절차는 있을 것’이라며 ‘동의하지 않는 학생 수업을 어떻게 할지는 검토해보지 않았다’고 말했다.”
4. AI 번역/첨삭기 사용 금지, 이유는 데이터 유출
- 해외 대형 출판사들이 판권 계약시 “AI 번역 금지”를 요구한다는 보도입니다. 명목은 ‘오역 방지’지만, AI 번역기에 입력한 원문 데이터를 제삼자가 수집할까 우려한다는 관측이 설득력 있어 보입니다.
- AI 번역기를 실무에 활용하고 있는 번역가 및 업체 입장에서는 AI 번역 금지 요구가 생산성 제약으로 작용할 수 있습니다. 해외/국내 출판사, AI 번역 서비스, 번역가의 권익이 맞물려 한층 복잡해진 구도입니다.
- 논문 편집 보조/첨삭 서비스를 통해 미발표 원고가 AI 학습자료로 포획되기도 합니다. 작년 미국 국립보건원(NIH)은 기밀 유출을 우려하여 지원서/제안서 피어리뷰에 AI 사용을 금지했습니다.
5. 데이터 크롤링을 마다하지 않는 우익 매체들
- 영미권 언론매체 웹사이트에 AI 데이터 수집 거부 조치가 속속들이 시행되는 가운데, 유독 우익 매체는 크롤링 거부 설정을 하지 않는 경우가 많다고 합니다. LLM 학습데이터에 우파 성향을 강화하기 위한 음모일까요?
- 그렇다고 보기에는 그냥 거부 설정을 까먹고 안 한 경우도 있다고 해요. 지금부터 새로 수집되는 언어 데이터보다는 이미 존재하는 데이터가 아무래도 훨씬 많아서, 큰 영향을 준다고 보기 힘들다는 전문가 의견도 있고요.
- 하지만 데이터를 공개할 것인지 말 것인지, 웹사이트 크롤링 정책을 명시하는 robots.txt 파일은 콘텐츠 소유자에게 커다란 딜레마를 안겨주는 현장이 되었습니다.
- 경쟁사의 사이트맵을 베껴 AI로 유사한 컨텐츠를 만든 뒤 트래픽을 가로채는 “SEO 도둑질”을 당당하게 자랑하는 분위기 속에서는 더욱 그렇습니다.
6. 이스라엘군의 ‘대량 살인 공장’
- 국제사법재판소가 이스라엘에 ‘집단학살 방지’를 명령한 지금, AI 시스템을 활용해 살상 표적을 선정하는 이스라엘의 “대량 살인 공장”을 상기할 필요가 있습니다.
- 이스라엘군이 사실상 가자 지구 전체를 전장으로 간주하는 상황에서, 표적을 추천하는 합소라(’복음’) 시스템은 폭격을 빠르게, 쉼 없이 지속하는 데 기여하는 ‘집단학살 AI 기술’입니다.
- 데이터 기반 폭격이라고 해서 정확한 것은 아닙니다. 이스라엘군 대변인이 가자 폭격의 초점은 “정확도보다 피해 규모”라고 한 데서 드러나듯, 지금 가자의 상황은 ‘정밀하고 국제법을 준수하는’ 기술이라는 명목에서 ‘산업적 규모로 살상을 효율화하는’ 기술로의 태세 전환을 드러낸다고 루시 수크만 교수는 지적합니다.
🦜
같이 읽어도 좋을 글
- 인공지능이 만드는 모두의 딥페이크
- 뉴욕타임스 소송에 대한 오픈AI 입장문 (2024-01-15)
- 이번 주 학급 분위기 평점 3.6점 (2023-06-05)
- 오픈AI: 빨간 휴지 줄까? 파란 휴지 줄까? (2023-10-11)
- 내년으로 들고 갈 질문 (2023-12-06)
- 인공지능이 만드는 모두의 딥페이크
- 뉴욕타임스 소송에 대한 오픈AI 입장문 (2024-01-15)
- 이번 주 학급 분위기 평점 3.6점 (2023-06-05)
- 오픈AI: 빨간 휴지 줄까? 파란 휴지 줄까? (2023-10-11)
- 내년으로 들고 갈 질문 (2023-12-06)
📅
캘린더
- AI Justice 연구조교 모집 골드스미스 런던 대학교 (연구책임자: Lina Dencik), 지원마감: 2024-02-04
- 포킹룸 2024 오픈콜 리서치랩 지원마감: 2024-02-08전시 작품 공모 지원마감: 2024-02-29
- AI Justice 연구조교 모집 골드스미스 런던 대학교 (연구책임자: Lina Dencik), 지원마감: 2024-02-04
- 포킹룸 2024 오픈콜 리서치랩 지원마감: 2024-02-08전시 작품 공모 지원마감: 2024-02-29