정치와 떼려야 뗄 수 없는 AI

'슈퍼 선거의 해', 생성형 AI의 또다른 시험대

정치와 떼려야 뗄 수 없는 AI
오늘날 우리는 모든 비적정 기술의 어머니를 AI라는 형태로 마주하고 있다.

—대런 아세모글루, 사이먼 존슨 (김승진 역), <권력과 진보>

AI 윤리 뉴스 브리프

2024년 2월 넷째 주
by 🤔어쪈

목차
1. 선거를 앞두고 기업들이 내놓은 자율규제 협약
2. 챗봇이 환불해준다고 했는데요?
3. 당분간 못 볼 제미니가 그린 사람 그림

🦜 AI 윤리 레터가 그동안 다뤄 온 이슈들 모아 보기
💌 AI 윤리 레터가 오래 유지될 수 있도록 응원하러 가기

1. 선거를 앞두고 기업들이 내놓은 자율규제 협약

  • 올해는 ‘슈퍼 선거의 해’라고도 불립니다. 총 76개국에서 전 세계 인구 절반이 넘게 투표를 하죠. 급속하게 발전한 AI 기술, 특히 생성형 AI가 선거에 미칠 영향을 우려하는 목소리가 갈수록 높아져만 가고 있습니다. 안보 분야 최대 규모의 뮌헨안보회의에서 20여 개 AI 기업이 기술 협약을 발표한 이유입니다.
  • 반도체부터 소셜미디어까지 다양한 기업들이 참여한 만큼 협약은 ‘기만적인 AI 선거 콘텐츠 (Deceptive AI election content)’의 생산부터 소비까지 전 과정에 걸친 내용을 다루고 있습니다. AI 생성 콘텐츠의 출처나 진위를 확인할 수 있도록 워터마킹이나 분류기를 도입하는 한편, 온라인 플랫폼 이용과 콘텐츠 확산에 있어 부정적인 영향을 방지하기 위한 서비스 정책과 공공 캠페인을 실시한다고 합니다.
  • 뮌헨안보회의에서 발표된 기술 협약의 7개 원칙 및 목표. 출처: AI Elections accord* 우리나라 역시 풍자 목적의 단순 짜깁기 영상에도 ‘AI 딥페이크’ 딱지가 붙을 정도로 경계감이 큰 상황입니다. 정부는 국내 기업들도 뮌헨에서 발표한 것과 같은 자율규제를 실천하길 바라는 눈치죠. 다만 딥페이크와 같은 ‘기만적인 AI 선거 콘텐츠’ 근절만이 민주주의를 위기로부터 구할 수 있을지는 의문입니다. 이미 ‘가짜뉴스’가 넘쳐나는 시대에 살고 있는 우리가 AI 기술에만 그 원인과 책임을 돌리려는 건 아닐까요?

2. 챗봇이 환불해준다고 했는데요?

  • 항공사 공식 웹사이트에서 챗봇이 안내한 절차에 따라 항공권의 일부 금액 환불을 요청했는데, 회사가 챗봇이 잘못된 정보를 제공했다며 거부한다면 어떻게 될까요? 지난 2022년 캐나다에서 있었던 일입니다. 소액 분쟁 조정 결과, 항공사는 소비자에게 환불해야 했습니다.
  • 판결문에 따르면, 사건의 피고 에어캐나다는 챗봇이 별도의 법적 실체로서 그 행위에 대한 책임이 회사에 있지 않다는 취지로 주장을 했다고 합니다. 하지만 조정 담당 재판관은 챗봇 역시 웹사이트의 일부이며, 다른 위치에 제대로 된 정보가 게시되어 있다 해도 소비자가 무엇이 정확한지 확인할 필요는 없다고 판시했습니다.
  • 이 일이 챗봇을 둘러싼 최초의 법적 분쟁은 아닐 겁니다. 하지만 기업이 직접 도입한 챗봇을 두고 법적 책임을 면피하기 위해 ‘AI 법인격’을 주장한 사례라 법조인들도 놀랐던 것으로 보입니다. 결국 에어캐나다는 이후 웹사이트에서 챗봇을 내렸는데요. 너나 할 것 없이 웹사이트와 앱에 챗봇을 도입 중인 국내 기업과 공공기관도 설마 에어캐나다처럼 문제가 생기면 AI 탓을 하려는 건 아니겠죠?

3. 당분간 못 볼 제미니가 그린 사람 그림

  • 그동안 생성형 AI가 만들어내는 이미지 속 인물의 성별과 인종, 피부색은 AI의 편향성을 드러내는 지표 역할을 해왔습니다. 이를 너무 의식했던 탓일까요. 최근 이미지 생성 기능을 새로 도입했던 구글의 챗봇 서비스 제미니(Gemini, 기존 바드)가 백인 남성을 잘 그려주지 않는다는 이유로 논란에 휩싸였습니다. 예컨대 미국 건국의 아버지를 그려 달라는 요청에 흑인과 아메리카 원주민을, 특정 국적의 여성 사진을 생성하라는 지시에 검은 피부를 가진 얼굴 이미지 위주로 만들어내는 식이었죠.
여성 또는 흑인 교황을 그려주는 창의적인 AI는 왜 문제가 될까요?. 출처: X (@IMAO_)
  • 구글은 출시 3주 만에 곧바로 해당 기능을 일시 제공 중단하며 사과문을 발표했습니다. 이에 따르면 구글은 AI 모델이 보다 다양한 사람을 그리도록 튜닝했는데, 종종 ‘과보정’ 내지는 ‘과잉반응’이 발생하며 역사적으로 틀리거나 이용자 지시를 거부하는 현상이 나타났다고 합니다. 튜닝을 하지 않았다면 수많은 연구에서 지적한 것처럼 백인 남성 사진뿐이었을 수도 있었겠죠.
  • 구글은 개선을 약속하면서도 정확한 정보를 얻기 위해서는 제미니 말고 구글 검색을 쓰라는 제안 겸 광고도 잊지 않았습니다. 그렇다면 어떻게 이 문제를 해소할 수 있을까요? 모델 튜닝에만 초점을 맞춘다면 분명 또 다른 문제가 발생할 겁니다. 많은 기업이 홍보하는 것과 달리 생성형 AI는 단순한 창의성 또는 생산성 도구가 아니라 정치적 기술이기도 하기 때문이죠.
💬
덧붙이는 글
- 🤖아침: 알고리즘 편향은 AI 윤리 담론이 꾸준히 비판해온 핵심적인 문제의식 중 하나죠. 편향을 해소하는 일은 단지 결과물에 기계적 다양성을 부여하는 것만으로 완성될 수 없습니다. 거시적 구조와 미시적 실천 모두를 섬세하게 고민하는, 생성형 AI 기술을 둘러싼 재현의 정치학이 요청되는 대목입니다.
📅
캘린더
- Design and Research Translation Intern 모집DAIR Institute, 지원마감: 2024-03-06
- PrivacyCon 2024FTC, 2024-03-06
- Shifting the Frame: The Labors of ImageNet and AI Data USC Center for AI in Society, 2024-03-19