내 일자리 뺏어가는 AI?

모든 책임을 AI에게 돌리려는 기업의 이기적인 태도

내 일자리 뺏어가는 AI?
나의 내일은 오늘 내가 무엇을 읽고 기억하려고 했느냐에 달려 있다.

—정혜윤, <아무튼, 메모>
목차

1. 내 일자리 뺏어가는 AI?
2. 아마존에 '이 요청은 처리할 수 없습니다'라는 제품 등장
3. 모르면 모른다고 답하는 AI
4. 군사 및 전쟁 용도로 AI를 사용할 수 있을까요?
5. AI로 생성한 얼굴 사진 구분 가능한가요?
6. 네이버 AI 혐오 Q&A

💌 AI 윤리 레터가 오래 유지될 수 있도록 응원하러 가기

AI 윤리 뉴스 브리프

2024년 1월 넷째 주
by 🌎다솔

1. 내 일자리 뺏어가는 AI? (링크)

  • 전 세계적으로 AI의 급속한 발전으로 인해 해고가 증가하고 있으며, 이러한 현상이 기술 분야에 국한되지 않고 다른 산업 분야로도 확산하고 있습니다. AI의 사용이 늘어났기 때문에 사람들은 일자리를 잃고 있는 것일까요? 아니면 모든 책임을 AI에 돌리려는 기업의 이기적인 태도일까요?
  • 구글은 지난해 전체 직원의 약 6%에 해당하는 12,000명을 해고했으며, 올해 초에도 추가 인원 감축을 실시했습니다. 또한, 미국 금융그룹 시티는 기술 분야 지출 증가와 자동화로 인한 업무 효율성 개선을 이유로 향후 3년간 20,000명을 해고할 계획임을 발표했습니다.
  • AI 도입으로 일터가 원활하게 돌아가기 위해서 직원의 연결 노동이 필요해지고 있으나, 이런 노동은 종종 가치를 인정받지 못합니다. 또한, 플랫폼 노동과 관련된 법적 지위나 노동조건 규제의 부재와 같은 오래된 문제들도 주목해야 합니다. 이러한 문제들은 기술로 해결될 수 없으며 정책적 접근이 필요합니다.

2. 아마존에 '이 요청은 처리할 수 없습니다.'라는 제품 등장 (링크)

  • 아마존은 대형 언어 모델을 사용하여 제품명이나 설명을 생성하는 것을 금지하지 않으며, 작년 9월에는 아마존 판매자들이 제품 설명과 제목을 만들 수 있도록 하는 자체 생성 AI 도구를 출시했습니다.
  • 몇몇 아마존 제품에는 AI가 생성한 것으로 보이는 오류 메시지인 '이 요청은 처리할 수 없습니다.'가 포함되어 있으며, 이는 아마존 상에 스팸성 제품 목록을 올리면서 기본적인 편집조차 하지 않고 있다는 것을 보여줍니다.
  • 아마존 외에도 X, Threads, 링크드인 등에서 AI가 생성한 것으로 보이는 글을 쉽게 찾아볼 수 있습니다. 이러한 AI 생성 콘텐츠의 홍수는 아마존 전자책 마켓플레이스에 이르기까지 모든 플랫폼에 영향을 미치고 있으며, 이 문제는 더 악화할 것으로 보입니다.
'이 요청은 처리할 수 없습니다'라고 적힌 아마존 제품명. 출처: 아마존

3. 모르면 모른다고 답하는 AI (링크)

  • 구글 연구진은 LLM(대규모 언어모델) 답변의 정확도를 확률로 나타내는 신뢰도 점수를 출력하는 어스파이어를 개발했습니다.
  • 어스파이어는 LLM이 생성한 답변이 올바른지 평가하도록 학습시킵니다. 어스파이어를 사용하면 LLM이 해당 답변에 대한 신뢰도 점수와 함께 답변을 출력할 수 있습니다.
  • 구글 연구진은 "어스파이어는 추측보다 정직을 장려함으로써, AI 상호 작용을 더 신뢰할 수 있게 만드는 것이 목표"라고 밝혔는데요. 무조건 AI에 의존하기보다 사람이 정확한 정보를 구분할 수 있는 능력이 더욱 중요해질 것 같습니다.
LLM이 잘못된 답변을 하는 경우. 출처: 구글
💬
댓글
- (🤔어쪈) 구글의 연구 소개 블로그 글을 살펴보니, 어스파이어는 기존 대규모 언어모델(LLM)이 생성한 답변을 자체 평가하도록 만든 연구를 참고해 정확도 평가 작업을 위한 추가 튜닝을 거친 것으로 보입니다. 하지만 결국 LLM의 평가에 의존하는 기법이기 때문에 한계 역시 분명할 것 같아요.

4. 군사 및 전쟁 용도로 AI를 사용할 수 있을까요? (링크)

  • 오픈AI는 기존의 군사용 AI 제공 금지 정책에서 '군사 및 전쟁' 용도로 AI 사용을 금지하는 내용을 제거했습니다. 다만 AI를 무기 개발, 재산 피해, 인명 피해 등에 사용하는 것은 여전히 금지하고 있습니다.
  • 오픈AI는 미국 국방부와 협력하여 오픈소스 사이버보안 소프트웨어 개발에 참여하고 있습니다. 또한, 전역 군인 자살 방지 방법에 대해서도 미국 국방부와 초기 논의를 시작했습니다.
  • 오픈AI는 생성 AI가 정치적 정보 왜곡에 사용되지 않도록 선거 보안 작업에 속도를 높이고 있습니다. 앞으로 오픈AI 기술의 발전이 사회적, 정치적으로 어떤 영향을 미치게 될까요?

5. AI로 생성한 얼굴 사진 구분 가능한가요?(링크)

  • 여러분은 AI로 생성한 얼굴 사진과 실제 얼굴 사진을 구분하실 수 있나요? 다음 링크에 접속하시면 테스트하실 수 있습니다.
  • 특히 백인 얼굴에 대해 AI로 생성한 얼굴 사진이 실제 사람의 얼굴 사진보다 더 실물 같게 인식되는 현상이 나타났습니다. 주로 백인 이미지를 AI 학습 데이터로 사용하기 때문에 발생하는 것으로 보입니다.
  • 호주국립대학교의 에이미 다웰 박사의 연구에서는 AI로 생성된 얼굴과 실제 얼굴을 구분할 때 참가자들의 자신감이 높을수록 실수할 가능성이 높다는 점도 밝혀졌습니다.
  • 기술 발달로 인한 이러한 혼란에 대처하기 위해서는 인터넷상의 판단 시 지나친 자신감에 의존하기보다는 신중한 접근이 필요합니다. 자기 자신에게 엄격한 태도가 가장 안전한 방법이 될 수 있습니다.
AI로 생성한 얼굴과 실제 얼굴 사진 구분 테스트 결과. 출처: 뉴욕타임즈

6. 네이버 AI 혐오 Q&A (링크)

  • 네이버의 AI 서비스가 민주노총에 대해 사실과 다른 내용을 노출했고, 전장연(전국장애인차별철폐연대)에 대한 검색 결과에서도 혐오 표현을 포함한 정보를 노출했습니다.
  • 민주노총 관계자 A 씨가 네이버에 허위 사실과 명예훼손 표현의 시정을 요구했으나, 네이버는 ‘AI라서 결과를 수정할 수 없다’는 식의입장을 보였습니다.
  • 진보네트워크센터의 희우 활동가는 네이버의 사전 시정 부재를 지적하며, 네이버가 AI 생성 결과에 대한 책임을 져야 한다고 주장했습니다. 네이버는 언론 취재 이후에 민주노총과 전장연 관련 Q&A 섹션을 삭제하고, 이에 대한 자체 검토와 개선을 약속했습니다.
  • 희우 활동가는 네이버의 조치가 임시방편이며, IT 기업들이 시스템을 개선하는데 책임감을 가져야 한다고 지적했습니다. AI 편견과 오류를 반영하는 문제에 대해 국내외에서 규제 도입 필요성이 제기되고 있으며, EU는 디지털서비스법(DSA)을 통해 알고리즘 투명성에 대한 책무를 규제하고 있습니다.
언론 취재 뒤 현재는 삭제된 네이버 검색 결과 AI Q&A. 출처: 미디어오늘
📆
소식
- FTC Tech Summit
미국 연방거래위원회 Office of Technology, 2024-01-26 새벽 (한국 시간 기준)
- AI MODELS 프로젝트 연구조교 모집
카 포스카리 베네치아 대학교 (연구책임자: 마테오 파스퀴넬리), 지원마감: 2024-02-29