백악관에 집합당한 빅테크

AI 생성 모델 평가에 본격적인 모습입니다

백악관에 집합당한 빅테크
목차
1. 구글 I/O: 구글의 대담하고 책임감 있는 AI
2. 인공지능 선구자 제프리 힌튼, 구글을 떠나 AI의 위험을 경고하다
3. 백악관, AI 기업 대표 초청 회의 후 생성 AI 모델 공개 평가 대회 개최 발표
4. 자동화된 아파르트헤이트
5. 이 주의 인물 카드: 팀닛 게브루

구글 I/O : 구글의 대담하고 책임감 있는 AI

by 🌎다솔

5월 10일, Google I/O 발표가 있었습니다. 구글 기술 및 사회 팀 수석 부사장 제임스는 구글에서 개발하고 있는 책임감 있는 AI 솔루션들을 소개했는데요. 다음은 그 사례입니다.

  • 잘못된 정보 문제 해결 위한 정보 워터마킹
  • 합성 오디오를 감지 위한 도구 개발
  • 인공지능 더빙 서비스에서 오용을 제한하는 보호 장치
  • 대규모 언어 모델과 온라인 대화의 악성을 완화하기 위해 Jigsaw에서 개발한 퍼스펙티브 API 사용
발표 영상 아래에 남겨진 한 사용자의 질문입니다. ‘충분히 책임감이 있나요?(Are you sure enough Responsible?)’ 출처: https://www.youtube.com/watch?v=hLau4-NHMFo

발표 영상에 남겨진 한 사용자의 댓글이 의미심장합니다. 구글은 사용자에게 충분히 책임감 있는 인공지능을 만들고 있는 것일까요? 사용자에게 충분히 책임감 있는 인공지능은 무엇일까요? 🦜AI 윤리 레터와 여러분의 생각을 나눠주세요.

사용자가 상대를 존중하지 않은 표현을 입력하면 입력 상자 왼측 하단에 상대방이 해당 표현을 악성으로 느낄 확률이 나타납니다. 출처: https://perspectiveapi.com/

이번 Google I/O 에서 발표된 솔루션들 중 알파벳의 유닛인 Jigsaw와 구글이 함께 만든 Perpsective API를 구글의 대규모 언어모델에도 적용된다는 내용이 눈에 띕니다. 퍼스펙티브 API는 대화 내용의 악성을 수치화하여 보여주는데요. 웹사이트에서 간단히 체험해볼 수 있습니다. 결과가 마음에 드시나요? 🦜후기를 공유해주세요!


인공지능 선구자 제프리 힌튼,
구글을 떠나 AI의 위험을 경고하다

by. 🎶소소

“갑자기 인공지능이 우리보다 더 똑똑해질 것 같다는 생각이 들었다.”
"나는 AI를 통제할 수 있다고 여겨질 때까지는 AI를 더 확장해야 한다고 생각하지 않는다"

제프리 힌튼이 구글을 떠났습니다. 그가 최근 느낀 인공지능의 위험성과 두려움에 대해 자유롭게 이야기하기 위해서라고 하는데요.

힌튼은 40년간의 인공지능 연구를 후회한다고 했습니다. 인간 지능과 비슷한 지능을 만들고자 했는데, 인간을 뛰어넘는 지능이 출현할 수 있게 되어 두렵다는 것이죠. 그의 두려움은 인간을 초월하는 인공지능은 예측 불가능하며, 제어 불가능할 수 있다는 판단에 근거합니다. 반면 힌튼과 함께 인공지능을 연구했던 얀 르쿤은 그의 두려움에 동의하지 않으며, 기계가 인간을 해치는 일은 없을거라고 말했습니다.

구글을 떠난 제프리 힌튼의 인터뷰로 인공지능의 위험성을 둘러싼 전문가들의 견해 차이가 더욱 선명해졌습니다. 우리는 무엇을 해야할까요? 힌튼의 인터뷰를 들어보고 여러분의 생각을 🦜AI 윤리 레터로 보내주세요.


백악관, AI 기업 대표 초청 회의 후
생성 AI 모델 공개 평가 대회 개최 발표

by. 🤔어쪈

빅테크의 AI 경쟁이 빨라지면서 규제 움직임도 활발합니다. 유럽중국은 생성 AI 규제 정책을 발표했습니다. 미국은 작년 10월 AI 권리장전 청사진을, 올해 1월 국립표준기술연구소에서 AI 리스크 관리 프레임워크를 발표했어요. 그리고 지난 5월 4일, 백악관은 생성 AI 최전선에 있는 4개 기업(오픈AI, MS, 구글, 앤스로픽) 대표를 초청해 AI 서비스 공개 전 안전성 확보를 당부했습니다. 투명성, 검증가능성, 악용 및 공격 방지의 중요성을 강조했다는 것이 백악관의 설명입니다.

AI 서비스의 안전성을 어떻게 검증할 수 있을까요? 백악관은 재미있는 해법을 내놓았습니다. 올해 8월 열리는 세계 최대 해킹대회인 데프콘(DEF CON)에서 회의 참여 4개 기업에 허깅 페이스, 엔비디아, 스태빌리티 AI까지 총 7개 기업의 생성 AI 모델을 공개 평가하는 부대행사, 일명 ‘레드팀 챌린지’를 열기로 한 것이죠. 수천명의 ‘화이트 해커’가 생성 AI의 ‘취약점’을 찾는 대회인 셈입니다.

백악관이 생성 AI ‘문제 원인 제공자’인 기업 대표들과 논의하는 게 적절한지, 생성 AI로 인해 저작권 침해와 일자리 위협을 당하고 있다고 주장하는 창작자들은 왜 초청하지 않는지 비판 목소리도 있습니다. 여러분의 생각은 어떤가요? 🦜AI 윤리 레터에 알려주세요.


자동화된 아파르트헤이트

by. 🍊산디

전쟁은 기술의 가장 잔혹한 모습을 드러냅니다. 엠네스티가 발표한 보고서 <자동화된 아파르트헤이트 - 이스라엘과 점렴된 팔레스타인 영토>는 인권을 무시한 기술이 어떻게 활용될 수 있는지 적나라하게 보여줍니다.

출처 : 앰네스티, <자동화된 아파르트헤이트 - 이스라엘과 점렴된 팔레스타인 영토> 보고서

팔레스타인 정착민은 병원, 교육, 출퇴근 등 집 밖에서 이루어지는 대부분의 활동은 검문소를 통과해야만 합니다. 팔레스타인 정착민만 검문하는 이 검문소는 이스라엘 군인이 지키고 있습니다. 군인은 얼굴을 인식해 상세 정보를 조회합니다. 어떤 정보가 조회되는지 모릅니다. 정보 제공에 동의한 적도 없습니다. 도시 곳곳에 CCTV가 있습니다. 언제든 체포, 심문, 구금당합니다. 팔레스타인 정착민을 ‘관리’하는 이 시스템은 이스라엘 군인의 검문 ‘성과’를 게임화 하여 보여줍니다.

보고서 속 팔레스타인의 모습은 대런 바일러의 책, <신장 위구르 디스토피아>과 매우 유사합니다. 가까이 존재하는 디스토피아를 우리는 어떻게 대해야 할까요? 여러분의 생각을 🦜AI 윤리 레터와 나눠주세요.


🦜
최근 구글을 떠나며 AI의 위험을 경고한 제프리 힌튼은 CNN 인터뷰에서 '앞서 AI 위험을 고발하다 구글에서 밀려난 팀닛 게브루 등의 의견을 더 지지했더라면 하는 후회가 있나?'라는 질문에 '게브루 등이 제기한 문제는 인간을 초월하는 인공지능이 인간을 지배하게 되는 문제보다 존재론적으로 덜 심각하다'라고 답했습니다.

팀닛 게브루는 누구이고 어떤 문제를 제기했을까요?
사진: Kimberly White/Getty Images for TechCrunch

이 주의 인물 카드 : 팀닛 게브루

by 🤖아침

팀닛 게브루는?

인공지능 윤리 분야 대표적 연구자 중 한 명으로, 알고리즘 편향성과 공정성을 다루는 컴퓨터과학자

관점: 대형 모델 위주의 AI연구 추세, AI 하이프 비판

구글 '윤리적 인공지능' 팀 공동수석이던 2020년 말 공저 논문 "확률론적 앵무새의 위험"과 관련 회사와 갈등 끝에 해고당함.

ChatGPT의 부상과 맞물려 다시 주목받은 이 논문은 대규모 언어 모델의 환경비용, 차별과 편향, '이해'가 아닌 '흉내'에만 집중하는 특성, 허위정보 생산 등 위험을 지적.
해고 이후 독립연구소 DAIR를 설립하여 활동.

올 3월 '인공지능 개발 6개월 중단'을 주장하여 이슈가 된 FLI의 공개서한에 대해 게브루 등 '확률론적 앵무새' 저자들은 해당 공개서한이 상상 속 위협에 눈이 팔린 AI 하이프(과대광고)라고 비판. 대신 노동/데이터 착취, 편향/불평등 재생산, 정보 생태계 오염 등 현존하는 문제 해소 위한 규제 요청.

관점: 인종, 젠더 등 다양성 강조

에티오피아 출신 흑인 여성 연구자로서 테크업계 내 다양성 확대를 꾸준히 요청, Black in AI (인공지능 분야 흑인 연구자 커뮤니티) 공동설립.

조이 부올람위니와 함께한 "Gender Shades" 연구에서 얼굴 인식 알고리즘이 인종, 젠더에 대해 차별적임을 검증.

👉 관련 넷플릭스 다큐멘터리 <알고리즘의 편견> 보러가기

팀닛 게브루에 관해서 더 알고 싶다면?


#feedback

오늘 이야기 어떠셨나요?
여러분의 유머와 용기, 따뜻함이 담긴 생각을 자유롭게 남겨주세요.
남겨주신 의견은 추려내어 다음 AI 윤리 레터에서 함께 나눕니다.