IGF 탐방기 / 다이오스 윤리 모델
이해당사자의 이야기를 듣는 것에서 출발합니다
"관타나모 감옥의 아래층 침대는 제가 찜했어요"
—글렌 그린월드(박수민, 박산호 역), <스노든 게이트>, p.140.
IGF 탐방기: 기술의 미래를 약속하는 민주주의
by 🍊산디
인터넷을 주제로 전세계 시민단체, 연구자들이 모이는 자리가 있습니다. UN은 매해 인터넷 거버넌스 포럼(Internet Governance Forum, IGF)이라는 다양한 이해당사자들이 인터넷과 관련된 공공 정책에 대해 논의하는 포럼을 개최합니다. 학술대회가 아닙니다. 공청회, 정책 평가회의도 아니죠. 민간, 공공 부문 다양한 분야의 사람들이 모여 의견과 정보를 공유하는 자리입니다.
올해 IGF는 10월 8일부터 12일까지 닷새간 교토에서 개최되었습니다. 총 8개의 서브 주제에는 AI 등 신생기술도 포함되어 있었죠. 저도 운이 좋아서 IGF 현장에 다녀올 수 있었습니다. 정말… 전에 없던 경험이었어요. 🦄유니콘을 보고 온 듯한 이 기분을 여러분과 공유해볼까 합니다.
IGF는 미국이 인터넷 주소를 관리하는 것에 각국이 이의를 제기하면서 시작되었습니다. 인터넷 전반의 공공 이슈에 대해 인터넷의 이해관계자 모두가 논의할 수 있어야 한다는 의견에 힘이 실리면서 2006년 UN 산하 포럼으로 설립되었죠. 매 해 IGF에는 150여 국가에서 온 4천여 명의 사람들이 모입니다.
인터넷 기술에 대한 미국 중심의 헤게모니를 비판하며 출발한 IGF는 다양한 이해당사자의 의견 수렴을 매우 중시합니다. 시민단체와 학계에서 제안하고, 심사를 통과한 200여 개 세션들이 여러 공간에서 동시다발적으로 개최되죠. 이해당사자의 참여와 교류 그 자체가 목적이고, 내용이라고 해도 과언이 아니랄까요.
그러다보니 한국에서는 보지 못한 낯선 장면이 많이 발견됩니다.
일단, 포럼장에 어린이들이 돌아다닙니다. 자녀와 함께 오는 게 흔해요. 아프리카, 남아메리카 대륙에서 온 참가자들도 많이 만날 수 있습니다. 한국에서는 낯선 범남반구의 기술, 정책 현황을 쉽게 들을 수 있어요. 포럼장 곳곳에는 스탠딩 마이크가 세워져 있습니다. 누구든 자유롭게 어떤 의견이든 개진할 수 있어요. 물리적 접근성을 고려한 일본 정부는 포럼이 열리는 5일 동안 무료 전철 이용권을 지급했습니다. 포럼 등록은 무료이고, 식사도 제공됩니다.
AI에 대한 논의도 활발했습니다. 많은 참가자들이 AI를 개발하고 서비스를 운영하는 각 단계에 인간이 주요 의사결정을 내려야 한다는 휴먼인더루프(human-in-the-loop, HITL)을 강조했습니다. 한편, 선진국의 AI 규제가 특히 범남반구 국가들에는 적용되기 어렵다는 내용도 지적되었죠. AI를 규율하는 국제기구를 조직하기 위한 초기 논의도 진행되었습니다.
인터넷과 마찬가지로 AI는 특정 국가만의 서비스가 아닙니다. 그 가치사슬이 전지구적으로 복잡하게 얽혀 있죠. 이러한 까닭에 미국 또는 유럽 일방이 주도하는 AI 프레임은 지속가능하지 않습니다. AI의 미래를 약속하는 자리가 있다면 IGF의 모습과 비슷한 모습이지 않을까요? 기술의 미래를 민주적으로 견제할 공간을 상상할 때에 IGF가 도움이 되기를 바랍니다.덧붙이는 글* 🤔어쪈: 주로 AI에 관심을 기울이다가 IGF에서 다루는 다양한 주제들을 보니 역시 세상은 넓고 풀어야 할 문제는 많다는 깨달음을 다시금 얻었어요. 대부분 세션이 온라인으로도 참석이 가능한 것 같아 내년부터 관심 있는 주제 세션은 챙겨봐야겠네요!
이용자와 함께 만드는 AI 윤리 모델
by 🌏다솔
다이오스(daios)는 2021년에 시작된 스타트업입니다. 이용자와 함께 알고리즘을 만드는 AI 윤리 솔루션을 만들고 있죠. 이 솔루션은 현재 학습 중인 데이터가 AI에 어떤 영향을 미치는지 설명하고, 숨겨진 윤리적 가치를 드러내며, 이용자가 알고리즘에 대해 익명으로 피드백을 제공할 수 있도록 돕습니다.
AI 모델에 윤리 레이어를 추가하기 위해 지도 미세조정(Supervised Fine-tuning)과 강화 학습(Reinforcement Learning)과 같은 다양한 접근 방식들이 시도되고 있습니다. 대표적으로 언급되는 사례 중 하나가 오픈AI 얼라인먼트 팀이 취한 방식이죠.
오픈AI는 GPT-3를 미세 조정하여 모델을 인간의 의도에 맞게 조정했습니다. 미세 조정을 위한 훈련 데이터셋은 라벨러에 의해 수집되었습니다. 성별, 인종, 국적, 연령, 교육 수준에서 대표성을 고려한 라벨러를 고용했다고 하지만 오픈AI 연구팀의 가치와 이미 일치하는 데이터만 사용해, 근본적인 윤리 문제를 해결하진 못했습니다.
다이오스는 AI 모델을 개발진 실무자의 가치가 아닌, 다양한 이용자의 가치와 일치시키는 것을 목표로 합니다. 아직 공개되진 않았지만, 다이오스는 AI 모델에 대해 이용자들이 도덕, AI 학습 방식에 대해 피드백을 제공할 수 있는 인터페이스를 만들고 있습니다.
AI 학습 데이터는 객관적일 수 없습니다. 특정 관점으로부터 독립된 데이터를 생성하는 것은 불가능하죠. 기술은 항상 숨겨진 윤리적 가정으로 가득 차 있으며, AI의 경우 이러한 가정이 증폭되고 확대됩니다. 다이오스는 솔루션을 체험해볼 대기자 명단을 받고 있습니다. 관심 있으신 분들은 신청 링크로 신청해보시는 것도 좋을 것 같아요.