줌 아웃: AI 윤리의 의미 넓혀보기
AI 에이전트의 안전에 대한 사회기술적 관점, 그리고 지금 우리가 바둑에 주목해야 하는 이유.
성찰적 리터러시는 인공지능과 함께 변화하는 자기 자신, 나아가 자신을 둘러싼 다양한 관계에 대해 깊이 돌아볼 수 있는 역량을 가리킵니다.
—김성우, <인공지능은 나의 읽기 쓰기를 어떻게 바꿀까, p.53>
1. 알파고가 지나간 자리
2. AI 안전에 대한 사회기술적 접근
알파고가 지나간 자리
by 💂🏻죠셉
지난 11월 1일, 서울대학교 인공지능 ELSI 연구센터에서 주최한 <인공지능과 창의성의 미래> 특강에 다녀왔습니다. 평일 낮에 대학교 강의실을 십수 년 만에 다시 찾은 이유는 이날의 연사가 전 프로 바둑 기사, 이세돌 사범(이하 이세돌)이었기 때문이었는데요. 2016년 알파고와 이세돌의 대국은 AI 역사를 되짚는 콘텐츠라면 국내외 가리지 않고 빠짐없이 언급되는 역사적 순간이기에 8년이 지난 지금, 당시 모든 것의 중심에 있었던 그의 현재 생각이 무척 궁금했습니다. 후술하겠지만, ‘알파고 이후의 바둑’에 주목해야 하는 이유가 있습니다. 생성형 인공지능이 촉발한 변화들과 맞물려 세상이 어떻게 변화할 것인지 추측만 난무한 상황에서 바둑은 이미 그 변화를 겪은 영역이기 때문이죠. 일종의 케이스 스터디인 셈입니다.
이세돌의 바둑
알파고 대국으로부터 3년 후인 2019년 은퇴를 선언한 이세돌의 근황과 알파고 대국과 관련된 각종 비화도 흥미로웠지만 (비슷한 내용이 담긴 구글과의 인터뷰 영상), 이날 많은 사람들에게 각인된 표현은 ‘예술로서의 바둑’이었을 것 같습니다. 그는 바둑 역사에 남을 ‘명국’을 남기는 것이 끝내 이뤄지지 않은 자신의 꿈이었다고 회고합니다. 그런데 이 명국은 혼자서 만들 수 있는 것이 아니며, 바둑판을 두고 마주 앉은 두 사람이 극도의 집중력을 발휘하는 가운데 서로를 향한 존중과 배려를 한 수, 한 수에 담을 때만 가능합니다. 즉, 바둑은 대국 중 주고받는 의도의 교환, 그리고 교감을 통해 완성되는 2인 예술이라는 것이죠. 대국 이후 나뉘는 승패가 전부는 아니라는 말도 덧붙였습니다. 예술에는 정답이 없기에, 불확실성 앞에서 자신만의 길을 개척해 나가는 과정이 그 자체로 누군가에게는 영감이 되며, 목적이 된다는 의미겠죠.
지난 8년을 회고하는 이세돌은 인공지능에 대해 다소 복잡한 심경을 가진 것처럼 보였지만 그 와중에 주된 감정은 슬픔과 아쉬움이라는 인상을 지울 수 없었습니다. 특히 그를 ‘바둑에서 인공지능을 이긴 마지막 인간’으로 남게 한 제4국이 바둑에 대한 회의감을 심어줬다는 점이 큰 아이러니였죠. 알파고의 버그를 유도하려는 목적을 가지고 둔 제4국은 오로지 이기기 위한 바둑이었고, 그간 자신의 바둑 철학을 부정하는 결과를 낳았다는 것입니다. 하지만 3년 후, 바둑 기사로서 최전성기에 있었던 이세돌이 다소 이른 은퇴를 결심하게 된 결정적인 이유는 알파고 이후 바둑에 찾아온 변화 때문이었는데요. ‘더 이상 내가 알던 바둑이 아니었다’고까지 표현한 변화는 대체 무엇이었을까요?
알파고 이후의 바둑
2016년 이후 바둑은 많은 부분에서 이세돌이 그것을 예술이라 여긴 이유와는 반대로 전개됐습니다. 이제 프로와 아마추어를 막론하고 모두가 쉽게 접근할 수 있는 AI 프로그램을 통해 바둑을 배우는 게 당연해졌습니다. 저도 초등학교 시절 4년 정도 바둑을 배웠는데요. 당시 유명 바둑 기사의 대국이 기록된 ‘기보’ 전체를 외우는 방식으로 공부했던 기억이 납니다. 반면 이제 바둑을 배우려 하는 사람 영감의 원천은 AI의 연산 능력에 기인합니다. 바둑 전설들의 기보를 모두 학습한 AI가 승률을 가장 높여주는 한 수를 계산해 주니까요. 자신이 고뇌하며 둔 한 수가 누군가에게 영감이 되길 바랐다는 이세돌이 회의를 느낀 지점이 여길 겁니다.
배움의 과정이 매우 지난한 걸로 유명했던 바둑의 장벽이 낮아지며, 이제 AI의 훈수를 기계적으로 암기하면 누구나 비교적 단기간에 일정 수준 이상의 실력을 쌓을 수 있습니다. 이론적으로는 꾸준히 쇠락의 길을 걷던 바둑 저변을 넓히는 데 도움이 될 수 있다는 시각도 있습니다. (통계를 보면 실제로는 감소했지만, 여기엔 여러 복잡한 요인이 존재합니다) 이제 프로 바둑기사의 랭킹이 인공지능과의 일치율과 정비례하는 시대가 열렸습니다. 현재 세계 바둑 랭킹 1위인 신진서 9단의 별명이 ‘신공지능’인 이유입니다. 바둑 기원을 통한 정규교육 대신 어린 나이부터 AI로 바둑을 배운 배경부터 말 그대로 인공지능 시대 바둑을 대표하는 인물이라 할 수 있겠습니다.
많은 이들이 이를 어쩔 수 없는 변화의 과정이라고 수용하면서도 한편으론 인공지능을 통한 학습이 획일화를 일으켜 개개인의 고유한 기풍(바둑을 두는 스타일)이 사라질 것이란 우려를 표하고 있습니다. 또한 딥러닝 기반의 AI는 통계적으로 승률이 가장 높은 수를 제안해 줄 수는 있지만, 왜 그런지를 설명해 주지는 못하기에 앞서 말한 ‘의도’에 대한 성찰이 부족한 암기 위주의 바둑만 남을 것이라는 지적도 있습니다. 여러모로 이제 바둑은 평생을 들여 정진해야 하는 예술보다는 (이세돌의 표현을 빌리자면) ‘마인드 스포츠’ 에 가까워진 것처럼 보입니다.
나가며
이세돌의 바둑이 알파고 이전의 바둑 전체를 대변한다고 말할 수는 없을 것입니다. 과거에도 누군가는 오로지 이기기 위해 바둑을 뒀을 수도 있듯, 앞으로의 누군가도 AI의 훈수를 받으며 바둑을 통해 자신만의 예술을 추구할 가능성도 배제할 수 없습니다. 알 수 없는 미래에 대해서는 어느 정도 열린 마음을 가질 필요가 있겠죠. 다양한 입장 차이는 결국 ‘바둑의 가치’에 대한 견해의 차이로 볼 수 있습니다.
어쨌든 바둑은 이미 돌이킬 수 없는 변화를 겪었고, 어느 날 찾아온 기술로 인해 진입 장벽이 급격히 낮아져 비교적 소수만이 이를 수 있었던 숙련의 경지가 모두의 것이 된 상황. 어쩐지 우리에게 낯이 익습니다. 생성형 AI로 인해 음악과 글쓰기, 디자인 등 예술 전반에 걸쳐 이미 일어나기 시작한 변화를 떠올리게 되죠. 어쩌면 이 모든 변화 속에서 우리의 고민이 필요한 건 ‘과정 없는 결과물’이 아닐까요? 비효율적 시간의 축적 없이도 AI의 도움으로 이세돌과 같은 위대한 바둑 기사를 이길 수 있게 되고, 한강 작가의 글을 한 번 읽어보지 않고도 그와 유사한 작품을 수천 개 생성해 낼 수 있다는 사실은 우리 자신에 대해 무엇을 말해줄 수 있을까요? 생성형 AI가 가져다준 편의와 전능감 너머 유실되는 가치, 경험들에 대해 다시 생각하게 되는 고마운 시간이었습니다.
AI 안전에 대한 사회기술적 접근
by. 🤔어쪈
시간이 많이 지나긴 했지만, 지난 레터에서 저는 AI 안전에 대한 논의가 단일 AI 모델이 안전성을 갖추도록 하는 것을 넘어서야 한다고 주장한 바 있습니다. 당시 서두에서 다룬 칼럼 저자인 대런 애쓰모글루(Daron Acemoglu)는 그새 노벨경제학상 수상자가 되었고, 요즘 AI 업계 키워드라고 소개한 AI 에이전트(agent)는 이제 눈에 보이는 애플리케이션 단계로 나아가는 중입니다. 이 기술의 근간 원리는 여전히 ‘확률론적 앵무새’일지 몰라도, 기능적으로 특정 작업 또는 목표 수행을 위해 검색과 같이 별도로 구현된 API나 소프트웨어를 활용한다거나, 프로그래밍 코드를 직접 작성하여 실행한다거나, 아예 화면을 띄워놓고 가상의 마우스와 키보드로 컴퓨터를 사용하는 모습은 분명 ‘AI 에이전트’입니다.
당연하게도, 기업을 중심으로 AI 에이전트가 해낼 수 있는 일들과 그것이 가져올 변화에 대한 기대감이 커지고 있습니다. 하지만 앞서 나열한 것과 같은 AI 에이전트의 능력이 아무리 놀랍더라도, 이것이 단순히 AI 모델이 자체 역량만으로 수행하는 것이 아니라는 사실에 다시금 주목할 필요가 있습니다. 지금의 생성형 AI 붐을 일으킨 오픈AI의 챗GPT는 출시 당시 GPT-3.5라는 AI 모델에 대화형 인터페이스를 붙인 비교적 단순한 형상을 갖고 있었습니다. 앞으로 우리가 마주하게 될 AI 서비스에서는 더 이상 그와 같은 간단한 구조를 찾아보기 힘들 예정입니다. AI 에이전트가 제대로 작동하기 위해서는 훨씬 복잡한 시스템이 필요하기 때문입니다.
통상 이러한 맥락에서 시스템이란 다양한 기술적 요소로 구성된 복합체를 의미합니다. 예컨대 AI 시스템의 도식은 전공자나 IT 업계 사람이 아니라면 들어도 무슨 말인지 모를 단어로 가득차 있겠죠. 하지만 이와 같은 ‘기술 시스템’은 결국 사람들에 의해 만들어지고, 또 사람들을 위해 작동합니다. 사람들은 기술들을 개발하기 위해 각종 자원을 동원하고, 또 기술들을 이용하면서 그로 인해 여러 영향을 받기도 합니다. 요컨대 기술 시스템은 사람들이 살고 있는 ‘사회 시스템’과 결코 떼어놓을 수 없습니다. 모든 시스템은 사회기술시스템(sociotechnical system)입니다. AI 에이전트를 비롯한 AI 시스템 역시 마찬가지입니다.
그렇다면 사회기술시스템으로서의 AI 에이전트에 있어 AI 안전은 무엇을 의미할까요?
AI에 대한 사회기술적 접근을 강조해 온 비영리 연구기관 Data & Society의 정책 디렉터 브라이언 첸(Brian Chen)은 <AI 정책이 사회기술적 관점을 필요로 하는 이유>라는 칼럼을 통해 이른바 AI 위험(risk)이 애초에 AI 기술, 특히 AI의 기술적 능력 또는 그 부족으로 인해서만 발생한다는 사고방식에서 탈피해야 한다고 주장합니다. AI 위험은 엄밀히 말해 기술과 사회의 접점(인터페이스)에서 발생하며, 따라서 이를 방지하기 위해서는 AI의 성능뿐만 아니라 기술을 둘러싼 노동 행위와 환경, 사회 구조와 관계, 의사결정권력의 작용 등의 사회적 역학 역시 충분히 고려해야 한다고 말합니다.
이전 레터에서 지적했던 대로, AI 위험을 방지하고 AI가 보다 이로운 방식으로 작동하도록 만들기 위해서는 기술적인 접근만으로는 부족합니다. 숱하게 제기된 AI의 위험성과 실질적인 피해에 대해 그동안 AI 안전이라는 용어 아래 제안된 대응 방안은 대부분 기술적인 보완책이며, 주로 AI 모델에 초점을 맞춥니다. 전세계 곳곳에서 설립되고 있는 AI 안전 연구소와 AI 기업들은 최신 AI 모델이 심각한 오작동 또는 악용, 통제 불가와 같은 위험 요인이 없는지 평가하고 기술 표준을 마련하는 일에 힘을 기울이고 있습니다.
하지만 이러한 AI 안전 관련 노력이 충분한지, 특히 AI 에이전트 애플리케이션이 등장하는 현재 맥락에서도 유효할지는 의문입니다. 지금까지의 생성형 AI 시스템은 대부분 챗GPT 출시 초기 때와 마찬가지로 인간 사용자와의 직접적인 상호작용 외로 별다른 인터페이스를 갖고 있지 않습니다. 물론 그것만으로도 청소년 정신건강에 부정적인 영향을 끼치는 사례가 발생했고, 부적절한 AI 생성 콘텐츠의 유포와 범람 역시 큰 문제로 대두되고 있죠. AI 에이전트는 구조 특성상 훨씬 다양한 인터페이스를 가집니다. ‘AI 모델-인간 사용자’를 넘어 훨씬 더 복잡하게 재편성된 네트워크 하에서는 AI 모델을 중심으로 마련중인 AI 안전 조치들이 무력해질 가능성이 높습니다.
AI 에이전트의 활동 영역이 넓어질 수록 기술과 사회의 접점이 많아짐에 따라 보다 복잡다단한 맥락에서의 위험과 안전, 더 나아가 윤리 문제 역시 훨씬 자주 발생할 것입니다. 그런데 사실 우리는 이처럼 도저히 답이 없는 것만 같은 상황을 수도 없이 겪어왔고 또 헤쳐나가고 있습니다. 바로 정치라는 제도를 통해서 말이죠. 그 결과로 내놓는 정책은 완벽하진 않아도 이 사회가 어찌저찌 존속할 수 있도록 지탱하고 있습니다. 어쩌면 우리는 AI 안전 기술보다 AI 안전 정책에 더 관심을 가져야 하는 건 아닐까요?
#feedback
오늘 이야기 어떠셨나요?
여러분의 유머와 용기, 따뜻함이 담긴 생각을 자유롭게 남겨주세요.
남겨주신 의견은 추려내어 다음 AI 윤리 레터에서 함께 나눕니다.