세상에서 가장 유명한 윤리 딜레마 & 신뢰

굉장한 AI를 만들어내면 끝난걸까?

세상에서 가장 유명한 윤리 딜레마 & 신뢰
과학은 무언가 경이로운 것을 만들어낸다고 다가 아니라 그것의 지지 기반이 될 연료 문제와, 그것을 감당할 환경조건과, 무엇보다도 새로운 교통법 제정 및 교통에 대한 패러다임의 전면 수정 재편 같은, 오랜 시간과 큰 비용과 사회적 합의 등이 결부된 총체적 시스템의 문제라는 것을 말이다.
<구병모, 있을 법한 모든 것>
목차
1. 세상에서 가장 유명한 윤리 딜레마
2. 신뢰: AI가 살아남기 위한 조건

🦜 AI 윤리 레터가 그동안 다뤄 온 이슈들 모아 보기
💌 AI 윤리 레터가 오래 유지될 수 있도록 응원하러 가기

세상에서 가장 유명한 윤리 딜레마

by. 🥨채원

이런 밈을 보신 적 있으실까요? 단연코 현 시대에 가장 널리 알려진 윤리적 딜레마가 아닐까 싶은 트롤리 딜레마(광차 문제)입니다. 트롤리의 딜레마는 영국의 철학자인 필리파 풋 (Philippa Foot)에 의해 고안된 윤리학의 사고 실험으로, 1967년에 출간된 <낙태의 문제와 이중 효과 원칙 (“The Problem of Abortion and the Doctrine of Double Effect”)>에서 처음 소개되었습니다.

사진 출처: Mediachomp 제안해주신 🤔어쪈님 감사합니다.

낙태 문제를 탐구하기 위해 들었던 예시인 이 사고 실험은, 이후에 수많은 윤리 문제를 연구에 사용되어왔습니다. 특히 자율 주행 차량의 윤리학을 다룬 모럴 머신 실험 (The Moral Machine Experiment)에 사용되어 AI 윤리에서도 널리 논의되어 왔죠. 모럴 머신은 온라인에서 누구나 참여할 수 있는 실험으로, 자율 주행 자동차가 직면한 다양한 도덕적 딜레마를 탐구합니다. 출시된 이래 233개국 이상, 4천만 건 이상의 결정을 모으며 꾸준한 관심을 받고 있습니다. 모럴 머신 실험은 2018년 네이처지에 실린 논문을 비롯하여 다양한 학술적 성과를 이루어냈습니다.

이러한 성공과 더불어, 트롤리 딜레마의 한계도 지적되고 있습니다. 트롤리 딜레마는 조금씩 변형하여 다양한 도덕적 의사 결정을 내리는 사고 실험을 하는 데 유용하긴 하지만, 한편으로는 AI 윤리의 논의대상을 물리적이고 기계적인 문제들로 제한한다는 것입니다. 베르겐 대학교의 마리야 슬라브코빅(Marija Slavkovik)과 같은 학자는 이러한 한계는 예컨데 온라인 상 콘텐츠 검열과 같이 정해진 수의 보기가 명확하게 없는 문제에서 극명한 한계를 보인다고 비판합니다.

두 가지 결정 중에 반드시 하나를 선택해야만 하는 이분법적인 접근을 요하는 트롤리 딜레마와 달리, 콘텐츠 검열의 경우 복잡한 스케일 안에서 미묘한 차이에 기반한 다양한 선택 중 하나를 결정해야 하는 경우가 대부분입니다. 예컨대 같은 아동의 사진이라도 아동을 대상으로 하는 성착취물와 전쟁의 참사를 드러내는 사진은 명백히 다른 함의를 가진다는 거죠. 복잡한 사회적 맥락을 고려하지 않고 기계적인 이분법적 잣대를 바탕으로 내리는 의사 결정에는 근본적인 한계가 존재할 수 밖에 없습니다.

사진: 2024 기계+행동 학회에서 직접 찍은 사진 (장표 출처: 마리야 슬라브코빅)

AI 윤리, 기계 윤리, 데이터 윤리 등 다양한 이름으로, 새로운 기술이 사회에 미치는 영향과 거기서 파생되는 새로운 문제들이 탐구되고 있습니다. 모럴 머신 실험은 한국에서도 AI 윤리 교육에 활용되는 등 활발하게 다루어져왔습니다. 다만 AI 윤리의 문제가 모두 트롤리의 딜레마로 치환될 수 없다는 점은 명심해야 할 것입니다.

혹시나 궁금하실 분들을 위해, 지난주 베를린에서 열린 2024년 기계+행동 학회 (Machine+Behaviour Conference) 중, <기계 윤리 예시: 앞으로 나아가기 (”Machine Ethics Examples: Moving Forward”)>라는 제목으로 마리야 슬라코빅 교수가 발표한 내용은 여기에서 다시 볼 수 있습니다.


신뢰 : AI가 살아남기 위한 조건

by. 🍊산디

막스 베버는 <직업으로서의 학문>에서 공학자가 아닌 일반인이 어떻게 자동차를 신뢰할 수 있는지 이야기합니다. 그는 자동차의 작동 방식을 알지 못하더라도 “원하기만 하면 언제든 ‘배울 수 있다’고 알고 있거나 또는 그렇게 믿고”있기 때문에 자동차를 신뢰할 수 있다고 생각했습니다. 자동차는 신비한 힘이 아니라 계산 가능한, 통달할 수 있는, 탈주술화되어 있는 도구죠.

베버의 관점에서 본다면, 일반인에게 AI는 신뢰할 수 없는 기술입니다. 미지의 ‘블랙박스’로서 AI는 이해할 수 없는, 주술과 같은 영역이기 때문이죠. AI의 탈주술화를 위해 전 세계 연구자들이 연구에 박차를 가하고 있습니다. 의사결정 과정과 이유를 설명할 수 있는 AI(explainable AI), 인간 윤리를 학습한 AI를 개발하려는 노력이 이루어지고 있죠. 이러한 공학적 접근은 AI 자체가 투명하고 윤리적이어야 신뢰할 수 있다는 관점에 입각합니다.

AI 자체를 개선하려는 접근은 분명 AI의 신뢰 가능성을 높이는 데 도움이 됩니다. 하지만 기술 자체의 속성만으로 신뢰 가능성이 결정되지는 않습니다. 신뢰는 사회적 실체이기 때문이죠. 기술적으로 완벽하지만 사회적으로 믿을 수 없는 기술이 있을 수 있습니다. 반대로 엉성하다 못해 복장 터지는 기술임에도 불구하고 신뢰받는 경우도 많죠.

자동차 사례로 돌아가봅시다. 저는 자동차의 작동 방식에 별 관심이 없습니다. 그럼에도 불구하고 제가 특정 자동차 모델을 구매하기로 결정했다면 이는 1) 다른 사람들도 해당 자동차 모델을 구매했고, 2) 자동차를 제조한 기업의 과거 행동과 평판에 대해 알고 있고, 3) 자동차를 규제하는 법 제도가 존재함을 알기 때문일 것입니다.

사진: UnsplashJason Leung

AI 역시 마찬가지입니다. 인간-AI 상호작용에서 AI를 신뢰할 수 있는지에 대한 판단은 다른 사람도 해당 AI를 사용하는지, AI 제조사를 믿을 수 있는지, AI에 대한 법 제도적 장치가 마련되어 있는지와 같은 AI를 둘러싼 사회적 맥락을 함께 고려하여 이루어집니다.

인간의 윤리를 완전히 학습했다고 주장하는 ‘궁극의 AI'가 혹시라도 가능하고, 또한 등장할 수 있다 하더라도, 그것의 신뢰 가능성은 기술력에 의해 결정되지 않습니다. 사람들은 AI 기업이 어떤 노력을 보여주었는지, 이용자들과는 어떤 관계를 맺고 있는지, 관련 법제도의 정비 수준은 어떠한지를 따져 물을 거예요. 만약 신뢰할 수 없다면, ‘궁극의 AI’는 역사에서 사라질 겁니다.

이용자의 신뢰를 얻을 수 있는 AI가 인류와 함께 살아 남을 것입니다. 이것이 기업과 정부가 AI 윤리를 적극적으로 이야기해야 하는 이유입니다.


#feedback

오늘 이야기 어떠셨나요?
여러분의 유머와 용기, 따뜻함이 담긴 생각을 자유롭게 남겨주세요.
남겨주신 의견은 추려내어 다음 AI 윤리 레터에서 함께 나눕니다.