지금 당장 휴전하라

지금 벌어지는 집단 학살을 간과할 수 없는 이유

지금 당장 휴전하라
AI는 규제하지 않기에는 너무 중요하고, 잘 규제하지 않기에도 너무 중요하다.

—President of Global Affairs Google & Alphabet, Kent Walker
목차
1. 지금 당장 휴전하라
2. AI 규제, 만드는 것이 능사는 아니다

👉 모두 읽는 데 6분 51초!
🦜 AI 윤리 레터가 그동안 다뤄 온 이슈들 모아 보기 🦜

지금 당장 휴전하라

by. 🤖아침

2023년 10월 7일 하마스의 이스라엘 침공 이후 이스라엘이 가자 지구를 공격하여 발생시킨 팔레스타인 사망자는 12,000명이 넘고 그중 미성년자가 5,000명에 달합니다. 폭력적인 현실 앞에서 무엇보다 시급한 것은 휴전이며 그 휴전은 지금 당장 이루어져야 합니다.

우리 눈앞에서 펼쳐지는 이 거대한 폭력은 이스라엘의 팔레스타인 점령 역사의 맥락 속에 놓여 있습니다. 또한 지난 글에서도 적었듯이 이러한 일을 가능케 하고 원활하게 하는 것 중 하나는 AI가 적용된 감시 카메라와 총기 등의 기술입니다. 그뿐 아니라, 아래 링크된 글에서도 지적하듯 반-팔레스타인 편향을 내재화한 자동번역이나 SNS 알고리즘이 직간접적 피해를 발생시키기도 합니다. AI 기술에 관심 있는 사람으로서 지금 벌어지고 있는 집단 학살을 간과할 수 없는 이유입니다.

마침 책임 있는 AI 종사자의 입장에서 휴전을 촉구하는 공개서한서명을 받고 있습니다. 다양한 분야와 경력을 가진 사람들이 서명한 가운데 에밀리 벤더, 팀닛 게브루 등 AI 윤리 레터가 종종 인용하는 연구자의 이름도 눈에 띕니다. 읽어보시고 독자 여러분도 연서를 고려해 보시면 어떨까요? 미약한 행동이나마 연대를 표명하고 실행에 옮기는 것이 폭력을 중단시키는 데 기여한다는 믿음으로, 또한 "지금 침묵을 지키는 것이야말로 가장 정치적인 태도"이라는 점을 상기하면서요.

출처: 공개서한 서명 서식 화면 갈무리.

"가자지구, 팔레스타인 사람들과 연대하는 책임 있는 AI 공동체" 공개서한

이런 자료도 참고하면 좋을 것 같아요.

The Information War in Gaza [가자의 정보 전쟁] (영어, Tech Won’t Save Us 팟캐스트 2023-11-16)

#CeasefireNOW

AI 규제, 만드는 것이 능사는 아니다

by. 🎶소소

AI 발전 속도가 빠른 만큼 규제 논의도 빠르게 진행되고 있는데요. 빠르게 발전하는 AI가 문제가 될 수 있는 것처럼, 성급한 AI 규제도 문제가 될 수 있습니다. 규제가 목표한 바를 달성하지 못하고 오히려 다른 문제를 만드는 역효과가 나타날 수도 있다는 것인데요. 스탠퍼드 인간 중심 AI 연구소(HAI)는 이러한 규제의 한계를 "AI 규제 불일치(AI Regulatory misalignment)"라고 지적합니다. 그래서 본격적으로 규제를 도입하기 전에 정책입안자들이 고민해 보면 좋을 것들에 관해 얘기해보려고 합니다.

출처: HAI Policy Briefs, The AI Regulatory Alignment Problem

최근 논의 되는 AI 규제에는 몇 가지 공통 사항이 있습니다. AI 시스템을 최대한 투명하게 공개하고(Disclosure), 사전 보고와 등록 절차를 만들고(Registration), 개발 자격을 제한하고(Licensing), 지속해서 감사 받으라는(Audits) 내용입니다. 솔깃하지 않나요? 이 정도면 AI를 둘러싼 어떤 문제든 해결할 수 있을 것 같습니다. 그러나 어느 하나 간단하지 않습니다.

우선, ‘정보 공개’를 살펴볼까요. AI 시스템에 대한 정보를 대중에게 공개하는 것은 중요합니다. 그러나 기업 의존적으로 작성된 정보를 신뢰할 수 있는가는 또 다른 이야기입니다. "모델의 잠재적인 위험"과 같은 정보는 개발자의 주관적 의견으로 작성될 수밖에 없기 때문입니다. 객관적인 정보로만 위험을 파악하기에는 어려움이 있죠. 또한, 모두에게 정보를 공개한다는 것은 자칫 보안을 취약하게 만들 수 있습니다.

‘라이선스 제도’가 시행된다면, 최소 라이선스 전담 기관이 필요합니다. 명확한 적격성 기준이나 표준도 필요하고요. 게다가 라이선스를 받기까지 최소 몇 달의 시간이 필요합니다. 이는 돈과 시간이 부족한 작은 기업에는 불균형한 부담이 될 수 있죠. 안전한 연구를 지원하려는 제도가 자원이 풍부한 소수 기업이 시장 지배력을 강화하게 만들 수 있습니다.

출처: photo by Walls.io on upsplash

규제 기관은 기업 못지않은 전문성과 역량을 갖추어야 합니다. 지난 레터에서 영국 정부가 AI에 대한 이해를 높이기 위해 AI 연구소를 만들고, 높은 급여를 주고 사람들을 뽑은 것처럼요. 어떤 정보의 공개를 요구할지, 공개 정보가 어떤 위험과 연결될지 식별하고 검증할 수 있어야 하기 때문이지요. 아직 정부 조직에는 기술전문가가 부족합니다. AI 전공 박사 중에 정부 기관을 커리어로 선택하는 비율은 전체의 1%에 불과하다고 합니다.

새로운 규제 기관을 만들기보다는 기존 규제기관을 활용하는 것이 나을 수도 있습니다. 이미 많은 정부 기관이 AI를 규제하고 있습니다. 예를 들어, 미국에서는 수정헌법 14조의 적법절차 조항이 가석방 결정 시 사용된 위험 평가 방법을 공개시켰고, 신용기회평등법은 대출 거절 사유를 공개하도록 했습니다. 이렇게 AI 시스템은 현행 법률과 상호작용하고 있습니다.

제대로 된 규제를 만들고 집행하기 어려우니, 규제하지 말자는 뜻이 아닙니다. “AI가 중요한 만큼 규제도 ‘잘’ 해야 한다”는 단순한 주장이라면 기업의 규제 방어 논리와 크게 다르지 않겠지요. 하지만 기업이 주장하는 것과 다르게 규제를 잘 설계하는 것 역시 가능하고 필요합니다. 규제는 단지 도구일 뿐, 목표는 안전하고 효율적인 AI를 위한 정책 환경을 조성하는 것이라는 점을 한 번 더 되새겨 봅니다.


#feedback

오늘 이야기 어떠셨나요?
여러분의 유머와 용기, 따뜻함이 담긴 생각을 자유롭게 남겨주세요.
남겨주신 의견은 추려내어 다음 AI 윤리 레터에서 함께 나눕니다.