AI가 안전하다고 믿으려면
안전한 거 맞아? 너무 빠른 건 아니야? 공정한 거야? 그래도 한번 써보자는 이야기들
답이 없는 문제를 풀어야만 그다음이 있습니다.
—앨리슨 시먼스 인터뷰 중, 윤송이 외, <가장 인간적인 미래>
AI 윤리 뉴스 브리프
2024년 7월 첫째 주
by 🎶소소
목차
1. 안전한 초지능을 만들어야 한다는 믿음
2. AI 디지털 교과서 도입 유보를 원하는 5만 명
3. 새롭지 않은 새로운 음원 저작권 소송
4. 식약처가 만든 의약품 개발 시 AI 활용 안내서
1. 안전한 초지능을 만들어야 한다는 믿음
2. AI 디지털 교과서 도입 유보를 원하는 5만 명
3. 새롭지 않은 새로운 음원 저작권 소송
4. 식약처가 만든 의약품 개발 시 AI 활용 안내서
1. 안전한 초지능을 만들어야 한다는 믿음
- 오픈AI의 공동창업자이자 수석과학자였던 일리야 수츠케버(Ilya Sutskever)가 오픈AI 퇴사 이후 한 달 만에 새로운 회사를 차렸습니다. 회사 이름은 Safe Superintelligence Inc.회사명처럼 안전한 초지능을 만드는 것이 유일한 목적이라고 합니다. 최고의 기술로 AI 안전 문제를 해결할 수 있다는 믿음이 느껴집니다.
- 일리야 수츠케버가 오픈AI에서 '샘 올트먼'의 해임을 주도하고, 또 최근 퇴사한 이유가 AI 안전과 상용화에 대한 가치 충돌이라는 추측이 많았는데요. 회사 소개에서도 그러한 내용을 엿볼 수 있습니다. 그는 ‘경영상의 이슈’와 ‘제품 주기’ 등 상용화로부터 자유로운 AI 안전 연구를 위해 챗GPT와 같은 상용 제품을 만들 계획은 없다고 밝혔습니다.
- 그는 GPT 모델 발전을 주도하며 현재 AI 발전의 중심에 서 있는 인물입니다. 딥러닝의 시대를 만든 제프리 힌턴 연구실에서 AlexNet을 연구했고, 구글 딥마인드와 알파고를 함께 연구했으며, 그 이후 샘 올트먼, 일론 머스크와 함께 비영리 기업 오픈AI를 창업했습니다. 구글을 떠난 이유도 구글이 AI의 안전을 신경 쓰지 않았기 때문이라고 알려졌는데요. 그는 지난해 오픈AI에 슈퍼얼라인먼트팀을 만들어 이끌어오기도 했습니다.
- 윤리 레터에서는 많은 AI 기업에서 초지능의 위험을 이야기하며 현재의 AI가 만드는 수많은 문제에 대한 관심을 미래로 돌릴 수 있음을 주의해야 함을 지적해 왔습니다. 일리야 수츠케버의 행보를 보면 그의 초지능에 대한 확고한 믿음과 불안이 진심이라는 것만큼은 분명해 보입니다. 다만 그가 말하는 AI의 위험과 안전성 확보를 위한 노력이 AI로 인한 문제와 해결 방안 전체를 대표하는 것이 아님을 우리는 기억해야 합니다.
2. AI 디지털 교과서 도입 유보를 원하는 5만 명
- 교육부의 AI 디지털 교과서 사업을 유보하라는 국민동의청원이 5만 명을 넘어 국회 교육위원회에 회부됐습니다. AI 디지털 교과서 사업은 초중등 수업에서 종이 교과서 대신 디지털 기기로 수준별 맞춤 교과서를 제공한다는 내용입니다. AI를 활용해 학생의 성취도, 강점과 약점, 학습 태도를 파악하여 맞춤형 교육을 제공하고, 이 정보를 교사와 학부모에게도 제공한다는 것인데요. 당장 내년인 2025년부터 일부 과목에 우선 도입하고 단계적으로 확대한다는 계획입니다. 이 청원의 핵심은 사업이 충분한 공론화와 합의 없이 서둘러 추진된 데 있어 보입니다.
- 사업 내용만 들으면 좋은 효과만 있을 것 같지 않나요? 그러나 디지털 교과서 도입에 대해서는 다양한 의견이 존재합니다. 교육부는 AI 디지털 교과서 도입이 “모두를 위한 맞춤 교육”을 위함임을 강조합니다. 아이들을 평균에 맞춰 가르치는 것이 아니라, AI를 활용해 개인 실력에 따른 맞춤 학습을 지원할 수 있다는 것이죠. 그러나 청원에 참여한 사람들은 AI 디지털 교과서가 ‘맞춤 교육’에 적합하다는 충분한 검증이 되지 않았다고 말합니다. 휴대폰, 아이패드로 게임, 유튜브에 쉽게 빠지는 아이들을 보아온 학부모들의 반대도 만만치 않습니다.
- 교과서 변경은 대한민국 학생들에게 아주 중대하고 직접적인 영향을 미칠 수 있는 사안입니다. 정부가 지금처럼 기술의 긍정적 효과에만 집중하다 보면 부정적 효과는 생각하지 못하기 쉽습니다. AI 디지털 교과서의 효용을 엄밀하게 확인해야 할 뿐만 아니라 사용자인 학생, 선생님에게 미칠 수 있는 부정적 영향까지도 충분히 검증되어야 합니다. 실제 수업 운영에서 발생할 수 있는 문제점과 해결 방안에 대해서도 조금 더 차분히 논의하는 시간이 필요하겠습니다.
🦜
더 읽어보기
- 외부인의 ‘AI 디지털교과서’ 단상(AI 윤리레터, 2024-02-01)
- AI 교육을 표방하는 ‘디지털 교과서’ 정책, 그 속에 담긴 위험 (교육을 바꾸는 사람들, 2023-08-09)
- 수천억 원 드는 AI 디지털 교과서, ‘혁명’인가(시사인, 2024-04-04)
- 외부인의 ‘AI 디지털교과서’ 단상(AI 윤리레터, 2024-02-01)
- AI 교육을 표방하는 ‘디지털 교과서’ 정책, 그 속에 담긴 위험 (교육을 바꾸는 사람들, 2023-08-09)
- 수천억 원 드는 AI 디지털 교과서, ‘혁명’인가(시사인, 2024-04-04)
3. 새롭지 않은 새로운 음원 저작권 소송
- 미국 레코드 산업협회(RIAA)가 유니버설뮤직을 비롯한 소니뮤직, 워너뮤직을 대표해 음악 생성 AI 스타트업 수노AI(Suno AI)와 유디오(Udio AI)에 저작권 침해 소송을 제기했습니다. 음악 생성 AI서비스는 원하는 프롬프트를 입력하면 작사·작곡·보컬을 모두 포함해 노래를 완성해줍니다. 협회는 이 스타트업들이 AI 모델 학습에 저작권이 있는 자사 음악을 불법 활용했다는 주장입니다.
- 다양한 종류의 창작물이 AI 학습에 창작자의 허락이나 동의 없이 복제되어 활용되고 있습니다. 뉴스, 소설, 시나리오와 같은 글에서 그림으로, 또 음악으로 확대되고 있죠. 저작권이 있는 데이터의 AI 학습에 대한 명확한 규제가 아직 없는 상황에서, 생성 AI 콘텐츠 종류가 늘어날수록 학습 데이터 저작권 소송은 계속해서 확대될 것으로 보입니다.
4. 식약처가 만든 의약품 개발 시 AI 활용 안내서
- 식약처가 의약품 개발 단계별 인공지능 활용 안내서를 발간했습니다. 가이드라인은 의약품 전주기 중 신규 의약품 개발 초기 단계(후보물질 발굴, 비임상시험, 임상시험 등)에 집중하여 약 10장 분량으로 작성되었습니다.
- 가이드라인은 의약품 개발 각 단계에서 AI를 활용할 수 있는 사례를 먼저 제시한 후에, 그 단계에서 주의해야 할 사항을 서술하고 있습니다. 예를 들면, 임상 연구 단계에서는 임상시험 데이터베이스, 전자의무기록 등을 분석하여 적절한 임상시험 대상자를 예측하거나 모집하는 데 AI를 활용할 수 있음을 먼저 이야기합니다. 그 후에 AI는 과거 임상시험 환자 데이터 선정/제외 기준으로 학습된다는 사실을 주의해야 한다는 식입니다.
- 본 안내서가 의약품 개발과 같은 전문 분야에 AI를 활용할 때 주의해야 할 점에 대해 구체적으로 안내해 주기를 기대했지만, 아직은 AI를 어떻게 활용할 수 있는지에 더 초점이 맞춰져 있습니다. 앞으로 실제 사례들이 보완된다면 의약품 개발 현장에서도 큰 도움이 되리라 기대해 봅니다.
📆
소식
- Data Workers’ Inquiry, 개막 행사 온라인, 영어 (2024-07-08, 한국시간 9일 새벽)
- Rethinking the Inevitability of AI: The Environmental and Social Impacts of Computing in Historical Context 버지니아 대학교, 온라인, 영어 (2024-07-18)
- Data Workers’ Inquiry, 개막 행사 온라인, 영어 (2024-07-08, 한국시간 9일 새벽)
- Rethinking the Inevitability of AI: The Environmental and Social Impacts of Computing in Historical Context 버지니아 대학교, 온라인, 영어 (2024-07-18)
#feedback
오늘 이야기 어떠셨나요?
여러분의 유머와 용기, 따뜻함이 담긴 생각을 자유롭게 남겨주세요.
남겨주신 의견은 추려내어 다음 AI 윤리 레터에서 함께 나눕니다.