인공지능 윤리를 고민하는 직장인, 프리랜서, 대학원생이 꾸려가는 뉴스레터입니다.
AI 윤리 뉴스 브리프
2024년 4월 셋째 주
1. 전쟁 기술을 만들기 거부하는 이들
- 이스라엘이 가자지구 폭격에 AI 기술을 활용하는 한편 6개월간 매일 평균 미성년자 75명을 죽인 가운데 이스라엘과 구글-아마존의 12억 달러 규모 클라우드 컴퓨팅 사업인 프로젝트 님버스에 대해 노동자들의 저항이 커지고 있습니다. 지난 3월 초 뉴욕에서 열린 이스라엘 테크 산업 관련 콘퍼런스에서 구글 임원 발표 중 청중 한 명이 일어나 “나는 집단학살, 아파르트헤이트, 감시를 위한 기술을 만들기 거부한다”고 소리친 영상을 보셨을지 모릅니다. 항의한 구글 직원 에디 햇필드는 3일 뒤 구글에서 해고당했습니다.
2024년 3월 4일 Mind The Tech 콘퍼런스에서 에디 햇필드가 항의하는 모습. 출처: MEMO 유튜브 채널
- 햇필드가 속한 단체 ‘아파르트헤이트를 위한 기술은 없다(No Tech for Apartheid)’는 이스라엘 정부가 구글/아마존의 클라우드 기술을 전쟁과 살상에 사용하고 있을 가능성, 그리고 그러한 활용을 구글/아마존 측에서 파악하거나 방지할 수 있는 장치의 부재를 지적합니다. AI 개발을 담당하는 구글 딥마인드 내에서도 우려의 목소리가 있습니다. 2014년 구글에 인수될 때 AI 기술을 군사 목적으로 활용하지 않는다는 계약을 작성했지만, 지배 구조가 바뀌면서 사실상 무력화된 원칙이라는 것입니다.
- 실제로 이스라엘-가자 전쟁 중 구글과 이스라엘 국방부가 협력 고도화를 검토했다는 내부 문건이 타임지 보도에서 드러났습니다. 구글은 2018년 미국 국방성과의 유사한 사업인 프로젝트 메이븐을 직원들의 저항 끝에 포기한 바 있는데요. 햇필드는 타임지 인터뷰에서 구글이 자신을 해고하여 본보기 삼으려는 듯하다고 말하지만, 항의하는 이들에 공감하는 목소리도 늘어나고 있습니다. 현실에서 사용되는 한 중립적일 수 없는 기술의 특성과, 그 기술의 방향성을 만들어 나가는 주체로서의 노동자의 역할을 보여주는 상황입니다.
덧붙이는 말
국내 기업 중에도 가자지구 강제철거에 활용되는 장비를 제공하는 HD현대에 대해 이스라엘과의 거래 중단을 요구하는 목소리가 있습니다.
더 읽어보기
- 죽음의 기술과 효율성(2024-04-08)
- 전쟁과 죽음의 기술(2023-10-30)
- 자동화된 아파르트헤이트(2023-05-15)
2. ‘윤리적’ AI를 그렇지 못한 데이터로 만들 수 있을까?
- 디자인·콘텐츠 소프트웨어의 대명사인 어도비(Adobe). 이미지 생성·편집용 AI 도구 파이어플라이(Firefly)를 작년부터 자사 서비스에 도입했습니다.
- 어도비는 파이어플라이를 도입하며 ‘저작권 문제 없는 데이터’를 강조했는데요. 미드저니, OpenAI의 달리, Stability AI의 스테이블 디퓨전 등은 인터넷 콘텐츠를 별도 허가 없이 수집해 구축한 모델이지만, 어도비는 자사가 운영하는 어도비 스톡 라이브러리 등 라이선스 문제가 해결된 자료로만 모델을 훈련시켰다는 것입니다. 그렇기 때문에 (각종 저작권 소송에 직면한 경쟁사와 달리) 파이어플라이는 더 ‘상업적으로 안전하다’는 것이 어도비의 입장입니다.
- 그런데 파이어플라이 구축에 사용된 이미지 일부(약 5%)는 미드저니 등 생성형 AI로 만든 것이었습니다. 훈련 데이터 중 상당수가 어도비 스톡 이미지인데, 어도비 스톡에 사용자가 AI 생성 이미지를 업로드할 수 있고, 모델 성능 향상을 위해 그중 일부를 활용한 것이죠. 이렇게 훈련 데이터로 활용된 AI 생성 이미지의 경우 사용자에게 금전적 보상도 지급되었습니다.
- 어도비는 자사의 접근을 경쟁사와 비교하며 윤리적 우위를 강조해왔지만, 그간 비판해온 경쟁 서비스로 만든 이미지를 오히려 활용했다는 사실은 이런 주장을 어떻게 받아들일지 다시 생각해 보게 합니다(AI 생성 이미지 활용이 꼭 ‘상업적 안전성’을 위협한다고 단정할 수는 없지만요).
- 무단 수집을 지양하기 위해 스톡 이미지를 사용했지만, 스톡 이미지 중 일부는 무단 수집의 결과로 만들어진 상황. 기술 제품의 윤리적 설계를 논의하려면 여러 층위와 단계에서, 섬세한 고민이 필요하다는 점을 보여줍니다. AI 윤리는 어떤 서비스가 ‘윤리적/비윤리적’이라고 라벨링하면 끝나는 이진 분류 문제가 아닙니다.
3. 본인의 딥페이크 성착취물을 마주한 AOC의 싸움
- 미국 하원 사상 최연소 여성 의원인 알렉산드리아 오카시오코르테스가, 본인이 등장하는 딥페이크 성착취물을 지난 2월 마주한 고통과 그에 맞선 개인적 싸움, 그리고 관련 입법 노력에 관해 롤링스톤지와 인터뷰했습니다.
4. AI에 맞서는 저술노동자들의 목소리
- 젠더 셰이드(Gender Shades) 프로젝트로 유명한 조이 부올람위니의 알고리즘 정의연맹(Algorithmic Justice League, AJL)이 AI 기술로 인해 손해나 부당한 대우를 당한 저술노동자들의 목소리를 모으는 캠페인을 진행중입니다. AJL 캠페인에서는 출판작가를 대변하는 미국 작가조합(Author’s Guild)의 공개서한을 소개하는데요. 생성형 AI를 만드는 기업들에게 훈련 데이터 관련 허가를 받고 정당한 대가를 지급하라는 요구안을 담고 있습니다. 국내에서 이런 목소리를 낼 수 있는 조직은 어디일지 궁금해집니다.
5. AI를 보도하는 언론인을 위한 교육
- 퓰리처 센터에서 AI 기술을 보도하는 언론인을 위한 온라인 교육 프로그램을 진행하고, 각종 기획 보도에 관한 사례연구를 제공합니다. 기술의 사회적 작용을 추적하고 설명할 중요한 책임을 짊어진 저널리즘 종사자에게 좋은 기회로 보입니다.
오늘 이야기 어떠셨나요?
여러분의 유머와 용기, 따뜻함이 담긴 생각을 자유롭게 남겨주세요.
남겨주신 의견은 추려내어 다음 AI 윤리 레터에서 함께 나눕니다.
이슈
AI 윤리 레터 님의
활동을 응원해주세요
AI 윤리 레터 님의
활동을 응원해주세요
코멘트
2기술의 발전이 전쟁과 함께 이뤄진 경우가 많지만 그게 반드시 필요한 것인지 의문입니다. 인공지능 기술을 전쟁에 활용하지 말아야 한다는 목소리가 조금이라도 나오고 있다는 게 다행이네요. 본문에 언급해주신 캠페인도 참여했습니다.
내가 만드는 기술이 사회에 미치는 영향에 대해서 주체적으로 고민하고 발화하는 게 멋집니다.
소개해주신 서명캠페인에도 참여했어요.