인공지능 윤리를 고민하는 직장인, 프리랜서, 대학원생이 꾸려가는 뉴스레터입니다.
AI 윤리 뉴스 브리프
2024년 2월 첫째 주
by. 🍊산디
1. 우리가 끝내야 하는 싸움
- 🦜지난 월요일 레터에서 소개드린 것처럼, 생성형 AI를 활용해 제작한 성착취물 제작 툴로 테일러 스위프트를 묘사한 이미지가 X에서 널리 퍼졌습니다. X가 포스트를 차단하기 전까지 걸린 시간은 17시간. 포스트는 4,500만 번 이상 조회되었습니다. 그렇게 테일러 스위프트는 X에서 검색되지 않도록 차단되어야 했습니다.
- MS는 이번 성착취물 제작에 활용된 생성형 AI 툴의 허점을 개선했다고 밝혔습니다. 미 상원은 관련 입법을 서두르는 모습입니다. 하지만 성착취물의 유통이 잠잠해졌을 뿐, 문제가 해결된 것은 아닙니다. 그리고 이러한 조치가 과연 디지털 성폭력을 잠재울 것이라 낙관하기도 어렵습니다.
- 테일러 스위프트 이전에도 그리고 지금도 딥페이크 기술의 ‘혁신’과 이를 이용해 여성을 ‘비인간화’한 사례는 숱하게 많았습니다. 반복되는 디지털 성폭력으로부터 여성들은 스스로를 지켜왔습니다. 기술과 법만으로는 결코 이 문제를 해결할 수 없습니다. 이 싸움은 우리가 끝내야 하는 싸움입니다.
2. AI: 당신은 사망했습니다. 살아있음을 증명하세요.
출처: BBC 드라마 <Little Britain>의 한 장면. 대출 상담 요청에 담당자는 ‘컴퓨터가 안 된대요’ 라고 답합니다.
- AI의 쓸모에 대한 광범위한 공감대가 형성되면서 AI 행정 역시 주목받고 있습니다. 하지만 AI는 자주 틀립니다. 인도 하리아나 주정부는 노인 수당 지급 수령자를 판단하기 위해 알고리즘 시스템을 도입하였습니다. 그리고 이 알고리즘은 수 천 명의 살아있는 사람을 ‘사망’했다고 판단했습니다. 피해자들은 수 차례 관료를 찾아가 자신이 ‘살아 있음’을 증명해야 했죠.
- AI 행정의 피해 사례는 숱하게 발견됨에도 불구하고 개인이 이에 대응하기는 쉽지 않습니다. 일례로, 잉글랜드와 웨일즈의 법체계는 반증되지 않는 한 컴퓨터의 판단이 법적으로 신뢰할 수 있다고 판단합니다. 즉, 문제를 제기하는 사람이 알고리즘의 오류를 입증해야 하는 것이죠.
- 관료제 등장 이후 관료의 ‘영혼 없음’은 그것의 최대 장점이자 단점이었습니다. 하지만 AI가 행정 곳곳에 도입되기 시작했을 때, 행정 서비스를 이용하는 우리는 관료의 판단과 비판적 인식에 의지할 수밖에 없을 거예요. AI 시대 행정의 기능과 책임은 무엇이 되어야 할까요?
3. 열린 오픈AI 닫힘
- 오픈AI가 설립 단계부터 투명성을 강조해왔음은 잘 알려진 사실입니다. 빅테크에게 지나치게 많은 권력이 집중되어 있다는 이유에서였지요. 멀지 않았던 그 때엔 누구든지 오픈AI에게 재무제표, 이해상충 규칙 등을 요청할 수 있었습니다.
- 사업은 (비즈니스 측면에서) 전지구적 성공을 거뒀고, 오픈AI는 단연 시장의 선두입니다. 그리고 투명성은 옛 이야기가 되어버렸습니다. 오픈AI는 내부 운영에 대한 문서를 제한적으로만 제공하는 것으로 기업 정책을 변경했습니다. 이제 이용자는 오픈AI가 어디에 투자하고 있으며, 누구와 협력 관계에 있는지 알 수 없게 되었습니다.
- 오픈AI가 스리슬쩍 폐쇄적인 벽을 쌓아 올리는 무책임한 태도에 투자사와 협력 기관들은 쾌재를 부르며 기뻐할지 모르겠습니다. 이제 오픈AI는 좀 더 ‘자유롭게’ 사업할 수 있을 겁니다. 닫힌 오픈AI를 감독할 수 있는 방법은 무엇일까요. 우리에게는 어떤 투명성이 필요할까요?
4. 미국과 미국 중에 고르기
출처: EC - Audiovisual Service, Creative Commons CC BY 4.0
- AI 모델 뿐만 아니라 AI 개발에 필요한 기술 인프라를 소수의 빅테크가 장악하고 있는 것에 대한 정책적 우려가 커지고 있습니다. EU 집행위원회 부위원장 마르그레테 베스타게르는 최근 인터뷰에서 선택지가 ‘미국 또는 미국’으로 제한되어서는 안 된다고 밝혔습니다.
- MS의 오픈AI 지분 인수, 그리고 지난 오픈AI 드라마를 통해 드러난 MS와 오픈AI의 ‘긴밀한’ 관계로 인해 유럽뿐만 아니라 미국의 반독점 기구도 바빠졌습니다. 미국 FTC는 기업들 간 투자 및 파트너십에 대해 광범위한 조사를 진행 중이고, 영국 CMA 역시 MS와 오픈AI의 파트너십의 위험성에 대해 의견을 구하고 있습니다.
- AI 빅테크에 대한 반독점 규제가 어떤 ‘성과’로 이어지고 있는지에 대해 회의적인 목소리도 들립니다. 하지만 외부 기관들의 감독과 기업의 준법활동은 혁신 생태계의 유지를 위해 반드시 필요합니다. 독점은 소비자 후생 저해, 정치 권력과의 결탁 등 부작용이 발생하기 쉽기 때문입니다.
5. 탄광의 카나리아: 글로벌 데이터 하청과 노동조합
탄광의 카나리아. 출처: George McCaa, U.S. Bureau of Mines
- AI는 전지구적 하청 구조를 통해 개발됩니다. AI ‘학습’을 위해 기업은 데이터 라벨링 업무를 특정 기업 또는 크라우드 소싱 플랫폼에 하청을 주는 형태이죠. 이러한 형태의 ‘마이크로 노동’을 수행하는 노동자는 극도로 불안정한 상태에 처하게 됩니다.
- 구글은 아펜(Appen)이라는 호주의 크라우드 소싱 기업과 맺었던 하청 계약을 갑작스럽게 종료했습니다. 아펜의 노동자들은 구글의 생성형 AI 서비스 바드의 안전성을 높이는 데 기여해왔습니다. 하지만 구글의 계약 종료 통보로 2천여 명의 노동자의 삶이 흔들리게 되었습니다.
- AI를 도입하는 기업과 AI를 개발하는 기업 모두 ‘우선순위 조정’을 이유로 대량 해고를 밀어 붙이고 있습니다. 와중에 알파벳의 노조 AWU(Alphabet Workers Union)의 계약 해지 비판이 눈에 띕니다. 이들은 글로벌 데이터 하청 기업의 불안정 노동자를 해고하는 것이 탄광의 카나리아와 같다고 소리 높입니다. 우리에게 길항권력이 없다면, AI가 약속하는 생산성은 우리를 위한 것이 아닙니다.
오늘 이야기 어떠셨나요? 여러분의 유머와 용기, 따뜻함이 담긴 생각을 자유롭게 남겨주세요.
남겨주신 의견은 추려내어 다음 AI 윤리 레터에서 함께 나눕니다.
이슈
AI 윤리 레터 님의
활동을 응원해주세요
AI 윤리 레터 님의
활동을 응원해주세요
코멘트
5Ai 행정의 오류에 대해서, ai 행정의 무오류를 추정하고 ai 행정의 오류를 주장하는 쪽이 반증할 입증책임을 갖는 것이 아니라, ai 행정의 오류를 추정하고 ai 행정의 무오류를 주장하는 쪽이 반증할 입증책임을 갖게 하는 것은, 그렇게 할 타당성은 있지만, 행정의 효율을 너무 떨어트리지는 않을까요. 단견으로, 누군가가 ai 행정의 오류를 입증하고자 할 때 행정으로 하여금 광범위한 협조의무(정보제공, 자료제공, 공개) 이행을 할 것을 의무화할 수도 있을 것 같습니다. 행정쟁송 한정 디스커버리 제도 같은 것이 논의가 있는지도 모르겠네요.
제목을 보고 홀린 듯이 클릭하게 됐네요 ㅎㅎ 개인적으론 오픈AI 관련 소식이 눈에 띕니다. 지난 번 사태(?) 이후에 운영 방식이 변화하는 것이 아닐까 싶습니다. 투명성을 지키는 것이 가장 적합한 방식이라고 생각하는데 약간 걱정되네요.
오픈ai가 비영리성을 갖고 있어서 개인적으로는 안심하는 마음이 있었는데요. 이제는 더 빠른 발전을 추구하기로 한 것 같아서 안타까우면서도 무섭기도 합니다.
기술 뒤에 실은 천연자원이나 노동의 대규모 투입이 있다는 하부 구조를 알게 되면 지금의 기술 개발의 속도나 양상을 마냥 놀라워하거나 즐길수만은 없는 듯 해요. 이번 소식을 보니, 온라인 아동 성착취 피해에 조치를 취하지 못한 SNS 빅테크 기업 대상으로 한 최근 미국 상원 청문회가 생각나네요. 비극이 일어나기 전에 '우리가 멈춰야 하는 싸움'이라는 말이 유독 와 닿습니다.
오류가 많은 AI가 행정에 도입되어 사용되고 있는 나라가 있다니, 심지어는 누군가가 오류를 입증할 수 없는 한 AI가 옳다고 판단하다니… 문제가 많아보이네요.
“열린 오픈AI 닫힘”이라는 소제목에서는 웃음이 터져버렸습니다^^; 내용은 심각하네요. 이래서 특정 기업이 기술과 데이터를 소유하는 걸 경계하게 되는 것 같아요.