인공지능 윤리를 고민하는 직장인, 프리랜서, 대학원생이 꾸려가는 뉴스레터입니다.
AI 윤리 뉴스 브리프
2024년 5월 셋째 주
by 🤖아침
1. 스택오버플로의 태세 전환과 보복성 제재
- 스택오버플로가 오픈에이아이에 모델 학습용 API를 제공하기로 했습니다. 이에 반발한 이용자들이 자신이 작성한 질문·답변을 삭제·수정하자, 운영진은 해당 이용자를 차단하는 등 제재를 가했습니다.
- 적잖은 플랫폼이 축적한 데이터를 AI 개발용으로 판매하는 추세 속에서도, 개발자 지식 공유 커뮤니티로 큰 상징성을 갖는 스택오버플로의 이런 행보는 인터넷 생태계 변화의 중요한 사례로 남을 것입니다. 얼마 전까지도 해당 플랫폼은 생성형 AI 사용을 금지했고, ‘커뮤니티를 중심에 두겠다’고 선언했다는 점에서 이용자들의 배신감이 배가될 듯합니다.
출처: 스택오버플로
- 스택오버플로 이용약관에는 이용자가 작성한 모든 콘텐츠를 플랫폼이 영원히 이용할 수 있으며 이는 철회할 수 없다는 조항이 있습니다. 이용약관을 지렛대 삼아 플랫폼이 이용자 데이터를 마음대로 활용하는 현상은 물론 새로운 일이 아닙니다. ‘남용약관’이 플랫폼 자본주의의 기본적 작동 방식이라고도 볼 수 있죠. 앞으로도 계속 보게 될 이 광경을, 일반 이용자는 그냥 받아들이는 수밖에 없을까요? 게임의 규칙을 바꾸는 게 가능할까요?
덧붙이는 글
- 🎶소소: 커뮤니티 정신을 강조하던 스택오버플로, 정말 실망이네요. 결국 커뮤니티를 만든 이용자들이 아니라 돈이 되는 커뮤니티만을 중요하게 생각한다는 점이 여실히 드러나네요.
더 읽어보기
- 데이터, 어떻게 팔아야 잘 판 걸까? ...팔아야 하는 걸까? (2024-03-25)
- 스택오버플로, ‘(사람) 커뮤니티가 AI의 미래다’ (2023-07-31)
2. 싱가포르 출판·문학계는 데이터 제공이 탐탁지 않다
- 싱가포르 출판·문인들이 출판물을 AI 데이터로 활용하려는 정부 기조에 반발하고 나섰습니다. 싱가포르 정부는 말레이어, 타밀어, 화어 등 싱가포르에서 사용하는 언어 데이터를 반영하는 자체 다국어 멀티모달 LLM*을 구축하려 하고 있습니다. 이 과정에서 문인들을 상대로 저작물을 학습 데이터로 활용하는 데 대한 의견 수렴을 했는데요.
- 의견 수렴 이메일에서는 해당 데이터가 ‘연구 목적’으로만 활용될 것이라고 명시하고 있으나, 이용에 대한 보상이나 저작권 보호 관련된 설명이 부족하다고 판단한 문인들이 상당수 거부 의사를 표한 것입니다.
- 저작권자 동의 없이 일단 모델을 구축하는 행태가 보편적인 분위기에서, 어떻게 보면 이 정도 의견 수렴도 정부 입장에서는 꽤 진취적인 행보라고 볼 수도 있습니다. 한편 결국에는 정부 마음대로 문화콘텐츠를 이용할 것이라는, 회의적인 의견도 기사에 등장하고요. 하지만 비영어권 데이터가 부족한 현실을 고려할 때, 장기적으로 출판·문인들의 신뢰와 협조를 얻는 일은 싱가포르 정부에게 생각보다 더 중요할지도 모릅니다.
* 텍스트 모델을 기반으로 하되 여러 모달리티(modality)를 처리할 수 있는 AI 모델. 예를 들어 챗봇에 이미지를 주고 내용을 묘사하는 글을 출력하는 방식. 모달리티는 기호학에서 글/이미지/음악 등의 양태를 가리키는 용어인데, AI 맥락에서는 ‘데이터 형식’과 비슷한 뜻으로 이해할 수 있습니다.
3. 현대중공업 노사갈등과 미국 대학 시위의 연결고리
- 지난 4월, HD현대중공업이 설치한 협력업체 근로자 출입 관리용 안면인식 출입시스템을 노조가 철거하고, 사측은 노조 간부를 경찰에 고발했습니다. 사측은 보안 관리상 안면인식기가 필요하다는 입장이고, 노조는 기존 수단으로도 관리가 가능한데 안면인식은 노동자를 감시/통제하는 수단일 뿐이라며 맞서고 있습니다.
- 금속노조 현대중공업지부는 성명서에서 공공장소의 얼굴인식 기술이 가져오는 ‘위축 효과’를 지적합니다. 개인 추적이 용이해지면서 합법적인 집회·결사의 자유 행사를 꺼리게 된다는 것이지요. 사업장과 공공장소는 같지 않다고 말할 수도 있겠지만 위축 효과는 확실히 생겨날 것 같습니다.
Photo byArthur Mazi on Unsplash
- 미국 각지 대학교에서는 이스라엘의 팔레스타인 학살을 반대하는 시위가 한창입니다. 대학 당국이 시위 진압을 위해 안면인식 기술을 보유한 경찰에 공권력 투입을 요청하는 상황에서, 참여자들은 신상 노출에 따른 괴롭힘을 피하고자 케피예나 마스크를 쓰곤 합니다. 감시 기술이 시민 활동에 미치는 영향을 드러내는 사례입니다. 이스라엘, 러시아, 홍콩… 지난 몇 해간 계속 보아온 현상이죠. 앞으로 현대중공업 노동 쟁의 참여자 색출에 안면인식 시스템이 활용되리라 상상하는 것도 어렵지 않습니다.
더 읽어보기
- [스트레이트] 탈탈 털린 스마트폰..검찰 ‘디넷’과 빅브라더 (MBC, 2024-04-28)
4. 우리 회사 AI는 에너지 1등급일까?
- AI 기술의 환경영향에 관한 정량연구를 꾸준히 해오고 있는 허깅페이스 연구팀에서 “AI 모델용 에너지소비효율등급”(Energy Star Ratings for AI Models)을 마련한다고 합니다. 여러 AI 모델이 일정한 작업을 수행하는 데 소비하는 전력량을 측정하여 효율등급을 부여하고, ‘녹색 AI 리더보드’ 순위표를 운영할 예정이라고 해요.
한국의 에너지소비효율등급과 직접적인 연관은 없습니다.
- 데이터센터의 탄소배출, 냉각수 등 AI 기술의 막대한 환경비용을 지적하는 목소리가 커지고 있지만 모델의 환경비용 측정은 여러 이유로 쉽지 않습니다. 데이터 수집에서 모델 구축, 실사용을 아우르는 전 과정이 수많은 이해관계자와 인프라 사이에 걸쳐 있고, 기술 개발을 주도하는 기업 측에서 정보 공개를 꺼리기도 하지요.
- 과학적 근거는 비판에 힘을 실어줍니다. 위 연구는 하드웨어, 입력값, 설정값 등을 통제한 조건에서 AI 시스템의 작동을 비교하여 환경비용에 관한 양적 데이터를 만듭니다. 특정 용도에 최적화한 모델보다 (프롬프트를 조작해 다용도로 활용하는) 제로샷 모델이 같은 작업을 할 때도 훨씬 에너지 소모가 크다는 초기 실험 결과는, 현재 테크업계의 파운데이션 모델 구축 경쟁이 기후에 미치는 악영향에 대한 근거인 셈입니다. 궁극적으로는 끝없는 스케일 경쟁보다 효율적이고 친환경적인 기술을 중시하는 쪽으로 패러다임이 전환되기를 기대해 봅니다.
더 읽어보기
- 미래의 시간을 쓰는 우리 (2023-12-18)
- 이 주의 인물 카드: 사샤 루치오니 (2023-07-03)
오늘 이야기 어떠셨나요?
여러분의 유머와 용기, 따뜻함이 담긴 생각을 자유롭게 남겨주세요.
남겨주신 의견은 추려내어 다음 AI 윤리 레터에서 함께 나눕니다.
이슈
AI 윤리 레터 님의
활동을 응원해주세요
AI 윤리 레터 님의
활동을 응원해주세요
코멘트
3감시 기술에 저항하는 행동이 기억에 남네요. 외국에선 한국을 cctv의 나라라고 부르는걸 몇번 들었는데요. 어쩌면 그런 일상적인 감시 때문에 중요한 사안에 너무 무뎌진건 아닌가 싶기도 합니다.
레딧도 커뮤니티의 데이터를 전달하기로 합의했다는데, 스택오버플로우도 동일하군요. 커뮤니티를 운영하는 입장에서는 당연할 선택일 수 있겠지만.... 지금까지 어떻게 발전해왔는지를 고민했으면 하는 아쉬움이 드네요ㅠ
스택오버플로우에 이런 일이 있었군요. 유저들이 함께 만들어가는 커뮤니티였는데 그 내용을 AI 학습에 판매한다고 운영사가 결정하고, 운영사가 수익을 가져가는 이 모든 게 이상하게 느껴집니다.
AI 기술이 환경에 미치는 영향이 궁금했고 우려됐었는데, 에너지소비효율등급표를 만드는 시도가 기대되네요!