토론

텔레그램 성착취방의 톱니바퀴, AI

2024.08.27

1,713
4
인공지능 윤리를 고민하는 직장인, 프리랜서, 대학원생이 꾸려가는 뉴스레터입니다.

AI 윤리 뉴스 브리프

2024년 8월 다섯째 주
by 🤖아침


1. 산업화하는 딥페이크 성착취물

더 읽어보기


2. AI 이미지, 안 속을 자신 있나요?

  • 생성형 AI의 주요 위험 중 한 가지는 사실과 구분하기 어려운 허위정보입니다. 최근 미국 공화당 대선 후보 도널드 트럼프가 AI 생성 이미지를 이용한 선전으로 문제를 일으켰는데요. 민주당 대선 후보이자 부통령인 카멀라 해리스를 공산당원으로 묘사한 이미지, 테일러 스위프트가 자신을 지지하는 것처럼 합성한 이미지 등을 SNS에 게시한 것입니다. AI 이미지라고 따로 명시하지도 않았습니다.
도널드 트럼프 트위터 계정에 올라온 AI 이미지.
허깅페이스 디자이너 Victor Mustar가 만든 퀴즈 게임 화면 갈무리. 저는 열 번 가량 시도한 끝에 겨우 13점을 얻었습니다.

https://huggingface.co/spaces/...

  • 설령 내가 개인적으로 AI 이미지를 잘 구분할 수 있다 해도, 수많은 팔로워를 가진 정치인이 허위 이미지를 마음껏 활용하고 플랫폼이 별다른 제재를 가하지 않는 상황에서 이런 이미지가 갖는 힘은 무시할 수 없습니다. 허위정보의 폐해, 현재진행형입니다.

3. AI 위험 분류체계, 통합할 수 있을까?

  • MIT 컴퓨터 과학 및 인공지능 연구소(CSAIL) 기반의 학제간 연구그룹인 퓨처테크(FutureTech)에서 ‘인공지능 위험 저장소’(AI Risk Repository)를 발표했습니다. 인공지능 위험에 관련된 기존 연구논문 43건을 메타분석하여 통합 분류체계를 제시하고 있습니다. 크게는 위험의 주체/의도/발생시점에 따른 분류와, 차별/프라이버시/허위정보/오남용/인간-컴퓨터 상호작용/사회경제 및 환경적 피해/시스템 안전 등 도메인에 따른 분류라는 두 체계 안에서 세부 항목이 있는 형식입니다.
인공지능 위험 데이터베이스’ 스프레드시트 갈무리.
  • 연구팀 측에서는 이것이 ‘기존 AI 위험 프레임워크와 분류체계를 종합 검토하여 각각의 위험을 추출하고 데이터를 공개하는 최초의 사례’라고 주장하는데요. 분석 대상이 된 논문도 문헌 검토 기반의 자료가 많다는 점에서 꼭 그렇게 말할 수 있는지는 모르겠습니다. 메타-메타분석이라고 한다면 맞는 말일까요.
  • 자료의 주 타겟은 정책입안자, 위험 평가 주체, 연구교육자 및 산업계라고 해요. AI 거버넌스와 법규제 관련 논의가 본격화하고 이론적 틀을 제시하는 노력도 활발한 이 시기에, 일종의 ‘완전판’ 프레임워크를 제시함으로써 담론적인 주도권을 가져가려는 시도로 읽을 수도 있어 보입니다. 저자들도 명시하듯 40여 개 문서를 단 한 명의 전문가가 검토했다는 점에서 ‘종합적’인 자료로서는 한계가 있지만요.

4. 이미지 생성 AI 기업 저작권 침해 소송 본격화

  • 개인 창작자들이 스태빌리티 AI 등의 기업을 상대로 제기한 집단소송 기억하시나요? 깃헙 코파일럿 관련 소송, 오픈에이아이 챗지피티 관련 소송과 더불어 생성형 AI 시대의 중요한 재판 중 하나인데요. 이 사건을 다루는 미국 법원에서 AI 기업의 저작권 및 지적재산권 침해가 의심된다고 보아, 소송을 본격적으로 진행하기로 판결했습니다. 디스커버리 제도를 통해 증거 제시에 들어가게 되는 것입니다.
Image
Sarah Andersen et al. v Stability AI ltd et al 소송 본격 진행을 알리는 판결문
  • 작년에 법원이 해당 소송의 일부 주장을 기각하며 원고측에게 저작권 침해 근거를 보완해오라고 지시한 것에 비추어 보았을 때, 이번 판결은 원고 측 입장에서 중요한 진전으로 볼 수 있습니다. 이미지-텍스트 데이터셋인 라이온(LAION) 시리즈에 원고의 저작물이 포함되었으며, 그 데이터를 학습한 이미지 생성 모델인 스테이블 디퓨전이나 그 모델을 활용한 서비스가 저작권을 침해했는지 따져볼 여지가 있다고 법원이 판단한 것이니까요.
  • 이 재판의 향방에 따라서 스테이블 디퓨전 모델이나 라이온 데이터셋을 활용한 다른 서비스 또한 영향을 받을 가능성이 있습니다. 사실상 대다수의 이미지 생성 관련 기업에 영향을 미친다고 봐야겠죠. 사건의 귀추가 주목되는 이유입니다.

더 읽어보기


#feedback

오늘 이야기 어떠셨나요?
여러분의 유머와 용기, 따뜻함이 담긴 생각을 자유롭게 남겨주세요.
남겨주신 의견은 추려내어 다음 AI 윤리 레터에서 함께 나눕니다.


공유하기

이슈

인공지능

구독자 265명

인공지능 이미지는 아직까진 자세히 보면 구분이 되는 것들이 많아 보이는데요. 멀리서 언뜻 봤을 땐 구분이 어렵더라고요. 소셜미디어를 통해서 확산되면 속기 쉽겠다는 생각이 듭니다.

텔레그램만 놓고 보면.. 한국에서의 텔레그램으로의 이주는 국가의 검열 시도 속에서 카카오톡이 국민들의 정보를 바로 제출했다는 사건 속에서 이루어졌어서 활동가/기자/정치인들 중심으로 이루어졌어서, '개인의 안전과 자유'를 위해 시작된 부분이 있는데.. 그 안전과 자유가 성범죄자들의 안전과 자유가 될 줄은.. 그 사이에서 어떻게 선택해야 하지? 다른 대안은 무엇이지? 정도의 틀에 갇히게 되는 같았는데...

재경님의 이 글을 통해 그 이면의 좀더 중요한 문제들을 들여다 볼 수 있게 되는 것 같습니다. 대안으로서의 블록체인에 대해서도 좀더 고민해 보면 좋겠다 싶네요. 좋은 글 감사합니다.

AI에 대해 잘 몰라서.... 이런 일이 있으니까 더 무섭고, 걱정만 늘어나네요. 그럴 때일수록 AI에 대해 더 찾아보고 그래야겠죠..?

저 역시 '너무나도 예견 가능한 일'이었다는 점이 가장 화가 납니다. 인류는 특정 문제가 터지기 전에는 경고에도 경각심을 가지기 어려워하는 듯 합니다.

연관 토픽 : #AI