검색
로그인
투데이
피드
멤버
이슈
캠페인
토론
뉴스
소식
뱃지
토론 시작하기
전체
팩트체크
투표
토론
AI 윤리 레터
131
AI 경쟁, 흐려지는 권리의 경계
AI 윤리 뉴스 브리프 2024년 11월 셋째 주by 🎶소소 1.AI 안전연구소 출범과 국가 간 패권 경쟁 한국 AI 안전연구소가 출범을 준비하며 초대 소장으로 김명주 교수를 임명했습니다. AI 안전연구소는 AI 안전성을 평가하고 AI안전성을 확보하기 위한 연구를 위해 설립된 기관입니다. AI 안전을 전담하는 기관이 설립되었다는 기대와 함께 제대로 역할을 할 수 있을지에 대한 우려가 제기되고 있습니다. 정보통신기술의 연구개발이 목적인 한국전자통신연구원(ETRI) 산하에 설립된 AI 안전연구소가 AI 안전 문제를 사회적 문제보다는 공학적 문제로 협소하게 정의할 수 있다는 것입니다. 조직 출범 이후에도 AI안전에 관한 공학-인문사회과학 학제 간의 협력을 강화할 수 있는 방향의 운영이 필요해 보입니다. AI 안전연구소는 AI 안전 정상회담 이후 영국을 시작으로 미국, 영국, 유럽, 일본, 싱가포르 등 세계 각국에 설립되고 있습니다. 다음 주에는 샌프란시스코에서 세계 AI 안전연구소 수장들이 한자리에 모이는 ‘국제 AI 안전연구소 네트워크’ 행사를 개최한다고 합니다. 글로벌 안전 표준 확립에 협력하고자 한다는데요. AI 안전이 기술적 안전성 문제를 넘어 국가 간 경쟁의 도구로 자리 잡아가는 가운데, 각국에서 자국 중심의 기술 규제를 선도하고자 하는 욕심이 어떻게 드러날 지 궁금합니다. AI 안전 협력 기조가 트럼프 정부 2기에서도 유지될지는 미지수입니다. 지난주 미국 대선에서 승리한 트럼프는 바이든 정부의 모든 AI 규제를 철폐한다고 언급한 바 있습니다. AI 안전을 지금보다 더 자국 인프라 보호와 타국 견제를 위한 도구로 사용할 가능성이 높습니다. 국가 안보에 위험이 된다며 화웨이 통신장비 수입을 금지하거나 엔비디아의 고성능 GPU의 중국 판매를 금지했던 것처럼요. 미국의 AI 기술을 보호하고 중국의 AI 산업 성장을 억제하기 위한 수단으로 AI 안전 또한 오용될 수 있는 것입니다. 이제 막 출범한 우리나라의 AI 안전연구소가 글로벌 경쟁 속에서 인간의 윤리적 가치 보호와 기술 진흥이라는 목적을 달성하는 데 충분한 역할을 할 수 있을지 지켜봐야겠습니다. 🦜더 읽어보기- 정체를 드러내는 각국 AI 안전연구소들(2024-10-21) 2.오픈AI의 저작권 소송 승소, 좁아지는 저작권자의 권리 오픈AI가 뉴스 웹사이트(Raw Story, AlterNet)에서 제기한 저작권 소송에서 승소했습니다. 법원은 뉴스 콘텐츠의 AI 학습으로 인한 구체적인 피해가 입증되지 않는다고 지적했습니다. 챗GPT가 뉴스 기사를 그대로 복제하는 것이 아니라 훈련 데이터를 기반으로 합성된 응답을 생성한다고 말이죠. 이는 오픈AI가 주장해온 공정 사용(fair use)를 지지하는 논리입니다. 또한 법원은 AI가 학습된 콘텐츠를 그대로 ’복제’해 생성했더라도 이를 오류로 간주하여, 오류가 수정되었다면 저작권 침해로 보지 않았습니다. 재판부는 오픈AI는 뉴욕타임즈와의 소송사례를 언급하며 뉴스 텍스트를 그대로 복제된 경우가 의도된 기능이 아닌 현재는 재현되지 않는 드문 오류라고 판단했습니다. 이제 기업은 ‘어떤 데이터를 학습하느냐(저작권 유무)’보다 ‘어떻게 생성물이 데이터를 그대로 복제하지 않게 하느냐’에 초점을 맞추게 될 것으로 보입니다. 이번 판결은 오픈AI 등 생성형 AI 기업을 대상으로 여러 저작권 침해 소송에도 영향을 미칠 것으로 보입니다. 지금까지 판결은 AI 학습으로 인한 저작권 침해 및 침해로 인한 피해 입증이 어렵다는 방향으로 흘러가고 있습니다. 이러한 판결이 지속된다면 저작권자의 권리 행사는 점점 더 어려워질 수 있습니다. 🦜더 읽어보기- 생성 AI와 창작, 그리고 창작자(2023-11-15) 3.X도 (동의 없이) 퍼가요~ 11월 15일부터 X의 이용약관 개정에 따라 이용자가 게시하는 모든 콘텐츠는 별도의 로열티나 동의 절차 없이 AI 학습 데이터로 활용할 수 있게 됩니다. 비공개 계정으로 올리는 글, 사진, 비디오 모두 X의 AI Grok에 학습될 수 있습니다. 이용약관에는 사용자가 AI 학습에 자신의 데이터 사용을 거부할 수 있는 옵트아웃 옵션이 명시적으로 언급되어 있지 않습니다. 현재는 데이터 사용 거부를 설정할 수 있지만 언제까지 가능할지는 알 수 없습니다. 많은 사용자가 X를 떠나기 시작했습니다. 그러나 사용자 데이터를 AI 학습에 사용하겠다는 플랫폼이 처음은 아닙니다. 메타(Meta)도 인스타그램과 페이스북에서 유사한 데이터 거버넌스 변경으로 논란이 되었습니다. 링크드인도 최근 별도의 고지 없이 사용자 데이터를 AI 학습에 활용했다가 사용자들의 분노를 불러일으켰습니다. 플랫폼들이 사용자의 데이터 권리를 위해 제공하는 옵션은 옵트아웃 정도입니다. 그나마도 옵트아웃을 위해서는 직접 설정하거나 별도의 양식을 제출해야 합니다. 아직 어떤 플랫폼도 사용자 데이터의 구체적인 보호 조치의 범위와 방식에 대해서는 명확하게 설명하지 않고 있습니다. 이것이 이용약관의 새로운 평균이 되는 게 아닌지 걱정입니다. 🦜더 읽어보기- 데이터, 어떻게 팔아야 잘 판 걸까? ...팔아야 하는 걸까?(2024-03-25)- AI 학습용 데이터 팝니다(2024-03-04)- 이용자 몰래 데이터를 활용하고 싶은 기업들(2023-08-23) #feedback 오늘 이야기 어떠셨나요?여러분의 유머와 용기, 따뜻함이 담긴 생각을 자유롭게 남겨주세요.남겨주신 의견은 추려내어 다음 AI 윤리 레터에서 함께 나눕니다.
2024.11.19
·
2
·
53
빠띠즌
이 되어
시민활동플랫폼 빠띠를 함께 만들어 주세요
빠띠즌 가입하기
로그인
투데이
뉴스
피드
토론
캠페인
질문
시민대화
공익데이터
시티즌패스
투표
소식
이슈
인물
뱃지
은하
투데이
피드
멤버
질문
시민대화
공익데이터