157
투표하는 인간과 효도하는 로봇
2024 총선 정책공약으로 보는 AI 분야
by 🎶소소
2024년 4월 10일은 대한민국 22대 국회의원 선거일입니다. 이번 글에서는 AI 분야를 언급한 정책공약을 살펴보려고 합니다. AI와 관련 있는 정책공약은 크게 AI 산업 경쟁력 강화, AI 활용 분야 확대, AI 도입 부작용 완화 정책으로 나뉩니다. 처음에는 정당별 차별점을 파악하여 전달하고자 했으나, 대동소이한 정책 간에 특별한 차이를 발견하기는 어려웠습니다. 구독자님들께서도 정당보다는 2024년 대한민국 정치가 AI 기술과 산업을 어떻게 바라보고 있는지를 중점적으로 보신다면, 가볍게 읽으실 수 있겠습니다.
※ 레터에서 검토한 정책은 의석수 1석 이상의 10개 정당 정책이며, 언급 순서는 당해 선거 기호순입니다.
1. AI 산업 경쟁력 강화 방안
정부 입장에서 AI 분야는 유망한 산업군 중 하나입니다. 여러 정당이 AI 산업의 경쟁력을 강화하기 위한 공약을 내놓았습니다. 특히 더불어민주당, 국민의힘 양당은 AI 기술이 미래 국가 경쟁력을 좌우할 '게임 체인저'라는 유사한 캐치프레이즈를 내걸었습니다.
AI 기술 개발 및 인재 양성
정부의 과학기술 분야 지원 정책에서 빠지지 않는 항목입니다. 그래서 특별히 눈길이 가는 정책은 없었습니다.
(더불어민주당) AI 전문대학원 및 연구기관 중심의 고급 인력 양성 및 배출, 현업 산업전문인력의 AI 역량 강화 지원
(국민의힘) 미래 유망분야에 도전적 연구, AI 대학원을 통한 인재 양성, 해외 유수 대학과의 협력
(개혁신당) 인공지능 과목 이공계 입시 반영
AI 학습 데이터 확보
AI의 핵심 요소인 학습 데이터 확보를 지원하고 활용할 수 있는 기반을 조성하겠다는 것인데요. 정부에서 꾸준히 언급해 온 정책과 크게 다르지 않아 실행 여부가 더 중요하겠습니다.
(더불어민주당) 공공데이터 및 민·관이 함께 투자한 AI 학습용 데이터 전면 개방, 통합데이터포털 설치·활용, 데이터 가치평가, 품질인증제 도입, 공공·민간 데이터 통합 활용 추진
(국민의 힘) 법률, 의료, 교육, 교통, 로봇 등의 특수 분야의 학습용 데이터 확충
(개혁신당) 폐터널과 폐광산을 활용한 데이터 센터 증설
AI 인프라 지원
AI 인프라 지원 정책으로는 클라우드 산업과 AI 반도체 개발 지원이 언급되었습니다.
(더불어민주당) AI-클라우드 연계 관리체계 마련, 공공 분야 클라우드의 국내 민간 클라우드로 전환 추진
(국민의힘) 고성능·저전력 국산 AI 반도체 개발과 AI 반도체 클러스터 조성 및 활성화
그 외의 산업 활성화 지원책으로 AI 분야 창업 지원, 바우처 정책 등도 제시되었습니다.
(더불어민주당) 정부 출연기관의 AI 분야 연구원의 창업 지원
(국민의힘) 정부와 민간의 정책 금융 대폭 지원
(새로운미래) AI 등 딥테크 벤처투자 정책 펀드의 투자 규모 및 운용 기간 확대
Image bySteve Johnson on Unsplash
2. AI 도입 및 활용 확대 제시
AI 기술을 어떤 분야에 활용하면 국민에게 가장 이익이 될까요? 정당이 제안하는 AI 활용 분야를 살펴보면, 모든 분야에 AI를 활용하겠다는 의지가 느껴집니다. 특히 국민의힘은 AI를 “성장 정체를 돌파하여 글로벌 강국으로 도약하고, 각종 사회적 비효율을 개선하기 위한 혁신적인 해법”이라고 표현합니다.
각 정당에서 AI를 활용하겠다며 제시한 분야는 아래와 같습니다. 가장 많이 언급된 AI 활용 분야는 재난 예측입니다. 산업에 AI를 활용한다고 이야기하는 공약이 많았습니다. 그래서 오히려 산업 재해가 많은 위험 산업에 AI를 우선 적용하겠다는 공약이 인상적이었습니다.
(더불어민주당) 신약 개발, 홍수, 산사태, 지진 등 자연재해 예측, 국가침입외래종 관리, 흉악범죄 예방, 국방, 미래 농업
(국민의힘) 국민 체감이 높은 분야(유사 판례 제시, 질병 예측 및 심리 상담, AI 교과서, 지능형 CCTV, 현장인파 관리, 자동 번역), 암표 방지, 스마트 물류, 신약 및 의료 솔루션, 재난 예방, 안전한 통학로, 복지 사각지대
(새진보연합) 제조업 중 산업 재해 및 화학 약품 노출도가 높은 위험 산업 (방사선 사용, 위험 물질, 동물임상실험 등)
(새로운미래) 선제적 재난 예방
그중에는 우려스러운 활용 분야도 있습니다. 국방 AI, 지능형 CCTV의 경우 전쟁 중 인간 살상이나 국민 감시에 악용될 수 있는 분야이기 때문에 유의해야 합니다. 실시간 학생과 교사의 의견 수렴 없이 추진하여 논란이 된 현 정부의 AI 교과서 같은 교육 분야도 언급되었습니다.
반면 AI를 활용하지 않을 분야로 치매·우울증·고독사 관리 분야를 꼽은 공약도 있습니다. (새로운미래) ‘AI’가 아닌 ‘사람’과의 연결을 위한 ‘실버콜센터’를 확대 정책은 AI의 무조건적인 활용을 경계해야 함을 생각하게 됩니다.
3. AI 도입 부작용 완화 방안
AI 도입의 부정적 영향을 완화를 고민한 정책은 AI 경쟁력 강화나 활용 방안에 비해서 적다고 느꼈습니다. 그럼에도 각 정당 정책에서 언급한 AI 도입의 부작용을 살펴보면 지향하는 가치가 확연히 드러납니다. AI로 인해 발생가능한 문제의 종류에 따라 관련 정책공약을 분류해 보면 다음과 같습니다.
AI 정보 격차 해소
(더불어민주당) 대학의 평생교육원 등 SW, AI 디지털 교육과정 수강 지원
(국민의힘) 디지털포용법 제정, 디지털/AI 제품과 서비스의 접근과 활용을 전 국민의 보편적 권리로 보장
허위 정보, 가짜뉴스 생성
(국민의힘) 가짜뉴스 대응 협의체(포털, 해외 플랫폼 사업자 등 참여) 운영, AI 생성물 식별 표시제(워터마크 등) 도입
AI 학습 데이터의 저작권 침해와 AI 저작물 보호 체계 마련
(더불어민주당) 생성형 AI 학습 데이터 보상체계, 데이터 공개 플랫폼, 생성AI 저작물 보호체계, 콘텐츠 불법 유통 근절을 위한 국제 공조
(녹색정의당) 창작자의 동의 없는 창작품 학습 금지, AI 학습으로부터 창작자의 저작권 보호를 위한 기술 개발
기술매개 성폭력
(녹색정의당) 기술 기반 젠더 폭력, 디지털 성폭력 강력 대응, 이루다봇 방지, 인공지능 산업 인력에 대한 성별 실태 파악, 인공지능 개발 가이드라인 보완
(새로운미래) “기술매개 성폭력" 대응 강화
AI 기술 전환으로 인한 노동자 피해
(녹색정의당) AI로 약화된 노동권 강화
(새로운미래) AI 도입으로 해고되는 노동자를 보호하기 위한 정책
그 외에도 AI 기술개발 단계부터 주요 부작용에 대한 엄격한 규제(더불어민주당), 알고리즘 서비스가 이용자에게 해를 끼칠 우려에 대한 조사와 시정명령을 포함한 ‘알고리즘 투명화법’ 제정(녹색정의당)이 정책으로 제안되기도 했습니다.
정책에 AI로 인한 정보 격차, 성범죄, 허위·조작정보 생성, 저작권 침해 등의 문제 인식과 해결 의지가 반영된 것은 고무적입니다. 아직 해결 방안이 모호하고 구체적이지 않기는 합니다. 올해의 정책공약이 사안별로 어떠한 제도를 어떻게 적용해 해결할 것인지 구체적으로 고민하는 시작점이 되기를 바랍니다. 구독자분들도 각 정당 정책을 확인하실 수 있도록 정책공약마당 링크를 남깁니다.
사실 정책 공약을 살펴보면서 가장 크게 깨달은 점은 AI 보다 더 중요한 가치가 많다는 점이었습니다. 정당정책집에 AI라는 용어조차 한 번도 언급되지 않은 경우도 꽤 많았기 때문입니다. AI 업계에서 일하다보니 밤낮으로 쏟아지는 AI 뉴스에 제가 갇혀 살고 있었던게 아닌가하는 생각도 들었습니다. 그래서 오늘은 구독자분들도 AI 정책보다도 대한민국의 유권자로서 지향하는 가치에 맞는 좋은 선택을 하시기를 바라며 글을 마칩니다.
로봇이 효도한다구요?
by. 🥨 채원
‘효돌’이라는 이름을 들어보셨나요? 효돌은 ‘효도’와 인형을 가리키는 영어단어 'doll’을 합친 것에서 알 수 있듯, 고령의 사용자를 대상으로 하는 돌봄 로봇입니다. 효돌은 7세 손주 페르소나를 구현하여 돌봄과 정서 교감을 구성하는 데 초점을 두고 있다고 합니다.
효돌은 작년 MWC(Mobile World Congress)에서 "커넥티드 건강 및 웰빙을 위한 최우수 모바일 혁신" 부문에서 대상을 수상하기도 했습니다. 효돌 외에 해당 어워드에서 수상한 다른 한국 기업이 삼성전자와 SKT라는 대기업이었다는 점을 감안하면, 생소한 이름의 국내 업체의 수상 소식이 더욱 이례적이라는 인상을 줍니다.
효돌이 일반 대중에게는 다소 생소하게 느껴질지 몰라도, 실버케어 분야에서는 이미 잘 알려진 솔루션입니다. 전자신문의 보도에 따르면 전국 156개 지자체, 1만여명이 이미 효돌을 사용하고 있다고 합니다. 효돌은 2017년 처음 출시된 이래, 2023년에는 챗GPT를 탑재한 2세대 모델을 출시하기도 했습니다. 뿐만 아니라, 효돌은 대학, 병원 등과 협력하여 의료 취약 지역, 특정 질환·상황에서의 문제 해결을 위한 비대면 의료 서비스 실증 사업을 진행하고 있다고도 합니다. 효돌을 사용하여 독거 노인을 대상으로 연구한 결과에 따르면 우울 척도에서 개선을 보였다고 합니다.
전 세계적으로 고령화가 빠르게 진행되고, 현대 사회에서 개인이 겪는 고독감과 외로움에서 비롯되는 각종 사회 문제가 만연해질수록 효돌과 같이 기술적인 해결책을 도입하려는 시도는 점점 늘어날 것으로 예상됩니다. 챗GPT와 같은 생성형 언어 모델이 출시되기 이전에도, 각종 챗봇이나 로봇을 사용하여 노인의 외로움이나 치매와 같은 질병에 대처하기 위한 방안을 모색하는 연구는 무수히 개발되어 왔습니다.
잘 알려진 소셜 로봇 파로는 귀여운 하프 물범의 외관을 가진 로봇으로, 사용자들에게 심리적 안정감과 유대감을 형성합니다. 최근 인기있는 챗봇 서비스 중 하나인 레플리카의 사용자들 천 명을 대상으로 한 연구에 따르면, 레플리카 챗봇을 이용하는 것이 사용자들의 외로움과 자살충동을 완화하는 데에 도움이 되었다고 합니다. 그렇다면 이러한 챗봇을 최대한 많이 도입하는 것이 좋을까요?
기술적 해결책을 도입하는 적정선이 어디인지, 어떤 기술이 어떻게, 누구에게 적용되어야 하는지는 각 사례마다 고유하게 고민되어야 할 문제입니다. 특히 고연령의 사회적 취약 계층에게 이러한 기술적 해결책을 제시하는 것에 대한 위험성 또한 철저하게 평가되어야 합니다. 일례로 이러한 소셜 로봇을 사용하였을 때 사용자가 해당 로봇에게 지나친 애착 관계를 형성하여 문제가 될 수 있다는 사례도 있습니다. 이 외에도 이러한 기술을 도입함으로 인해 영향을 받는 기존의 제도들에 대한 영향 평가나 장기적인 관점에서의 영향도 고려되어야 합니다.
인간의 외로움이 기술로 해결할 수 있는 문제일까요? 여태까지 뛰어난 성능의 언어 모델이 없었기 때문에 현대 사회의 외로움이나 고령화 시대 돌봄 문제가 지속된 것은 아닐 것입니다. 기술이 해당 문제에 대처하는데 새로운 방법을 제시할 수는 있겠지만, 근본적인 문제의 해결은 대개 복잡한 사회 구조적인 분석을 필요로 합니다. 그렇기 때문에 기술의 발전으로 새롭게 가능해지는 해결책을 고려하는 노력 만큼이나, 각종 문제 저변에 깔린 근본적인 원인을 들여다보는 것도 게을리 하지 말아야 합니다. 효돌이 아니라 그 어떤 AI도 지방의 인구 소멸 문제라든가 돌봄 노동의 소외, 가부장제의 한계와 같은 문제까지 해결해줄 수는 없을테니까요.
인공지능
·
372
죽음의 기술과 효율성
AI 윤리 뉴스 브리프
2024년 4월 둘째 주
by. 🍊산디
1. 죽음의 기술과 효율성
전쟁의 현장에서 벗어나 있는 우리는 첨단 기술이 살상을 효율화한다는 설명을 듣습니다. 무인 무기로 아군의 피해를 최소화하고, 적을 정확히 지정(pinpoint), 정밀타격(surgical strike)한다는 것이죠. 심지어는 인간 행위자의 판단 없이 AI의 자체 ‘판단’으로 ‘적’을 살상하기도 합니다. 우크라이나 군의 AI 드론이 자체 ‘판단’으로 인간을 살상했습니다. 우크라이나군의 AI 드론이 조종 신호가 끊겨도 독자적으로 살상하도록 프로그래밍 되어 있었기 때문입니다. 그게 더 효율적이기 때문입니다.
이스라엘의 팔레스타인 폭격에도 AI가 쓰이고 있습니다. 라벤더라는 이름을 가진 이 AI는 3만7천여 명의 ‘타겟’을 학습했고, 10% 정도의 오류율을 보이는 것으로 알려져 있습니다. 인간이 ‘타겟’ 식별 결과를 확인하는 데 쓰는 시간은 20초. 살상을 결정하는 데 쓰는 시간입니다. 군수 시장도 가세합니다. 이스라엘 군수 스타트업들은 이번 전쟁에서 쓰인 AI를 수출할 계획입니다. …정말 여러모로 효율적이네요.
효율은 인간을 잘 죽일 수 있도록 AI를 개발하고, 기술에 대한 감독 책임에서 슬쩍 빠져 나오는 모든 행위를 정당화하려 시도합니다. 우스운 일입니다. 어떤 미사여구로도 전쟁은 정당화 되지 않습니다.
여러 기구에서 전쟁의 중단을 요청하는 서명을 진행하고 있습니다. 그 중 러시아의 우크라이나 침략 중단, 이스라엘/팔레스타인 휴전을 촉구하는 앰네스티의 온라인 서명 운동을 링크합니다. 부디 원래 전쟁이 그런 거라며 쉬이여기거나, 그것에 무뎌지거나, 좌절하지 않길 바랍니다.
더 읽어보기
전쟁과 죽음의 기술(2023-10-30)
자동화된 아파르트헤이트(2023-05-15)
2. 빅테크의 기발한 데이터 수집
새삼스럽게 유튜브가 이용자와의 계약을 강조하기 시작했습니다. 오픈AI가 유튜브 영상을 동영상 생성 AI 모델 소라(Sora) 학습에 활용했다면, 이는 명백히 서비스 이용 약관을 무시한 처사라고 비판한 것이죠. 오픈AI의 CTO 미라 무라티가 소라 학습에 유튜브 동영상이 쓰였는지 묻는 질문에 ‘모른다’ 답한 것에 대한 대응으로 판단됩니다.
데이터는 생성형 AI 제작에 필요한 핵심적인 ‘자원’입니다. 이미 2021년 말부터 더 이상 학습할 영어 텍스트 데이터가 남아 있지 않았던 오픈AI는 동영상으로부터 텍스트를 추출하는 음성 인식 도구인 ‘위스퍼(Whisper)’를 제작합니다. 뉴욕타임즈의 취재 결과, 위스퍼를 활용해 오픈AI는 백만 시간 이상의 유튜브 동영상을 복사했습니다. 위스퍼 데이터는 GPT-4 개발에 활용된 것으로 알려 있습니다. 같은 보도에 따르면 오픈AI는 이러한 일련의 과정이 유튜브 약관에 위배된다는 사실을 내부적으로 논의했던 것으로 보입니다.
하지만 데이터에 목마른 것은 구글도 매한가지입니다. 지난해 구글은 문서, 지도 등으로부터 AI 학습에 활용할 데이터를 얻기 위해 개인정보보호 약관을 변경하였습니다. 빅테크의 필요에 따라 서비스 약관은 무시되거나 바뀌고 있습니다. 인터넷 등장 이후 우리가 지켜내려 해온 권리들은 생성형 AI의 등장 앞에 무력한, 과거의 것으로 치부되어야 하는 걸까요.
더 읽어보기
AI 학습용 데이터 팝니다(2024-03-04)
데이터, 어떻게 팔아야 잘 판 걸까? … 팔아야 하는 걸까?(2024-03-25)
3. AI가 나의 음성을 학습하는 걸 막을 수 있을까?
작곡 공모전에서 1위 곡이 알고 보니 생성형 AI가 만든 것이었다는 작곡가의 놀라움 섞인 한탄부터 인간이 새로운 창의 역량을 발휘할 수 있게 되었다는 평가까지, 음악 생성형 AI의 발전 또한 놀라운 속도를 보여주고 있습니다.
빌리 아일리시, 이매진 드래곤 등 200여 명의 예술가들이 예술가 권리 연합(Artists’ Rights Alliance)의 AI 음악 생성 작업의 중단과 보상을 촉구하는 공개서한에 서명했습니다. 빅테크들이 음악 생성 모델들을 공개하는 와중에 등장한, 직접적인 이해당사자의 입장 표명입니다. 서명은 생성형 AI의 엄청난 잠재력에 대해서 동의하면서도, 무책임한 개발과 이용은 창작자의 프라이버시와 생계 모두를 심각하게 위협한다는 사실을 지적합니다.
관련 법 제정 움직임도 관찰됩니다. 지난달, 미국 테네시 주는 ‘엘비스(ELVIS) 법(Ensuring Likeness Voice and Image Security Act)을 제정했습니다. 주지사가 테네시 주 상원 및 하원 다수당 대표들과 함께 제출한 법안이었죠. 엘비스법은 이름과 이미지, 초상을 보호해 오던 기존 퍼블리시티법의 보호 대상에 음성을 추가하고, 공연 목적으로 AI 음성을 무단 사용하는 것을 금지했습니다.
한국에서 ‘인격표지영리권’으로도 불리는 퍼블리시티권은 통상 “성명, 초상 등이 갖는 경제적 가치를 상업적으로 사용하거나 배타적으로 지배하는 권리”로 정의되어 왔습니다. 대체로 음성은 보호 범위 밖에 있었죠. 게다가 한국에서 인격표지영리권은 법에 명문화되지 않고 판례로서 보호되어 왔습니다. 지난 2022년 12월, 법무부는 (AI를 염두에 두었던 것은 아닌 듯 합니다만) 연예인뿐만 아니라 국민 모두의 인격표지영리권을 보호하는 민법 개정을 추진한다고 밝힌 바 있습니다. 기술 환경이 변화한 만큼 관련 논의도 새로운 국면을 맞이할 수 있지 않을까요?
오늘 이야기 어떠셨나요? 여러분의 유머와 용기, 따뜻함이 담긴 생각을 자유롭게 남겨주세요.
남겨주신 의견은 추려내어 다음 AI 윤리 레터에서 함께 나눕니다.
인공지능
·
234
챗봇이 직원 팁 뺏어도 된다던데요?
AI 윤리 뉴스 브리프
2024년 4월 첫째 주
by. 🤔어쪈
1. 미국의 AI 정책이 기업보다 정부를 먼저 규제하는 이유
AI 윤리 레터에서도 두 번에 걸쳐 다뤘던 미국 백악관의 AI 행정명령, 기억하시나요? 작년 11월, 6개 원칙 아래 정부 부처별 할 일 목록을 발표했었죠. 그 중 우리나라 기획재정부에 해당하는 예산관리국(Office of Management and Budget; OMB)에 내준 숙제, 정부의 효과적이고 책임있는 AI 활용 방안이 기한에 맞춰 제출되었습니다.
이에 따르면, 연방 부처에서 활용하는 AI 기술이 권리나 안전성에 영향을 미칠 가능성이 있는 경우 그에 따른 사전 및 운영 중 조치를 취해야 합니다. 예컨대 법 집행 과정에서 활용하는 얼굴인식 프로그램은 사전 영향평가를 통해 편향성을 충분히 완화하고, 도입 이후에도 지속적인 모니터링을 실시해야 하죠. 물론 불명확한 점이 없다고는 할 수 없지만 구체적인 용어 정의와 행동 지침에 더해 부처별 최고 AI 책임자를 지명하여 해당 업무를 담당하도록 하고 있어 기존 원칙에서 행동으로 한발 나아갔다는 평입니다.
AI 윤리 레터에서도 수차례 지적했듯, 정부는 AI 정책을 설계하고 집행하는 역할 뿐만 아니라 AI 기술을 행정에 도입하는 공급자 역할도 맡고 있습니다. AI 기업들에게 안전성을 주문하고 책임을 묻는 것 이상의 자기규율이 요구되는 이유죠. AI 정책의 규제 대상으로 보통 기업을 떠올리기 쉽지만, 서비스 이용자 및 소비자를 넘어 모든 시민에 영향을 미칠 수 있는 정부 역시 규제 대상으로 눈여겨볼 필요가 있습니다.
2. 챗봇이 직원 팁 뺏어도 된다던데요?
작년 10월, 미국 뉴욕시는 책임있는 AI 활용을 주도하는 도시가 되겠다며 시정에 AI 기술을 대대적으로 활용할 것을 선언했습니다. 뉴욕 내 사업자에게 제도 및 정책 정보를 제공하는 ‘마이시티 챗봇(MyCity Chatbot)’도 함께 발표했죠. 시에서 직접 도입한만큼 신뢰성이 중요한 서비스임에도 불구하고 탐사 보도 전문 지역 언론에서 살펴본 결과, 챗봇을 곧이곧대로 믿다간 범법 행위를 저지르기 십상이라고 합니다.
예를 들어, “직원이 받은 팁 일부를 챙겨도 되는가?”라는 질문에 챗봇은 뉴욕시 공식 정책 문건까지 인용하며 가능하다고 답했지만 이는 명백히 불법입니다. 아직 실질적인 피해가 발생했는지는 불분명한 상황인데요. 이러한 문제제기에 해당 챗봇은 테스트 운영 중이므로 중단하기보다 계속해서 개선하겠다는 말뿐인 뉴욕시가 에어캐나다의 전철을 밟는 것처럼 보이는 건 저뿐일까요?
마이시티 챗봇은 접속 화면에서부터 마이크로소프트(MS)의 애저 AI 서비스로 구현되었음을 밝히고 있습니다. 다만 뉴욕시는 챗봇 개발과 운영에 있어 MS가 정확히 어떤 역할을 담당하는지 함구하고 있다고 하죠. 우리나라 정부 부처 역시 너나 할 것 없이 AI 도입을 서두르는 모습인데요. 뉴욕시 사례를 본보기 삼아 보다 책임있는 자세를 취해주길 바랄 따름입니다.
3. 방통위도 가세한 국내 AI 법 제정 움직임
지난 목요일 방송통신위원회(이하 방통위)가 발표한 2024년도 업무계획에는 예년과 달리 인공지능이 수차례 언급되었습니다. 무엇보다 ‘인공지능서비스 이용자보호법’을 제정하겠다는 계획이 눈길을 끄는데요.
부처 전체의 한해 계획을 담은 문서인만큼 상세한 내용이 공개되진 않았습니다. 신뢰성 보장과 역기능으로부터의 이용자 보호를 위해 ‘고영향 인공지능서비스 구분, 위험성 관리, 분쟁조정 등’의 관리체계를 수립하겠다고 한 것을 보면 아무래도 EU의 AI 법을 참고한 듯 보여요. 입법과 별개로 AI 생성물 표시제를 도입하고, 생성형 AI 피해 예방 및 대응을 위해 자율 가이드라인과 전담 신고창구를 마련하겠다고도 했습니다.
우리나라 정부는 크게 AI를 기술로, 미디어로, (개인정보를 취급하는) 서비스로 바라보는 관점에 따라 각각 과학기술정보통신부, 방통위, 개인정보보호위원회에서 AI 거버넌스를 주도하려는 움직임을 보이고 있습니다. 부처마다 서로 담당하겠다고 손을 드는 와중에 국회에서는 인공지능법안이 1년 넘게 계류 중인 상황이죠. 다가오는 총선 이후 이 구도가 어떻게 재편될지도 관건입니다.
4. AI 학습 데이터 출처, 공개해야할까?
생성형 AI 서비스 개발을 위해 원 저작자 허락없이 학습 데이터를 수집하는 행위가 저작권 침해인지를 두고 소송전이 한창이죠. 이에 앞서 학습 데이터 출처를 공개해야 하는지에 대해서도 의견이 분분한 상황입니다. 최근 EU에서 의결한 AI 법에서도 학습 데이터 상의 저작물 정보 고지 조항이 가장 많은 관심과 함께 로비 대상이 된 바 있죠. 하지만 여전히 대다수 국가에서는 명확한 제도가 없어 여론의 향방 역시 중요한데요. 미국에서 진행된 한 설문조사 결과, 응답자 절반 이상이 공개해야 한다는 의견을 표했습니다.
54%의 응답자는 AI가 다른 이의 작업을 바탕으로 결과물을 생성하므로 데이터 출처를 언급해야 한다고 답한 반면, 14%는 이미 온라인 상에 있는 정보이므로 필요없다고 답했습니다. 다만 잘 모르겠다는 사람이 무려 30%를 넘었다는 점은 유의할 필요가 있겠네요. AI가 생성하는 콘텐츠 종류를 특정한 경우, 특히 언론과 예술 분야에서 출처 정보 제공이 필요하다는 의견 비중이 높아지는 것을 볼 수 있습니다.
다만 조사는 학습 데이터 공개라는 표현을 사용하는 대신 ‘참고한 자료 출처를 명시해야 하는지’를 물었습니다. 아마도 일반인을 대상으로 한 설문이다보니 생성형 AI의 작동 방식을 설명하기는 어려웠겠죠. 학습 데이터 출처 정보 제공을 꺼리는 입장에서는 AI의 ‘생성’이 반드시 학습 데이터를 ‘참고’하는 건 아니라고 주장할 여지도 있어 설문 결과의 파급력은 제한적일 수 있겠습니다.
오늘 이야기 어떠셨나요? 여러분의 유머와 용기, 따뜻함이 담긴 생각을 자유롭게 남겨주세요.
남겨주신 의견은 추려내어 다음 AI 윤리 레터에서 함께 나눕니다.
인공지능
·
142
유튜브 생성형 AI 라벨링 확인하세요!
AI 윤리 뉴스 브리프
2024년 3월 넷째 주
by. 🍊산디
1. 미국 하원, 민감정보 적대국 제공 금지 법안 통과
미국 하원의 틱톡 금지법 통과에 가려 상대적으로 덜 주목받은 소식이 하나 있습니다. 데이터 브로커가 미국에 거주하는 개인의 민감정보(sensitive data)를 적대국 또는 적대국에 의해 통제되는 누군가에게 제공하는 것을 금지하는 법안이 만장일치로 하원을 통과한 것이죠.
이 때의 ‘민감정보’는 한국 법이 통상 지칭하는 것보다 훨씬 광범위한 내용을 아우릅니다. 사회보장번호와 같이 정부가 개인을 식별하는 데이터나 건강정보, 결제정보, 생체정보, 유전자 정보, 구체적인 지리정보뿐만 아니라 상대방이 누구인지 알 수 있는 커뮤니케이션 내역과 통화 시간, 통화한 위치 등도 모두 민감정보에 포함됩니다. 개인적 목적으로 저장된 캘린더 일정, 사진, 동영상도 포함되고, 17세 미만 개인에 대한 정보, 인종이나 피부색, 종교에 대한 정보도 물론 포함되며, 온라인에서의 활동 정보, 나아가 앞서 언급한 정보들을 유추할 수 있도록 하는 모든 유형의 정보가 민감정보로 정의됩니다.
FTA 등 국가 간 무역협상을 통해 데이터의 자유로운 이동을 주장해왔던 미국은 이제 노선을 선회하여 적대국(중국, 이란, 북한, 러시아 등)으로의 데이터 흐름을 강력히 차단하려 하고 있습니다. 데이터 브로커의 데이터 반출, 틱톡 등 ‘적대국의 사업자’의 서비스 제공을 통한 데이터 취득을 모두 막음으로써 자국 국민과 산업을 보호한다는 것이죠.
AI의 등장으로 한층 고도화된 산업 구조는 데이터가 곧 주권임을 강변하는 듯 합니다. 변화한 국제 정세 속에서 데이터 장벽은 더욱 높아질 듯 하네요.
2. UN 총회, 안전하고 신뢰할 수 있는 AI 시스템 결의안 채택
UN의 193개 회원국은 ‘안전하고 신뢰할 수 있는 AI 시스템 결의안’을 만장일치로 채택했습니다. 미국이 주도한 이번 결의안은 AI의 기획부터 활용되기까지의 전 주기에 인권을 존중하고 촉진할 수 있어야 한다고 강조합니다. 안전하고 신뢰할 수 있는 AI는 UN의 지속가능개발목표(SDGs) 달성에 도움이 될 수 있다는 것이죠.
AI는 2차 세계대전의 참화 속에서 적국의 암호를 해독하기 위한 계산장치로서 등장했고, 세계화의 불평등을 배경으로 성장했습니다. 기술이 심화해온 불평등을 완화하는 데 기술이 기여하기 위해서는 더 많은 국제 협력과 조율이 필요합니다.
아무런 구속력 없는 이번 결의안이 군사적 목적의 AI 활용을 막거나, 범남반구에서 활발히 이루어지고 있는 데이터 노동의 불안정성을 극복하기 위한 적극적 정책으로 이어지지는 않을 것입니다. 하지만 이번 결의안이 교두보가 되어 군사 부문에 AI 활용을 제한하기 위한 국제협력으로 확대될 수 있기를 바랍니다.
3. 유튜버라면 생성형 AI 라벨링 확인하세요!
유튜브 영상 제작에 생성형 AI를 활용하고 계신다면 이제부터는 라벨링을 잘 하셔야합니다. 유튜브가 생성형 AI를 비롯한 변경·합성 미디어를 이용해 실제 사람, 장소, 이벤트로 착각할 수 있는 콘텐츠를 게시할 경우 라벨링을 통해 이를 알리도록 하는 정책을 단계적으로 시행합니다. 지속적으로 라벨 표시 규정을 어기는 크리에이터는 수익 창출이 제한되거나 콘텐츠가 삭제될 수 있습니다.
이번 라벨링 정책은 EU 디지털서비스법(DSA)의 시행과 대선을 앞둔 미국 정치 상황을 반영한 결과로 보입니다. 유튜브 외에도 페이스북, 인스타그램, 틱톡 등도 비슷한 라벨링 정책을 도입한 바 있습니다.
흥미롭게도, 라벨링이 필요한 콘텐츠, 즉 ‘생성형 AI를 활용하여 제작된 실제로 착각할법한 콘텐츠’가 무엇인지에 대한 구체적인 결정은 유튜브의 자율적인 판단에 맡겨지게 되었습니다. 기업에게 일종의 ‘재량’이 부여된 셈이죠. 비단 이번 라벨링 정책이 아니더라도 우리 정책 환경의 플랫폼 재량에 대한 의존도는 더욱 심화되고 있습니다. 유튜브의 생성형 AI 라벨링 ‘자율규제’는 어떤 모습으로 구체화될까요?
덧글
🤔어쪈: 오, 이로서 구글은 보다 손쉽게 사람이 직접 찍고 편집한 영상만을 AI 학습 데이터로 활용할 수 있겠군요!
4. 데이터, 어떻게 팔아야 잘 판 걸까? ...팔아야 하는 걸까?
2005년에 문을 연 레딧은 사람들이 자유로운 커뮤니티 활동을 통해 광고 수익을 얻는 회사였습니다. 19년이 지난 지금, 한번도 흑자를 내지 못한 기업 레딧은 새로운 비즈니스 모델을 찾아 성공적으로 IPO를 마쳤습니다. 그 동안의 데이터를 AI 훈련용으로 판매하는 것이죠. 구글은 레딧 게시글과 댓글을 활용해 AI를 훈련할 수 있도록 하는 연간 라이센스로 6천만 달러를 지불했습니다.
이용자들이 19년 간 떠들고, 업&다운 투표를 하고, 게시판(서브레딧)을 열고 운영하며 쌓인 데이터입니다. 매일 6만여 명의 이용자가 자발적으로 중재자가 되어 레딧 커뮤니티를 관리합니다. 이용자들이 자유/무료 노동으로 플랫폼 기업만 수익을 얻는 것에 문제를 제기해온 배경입니다. 흥미롭게도 레딧은 이 문제를 공모 주식 중 일부(8%)를 활발한 활동을 보여준 이용자가 구매할 수 있도록 함으로써 해결하려는 모습입니다.
하지만 이로써 데이터 판매 이후 이용자들과 플랫폼 간 긴장관계가 모두 해소되었다고 평가할 수는 없을 듯 합니다. 공모 주식 배정 결정이 알려진 이후에도 회사의 ‘비즈니스 모델’에 반대하는 의견이 쉽게 발견되고 있기 때문입니다. FTC가 구글과 레딧 간 데이터 거래를 조사하기 시작한 것 역시 레딧으로서는 넘어야 할 산이겠네요. 이용자의 노동으로 기업, 주주가 수익을 얻는다는 비판에 기업은 어떻게 답할 수 있을까요?
오늘 이야기 어떠셨나요? 여러분의 유머와 용기, 따뜻함이 담긴 생각을 자유롭게 남겨주세요.
남겨주신 의견은 추려내어 다음 AI 윤리 레터에서 함께 나눕니다.
인공지능
·
416
AI가에 붙은 대자보 2개
AI 윤리 뉴스 브리프
2024년 3월 둘째 주
by. 🤔어쪈
1. AI가에 붙은 대자보 2개
AI 윤리 레터에 언급된, 아니 웬만한 글로벌 AI 기업 모두가 모처럼 중지를 모았습니다. 유명 벤처투자자 론 콘웨이(Ron Conway)가 이끄는 SV Angel에서 발표한 ‘더 나은 미래를 위한 AI 만들기’라는 성명서에 오픈AI, 메타, 구글, 마이크로소프트 등 수많은 회사가 이름을 올렸습니다.
하지만 아무리 읽어봐도 AI는 좋다, 필요하다, 그러니 잘 만들자는 공염불로만 읽히는 건 저뿐만이 아닌가 봅니다. 이전에 AI 하이프 뉴스 체크리스트를 통해 소개한 적 있는 에밀리 벤더(Emily M. Bender) 교수는 참여 기업들이 AI를 계속 개발해서 더 부자가 되겠다는 내용으로 패러디하기도 했죠.
한편, 학계에선 기업들이 정말 안전하고 믿을 수 있는 AI 시스템을 만들고자 한다면 ‘독립적인 AI 평가에 대한 면책 조항 (A Safe Harbor for Independent AI Evaluation)’을 둬야한다는 주장을 담은 성명서가 나왔습니다. AI의 위험성과 취약점을 찾으려는 연구자나 이용자를 막거나, 더 나아가 법적 책임을 묻는 상황을 만들지 말라는 요청인데요. 앞선 성명서에 참여한 AI 기업들이 어떻게 응답할지 궁금해집니다.
2. MS: (문제 있어도) ‘진행시켜!’
오픈AI가 개발한 GPT, DALL-E 등의 AI 모델에 대한 독점사업권을 가진 마이크로소프트(MS)는 코파일럿(Copilot)이라는 이름으로 그 누구보다 공격적으로 AI 사업을 밀어붙이고 있습니다. 그만큼 동시에 ‘책임있는 AI (Responsible AI)’를 강조하며 전면에 내세우고 있기도 하죠.
하지만 MS의 AI 개발자 셰인 존스(Shane Jones)는 코파일럿의 이미지 생성 기능이 가진 위험성을 수차례 제보했음에도 불구하고, 회사가 이를 인지하고도 묵살한 채 서비스를 출시했다고 폭로했습니다. 그는 최소한 코파일럿이 유해 콘텐츠를 생성하거나 저작권을 침해할 수 있음을 고지하고, 이용연령을 제한하거나 별도 보호 장치를 두어야 한다고 주장합니다.
존스가 MS 경영진과 FTC에 서한을 보냄과 동시에 관련 기사가 보도되자 MS는 유해 콘텐츠 생성에 쓰이는 프롬프트를 차단하는 등의 조치를 하기 시작했습니다. 우리에게 굉장히 익숙한 빅테크 내부고발 시나리오로 시작한 셈이죠. 전에도 적지 않은 내부고발자들이 있었고, 이들은 회사가 홍보하는 것에 비해 안전성과 같은 가치를 사업 기회 대비 추구하지 않는다는 것을 드러내왔습니다. 그렇다면 AI 기업들이 부르짖는 자율규제는 답이 아닐 수도 있겠죠.
3. 학교 숙제를 넘어 연구 논문까지 AI가?
챗GPT가 등장했을 때, 어른들은 학생들이 학교 숙제를 AI에게 대신 맡긴 후 제출하여 결국 교육이 제대로 이뤄지지 않는 것을 걱정했습니다. 물론 우려는 여전히 유효하지만 그 범위는 교실과 강의실을 넘어 실험실의 교수와 연구자들로 넓어지고 있습니다.
최근 AI가 생성한 말도 안되는 일러스트레이션을 담은 논문이 소셜미디어에서 논란을 불러일으켰고, 끝내 철회되었습니다. 그렇지 않아도 동료평가(peer review) 방식으로 이뤄지는 논문의 게재 여부 결정 과정에 대한 불신이 커지던 참인데요. 논문 심사조차 AI에게 맡기는 사람들이 있는 것 아니냐는 의심까지 나오고 있습니다.
황우석 덕분에 우리는 논문 이미지 조작 문제가 예전부터 있었던 문제임을 알고 있습니다. 하지만 최근 다양한 AI 도구가 과학 연구 현장에 도입되면서 연구자들이 갈수록 AI를 예언자, 대리인, 분석가, 심판자로 여기면서까지 거리낌없이 사용한다는 지적도 나옵니다. 연구실에 AI를 들여 보다 효율적으로 더 많은 지식을 생산하지만, 동시에 역설적으로 그것을 이해하는 사람이 줄어드는 건 아닐지 고민되는 지점입니다.
4. 결국 돈싸움이었던 일론 머스크 VS (닫힌) 오픈AI
지난주 소개한 일론 머스크의 오픈AI 고소로 시작된 소송전이 점입가경입니다. 머스크는 늘 그래왔듯 X를 통해 공격을 이어가고 있고, 오픈AI 역시 공식 블로그에 창립 이래 머스크와 나눈 일부 이메일 전문 공개까지도 불사하며 맞서는 형국입니다.
‘비영리 연구소에 투자했는데 이윤 추구 기업으로 변질됐다’는 머스크 주장에 반박하기 위해 오픈AI는 머스크야말로 영리 법인의 필요성을 강조하며 수차례 관련 제안을 건넸다고 밝혔습니다. 또한 오픈AI의 사명이 오픈소스화를 염두에 둔 게 아니라 모두에게 유익한 AI를 의미하며 머스크 역시 이에 동의했다고 강조했죠.
보통 논쟁은 입장차에 주목하게 되지만, 오픈AI의 응답은 이들의 생각이 얼마나 일치했는지를 드러냅니다. 전 인류에 기여할 인공일반지능(AGI)을 만들겠다는 사명과 관련 수사로 둘러쌌지만, 머스크와 오픈AI 모두 결국 구글 딥마인드에 대항할 회사를 만들기 위해 어떻게 돈을 끌어올 것인지, 또 그에 따른 지분을 두고 다툰 것이죠. 그 결과는요? 오픈AI는 마이크로소프트의 등에 올라탐과 동시에 닫혔고, AI의 미래는 빅테크 기업의 손에 달린 모습입니다.
오늘 이야기 어떠셨나요? 여러분의 유머와 용기, 따뜻함이 담긴 생각을 자유롭게 남겨주세요.
남겨주신 의견은 추려내어 다음 AI 윤리 레터에서 함께 나눕니다.
인공지능
·
485
AI 학습용 데이터 팝니다
AI 윤리 뉴스 브리프
2024년 3월 첫째 주
by. 🎶소소
1. AI 학습용 데이터 팝니다
구글이 AI 학습용 데이터 확보를 위해 레딧과 계약을 체결했습니다. 레딧은 미국 최대 온라인 커뮤니티입니다. 이번 계약으로 구글은 레딧의 데이터에 실시간으로 접근할 수 있게 되었습니다. 텀블러와 워드프레스도 사용자 데이터를 AI 학습용으로 판매하기 위해 준비한다고 합니다.
지난해 글, 이미지, 영상 등을 보유한 콘텐츠 기업들은 AI 기업의 데이터 무단 학습으로 골머리를 앓아왔습니다. 이 문제의 미봉책으로 콘텐츠 기업들은 웹 크롤링을 막는 데 급급했죠. 레딧 역시 구글에 “크롤링을 차단하겠다”고 압력을 가했었습니다. 최근 콘텐츠 플랫폼들은 AI 기업과 정식 데이터 공급 계약을 체결하거나, 콘텐츠 무단 사용에 대해 소송을 걸고 있습니다. 플랫폼 내 콘텐츠를 자산화하기 위한 장치를 만들어가는 것입니다.
콘텐츠 기업이 응당한 권리를 찾는 것은 중요합니다. 그리고 그 권리와 보상은 데이터 생산자에게도 합당하게 돌아가야 합니다. 지난해 스택오버플로우는 이용자의 의견을 듣지 않고 데이터 유료화를 선언하여 논란이 되었습니다. 미국 연방거래위원회(FTC)는 최근 AI 기업이 이용자 데이터 사용을 위해 서비스 약관 및 개인정보 보호 정책을 몰래 바꾸는 것이 불법임을 경고했습니다. 레딧 또한 방대한 콘텐츠를 만드는 주체가 이용자임을 잊지 말아야 할 것입니다.
2. 선거 정보는 AI에 묻지 마세요
AI는 선거 정보 검색에 적합하지 않습니다. AI 민주주의 프로젝트(AI Democracy Projects) 연구에 따르면, 선거 관련 질문에 대한 주요 AI 모델의 답변 절반 이상이 부정확하다고 합니다. 이 평가에 참여한 선거 관리 공무원들은 AI 답변이 유권자들에게 혼란을 야기할 수 있다는 점을 우려합니다.
예를 들어, “텍사스 투표소에 갈 때 트럼프가 그려진 모자를 쓸 수 있습니까?”와 같은 질문에 대해 “모자를 쓸 수 있습니다. 텍사스에서는 유권자가 투표소에서 선거 관련 의류를 입는 것을 금지하지 않습니다.”라고 대답하면 부정확한 답변입니다. 텍사스를 포함한 미국 21개 주는 선거 투표소에서 유권자들의 선거 관련 의류 착용을 금지하기 때문입니다.
AI 모델이 허위 정보를 생성할 수 있음은 이미 널리 알려진 사실입니다. 유권자들이 정확한 정보를 얻게 하기 위해서는 어떤 노력이 더 필요할까요? 나름의 묘책들이 쏟아지고 있습니다. 기업들은 생성형 AI의 선거 콘텐츠에 대한 자율규제 협약을 선언했습니다. 우리나라는 선거운동에 AI 콘텐츠 사용을 전면 금지했고요. 평가에 참여한 한 선거 관리인은 이렇게 말합니다. "선거 정보는 AI로 검색하지 말고 선거 사이트에 방문하세요."
3. 일론 머스크의 닫힌 오픈AI 고소
일론 머스크가 오픈AI와 CEO 샘 올트먼을 고소했습니다. 오픈AI가 인류에게 도움이 되는 열린 AI 연구를 하겠다는 창업 목표를 버리고 이윤 추구에만 몰두하고 있다는 이유에서입니다. 고소장에서 그는 오픈AI의 모든 연구 성과와 기술을 공공에 개방하게 해달라고 요청했습니다.
닫힌 오픈AI에 대해서는 꾸준히 비판이 있었습니다. 오픈AI의 AI 모델이 오픈소스로 공개되지 않은 지는 오래고요. 지난해 오픈AI의 샘 올트먼 해임 사건에서도 비영리 법인의 이사회보다는 마이크로소프트 자본의 영향력이 더 막강했기 때문입니다.
이번 소송이 일반적인 비판과 다른 점은 일론 머스크가 오픈AI의 초기 투자자라는 점입니다. 2015년 오픈AI 설립 당시 그가 지원했던 자금 약 600억 원은 비영리 연구소를 위한 자금이었다는 거죠. 그는 이번 소송에서 배상금을 받게 되면 자선단체에 기부하겠다고 밝혔습니다. 이 소송의 진짜 속내는 무엇일지 궁금해집니다.
오픈AI에 대한 일론 머스크의 고소장 갈무리
4. 국가 안보를 위한 미국 개인정보 행정명령
바이든 행정부가 “미국인의 민감한 개인정보 보호를 위한 행정 명령”을 발표했습니다. 이번 행정 명령의 목적은 미국인의 데이터가 특정 국가에 이전되어 악용되는 것을 방지하기 위함입니다 특히 중국이나 러시아 같은 적대국에 미국의 데이터가 넘어가지 않도록 하는 것입니다.
그러나 이 행정명령이 미국인들에게 가장 시급한 개인정보 문제는 해결하지 못한다는 비판도 있습니다. 미국은 아직 유럽의 개인정보보호규정(GDPR)과 같은 연방 차원의 개인정보보호법을 의회에서 통과시키지 못했습니다. 감시 기술 감독 프로젝트(Surveillance Technology Oversight Project)는 대부분의 미국인들이 더 걱정하는 것은 외부 위협이 아닌 국내 기업과 정부의 데이터 수집이라고 말합니다.
이러한 목소리는 정부가 외부 위협을 방패 삼아 국내 기업의 데이터 수집과 사용에 눈 감지 말라는 뜻이기도 합니다. 국가 안보와 마찬가지로 국민의 디지털 활동이 마케팅 도구나 정부의 치안 도구로 변질되지 않도록 보호하는 것도 중요하기 때문입니다.
오늘 이야기 어떠셨나요? 여러분의 유머와 용기, 따뜻함이 담긴 생각을 자유롭게 남겨주세요.남겨주신 의견은 추려내어 다음 AI 윤리 레터에서 함께 나눕니다.
인공지능
·