생성 인공지능시대와 시민사회의 과제
생성 인공지능은 무엇이 새롭고 놀라운가    2023년은 ‘인공지능의 해’였다. 2022년 11월30일 공개된 오픈에이아이(OpenAI)의 대화형 인공지능 챗지피티(ChatGPT)는 2023년 벽두부터 ‘역사상 가장 빨리 확산된 기술’이라는 표현 속에 경탄과 화제를 키워갔다. 구글, 아마존, 메타, 마이크로소프트 등도 경쟁적으로 생성 인공지능 서비스를 공개하며 불길을 지폈다. 지난해 3월 오픈에이아이가 공개한 지피티4 이후엔 요수아 벤지오 몬트리올대 교수, 스튜어트 러셀 UC버클리 교수, 일론 머스크, 빌 게이츠 등이 나서서 ‘사람보다 뛰어난 인공지능의 위협’을 경고하며 ‘개발 일시중단’ 촉구에 나섰다. 5월엔 ‘딥러닝’ 대부이자 인공지능 최고권위자로 불리는 제프리 힌튼 토론토대 교수가 인공지능의 위험성을 경고하며 10년간 몸담은 구글을 사직했다. 오픈에이아이의 최고경영자 샘 올트먼은 미국 의회를 비롯해 세계 각국을 순회하며 정상들을 만나는 ‘그랜드투어’를 하며 ‘인공지능 시대의 도래’를 알렸다. 급기야 11월 초엔 오픈에이아이 이사회가 샘 올트먼을 영상회의로 불러 전격 해임하는 ‘경영쿠데타’가 벌어졌다. 당혹과 충격, 거센 반발여론 속에서 샘 올트먼은 닷새 만에 개편된 이사회와 함께 오픈에이아이에 복귀하는 것으로 드라마가 일단 정리됐다. ‘인간이 통제할 수 없는 강한 인공지능’에 대한 견해 차이가 배경이다. 구체적으로는 2023년 3월 오픈AI가 공개한 GPT4에서 ‘멀티 모달(MultiModal, 다양한 모드)’ 기능과 ‘범용 인공지능(Artificial General Intelligence, AGI)’에 대한 우려다. 마이크로소프트리서치 연구진은 2023년 4월 발표한 논문(‘범용 인공지능의 불꽃:GPT4의 초기실험’)에서 “GPT4가 언어 숙달을 넘어 수학·코딩·시각·의학·법률·심리학 등을 아우르는 새롭고 어려운 과제를 특별한 지시 없이도 해결할 수 있으며 인간 수준에 놀라울 정도로 근접해, 범용 인공지능의 초기 버전으로 볼 수 있다”고 주장했다. 오픈AI가 설립 목적으로 내세운 ‘범용 인공지능 개발’은 찬반이 크게 엇갈리는 문제다. 특정 분야에 특화된 인공지능(narrow AI)과 범용 인공지능(AGI)은 차이가 크다. 범용 인공지능은 기존 기계지능과 차원이 다른, 사람과 유사한 지능이다. 사람 지능은 다양한 형태의 정보를 통합적으로 인지하고 활용할 수 있는 게 특징이다. 사람의 인지는 시각·청각·촉각·후각 등 다양한 감각을 동원해 종합적으로 이해하고 추론하는 ‘멀티모드’이고 ‘범용 지능’이다. 반면 지금까지의 인공지능은 알파고처럼 대부분 단일한 형태(mode)의 정보를 인식하고 처리했는데, 멀티모달 기능의 생성 인공지능은 머지않아 사람처럼 통합적 인지·추론 능력을 지닌 ‘범용 지능’이 될 것이라는 우려가 나오고 있다. 인공지능 기계학습은 사람의 학습능력과 달리 물리적 제약이나 한계없이 기하급수적으로 무한상승하는 지능폭발로 이어지고, 그 결과 사람을 뛰어넘는 ‘슈퍼 인공지능’의 탄생으로 귀결할 수 있다. 사람은 자신보다 훨씬 강한데다 작동법을 이해하지 못하는 인공지능을 안전하게 통제할 수 없다. 2014년 닉 보스트롬 옥스퍼드대 교수가 <슈퍼인텔리전스>를 펴내 인간을 위협하는 초지능의 도래를 경고할 때만 해도 ‘비전문가의 극단적 상상’으로 여겨지던 주장이 10년 만에 인공지능계의 주류 견해가 된 셈이다.     인공지능 규제를 위한 국제적 움직임    위험기술로서의 인공지능을 안전하게 만들기 위한 기술적 시도도 활발하다. 각국 정부와 기업은 블랙박스적 기술에 대해 추론과 판단의 근거를 요구하는 ‘설명가능한 인공지능(Explainable AI, XAI)’ 개발에 나서고 있다. 오픈AI의 경쟁사 앤트로픽은 헌법 아래 하위법률이 존재하는 것처럼, 모든 챗봇들이 헌법처럼 따라야 하는 ‘헌법적 체계의 인공지능(Constitutional AI)’ 개발을 진행중이다. 오픈AI는 강한 인공지능이 인간의 의도에서 벗어나지 않고 목표를 인간의 가치와 일치하도록 정렬시킨다는 의미의 ‘슈퍼얼라인먼트(초정렬)’ 연구에 회사 자원의 20%를 쓰겠다고 밝힌 상태다. 샘 올트먼은 2023년 5월 미 상원 청문회에 출석해 “갈수록 강력해지는 인공지능의 위험을 줄이기 위해서는 정부 개입과 국제 사회의 규제가 필요하다”고 외부의 감독을 요청하기도 했다. 유럽연합과 미국은 각각 인공지능 규제 입법에 나선 상태다. 유럽연합은 2023년 12월 세계 최초로 인공지능 기술을 규제하기 위한 포괄적 법안(EU AI법) 도입에 합의했다. 법안은 인공지능 기술을 위험성에 따라 4등급(허용불가, 고위험, 투명성 필요, 최소위험)으로 분류하고 규제를 차등적용한다. 미국도 인공지능 규제에 착수했다. 2023년 10월 조 바이든 대통령은 행정명령을 발표해, 포괄적인 인공지능 규칙과 가이드라인을 제시했다. 콘텐츠 라벨링, 워터마킹, 투명성 강조가 핵심이다. 행정명령에 따라 인공지능 기업은 모델 작동 방식에 투명성을 확보해야 하며, 인공지능이 만든 콘텐츠에 표지를 붙이는 등의 표준을 만들어야 한다. 안보에 위험을 초래할 가능성이 있으면 안전성 테스트 결과를 미국 정부와 공유해야 한다는 조항도 들어 있다. 국내의 경우 2024년 현재 입법 절차가 진행중인데, ‘우선허용・사후규제 원칙’을 방향으로 산업부처의 주도아래 산업진흥 수단 위주로 추진되고 있는 상황이다. 위험기술로 인한 이용자 보호를 위해 포괄적 규제를 강화해가고 있는 세계적 입법 흐름과는 거리가 상당한 셈이다.    강력한 AI를 통제하기 위해 무엇이 필요한가    사람 지능과 유사한 범용 인공지능(AGI)이나 ‘특이점’으로 불리는 슈퍼 인공지능(초지능)이 과연 등장할지, 등장한다면 언제일지에 대해서는 견해가 엇갈린다. 하지만 현 시점에서 규제가 필요하다는 데는 이미 광범한 동의가 형성돼 있고, 규제의 주체와 수준·범위 등 구체적 방법을 놓고 이견이 있는 상황이다. 향후 진행될 논의와 규제 마련에서 염두에 두어야 하는 것은 인공지능은 이제껏 인류가 다뤄온 기술들과 차원이 다르다는 점이다. 지금까지의 기술은 핵폭탄 개발, 배아 복제, 우주탐사선 발사이건 전문가들이 통제할 수 있는 범위 안에 있는 기술을 개발해 활용했다. 전문가 커뮤니티가 해당 기술에 대해서 작동 구조와 결과적 영향력을 파악하고 있기 때문에 기본적으로 사회가 해당 기술을 통제할 수 있었다. 핵폭탄·화학무기·인간복제 등 국가나 집단간 이해가 달라 국제 합의에 실패하는 경우도 있었지만, 기본적으로 해당 기술의 위험성 인지와 통제는 사람의 손 안에 있었다. 언급한 것처럼 인공지능의 블랙박스적 속성으로 인해 설명가능한 인공지능(XAI) 개발이 시도되고 있지만, 성공한다 해도 매우 좁은 영역에서 제한적 효용이 가능한 수준이다. 미국의 컨설팅기업 가트너는 생성 인공지능 플랫폼에 대해 규제 당국이 유념해야 할 문제로 여섯가지를 지목했다. △GPT 모델의 설명 불가능성 △부정확한 허구 답변(환각 현상) △기밀데이터 침해 △편향성 △지적재산권·저작권 위험 △사이버·사기 위험이다. 모두 믿을만한 해결책 마련이 어려운 문제다. 이는 생성 인공지능으로 인해 ‘탈진실 현상’이 가속화할 것이라는 우려로 이어진다. 인공지능을 이용한 조작이미지, 딥페이크, 소셜미디어 확산은 이미 일상에서 사실과 가짜를 구분하기 어렵게 만들고 있다. 콘텐츠를 사람이 만든 것인지, 인공지능이 만든 것인지 자체를 식별하기 또한 고난도 과제다. 워터마크를 의무화해도 부분 수정과 우회 기술을 원천봉쇄할 수 없다. 탈진실 현상을 꾀하는 세력에게 생성형 인공지능은 저렴하면서도 인화성 높은 도구다. 각국 유력 정치인들은 자신의 생각과 다른 정보나 뉴스에 대해 공공연히 ‘가짜뉴스’라고 주장하며 탈진실 현상을 이용하고 있다. 가트너는 2017년 10월 ‘미래 전망 보고서’를 통해 “2022년이 되면 선진국 대부분의 시민들은 진짜 정보보다 거짓 정보를 더 많이 이용하게 될 것”이라고 예측했는데, 생성 인공지능의 등장으로 현실이 된 셈이다. 나쁜 의도를 품은 사람만이 아니라 그의 도구인 인공지능도 허위 정보를 무한생성할 수 있는 기술 환경이다. 오늘날은 어느 시기보다 시민들이 많이 교육받았고 손쉬운 사실 확인 도구를 휴대하는 인공지능 정보화시대이지만, 오히려 허위정보의 피해와 영향력은 커진 상황이다. 어떻게 이 문제를 해결해야 할까? 편리하지만 위험한 기술을 통제하는 방법 위험한 기술을 사회가 통제하는 방법은 크게 세 가지 경로다. 첫째는 기술이다. 질병을 다스릴 치료제를 개발하듯, 문제를 해결할 기술을 개발하는 방법이다. 오픈AI의 슈퍼얼라인먼트 연구나 앤트로픽의 헌법적 인공지능 개발 시도가 사례다. 메타의 인공지능 담당 부사장을 맡고 있는 얀 르쿤 뉴욕대 교수는 이 논리의 옹호자다. 그는 더나은 기술이 문제를 해결할 수 있다고 믿는다. 인공지능이 위험하기 때문에 이를 통제할 법규를 만들어야 한다는 주장에 맞서, 인공지능이 위험해지지 않도록 안전한 기술을 개발하는 게 최선이라는 논리다. 백신처럼 좋은 기술이 나오면 자동으로 해결될 터인데 현재의 기술 개발이 미진해 생기는 과도기적 현상일 뿐이라는 주장이다. 그러나 기술적 해결은 창과 방패의 경쟁처럼, 공격과 방어 어느 쪽도 안정적 우위를 갖기 어려운 구조다. 아무리 좋은 의도의 기술이 개발돼도 이를 악용하는 새로운 시도가 생겨나는 게 기술의 역사다. 두 번째는 법과 제도다. 법과 가이드라인을 만들어 반드시 따라야 하는 기준을 제시하고, 위반시 처벌하는 방법이다. 유럽연합이 개인정보보호규정(GDPR), 디지털 시장법(DMA), 디지털 서비스법(DSA)에 이어 인공지능 법(AI법)을 제정했듯, 가이드라인과 처벌 규정을 통해 안전대책과 거버넌스 구조를 만드는 방법이다. 사후적 대책이라는 한계도 있지만 법과 제도로 기술의 부작용과 피해를 예방하거나 해결할 수 없다. 법규가 촘촘하고 강한 처벌규정이 존재할 때 범죄는 사라지는 게 아니라 더욱 교묘해지거나 음성화하는 게 현실이다. 세 번째 경로는 이용자 주권 강화다. 인공지능에 대한 시민과 사회의 주권을 강화하고 감시·활용능력을 강화하는 방법이다. 구체적으로는 인공지능 기술의 투명성과 이용자 접근성을 키워 기술이 가져온 거대한 변화와 영향력을 사회 구성원 전체에게 필수적인 시민 역량으로 교육하는 일이다. ‘인공지능 리터러시 교육’이다. 근대 시민국가가 공교육을 도입해 읽고 쓸 줄 아는 능력(리터러시)을 갖춘 시민들을 길러낸 것처럼, 인공지능시대에 요구되는 새로운 시민성(디지털 시티즌십)을 시민적 권리와 의무로 도입해야 한다. 더욱이 인공지능 기술을 주도하는 빅테크 기업들은 글로벌 서비스를 통해 수많은 이용자들에게 직접 다가가고 필수적인 서비스를 제공하고 있어 법률과 같은 국가 권력도 한계가 있다. 권력과 주권이 국가로부터 기술기업으로 이동하고 있는 ‘기술극화 세계(technopolar world)’ 현상이 나타나고 있다. 기업의 설립과 존재 목적은 이윤 추가다. 소셜미디어에서 허위정보가 넘쳐나고 청소년들의 자살을 부추기는 콘텐츠가 방치되는 배경에는 이윤 추구를 최우선으로 삼는 기술 기업들의 무책임한 돈벌이 알고리즘이 있다. 인공지능 환경에서 기술의 영향력은 더욱 커졌음에도 블랙박스적 속성으로 인해 기술은 과거에 비해 더욱 기업 내부 논리에 의해 움직이게 됐다. 위임받지 않는 거대 권력을 행사하는 인공지능 기술에 대한 시민적 통제를 도입야 한다. 인공지능이라는 강력한 기술권력을 공동체 모두를 위한 도구로 만들어내기 위한 시도를 하기 위해서는 시민들의 자각이 무엇보다 우선해야 한다. 기술적 해결과 법적 시도도 필요하지만, 시민들이 위임하지 않은 기술권력에 과다하게 의존하고 통제당하고 있는 현실에 대한 각성과 토론에서 출발해야 하는 문제이다. 이를 인공지능시대에 새로운 시민적 과제로 요구되는 ‘디지털 시민성’이라고 부르고, 이를 도입하고 논의하기 위한 구체적 방법을 고민할 때다. 인공지능 기술에 대해 안전판을 만들기 위해서는 법적, 기술적, 이용자 차원에서 각각 시도되어야 하지만, 어느 것 하나에 의존하거나 위임해서 불가능하다. 무엇보다 가장 거대한 권력을 위임받지 않은 소수가 통제해서는 안된다. 민주주의처럼 시민 모두가 그 권력의 창출과 통제에 참여하는 구조를 만들어야 한다는 게 인공지능시대에 만난, 새로운 시민성의 과제다.
인공지능
·
6
·