120
생성 인공지능시대와 시민사회의 과제
생성 인공지능은 무엇이 새롭고 놀라운가    2023년은 ‘인공지능의 해’였다. 2022년 11월30일 공개된 오픈에이아이(OpenAI)의 대화형 인공지능 챗지피티(ChatGPT)는 2023년 벽두부터 ‘역사상 가장 빨리 확산된 기술’이라는 표현 속에 경탄과 화제를 키워갔다. 구글, 아마존, 메타, 마이크로소프트 등도 경쟁적으로 생성 인공지능 서비스를 공개하며 불길을 지폈다. 지난해 3월 오픈에이아이가 공개한 지피티4 이후엔 요수아 벤지오 몬트리올대 교수, 스튜어트 러셀 UC버클리 교수, 일론 머스크, 빌 게이츠 등이 나서서 ‘사람보다 뛰어난 인공지능의 위협’을 경고하며 ‘개발 일시중단’ 촉구에 나섰다. 5월엔 ‘딥러닝’ 대부이자 인공지능 최고권위자로 불리는 제프리 힌튼 토론토대 교수가 인공지능의 위험성을 경고하며 10년간 몸담은 구글을 사직했다. 오픈에이아이의 최고경영자 샘 올트먼은 미국 의회를 비롯해 세계 각국을 순회하며 정상들을 만나는 ‘그랜드투어’를 하며 ‘인공지능 시대의 도래’를 알렸다. 급기야 11월 초엔 오픈에이아이 이사회가 샘 올트먼을 영상회의로 불러 전격 해임하는 ‘경영쿠데타’가 벌어졌다. 당혹과 충격, 거센 반발여론 속에서 샘 올트먼은 닷새 만에 개편된 이사회와 함께 오픈에이아이에 복귀하는 것으로 드라마가 일단 정리됐다. ‘인간이 통제할 수 없는 강한 인공지능’에 대한 견해 차이가 배경이다. 구체적으로는 2023년 3월 오픈AI가 공개한 GPT4에서 ‘멀티 모달(MultiModal, 다양한 모드)’ 기능과 ‘범용 인공지능(Artificial General Intelligence, AGI)’에 대한 우려다. 마이크로소프트리서치 연구진은 2023년 4월 발표한 논문(‘범용 인공지능의 불꽃:GPT4의 초기실험’)에서 “GPT4가 언어 숙달을 넘어 수학·코딩·시각·의학·법률·심리학 등을 아우르는 새롭고 어려운 과제를 특별한 지시 없이도 해결할 수 있으며 인간 수준에 놀라울 정도로 근접해, 범용 인공지능의 초기 버전으로 볼 수 있다”고 주장했다. 오픈AI가 설립 목적으로 내세운 ‘범용 인공지능 개발’은 찬반이 크게 엇갈리는 문제다. 특정 분야에 특화된 인공지능(narrow AI)과 범용 인공지능(AGI)은 차이가 크다. 범용 인공지능은 기존 기계지능과 차원이 다른, 사람과 유사한 지능이다. 사람 지능은 다양한 형태의 정보를 통합적으로 인지하고 활용할 수 있는 게 특징이다. 사람의 인지는 시각·청각·촉각·후각 등 다양한 감각을 동원해 종합적으로 이해하고 추론하는 ‘멀티모드’이고 ‘범용 지능’이다. 반면 지금까지의 인공지능은 알파고처럼 대부분 단일한 형태(mode)의 정보를 인식하고 처리했는데, 멀티모달 기능의 생성 인공지능은 머지않아 사람처럼 통합적 인지·추론 능력을 지닌 ‘범용 지능’이 될 것이라는 우려가 나오고 있다. 인공지능 기계학습은 사람의 학습능력과 달리 물리적 제약이나 한계없이 기하급수적으로 무한상승하는 지능폭발로 이어지고, 그 결과 사람을 뛰어넘는 ‘슈퍼 인공지능’의 탄생으로 귀결할 수 있다. 사람은 자신보다 훨씬 강한데다 작동법을 이해하지 못하는 인공지능을 안전하게 통제할 수 없다. 2014년 닉 보스트롬 옥스퍼드대 교수가 <슈퍼인텔리전스>를 펴내 인간을 위협하는 초지능의 도래를 경고할 때만 해도 ‘비전문가의 극단적 상상’으로 여겨지던 주장이 10년 만에 인공지능계의 주류 견해가 된 셈이다.     인공지능 규제를 위한 국제적 움직임    위험기술로서의 인공지능을 안전하게 만들기 위한 기술적 시도도 활발하다. 각국 정부와 기업은 블랙박스적 기술에 대해 추론과 판단의 근거를 요구하는 ‘설명가능한 인공지능(Explainable AI, XAI)’ 개발에 나서고 있다. 오픈AI의 경쟁사 앤트로픽은 헌법 아래 하위법률이 존재하는 것처럼, 모든 챗봇들이 헌법처럼 따라야 하는 ‘헌법적 체계의 인공지능(Constitutional AI)’ 개발을 진행중이다. 오픈AI는 강한 인공지능이 인간의 의도에서 벗어나지 않고 목표를 인간의 가치와 일치하도록 정렬시킨다는 의미의 ‘슈퍼얼라인먼트(초정렬)’ 연구에 회사 자원의 20%를 쓰겠다고 밝힌 상태다. 샘 올트먼은 2023년 5월 미 상원 청문회에 출석해 “갈수록 강력해지는 인공지능의 위험을 줄이기 위해서는 정부 개입과 국제 사회의 규제가 필요하다”고 외부의 감독을 요청하기도 했다. 유럽연합과 미국은 각각 인공지능 규제 입법에 나선 상태다. 유럽연합은 2023년 12월 세계 최초로 인공지능 기술을 규제하기 위한 포괄적 법안(EU AI법) 도입에 합의했다. 법안은 인공지능 기술을 위험성에 따라 4등급(허용불가, 고위험, 투명성 필요, 최소위험)으로 분류하고 규제를 차등적용한다. 미국도 인공지능 규제에 착수했다. 2023년 10월 조 바이든 대통령은 행정명령을 발표해, 포괄적인 인공지능 규칙과 가이드라인을 제시했다. 콘텐츠 라벨링, 워터마킹, 투명성 강조가 핵심이다. 행정명령에 따라 인공지능 기업은 모델 작동 방식에 투명성을 확보해야 하며, 인공지능이 만든 콘텐츠에 표지를 붙이는 등의 표준을 만들어야 한다. 안보에 위험을 초래할 가능성이 있으면 안전성 테스트 결과를 미국 정부와 공유해야 한다는 조항도 들어 있다. 국내의 경우 2024년 현재 입법 절차가 진행중인데, ‘우선허용・사후규제 원칙’을 방향으로 산업부처의 주도아래 산업진흥 수단 위주로 추진되고 있는 상황이다. 위험기술로 인한 이용자 보호를 위해 포괄적 규제를 강화해가고 있는 세계적 입법 흐름과는 거리가 상당한 셈이다.    강력한 AI를 통제하기 위해 무엇이 필요한가    사람 지능과 유사한 범용 인공지능(AGI)이나 ‘특이점’으로 불리는 슈퍼 인공지능(초지능)이 과연 등장할지, 등장한다면 언제일지에 대해서는 견해가 엇갈린다. 하지만 현 시점에서 규제가 필요하다는 데는 이미 광범한 동의가 형성돼 있고, 규제의 주체와 수준·범위 등 구체적 방법을 놓고 이견이 있는 상황이다. 향후 진행될 논의와 규제 마련에서 염두에 두어야 하는 것은 인공지능은 이제껏 인류가 다뤄온 기술들과 차원이 다르다는 점이다. 지금까지의 기술은 핵폭탄 개발, 배아 복제, 우주탐사선 발사이건 전문가들이 통제할 수 있는 범위 안에 있는 기술을 개발해 활용했다. 전문가 커뮤니티가 해당 기술에 대해서 작동 구조와 결과적 영향력을 파악하고 있기 때문에 기본적으로 사회가 해당 기술을 통제할 수 있었다. 핵폭탄·화학무기·인간복제 등 국가나 집단간 이해가 달라 국제 합의에 실패하는 경우도 있었지만, 기본적으로 해당 기술의 위험성 인지와 통제는 사람의 손 안에 있었다. 언급한 것처럼 인공지능의 블랙박스적 속성으로 인해 설명가능한 인공지능(XAI) 개발이 시도되고 있지만, 성공한다 해도 매우 좁은 영역에서 제한적 효용이 가능한 수준이다. 미국의 컨설팅기업 가트너는 생성 인공지능 플랫폼에 대해 규제 당국이 유념해야 할 문제로 여섯가지를 지목했다. △GPT 모델의 설명 불가능성 △부정확한 허구 답변(환각 현상) △기밀데이터 침해 △편향성 △지적재산권·저작권 위험 △사이버·사기 위험이다. 모두 믿을만한 해결책 마련이 어려운 문제다. 이는 생성 인공지능으로 인해 ‘탈진실 현상’이 가속화할 것이라는 우려로 이어진다. 인공지능을 이용한 조작이미지, 딥페이크, 소셜미디어 확산은 이미 일상에서 사실과 가짜를 구분하기 어렵게 만들고 있다. 콘텐츠를 사람이 만든 것인지, 인공지능이 만든 것인지 자체를 식별하기 또한 고난도 과제다. 워터마크를 의무화해도 부분 수정과 우회 기술을 원천봉쇄할 수 없다. 탈진실 현상을 꾀하는 세력에게 생성형 인공지능은 저렴하면서도 인화성 높은 도구다. 각국 유력 정치인들은 자신의 생각과 다른 정보나 뉴스에 대해 공공연히 ‘가짜뉴스’라고 주장하며 탈진실 현상을 이용하고 있다. 가트너는 2017년 10월 ‘미래 전망 보고서’를 통해 “2022년이 되면 선진국 대부분의 시민들은 진짜 정보보다 거짓 정보를 더 많이 이용하게 될 것”이라고 예측했는데, 생성 인공지능의 등장으로 현실이 된 셈이다. 나쁜 의도를 품은 사람만이 아니라 그의 도구인 인공지능도 허위 정보를 무한생성할 수 있는 기술 환경이다. 오늘날은 어느 시기보다 시민들이 많이 교육받았고 손쉬운 사실 확인 도구를 휴대하는 인공지능 정보화시대이지만, 오히려 허위정보의 피해와 영향력은 커진 상황이다. 어떻게 이 문제를 해결해야 할까? 편리하지만 위험한 기술을 통제하는 방법 위험한 기술을 사회가 통제하는 방법은 크게 세 가지 경로다. 첫째는 기술이다. 질병을 다스릴 치료제를 개발하듯, 문제를 해결할 기술을 개발하는 방법이다. 오픈AI의 슈퍼얼라인먼트 연구나 앤트로픽의 헌법적 인공지능 개발 시도가 사례다. 메타의 인공지능 담당 부사장을 맡고 있는 얀 르쿤 뉴욕대 교수는 이 논리의 옹호자다. 그는 더나은 기술이 문제를 해결할 수 있다고 믿는다. 인공지능이 위험하기 때문에 이를 통제할 법규를 만들어야 한다는 주장에 맞서, 인공지능이 위험해지지 않도록 안전한 기술을 개발하는 게 최선이라는 논리다. 백신처럼 좋은 기술이 나오면 자동으로 해결될 터인데 현재의 기술 개발이 미진해 생기는 과도기적 현상일 뿐이라는 주장이다. 그러나 기술적 해결은 창과 방패의 경쟁처럼, 공격과 방어 어느 쪽도 안정적 우위를 갖기 어려운 구조다. 아무리 좋은 의도의 기술이 개발돼도 이를 악용하는 새로운 시도가 생겨나는 게 기술의 역사다. 두 번째는 법과 제도다. 법과 가이드라인을 만들어 반드시 따라야 하는 기준을 제시하고, 위반시 처벌하는 방법이다. 유럽연합이 개인정보보호규정(GDPR), 디지털 시장법(DMA), 디지털 서비스법(DSA)에 이어 인공지능 법(AI법)을 제정했듯, 가이드라인과 처벌 규정을 통해 안전대책과 거버넌스 구조를 만드는 방법이다. 사후적 대책이라는 한계도 있지만 법과 제도로 기술의 부작용과 피해를 예방하거나 해결할 수 없다. 법규가 촘촘하고 강한 처벌규정이 존재할 때 범죄는 사라지는 게 아니라 더욱 교묘해지거나 음성화하는 게 현실이다. 세 번째 경로는 이용자 주권 강화다. 인공지능에 대한 시민과 사회의 주권을 강화하고 감시·활용능력을 강화하는 방법이다. 구체적으로는 인공지능 기술의 투명성과 이용자 접근성을 키워 기술이 가져온 거대한 변화와 영향력을 사회 구성원 전체에게 필수적인 시민 역량으로 교육하는 일이다. ‘인공지능 리터러시 교육’이다. 근대 시민국가가 공교육을 도입해 읽고 쓸 줄 아는 능력(리터러시)을 갖춘 시민들을 길러낸 것처럼, 인공지능시대에 요구되는 새로운 시민성(디지털 시티즌십)을 시민적 권리와 의무로 도입해야 한다. 더욱이 인공지능 기술을 주도하는 빅테크 기업들은 글로벌 서비스를 통해 수많은 이용자들에게 직접 다가가고 필수적인 서비스를 제공하고 있어 법률과 같은 국가 권력도 한계가 있다. 권력과 주권이 국가로부터 기술기업으로 이동하고 있는 ‘기술극화 세계(technopolar world)’ 현상이 나타나고 있다. 기업의 설립과 존재 목적은 이윤 추가다. 소셜미디어에서 허위정보가 넘쳐나고 청소년들의 자살을 부추기는 콘텐츠가 방치되는 배경에는 이윤 추구를 최우선으로 삼는 기술 기업들의 무책임한 돈벌이 알고리즘이 있다. 인공지능 환경에서 기술의 영향력은 더욱 커졌음에도 블랙박스적 속성으로 인해 기술은 과거에 비해 더욱 기업 내부 논리에 의해 움직이게 됐다. 위임받지 않는 거대 권력을 행사하는 인공지능 기술에 대한 시민적 통제를 도입야 한다. 인공지능이라는 강력한 기술권력을 공동체 모두를 위한 도구로 만들어내기 위한 시도를 하기 위해서는 시민들의 자각이 무엇보다 우선해야 한다. 기술적 해결과 법적 시도도 필요하지만, 시민들이 위임하지 않은 기술권력에 과다하게 의존하고 통제당하고 있는 현실에 대한 각성과 토론에서 출발해야 하는 문제이다. 이를 인공지능시대에 새로운 시민적 과제로 요구되는 ‘디지털 시민성’이라고 부르고, 이를 도입하고 논의하기 위한 구체적 방법을 고민할 때다. 인공지능 기술에 대해 안전판을 만들기 위해서는 법적, 기술적, 이용자 차원에서 각각 시도되어야 하지만, 어느 것 하나에 의존하거나 위임해서 불가능하다. 무엇보다 가장 거대한 권력을 위임받지 않은 소수가 통제해서는 안된다. 민주주의처럼 시민 모두가 그 권력의 창출과 통제에 참여하는 구조를 만들어야 한다는 게 인공지능시대에 만난, 새로운 시민성의 과제다.
인공지능
·
6
·
AI에 대한 비관과 낙관, 그 사이에 선 인간
*본 포스팅은 기고요청을 받아 서울시공익활동지원센터에 먼저 작성된 글입니다. 허가를 받아 출처를 밝힌 후 캠페인즈에 업로드합니다. *지난번 샘 알트만 해고 사태를 포함하여, 기존에 AI에 대해 작성한 글들의 내용과 중복되는 부분도 많습니다! 2023년이 끝나가는 지금, 딱히 기술에 관심이 없는 사람이라도 ‘AI’라는 단어를 한 번쯤은 접했을 것이다. 그만큼 AI는 우리에게 이전보다 친숙하게 다가온 개념이다. 2022년 11월에 출시된 ChatGPT 3.5를 필두로, 2023년 3월에 출시된 ChatGPT 4를 비롯해 구글, 네이버 등 국내외 대기업에서 잇따라 AI모델을 내놓고 있다. 여러 기업이 앞다투어 AI 기술 및 상품 발전 경쟁을 이어나가는 지금, AI는 점점 더 발전하고 다양한 일을 할 수 있게 될 것이고, 따라서 우리 삶에 미치는 영향도 점점 커질 것이다. 이런 상황에서 누군가는 AI가 우리의 일자리를 빼앗고 여러 사람들의 그림, 글을 훔쳐 저작권을 침해하는 등 여러 문제를 일으킬 것이라고 AI 발전을 우려한다. 반대로 AI의 발전에 따라 인류는 다양한 일을 할 수 있게 될 것이며, 의학 등 인류에 이로운 과학기술 발전을 가져오고, 인간의 업무를 덜어 노동시간을 단축시킬 것이라며 AI 발전을 긍정적으로 본다. AI 발전에 대한 비관과 낙관 사이, 우리가 취해야 할 태도는 무엇일까?   1. 좋거나 나쁜 과학 기술은 없다. 인간이 좋거나 나쁘다 AI를 두고 대립하는 낙관적/비관적인 시선의 대립은 기존 과학 기술들에도 존재해왔다. 이는 과학 기술이 언제나 인간에게 이롭게 쓰이면서도, 해롭게 쓰여왔기 때문이다. 예를 들어, 노벨의 다이너마이트는 광산을 뚫는 이로운 기술이지만 사람을 죽이는 데에도 쓰였다. 인터넷의 발전으로 우리는 다양한 정보를 빠르게 찾을 수 있게 됐고 원격으로 토론도 가능해지며 민주주의의 발전에 도움을 줬지만, 동시에 가짜뉴스의 확산이나 자기 의견이 강해지는 반향실 효과를 불러일으키면서 민주주의가 후퇴하는 상황이 발생하였다.   그렇다면, 왜 과학기술은 긍정적인 면과 부정적인 면이 모두 존재하는가? 과학기술은 인간이 개발하고 사용하며 적용하기 때문이다. 사전적 정의에 의하면, 과학 자체는 편견이 없으며 세상과 현상을 다루는 학문이다. 하지만 필자가 여러 책에서 정의하는 ‘과학 기술’의 의미를 분석해본 결과, 편견이 없던 과학이 인간의 이익을 위해 개발되는 과정에서 ‘과학 기술’은 인간의 가치가 개입된다. 정부의 개발비 지원도, 기술기업의 이익추구도, 개인의 호기심도 결국 모두 누군가의 가치가 개입되는 과정이 존재한다. 인간이 추구하는 가치에는 돈이나 욕심 등 이기적인 가치와 선의, 정의 등 이타적인 가치가 모두 존재하기 때문에 과학 기술 역시 인간 사회에 부정적인 가치와 긍정적인 가치를 모두 가지게 된다.   즉, 우리는 특정 과학 기술이 ‘좋다’ 혹은 ‘나쁘다’ 라고 딱 잘라서 말할 수 없다. 모든 과학 기술은 천천히, 자세하게 뜯어보면 사람과 마찬가지로 좋은 점도 있으면서 동시에 나쁜 점도 있다. 하지만 역시나 사람과 마찬가지로, 특정 과학 기술에 대한 좋은 점은 극대화하고 나쁜 점은 최소화하는게 제일 좋다. 이를 위해 AI라는 과학 기술의 양면적인 모습을 몇 가지 살펴보고, 우리는 어떤 태도를 가져야 할지 생각을 나누고자 한다.   2. AI라는 양날의 검은 무엇을 찌르는가 ① 생성형 AI, 편리한 도구지만 인간의 저작권을 침해해  우리는 생성형 AI를 통해 다양한 지식을 빠르게 탐구하거나 글이나 정보를 빠르게 찾고 정리할 수 있다. AI에게 철학적인 질문을 하며 토론을 할 수도 있고 데이터 분석을 도와달라고 할 수 있다. 이전 부분에 삽입한 과학 기술 이미지도 몇 번의 수정을 거치긴 했지만 그림을 전혀 그리지 못하는 필자가 몇 분 안에 그린 이미지다. 뿐만 아니라 AI가 가수처럼 노래를 대신 불러준다던가, AI로 영화를 만든다던가 하는 등 창작의 영역에서도 AI가 점차 할 수 있는 일이 많아지고, 전문성도 점점 갖추고 있다.   하지만 개인이나 기업 단위에서 AI활용에 어려움을 겪는 경우가 많다. 실제로 소프트웨어정책연구소(SPRi)의 보고서에 따르면, 기업들은 AI 기술 도입과정에서 주요 애로사으로 ‘투자 대비 성과의 불확실성’, ‘내부 운용의 기술력 부족’을 2,3위로 꼽으며 AI를 ‘잘’활용하는 방법과 AI가 실제로 성과를 낼 수 있을지에 대한 의문, 어떻게 쓸지에 대한 배경지식이 부족한 경우가 많다고 밝혔다. 기업 단위나 개인 단위에서 업무 뿐만 아니라 일상에서도 생성형 AI를 어떻게 다룰지 다양한 경험과 배경지식을 공유하고, 교육하는 과정이 필요하다.   좋은 도구로서 주목받는 만큼, 생성형 AI가 발전하는 과정에서 가장 큰 문제점으로 지적받는 것 중 하나가 바로 ‘저작권’이다. 생성형 AI가 사용자의 요청에 맞게 특정 결과물을 생성하려면 결국 기존 인간의 창작물을 학습해야 하는데(생성형 AI 작동원리 등에 대한 기본 지식이 궁금하다면 필자의 이 글을 참고하기 바란다), 이 과정에서 사용자의 동의 없이 학습된 데이터도 많다. 수많은 사람들의 글과 그림과 같은 창작물들의 저작권이 보장받지 않는다면, 기자나 작가, 일러스트레이터들의 생계 보장이 어려울뿐더러 창작물이 감소하여 사회적 이익이 저해된다. 생성형 AI 저작권 문제로 ChatGPT를 만든 OpenAI가 소송을 당하기도 하고, 이미지 생성 AI기업들이 단체로 아티스트들과 소송전을 벌이고 있기도 하다.   생성형 AI가 일으키는 저작권 문제를 해결하기 위한 방법은 크게 두 가지가 있다. 하나는 AI의 저작권 침해와 관련된 법안 등의 규제를 만드는 것이다. 현재 AI관련 법안 및 규제와 관련하여 가장 앞서나가고 있는 곳은 유럽연합(이하 EU)와 미국이다. 비록 최근에 프랑스 등의 반대로 AI 법 제정이 불투명해지긴 했지만, EU에서는 2021년부터 AI 관련 법안의 제정을 준비해왔다. 주요 내용 중 생성 AI가 학습데이터의 저작물 정보를 공개해야 하는 조항 등이 포함되어 있다. 미국에서는 저작권청에서 직접 생성형 AI가 일으키는 저작권 문제에 대한 논쟁에 대해 의견을 수렴하고 있으며, AI 기업에 자율규제를 요구하고 안전과 보안, 신뢰를 위해 기업을 강제하는 행정명령을 발표하기도 했다. 한국은 현재 AI규제와 관련된 입법을 시도하고 있지만 제대로 이루어지지 않고 있으며, 오히려 생성형 AI의 학습 과정에서 저작권 침해를 면책해야 한다는 법 도입이 시도되며 우려를 낳고 있다. AI 저작권 문제의 심각성을 많은 국민이 알고 관련 논의와 여론 형성이 활발해지길 바란다.   두 번째 해결책은 기술적으로 AI가 저작권을 침해하지 못하도록 막는 것이다. 여러 가지 기술이 활용되곤 하는데, 가장 많이 연구되는 방식 중 하나는 AI의 학습 자체를 망가뜨리는 방법들이다. 최근 나온 ‘나이트셰이드’라는 도구는 생성형 AI가 데이터를 잘못 학습하게 하여 사용자의 의도와 다른 결과물을 출력하도록 한다. 기사를 보면 모자 데이터를 학습하여 케이크를 출력하는 것을 볼 수 있다. 이외에도 웹 개발 과정에서 사람은 인지할 수 없지만 컴퓨터는 인식할 수 있는 문장을 넣어 생성형 AI의 학습을 막는 방법 등도 활용되고 있다. 제도적 해결책과 기술적 해결책 모두 생성형 AI로 인해 나타나는 저작권 문제를 해결하는데 필요하다.   ② 편향적이고 차별적인 AI vs AI가 편향적이지 않게 하려는 인간의 노력 앞서 AI가 인간의 데이터를 학습하여 여러 결과물을 만든다고 설명한 바 있다. 주로 인터넷에 있는, 혹은 회사가 가지고 있는 데이터를 학습하여 사용자가 원하는 결과물을 만들어내는데, 이 과정에서 AI가 기존 인간의 편향성을 그대로 드러내는 경우가 자주 있다. 예를 들어, 미국의 한 회사에서는 AI가 고령의 구직자를 자동으로 탈락시켜 소송을 받았다. 또한, 미국 미시간주 디트로이트 경찰이 얼굴 인식 기술로 용의자를 특정하는 과정에서, 무고한 흑인 여성이 용의자로 지정되기도 했다. 기존 사회에서 인간이 가지고 있던 나이, 성별, 직업, 인종 등에 대한 편견과 편향을 AI 역시 그대로 학습할 확률이 높으며, 편향적인 AI가 여러 분야에 활용된다면 기존의 편향과 편견이 더 넓게, 더 강하게 퍼질 수 있다.   이런 AI 편향 문제를 해결하기 위해 기술자와 연구자들은 여러 노력을 하고 있다. 예를 들어, 여러 기술 기업에서는 AI 편향성을 측정하고 평가하기 위한 모델들을 개발하고 있다. 아예 AI 학습 및 설계 단계에서부터 편향성을 줄이기 위한 방법도 시도되고 있다. 또한, 우리는 AI에게 편향성을 줄여달라고 직접 요구하는 것만으로도 AI의 편향성을 줄일 수 있다. 이미 많은 사람들이 편향과 편견에 반대 목소리를 냈던 흔적이 인터넷에 남아 있기 때문이다. 이외에도 AI가 학습할 데이터에 직접 소수 의견, 편향된 의견에 반대되는 의견을 넣는 캠페인을 벌여 AI의 편향 문제에 대응할 수 있다. 이런 기술적인 노력 외에도, 사회 문제에 관심을 가지고 논리적으로 사고할 수 있는 능력을 시민들이 가질 수 있게 하는 노력이 함께 진행되어 인간이 가진 부정적 편향을 근본적으로 줄여 나갈 필요가 있다.   ③ 일자리를 위협하는 AI vs 노동시간을 줄여주는 AI AI의 발전에 따라 예상되는 또 다른 대표적인 사회 문제로, 인간의 일자리를 AI가 뺏을 것이라는 우려가 있다. 속도도 빠르고 능력도 좋은 AI가 산업 전반의 업무를 수행할 수 있게 될 경우, 자연스럽게 인간의 일자리를 AI가 대체할 것이라는 전망을 많은 사람이 내놓고 있다. 앞서 AI가 일러스트레이터들의 저작권을 침해하는 문제가 심각하다고 소개했는데, 일러스트레이터들의 일자리 역시 AI가 침해하고 있다. 다른 일자리는 어떨까? 한국은행은 화학공학 기술자나 철도 및 전동차 기관사 등 국내 일자리 중 약 341만개(전체 일자리의 12%)가 AI에 의해 대체될 가능성이 크다고 분석했다.   AI의 발전은 인간의 일자리를 위협하기만 할까? 인간의 관점에서는 두 가지 대응방안이 있다. 하나는 개인의 역량으로 인공지능과 대결하는 게 아닌, 사회적 협동역량을 길러, 인공지능을 ‘활용’하는 것이다. 지금까지 인간 사회와 문명이 발전할 수 있던 이유는 인간 개개인의 역량이 모여 집단 지성의 힘을 발휘했기 때문이다. 인공지능은 개개인보다 뛰어날 수 있지만, 특정 집단과 사회의 역량으로 대응한다면, 아직 일반인공지능(AGI)에 도달하지 못하고 한계가 분명한 AI의 역량에 대응할 수 있다. 또한 사회적 역량을 발휘하기 위해선 인간 간의 소통과 교감이 필요한데 이 역시 AI가 인간을 대체하기 어려운 분야라고 할 수 있다.   또한 발전한 AI가 일자리를 줄이는 것이 아닌, ‘일하는 시간’을 줄일 수도 있다. AI의 생산성이 늘어난다는 것은 인간이 일할 자리를 줄일 수도 있지만, 고용된 인력은 비슷하게 유지한 채로 인간이 일할 시간 자체를 줄여줄 수 있다는 말도 된다. 빌게이츠는 미국의 팟캐스트에 출연해 ‘기계가 모든 음식과 물건을 만들어줘서 사람들이 생활비를 벌기 위해 주 5일 이상 근무할 필요가 없어질 것이며, 아마 주3일 근무를 해도 괜찮은 세상이 올 것’이라고 낙관했다. 이를 위해선 근로 시간을 조정하는 제도적 지원이 필요하다.   3. AI는 결국 인간의 문제라는 걸 일깨워준 OpenAI CEO 샘 알트만의 퇴출과 복귀 글에서 다룬 내용 외에도 미처 언급하지 못한 AI의 장점과 단점은 정말 많다. 결국, AI의 발전은 인간의 삶에 여러 긍정적/부정적 영향을 미치고, 그 영향들에 대해 어떻게 생각하느냐에 따라 사람마다 AI의 발전을 보는 시각은 복잡하고 다르게 나타난다. 현재 최고의 AI회사인 OpenAI의 이사회 구성원들 사이에서도 AI의 발전에 대해 다른 생각을 가지고 있었고, 이는 OpenAI의 CEO인 샘 알트만의 퇴출 사태로 이어졌다.   OpenAI는 세계 최고의 AI를 빠른 속도로 발전시키며 큰 수익을 얻으며 사회의 주목을 받게 되었고, 이 과정에서 OpenAI는 AI의 발전을 두고 갈등하기 시작했다. AI가 너무 빠르게 발전시키면 AI로 인해 많은 문제가 발생할 것이기 때문에 발전 속도를 늦춰야 한다는 효과적 이타주의(Effective Altruism)와 많은 사람이 발전된 AI로 인한 이익을 볼 수 있도록 하기 위해 발전 속도를 빠르게 해야 한다는 효과적 발전주의(Effective Accelerationism)를 두고 이사회 내부에서 갈등이 생겼고, 이 과정에서 상대적으로 효과적 발전주의에 가까웠던 OpenAI의 CEO인 샘 알트만과 OpenAI의 공동창업자인 그렉 브록만이 갑자기 퇴출되는 사건이 발생했다.   하지만 샘 알트만이 퇴출되고 나서 OpenAI의 투자자, OpenAI의 직원 대다수, 그리고 OpenAI의 최대 파트너인 마이크로소프트(MS)가 샘 알트만의 복귀를 원했다. 특히 마이크로소프트의 경우, 샘 알트만과 그렉 브록만을 MS로 영입한 후, 남은 OpenAI의 이사회 전원 사임을 전제로 둘이 OpenAI에 돌아갈 수 있도록 도왔다. 결국 샘 알트만과 그렉 브록만은 OpenAI로 복귀했으며, 이로 인해 OpenAI는 마이크로소프트라는 글로벌 대기업의 영향을 더 크게 받게 되었으며, 이전보다 효과적 발전주의에 입각한 AI 발전에 더 속도를 올리게 되었다.   우리는 샘 알트만의 퇴출과 복귀 사태를 통해 AI 문제에 대해 두 가지 생각할 점이 있다. 하나는 AI 발전에 대해 고민할 때 효과적 이타주의와 효과적 발전주의 중 어떤 시각이 맞는지, 혹은 또 다른 시각이 맞는지에 대한 고민이다. AI의 발전에 따라 인간에게 미치는 긍정적 영향과 부정적 영향이 공존하는 만큼, 우리는 AI 발전속도에 대해 어떤 입장을 가져야 할지 고민이 된다. 효과적 이타주의가 AI등의 과학기술의 발전에서 오는 이익을 누리지 말자는 이야기는 아니지만, 너무 빠르게 발전한다면 AI가 인간에게 미치는 부정적 영향은 더 커지고 많아질 수 있다.하지만 이미 많은 국가와 기업이 AI 발전 경쟁을 하고 있는 만큼, 특정 회사나 국가가 AI 발전 속도를 늦추자고 하는 이야기는 현실적으로 어려울 수 있다. AI를 빠르게 발전시키되, AI로 인해 나타날 부정적 영향을 최소화할 방법을 찾는 게 최선일 수 있다. 앞선 두 시각과 다르게, AI의 영향력을 현실에 비해 너무 과대평가할 수 있으며, AI HYPE 뉴스를 경계해야 한다는 주장도 있다. 효과적 이타주의와 효과적 발전주의 모두 AI의 미래 영향력에 대한 일종의 ‘믿음’에 근거한 주장인 만큼, AI의 영향력과 가능성에 대해 현실적 감각을 가지려고 노력해야 할 것이다.   또한, 샘 알트만 퇴출 및 복귀 사태는 결국 AI 문제가 인간의 문제임을 다시 한 번 강조한다. 세계 1위를 달리고 있는 OpenAI의 가장 큰 위기는 경쟁사와의 AI 경쟁, 해커의 공격 등 기술적 문제가 아니었다. 이사회 구성원 간의 견해 차이로 인해 발생한 OpenAI의 위기는 회사 구성원들의 의사, 마이크로소프트를 포함한 다수의 투자자들의 이해관계에 의해 해결되었다. 만약 샘 알트만이 복귀하지 못했다면 OpenAI는 내부 분열과 투자 중단으로 원하는 일반인공지능을 개발하기 어려워졌을 수도 있지만, 동시에 더 안전한 AI를 개발하자는 목소리가 전세계적으로 더 커졌을 수도 있다. 결국 AI를 어떻게 개발할 것인지, 어떻게 규제할지 정하고 그에 따른 결과는 인간에게 좋든 나쁘든 큰 영향을 미친다. 이 글이 사회에 영향을 미칠 AI 관련 의사결정에 대한 독자들의 이해에 도움이 되고, 그 도움이 더 좋은 사회를 만드는데 기여하길 바란다.  
인공지능
·
4
·
bada
시티즌패스
465
"알고리즘이 지배하는 자동화 시대의 미디어와 공론 형성"
2023년 11월 21일 화요일 저녁, 참여연대에서 “알고리즘이 지배하는 자동화 시대의 미디어와 공론 형성”이라는 주제로 시민사회단체들이 모여 논의했습니다. 이번 논의는 ‘대담한 대화’ 주최로 참여연대, 사회적협동조합 빠띠, 진보네트워크센터 구성원들이 함께 했습니다. 활동가와 변호사, 연구자 등이 모여 알고리즘을 통한 자동화가 우리 삶에 어떤 영향을 끼치고 있는지, 이를 해결하기 위해 어떤 대응이 필요한지 논의하는 시간을 가졌습니다. 현장에서 나온 이야기들을 더 많은 시민과 나누기 위해 논의 내용을 간략하게 정리했습니다. 자동화된 의사결정, 시민이 확인할 수 있어야 우리가 인식하지 못하는 사이에 알고리즘은 우리의 삶에 깊숙이 들어왔습니다. 유튜브, 넷플릭스의 콘텐츠 추천부터 티맵, 카카오맵 등 길 찾기 애플리케이션까지 많은 분들이 사용하고 계실 텐데요. 일상에서 자주 마주하는 이 일들에는 알고리즘이 우리의 결정에 영향을 끼치고 있습니다. 이런 경우를 ‘자동화된 의사결정’이라 부를 수 있습니다.  그렇다면 우리는 어떤 알고리즘들이 어떻게 우리의 삶에 영향을 미치는지 정확하게 알고 있을까요? 애석하게도 그렇지 않습니다. 시민들이 인식하고 있지 못한 ‘자동화 된 의사결정'들이 민주주의를 점차적으로 좀먹어 가고 있다는 문제의식을 가져야 할 필요가 있다는 것입니다. 이번 논의에서는 알고리즘에 의해 자동화된 의사결정 사례들을 공유하고, 어떻게 시민들에게 알릴 수 있을지를 함께 고민했습니다. 논의 과정에서 우리가 인지하지 못한 자동화된 의사결정의 사례들이 언급됐는데요. 대표적으로 소셜커머스 기업 쿠팡의 가격정책이 있습니다. 쿠팡은 자사의 멤버십 서비스 쿠팡와우를 구독하고 있는 이용자와 그렇지 않은 이용자에게 같은 물건을 두고 다른 가격으로 판매해 논란이 되었는데요. 멤버십 서비스를 구독하지 않은 이용자에게는 가입을 유도하기 위해 낮은 가격을 제시하고, 이미 멤버십 서비스를 구독한 이용자에겐 높은 가격을 제시하는 사례가 발견됐기 때문입니다. 이뿐만 아니라 자동화된 의사결정이 알고리즘, 인공지능의 등장 이전에도 존재했다는 의견도 나왔습니다. 예를 들어 자동차 보험의 경우 연령이 낮은 남성에게 더 비싸게 적용되는 사례가 있습니다. 논의를 통해 자동화된 의사결정은 우리 삶의 여러 분야에서 영향을 끼치고 있다는 공통된 문제의식이 생겼고, 이를 해결하기 위해선 실제 사례를 정리해 알고리즘 팁스와 같이 ‘시민들이 자동화된 의사결정 목록을 확인할 수 있도록 해야 한다’고 의견을 모았습니다. 알고리즘은 영업 비밀일까? 반면 상반된 반응이 나오는 주제도 있었는데요. 바로 기업의 알고리즘을 어떻게 볼 것인지에 대해서입니다. 알고리즘이 기업의 영업비밀에 해당한다는 의견과 해당하지 않는다는 의견으로 나뉘었습니다. ‘영업비밀에 해당한다’는 의견은 기업의 알고리즘은 영업 비밀일 수 있지만 언제나 무조건적으로 보호받아야 하는 것은 아니라는 주장이었습니다. 알고리즘이 시민들의 삶에 영향을 미치고 있기에 적절한 범위 내에서 공개할 수 있도록 제도를 마련해야 한다는 것입니다. 일본의 독점 플랫폼 규제법 등 세계적인 알고리즘 규제가 투명성과 공정성을 중심으로 이뤄지고 있기 때문에 한국에서도 투명성을 확보하기 위한 의무를 부과하는 방향의 접근이 필요하다는 설명이 이어졌습니다. ‘영업기밀에 해당하지 않는다’는 의견은 알고리즘 자체만으로는 영업 비밀로 볼 수 없고, 알고리즘을 기업의 영업 비밀로 규정할 경우 문제점을 확인하기 어렵다는 문제의식이 주요 내용이었습니다. 현재도 개인정보, 영업비밀 등의 이유로 정보공개청구, 소송 등에서 공개하지 않는 정보들이 있는데 알고리즘을 영업 비밀로 규정할 경우, 알고리즘으로 인해 발생하는 문제를 확인할 수 없다는 점이 핵심이라는 시각이었습니다. 알고리즘을 기업의 영업 비밀로 봐야 하는지에 대해서는 결론을 내리지 못했습니다. 하지만 두 의견 모두 기업의 알고리즘으로 인해 발생하는 문제들이 있다는 점에 대해서는 공감대를 형성했습니다. 어떤 방식으로 해결해 나갈 수 있을지 사회적 논의가 시급합니다.  급속도로 발전하는 기술을 어떻게 규제할 것인가 챗 GPT를 비롯한 생성형 인공지능의 등장은 우리 삶에 새로운 기술이 어떻게 영향을 미칠 수 있는지를 보여주고 있는데요. 동시에 인공지능으로 인해 발생할 수 있는 문제들을 어떻게 규제해야 할 것인지에 대해 전사회적으로 시급하게 논의해 나가야 한다는 문제의식이 대두했습니다. 이번 논의에서도 디지털 기술의 규제에 대한 이야기가 나왔습니다. 규제에 대한 논의는 현상을 분석하는 것부터 시작하는데요. 이번 논의에서는 규제의 도입 이전에, 인공지능, 알고리즘의 발전 속도를 고려해서 접근할 필요가 있다는 주장이 나왔습니다. 현재의 기술이 급속도로 발전하고 있고, 심지어 기술을 개발하는 기업조차 예측이 불가능한 상황임을 고려해야 한다는 건데요. 이를테면 검색 알고리즘을 개발해 도입한 기업에서도 특정 키워드의 검색 결과를 예측할 수 없다는 것을 예로 들 수 있을 것입니다. 기업의 알고리즘 공개와 관련해서도 비슷하게 볼 필요가 있다는 의견도 있었습니다. 알고리즘을 개발하고 있는 기업에서도, 알고리즘이 발전해 나가는 과정에서 여러 알고리즘들이 얽히고 복잡해지기 때문에 알고리즘을 모두 이해하지 못하는 상황이 된다는 것입니다. 그렇다면 알고리즘을 투명하게 공개하더라도 해석하는 것이 불가능해진다는 우려였습니다.이와 같은 고민들을 바탕으로 알고리즘과 인공지능에 대한 규제 방향이 논의되어야 한다는 의견입니다.  이는 앞서 이야기 된 논의와도 관련지어 고민 할 필요가 있습니다. 기술 발전 속도는 빠르지만 제도의 규제는 느리기 때문에 발생하는 문제들을 고려 했을 때, 시민들이 자동화된 의사결정을 인지할 수 있도록 하는 것을 우선해야 한다는 주장입니다. 이번 논의를 진행하며 여러 관점의 차이에도 불구하고 현재 상황에서 보다 많은 시민사회 구성원들이 디지털 기술의 발전에 따른 사회변화를 함께 톺아보며 연결과 협력을 만들어 갈 필요가 있다는 것에 의견을 모았습니다. 알고리즘 등은 디지털 세상에 살고 있는 시민의 일상에 많은 영향을 주고 있고 정치, 사회, 문화 현상으로 드러나고 있지만, 기업은 기술적 측면만을 고려하는 경향이 확연히 강화되고 있기 때문입니다. 반면 시민사회에서는 기술적 이해 없이 디지털 변화에 따른 정치사회적 문제들을 따라잡기 어려워하는 상황에 처해 있기도 합니다. 학계와 언론 및 미디어뿐만 아니라 시민사회가 알고리즘과 인공지능 등 디지털 기술에 대해 이해하고 관련하여 발생하는 문제들에 대해 시민들에게 알리는 시민사회의 역할에 있어 다방면의 협업이 이루어져야 한다는 것입니다.  이 한 번의 논의로 바로 정답을 얻을 수는 없겠지만 새로운 디지털 기술의 등장과 발전에 학계와 언론계, 시민사회가 함께 기민하게 대응할 필요가 있다는 문제의식을 다시 한 번 확인하게 됩니다.  이 글은 대담한 대화 홈페이지에도 동시에 게재되었습니다. 
인공지능
·
2
·
인공지능의 발전으로 인한 여러가지 문제점...
현재 우리는 인공지능의 발전으로 인해 많은 이점을 누리면서 살고 있습니다. 하지만 이 인공지능의 발전으로 인해 생기는 문제점들도 많다는 점, 알고 계셨나요?  먼저 국내의 상황을 알아보겠습니다. 우리나라는 정보화 수준, 정보통신기술에 대한 접근성, 이용도, 활용력, 전자 정부 수준 등이 세계 최고 수준을 기록하며 지능정보사회로 나아가고 있습니다. 그러나 이러한 발전에 익숙하지 않은 취약계층이 겪을 정보 불평등과 이에 따른 사회적, 경제적 불평등의 심화를 우려하는 목소리도 커지고 있습니다. 사회/경제적 약자 혹은 경제 활동 과정에서의 사고, 생애 과정 상 불가피한 사회적 위험을 감당할 수 없는 개인/계층으로 대표되는 취약 계층은 신체적, 지역적, 경제적, 사회적 여건 등으로 인해 상대적으로 정보통신기술(ICT)에 대한 접근, 역량 및 활용 등에 취약합니다. 다음으로는 해외의 사례를 보겠습니다. 선진국의 AI기업이 개발도상국의 노동력을 착취하고 있다는 사실을 알고 계셨습니까? The Washington Post의 기사에 따르면 비공식적 정부 추정으로 200만 명 이상의 필리핀 사람들이 기업의 인공지능 모델의 학습을 위해 오랜 시간 방대한 데이터를 입력하는 수작업을 하고 있으며 그 중 미국 샌프란시스코 스타트업 'Scale AI' 산하 플랫폼 'Remotasks'에서 최소 만 명 이상의 사람들이 제대로 된 임금을 받지 못한 채 착취되고 있습니다. 이들은 오랜 시간 일을 하지만 필리핀의 최저임금에 해당하는 일당 6달러~10달러에도 미치지 못한 임금을 받고 있으며 Remotasks는 이들을 착취하면서도 그들이 작업한 데이터가 정확하고 정밀하지 못한다는 이유로 임금을 제 기간에 지급하지 않고 이마저도 주지 않았습니다. 우리가 지금까지 누리고 있던 인공지능의 발전에는 이러한 단점도 숨어있었습니다. 저희는 이 글을 통해 여러분들에게서 인공지능의 또 다른 문제점들이 무엇이 있을까에 대한 의견을 받고, 이런 문제들의 해결 방안까지도 의견을 받았으면 좋겠습니다! <출처> 경향신문, [AI는 '인간 노동력 착취'를 먹고 자란다], 2023.09.28 12:43, 최서은 기자 The Washington Post, [Behind the AI boom, an army of overseas workers in 'digital sweatshops'], By Rebecca Tan and Regine Cabato / August 28, 2023 at 2:00 a.m. EDT
인공지능
·
7
·
OpenAI CEO 샘 알트만의 해고와 복귀, 효과적 이타주의(EA) vs 효과적 발전주의(E/ACC)
11월 17일부터 11월 21일까지, 단 5일만에 세계 최고의 AI기업인 OpenAI의 CEO인 샘 알트만이 이사회에 의해 해고되었다가 복직하였다. 11월 6일 Devday라는 큰 행사를 치룬 지 2주도 되지 않아 갑자기 해고되며 사람들에게 큰 충격을 주었고, 얼마 지나지 않아 다시 OpenAI로 돌아가며 큰 반전을 선사하였다. 얼핏 보면 회사 내부의 권력 다툼으로 보일 수 있는 이번 사건은, AI 개발 철학 - 안전 중시(EA) vs 인류를 위한 발전(E/ACC)과 AI 거버넌스에 관해 우리에게 큰 교훈을 준다. 이번 사태에 대한 교훈을 살펴보기에 앞서 OpenAI의 목표와 구조를 살펴본 후, 이번 사태를 타임라인대로 간단히 훝어보고자 한다. OpenAI - 비영리적 AI를 위해 영리를 추구해야 하는 모순 우선, OpenAI는 기본적으로 '비영리단체'다. OpenAI 홈페이지의 지배 구조를 통해서도 이는 쉽게 알 수 있는데, Board of directiors로 시작되는 회사의 지배 구조는 Nonprofit - 비영리조직에 우선적인 권한이 있다. 그럼에도 수익을 창출하는 기업의 형태를 일부 띄게 된 것은 목표를 실현함에 있어서 재정적 한계에 부딪쳤기 때문이다. OpenAI가 비영리적으로 추구하는 최종 목적은 일반인공지능 - AGI를 개발하여 그 이점이 전 세계에 고르게 퍼지도록 하는 것이다. 하지만 현실 대부분의 비영리단체보다 더더욱 첨단 기술이 뒷받침되어야 하는 OpenAI는 비영리적인 방법만으로는 회사의 목표를 실현하기 어렵다는 것을 깨달았다. 그래서 수익 제한형(capped profit) 영리 부문 조직을 설립하게 된 것이다(MIT Technology Review KR 기사 참조). 이후 OpenAI는 회사의 목적인 안전한 일반인공지능(AGI)개발을 위한 효과적 이타주의(Effective Altruism - 이하 EA)와 인공지능을 발전시켜 많은 사람에게 골고루 이익을 분배해야 한다는 효과적 발전주의(Effective Accelerationism - 이하 E/ACC)사이에서 갈등하는 모습을 보여왔다(두 이념의 대립에 대해선 노마드 코더 유튜브 참조 - OpenAI의 갈등은 필자 해석 덧붙임). 샘 알트만의 해고와 복귀 - 타임라인 위 배경을 토대로, 샘 알트만의 해고와 복귀가 어떻게 이루어졌는지 타임라인을 통해 알아보자. 위에 표시한 E/ACC와 E/A는 이해를 돕기 위해 필자가 임의로 표기하였으므로, 크게 의미를 두지 않았으면 한다(아래 4명의 이사회가 위에 2명 - 샘 알트만과 그렉 브록만을 내보낸 것은 확실하다.). 11월 17일 - 갑작스런 샘 알트만과 그렉 브록만 축출 이사회가 11월 17일 낮 12시 28분 “샘 알트만이 일관되게 솔직하지 못하다고 판단, 이사회 수행 능력을 저해한다는 결론을 내렸다”며 “이사회는 더 이상 그가 오픈AI를 계속 이끌 수 있을 것이라는 확신을 갖지 못했다”고 발표했다. 그리고 그렉 브록만은 이 사실을 퇴출 발표 5분전에 구글 미트로 듣게 된 것으로 확인된다. 이는 이사회를 통한 샘 알트만과 그렉 브록만 퇴출이 갑작스럽게, 그리고 비밀리에 진행되었음을 알 수 있다(참고 : 더밀크).  11월 20일 - OpenAI가 에밋 시어를 임시 CEO로 임명, 샘 알트만과 그렉 브록먼 MS(마이크로소프트) 입사 OpenAI는 샘 알트만을 퇴출한 후 전 트위치 공동창업자인 에밋 시어를 임시 CEO로 임명했다. 그는 기존에 AI 성장에 따른 문제를 우려해서 개발 속도를 늦춰야 한다고 유튜브에서 발언했던 인물로, 남은 OpenAI의 이사회가 AI의 안전한 개발을 중시(EA)임을 다시 한 번 확인할 수 있는 인선이었다. OpenAI에서 퇴출당한 샘 알트만과 그렉 브록먼은 마이크로소프트(이하 MS)에 들어가게 되었다. 만약 그들이 MS에 들어가게 된다면, OpenAI의 변화로 큰 손해를 볼 수도 있었던 MS는 오히려 AI부분의 핵심 인물을 포섭하고 동시에 기존 OpenAI의 연구진들을 영리적으로 포섭할 수 있는 계기를 마련하게 되며 큰 이익을 챙겼다. 이 와중에 샘 알트만은 OpenAI와의 관계를 지속할 것이라고 밝히며 회사와 투자자들, 협력기관들을 안심시키는데 힘썼고, MS도 20일 당일 이사회 사임, 거버넌스 개선 등을 조건으로 샘 알트만 등의 인물이 OpenAI에 복귀하는 것을 반대하지 않는 모습을 보여주었다. OpenAI 내부 분위기 역시 심상치 않았다. 수많은 투자자들의 반대와 더불어, 내부 직원중 92%, 770명 중 710명이 샘 알트먼이 복귀하지 않을 경우 회사를 떠난다는 의견을 밝히고, 505명이 이사회 사임 요구 성명서를 발표했다. 또한 당시 샘 알트만을 내보낸 이사회 멤버였던 일리야 슐츠케버가 자신의 결정을 후회한다는 트윗(X)를 남기며 회사를 걱정하는 모습을 보였다.   11월 21일 - 샘 알트만, 그렉 브록먼 복귀 블룸버그에서 OpenAI가 샘 알트만과 그렉 브록먼의 복귀 협상에 들어갔다고 알린 지 얼마 지나지 않아, 샘 알트만과 그렉 브록먼의 OpenAI 복귀가 확정되었다. 돌아가면서 샘 알트만은 MS CEO인 사티아 나델라 마이크로소프의 지원 덕분에 OpenAI로 돌아간다고 말하며, 마이크로소프와의 강력한 파트너십을 구축할 수 있길 기대한다고 밝혔다.  (11월 20일,21일 타임라인 출처 : 더밀크 / 요즘IT 이재훈님 / AI타임즈) AI 발전을 둘러싼 두 이념의 대립 -  효과적 이타주의(EA) vs 효과적 발전주의(E/ACC) 이번 사태의 내막을 타임라인으로 정리해보아도, 결국 두 이념 - EA vs E/ACC가 현재 AI를 둘러싼 거대한 두 담론임을 확인할 수 있다. 물론 EA역시 발전하지 말자는 것은 아니지만, 그들은 이번 사태를 통해 OpenAI를 공중분해시킬 수도 있었다는 점을 미루어보았을 때 안전을 위해 꽤나 급진적인 이념을 취하고 있음을 알 수 있다.  두 이념의 대립은 앞으로 우리가 AI문제를 바라볼 때 항상 존재할 것이다. 필자의 입장은 E/ACC에 가깝기 때문에 지난번[AI, 민주주의의 위기인가? 기회인가?] 를 듣고, [AI, 민주주의의 '기회']를 얘기해보기 에서도 상대적으로 AI 발전의 이로운 점을 역설한 바 있다. AI의 발전 속도를 늦추자는 E/A의 주장은 현실적으로 실현되기 어렵지 않겠다는 근거 역시 필자가 E/ACC의 입장으로 더 기우는 이유이기도 하다. 지금 이 캠페인즈를 운영하는 빠띠를 포함해 수많은 비영리단체는 대부분 금전적 문제에서 자유로울 수 없다. 그런데 만약 OpenAI가 시장의 선두로 남지 않는다면, 그들에게는 공익적 목적의 AGI를 개발할 동력인 자금을 확보하기 매우 어렵다. 뿐만 아니라, OpenAI가 멈춘다고 해서 MS, Google, Amazon, Apple, 거기에 중국 기업은 물론이고 유럽, 한국 기업도 AI개발을 쉽사리 멈추지 않을 것이다. 현실적으로 개발 속도를 늦추는게 어렵다면, 어떻게 옳은 방향으로 AI를 개발하게 할 것인지, 어떤 규제를 도입해야 할 것인지, 시민사회에 AI에 대해 어떻게 교육해야 할 것인지에 대해 초점을 맞추어야 한다고 생각한다. 이 사태를 바라보고, 이 글을 읽는 독자분들은 어떤 입장과 생각을 가지고 계시는지 궁금하다. 언제나, 정답이 없는 문제이기 때문이다. 결국, AI 문제는 인간이 해결할 문제 - AI 거버넌스 또한 이번 사태는 결국 AI문제는 인간의 문제임을 다시 한 번 확인하는 계기가 되었다. 필자는 지난번에 작성한 '과학기술은 정치적인가?' 에서 '과학기술이란 자연 그대로나 그 법칙인 과학을 인간의 이익에 따라 배우고 학습하고 사용하는 것이며, 이러한 이익들이 충돌하는 과정에서 현실의 권력이 작용하는 정치적 속성을 가집니다' 라는 문장으로 글을 마무리한 바 있다. 이 문장을 그대로 관통하는 사태가 이번 샘 알트만 해고/복귀 사태다.  E/A와 E/ACC가 각자 추구하는 사회적 이익은 다르다. 그리고 이건 결코 어느 쪽이 나쁘다고 볼 수 없다. 하지만 안전한 발전이 가져다주는 이익과 발전을 통한 이익의 분배라는 두 가지 이념은 충돌하였고, 이 과정에서 OpenAI는 내부 권력인 이사회 의결을 통해 샘 알트만과 그렉 브록만을 내보냈다. 하지만 또 다른 권력들 - 거대한 파트너인 MS, OpenAI의 직원, OpenAI의 투자자들의 권력이 이사회의 권력을 넘어섰다. 사실 OpenAI 내부 직원의 90%가 샘 알트만과 그렉 브록만의 복귀를 원했고, 많은 직원들이 그들이 돌아오지 않으면 회사를 나가겠다고 한 시점에서, 한 회사의 이사회의 근본(정당성)이 흔들리는 상황이었다. 국민 없는 국가가 없듯이, 직원 없는 회사는 없으니 말이다. 이번 사태에 대한 사고를 확장해보면 앞으로 있을 AI문제는 단순 AI 기업 내부의 문제를 넘어, AI 기업을 둘러싼 이해관계자들 - 정부, 다른 회사, AI의 영향을 받는 국민 모두 - 가 영향받고 참여하게 됨을 알 수 있다. 이 과정에서 시민이 관심을 주지 않는다면, 정부의 관심도 줄어들 것이고, 결국 사회에 큰 영향을 미치는 AI문제를 AI 기업들만이 다루는 독과점적 거버넌스가 이루어질 수 있다. 샘 알트만의 해고가 OpenAI 직원들의 힘에 의해 취소되었듯이, 앞으로 발생할 사회의 AI문제들을 국민들이 관심을 가지고 해결해나갈 수 있는 AI 거버넌스 구조가 만들어지길 바란다.
인공지능
·
4
·
[후기] AI 시대, 민주주의 위기인가? 기회인가?
챗GPT 등장 이후, 디지털 기술의 발전, 특히 생성형 인공지능 발전으로 인해 변화 될 사회에 대한 기대감과 불안이 교차하고 있습니다. 알고리즘 정치와 정치 양극화, 구별하기 어려운 딥페이크와 허위정보의 확산, 기업의 플랫폼 및 데이터 독점, 플랫폼 노동의 확산과 일자리의 양과 질 문제 등 다양한 사회문제가 발생할 것으로 예상됩니다. 그리고 AI를 활용하여 수많은 일들을 더욱 빠르게 효과적으로 할 수 있고, 인간은 AI를 활용하여 그 이상의 일을 할 수 있을 것이라는 기대가 됩니다. 이러한 새로운 변화로 인해 민주주의의 형식과 내용에 대한 커다란 도전이 될 것이라는 우려와 도움이 되도록 활용할 수 있을 것이라는 기대가 공존하고 있는 상황은 시민사회가 디지털 기술 변화에 대해 이해하고 시급히 대응 방안을 모색해야 할 과제를 던져주고 있습니다.  이에 생성형 AI 기술의 발전의 시대, 디지털 기술에 기반한 시장의 확장에 따른 사회변화를 이해하고, 이 변화가 민주주의에 미칠 영향과 그에 대한 대응을 공유하고 논의하는 자리를 만들었습니다. 노무현재단, 노회찬재단, 사회적협동조합 빠띠, 세교연구소, 지리산이음가 함께 모여 사회의 담대한 전환을 이뤄내고자 하는 논의의 자리들을 만들어가는 ‘민주주의랩'에서 주최한 “위기의 시대, 담대한 전환" 컨퍼런스가 11월 14일부터 5일간 진행되었습니다. “AI 시대, 민주주의 위기인가? 기회인가?”는 그 중 한 세션으로 빠띠가 주관한 세션을 기록으로 남깁니다.  🧊🌌아이스브레이킹 우리 사회의 여러 문제를 해결하려면, 어쩌면 우리는 다른 사람들의 이야기들을 더 많이 들어야할지도 모릅니다. 그러기 위해서는 대화를 하기에 앞서 서로 편견을 가지거나, 미워하기보다는 마음을 열고 존중할 수 있어야 하겠지요. 각기 다른 사람과 무리들의 공존과 더불어 함께 더 나은 사회를 만들어 가기 위해서는 공론장은 반드시 필요합니다. 이처럼 각기 다른 별, 별무리가 모여 은하가 되듯이 캠페인즈 은하 체험을 통해 처음 만난 동료 시민과의 유대감을 만들었습니다.   생성형AI시대, 디지털 생태계 위기와 시민사회의 대응 이광석 서울과학기술대 교수는 “AI의 열풍을 넘어서 범용적 영향력, 기술 취약성과 위험사회적 실체를 파악하고 대비할 필요가 있습니다. 또한 자원 배치와 관계의 큐레이션, 사유와 탐구의 탈숙련화라는 경향을 갖게 되었다."며 “AI는 자동화된 거대 ‘리믹스 자판기’와 흡사한데, 창의성이 섞여있지만 대체로 주류 구범과 표준화된 세계관이 반복될 가능성이 높기 때문입니다.” 또한 “여기서 발생하는 문제로는 약자와 소수 의견이 보이지 않는 것, 인간 사유 과정이 퇴화되는 것 AI 의존형 인간이 형성되는 것 그리고 노동과 환경에 영향을 미치는 반생태주의가 발생할 수 있다는 것입니다.”, “이에 시민사회의 대응으로는 AI 시민권리 공동 선언, AI 데이터 시민 공유 권리 모색, 약자 타자와 함께 하는 AI 마지막으로 기후위기 대응이 필요합니다.”라며 발제를 마쳤습니다.  발제자료 다운로드(이광석 교수) AI시대, 민주주의를 위한 새로운 사회계약 윤형중 LAB2050 대표는 “AI 리터러시는 비판적 평가를 넘어 이를 활용할 수 있고, 개념을 알고 구현, 활용할 수 있는 능력과 변화된 사회문화를 비판적으로 인식할 수 있는 능력입니다.”, 또한 노동 등 다양한 문제가 발생하고 있는 상황에서 “전환적 사회보장, 소득분배체계, 사회보험, AI 활용 교육, 소수자 보호, 커뮤니케이션 문화, AI 규범 위한 국제적 협력체계 구축이 필요합니다."라며 인공지능으로 발생하는 문제에 대한 대안을 제시했습니다. 발제자료 다운로드(윤형중 대표)   생성 인공지능과 민주주의-탈진실사회의 디지털 시민성 구본권 사람과디지털연구소 소장은 “(지금은) 가장 많이 배운 사람들이 사는 탈진실의 시대이자 허위정보를 많이 생산하는 정치인이 인기가 높은 시대이자 디지털 기술을 활용해 누구나 쉽게 믿을만한 허위정보는 생산할 수 있는 시대입니다.”라며 “지금은 알고리즘이 보편화된 알고리즘 사회인데 눈에 잘 보이지 않습니다. 설계자와 운영자의 의도대로 작동하고 있고 알고리즘은 편향적입니다.”, “탈진실의 시대에는 너무 많은 정보가 제공되고 편향의 영향 확대되고 있습니다. 가상이 현실을 압도하는 시대입니다.”, “이에 AI 시대의 새로운 시민성, 디지털 시민성이 필요합니다. 그 해답은 교육과 제도의 변화에 있습니다.”라는 제언을 남겼습니다. 발제자료 다운로드(구본권 소장) 인공지능의 시대, 민주주의의 미래 만들기  권오현 사회적협동조합 빠띠 이사장은 "인공지능 시대가 다가오면서 두려움과 우려가 생기고 있습니다. 민주주의가 공격받고 있고, 민주주의를 자동화 해볼까 하는 사람이 늘어나고 있습니다. 자동화에 따른 다양한 대중과 소수자가 배제 될 가능성이 있습니다.”라며 현재의 상황을 진단했습니다. 또한 “가짜뉴스가 비일비재하게 퍼지고 있는데, 이를 거짓말쟁이의 배당금이라고 할 수 있습니다. 허위정보만 문제가 아니라 진실도 허위정보로 취급하는 현상이 발생하게 됩니다. 거짓말을 하는 사람들이 배당금처럼 이익을 얻을 수 있다는 것입니다.”, “이에 대응하기 위해서 여러 행동이 필요한데, 허위조작 정보의 공격에 대응, 정책 결정의 자동화/보조적 사용을 감시, 디지털 리터러시에 대한 관점 확대와 시민 역량 확보, 집단지성과 인공지능의 역할에 대한 공론장, 민주주의에 대한 근본적이 고민, 실질적인 기술 통제력 확보를 위한 공동체의 디지털 자산화가 중요합니다.”라며 발제를 마쳤습니다.  발제자료 다운로드(권오현 이사장) 동료 시민들과 나눈 이야기 발제 후 세션에 참여한 시민들도 ‘AI, 민주주의 위기인가? 기회인가?’에 대한 토론을 나눴습니다. 참여한 시민들은 “기술 자체에는 긍정적이고, 가짜를 만드는 기술을 늘면 검증하는 기술도 늘 것. 혼란의 시기라고 생각합니다.”, “대의민주주의에서 표를 통해 의사결정하는데, 그 행위마저 AI 영향에 들게 된다면 위기가 될 것 같아요.”, “자스민혁명. 아랍의 봄 현상. 기폭제가 트위터였는데요. (인공지능이)직접 민주주의의 도구이자 새로운 민주주의가 새롭게 형성될 것이라는 큰 기대가 있습니다.”, “인공지능이라고 하는 건 기술이자 매체이기 때문에, 매체 그 자체가 민주주의라고 하는 가치를 직접적으로 구현하는 것은 아니라고 생각합니다.”, “공교육에서 성인이 되기 전, 이해관계가 생기기 전에 미리 의무교육 단계에서 기술을 통해 사회의 민주주의를 발전시킬 것인지 이야기해고 싶어요.”라는 이야기를 나눴습니다. 캠페이너 여러분은 인공지능이 민주주의의 위기라고 생각하시나요? 기회라고 생각하시나요? 댓글로 논의를 이어가주세요.  *김재경 캠페이너의 후속 토론을 소개합니다. [AI, 민주주의의 위기인가? 기회인가?] 를 듣고, [AI, 민주주의의 '기회']를 얘기해보기
인공지능
·
3
·
[AI, 민주주의의 위기인가? 기회인가?] 를 듣고, [AI, 민주주의의 '기회']를 얘기해보기.
2023년 11월 15일 저녁 7시부터 노무현시민센터 다목적홀에서  '[민주주의랩] AI, 민주주의의 위기인가? 기회인가?' 라는 내용으로 컨퍼런스가 진행되었다. 필자 역시 직접 참여하려고 신청하였으나 환절기 감기로 참여하지 못해 아쉽지만 유튜브 생중계 형태로 참여하였고, 후속 토론을 캠페인즈에 올리고자 한다. 이번 컨퍼런스 발제들의 핵심 주장을 굳이 한 문장으로 요약해보자면 'AI는 민주주의에 주로 여러 위기를 가져올 수 있으며, 이를 위해 같이 해결책을 논의하고 협동해야 한다'이다. 즉, 컨퍼런스 제목에 대한 대답은 이미 AI는 민주주의에 위기로 결론이 났다.  나 역시 대체로 이 내용에 동의한다. 인터넷의 발전 - SNS의 발전으로 이어져온 기술 발전의 짧다면 짧고 길다면 긴 역사에서도 확인할 수 있는 내용이고, 가짜 뉴스에 대한 내용, AI가 재생산할 기존 인간의 편향 등을 고려해도 민주주의에 큰 위협이 될 것으로 보인다. 하지만 네 분의 발제에서 AI가 민주주의에 가져올 기회에 대해 덜 다루어진 것 같아, 소수 의견으로 보완해보고자 한다. 1. 사유와 탐구의 탈숙련화 강화, 뒤집으면 비숙련의 보완도 가능하다. 첫 번째 발제자이신 이광석 서울과학기술대학교 교수님께서 인공지능이 가져올 문제점 중 하나로 '사유와 탐구의 탈숙련화'효과에 대해 말씀해주셨다. 쉽게 풀어서 설명하면, 'AI에게 물어보고 나오는 대답을 비판 없이 그대로 받아들이게 될 것이기 때문에, 사람들의 생각하는 힘이 약해지지 않을까?'라는 문제제기다.  필자 역시 이 문제제기에 동의한다. 하지만 직접 ChatGPT를 포함한 생성형 AI를 활용하는 입장에서, '사유와 탐구의 탈숙련화'를 가져오게 할 수도 있지만, 반대로 '비숙련된 분야의 사유와 탐구 숙련화'에 도움을 줄 수도 있다. 예를 들어, 지난번 필자가 캠페인즈에 올린 '고도로 발달한 AI는 인간으로 볼 수 있을까요?' 글을 작성하는 과정에서, 부족한 철학 분야의 지식을 ChatGPT와의 대화로 보충하였다. 다만, 교수님이 지적하신대로 '사유와 탐구의 탈숙련화'가 일어날 것을 우려하여, 일부러 한 번씩 ChatGPT가 제시한 철학자들의 이름을 검색해보는 검증 과정을 거쳤다. 비록 AI의 출력물을 검증의 과정을 거쳤지만, '사유와 탐구의 탈숙련화'를 경계하면서 '비숙련 분야에서 사유와 탐구의 숙련화'를 AI가 도와줄 수 있다고 생각한다.  2. AI의 '속도가 문제', 하지만 '속도가 장점' 발제자들이 지적한 '가짜뉴스의 확산', '환각 현상', '편향의 재생산'등은 사실 AI 이전에도 인간 사회에 문제가 되었던 내용들이다. 가짜 뉴스는 삼국유사에 기록되어 있는 '서동요'에서도 나온다. 현대 시대의 정치인, 연예인을 두고 가짜뉴스로 스캔들을 낸 것과 다름이 없다.  “선화공주님은/ 남 몰래 정을 통해 두고/ 서동 도련님(薯童房)을 / 밤에 몰래 안고 간다.” 이보다 더 오래된 기록에서도 아마 가짜 뉴스의 찾아볼 수 있을 거다. 또한, '날씨가 안좋으면 왕 탓'은 어찌보면 기존 인간이 도출하는 '환각 현상'의 거짓이다. 그렇다면 옛날 옛적부터 있어온 사회 문제들이 왜 AI의 문제, 그것도 민주주의의 위기로 작동하는 문제일까? 그것은 바로 AI의 '속도'와 '편의성'이 기존 인터넷과 궤를 달리하기 때문이다. AI의 최대 능력은 '빠르고 길게 특정 결과물을 출력'하는 것이다. 이 속성으로 인해 ChatGPT를 포함한 AI가 '세종대왕이 맥북을 던지는' 대답과 같은 환각 현상을 보이고(지금은 당연히 고쳐졌고, 심지어 ChatGPT는 이제 이런 질문이 '적절하지 않다'고까지 발언한다)가짜 뉴스의 생산과 확산, 기존 차별적인 내용을 편향적으로 재생산하는 문제 등이 '가속화'되어 더 빠르고 많이 발생하고 전파되는 문제가 있다. 이에 대한 해결책은 3번에서 짧게 다루겠다. 여기서는 AI의 빠른 '속도'가 민주주의에 기회가 될 수 있는 관점을 제시하고자 한다. 바로 AI가 가짜뉴스 생산 등의 민주주의를 위협하 행동 뿐만 아니라 자료 정리/검색 등 민주주의에 유익한 활동에 있어서도 속도가 빠르다는 것이다. 자료 검색의 경우 3번에서 더 자세히 제시하겠지만, 1번에서 제시했던 사례와 연결지어 생각하면, AI는 정말 많은 내용을 인간보다 훨씬 빠르게 검색할 수 있다. 기존 인터넷 검색과 다른 점은, 인간이 직접 인터넷으로 검색할 때는 불가능한 검색량과 정리를 단시간 내에 수행할 수 있다는 점이다. 이는 민주주의를 위해 필요한 '숙의'과정에 분명히 도움을 줄 수 있다.    자료 정리의 경우, 단적인 예시지만 Notion AI등을 활용할 경우, 기존 오랜 시간이 걸리던 신문 기사 스크랩 및 정리를 매우 빠른 시간 내에 해결할 수 있다. 직접 작성한 Notion AI 사용법 글에서 가져온 자료 화면 중 하나인데, 웹페이지에서 버튼 하나를 클릭하면 노션에 자동으로 웹페이지 스크랩이 되고, 이를 표로 드래그해 옮기기만 하면 자동으로 해당 글의 키워드 추출, 내용 요약, 글 링크, 스크랩 날짜까지 자동으로 정리해준다. 앞으로는 이보다 더 혁신적으로 민주주의 발전에 도움을 줄 수 있는 빠른 AI 툴,기능들이 등장할 것이다. 3. AI를 만드는 건 여전히 인간! - 권오현 빠띠 대표 AI가 민주주의의 기회가 될 수 있는 강력한 근거를 권오현 빠띠 대표가 발제에서 제시하였다. ChatGPT가 농담을 하였다고 돌아다니는 이미지를 소개하며, 여전히 AI를 만드는 건 인간이라는 점을 언급했다. 그렇다면 여전히 사람이 어떻게 만드느냐에 따라 발제에 나왔던 여러 사례처럼 편향적이고 가짜 뉴스를 만드는 AI가 나올 수도 있고, 소수 의견을 반영하고 스스로를 검토하게 하는 AI를 만들 수 있지 않을까?  실제로 MIT Technology Review에서 나왔던 기사에 따르면, 인간 피드백 기반 강화학습으로 학습시킨 대형 언어모델이 ‘편향적이지 않은’ 결과물을 생산하도록 요청하는 것만으로 결과물에서 놀라울 정도로 긍정적인 효과 즉, 편향적이지 않은 소수의 의견을 반영하는 결과가 AI의 출력물에 나타나는 것을 발견했다. AI가 대량으로 학습한 내용에는 인터넷 어딘가에 있는 '편향을 교정하려는 시도', '소수자를 존중하는 시도' 역시 포함되어 있다. 어쩌면 인간에 의해 덜 편향적으로 AI가 작동할 방법이 있다는 건, 윤형중 LAB2050대표가 말한 'AI가 커먼즈에서 비롯된'덕분에 가능한, 인류의 커먼즈의 기회다. 또한 민주주의에 위협이 되는 가짜뉴스 역시 AI로 잡는 시도를 해볼 수 있다고 생각한다. 아직 베타 버젼이지만, 필자는 최근 출시된 GPT Builder로 'Fact Check AI'를 만들고 있다. 목표는 빠띠의 멋진 그룹 중 하나인 K.F.C.(치킨Korean Factcheckers’ Community)수준에 근접하게 팩트를 점검하는 AI를 코딩 없이 만드는 것이다. 실제로 베타 버젼의 Fact Check AI에서 다뤄진 [팩트체크] 최저임금보다 실업급여를 더 많이 받는다?를 물어본 결과, 단순 정보 뿐만 아니라 점검할 수 있는 일부 내용을 함께 제시하고 있다. 뿐만 아니라, 설정한 단계에 따라 기존 주장에 반대되는 주장을 한번 더 검토하는 과정, 4단계에서 앞선 단계를 모두 검토하는 모습도 볼 수 있다. 물론 K.F.C.에서 진행한 팩트체크처럼 비정규직 노동자의 실업급여에 대해서는 다루지 못하는 한계를 보였지만, 제시된 사실에 대해 꽤 높은 퀄리티로 빠르게 검토할 수 있다는 점은 장점이다. 잘 다듬으면 많은 사람들이 가짜 뉴스에 대해 빠르고 편하게 반박할 수 있는 도구가 개발될 수 있지 않을까 싶다.  더 나아가, 권오현 대표가 말한 대로 결국 '기술을 소유'해야만 AI가 민주주의를 위한 기회로 활용될 수 있다. 필자 역시 이에 동의하며, LLM(Large Language Model)이나 LMM(Large Multi Modal)으로 사회 문제를 해결하기 위해선 시민사회를 위한 AI가 필요하다고 생각한다. 다행히 오픈 소스 기반의 AI도 성능이 빠르게 상승하고 있기는 하나, 이를 활용할 컴퓨팅 파워는 시민 사회에 있어서 아주 비싼 값을 지불해야 하는 상황이 발생한다. 시민을 위한 AI를 위해 시민 사회가 뭉칠 수 있길 바라며, 이를 기반으로 사회적 AI, 시민을 위하는 AI가 개발될 수 있길 바란다.
인공지능
·
6
·
‘시민권’으로서 공통 인공지능을 상상해야 한다
인과 염으로 창조된 AI의 시대, ‘시민권’으로서 공통 인공지능을 상상해야 한다 반세기 전, 인공지능이 여전히 SF의 영역이라고 생각되던 시대에 로봇공학자인 한스 모라벡은 “진일보한 기술의 시대에 컴퓨터는 인간에게 어려운 것들을 쉽게 처리하게 되겠지만 인간에게 쉬운 작업들은 컴퓨터에게는 어려울 것”이라고 예언한 바 있다. 컴퓨터는 인간의 연산 능력을 쉽게 대체하지만 반대로 땅에 떨어진 물건을 집거나 춤을 추는 등의 간단한 행동을 처리하는 데는 적합하지 않다는 것이다. 그의 선견은 역설적인 방식으로 현실화되고 있는데, 최근의 챗 GPT 광풍에서도 볼 수 있듯이 인공지능은 컴퓨터에게 어려운 육체 작업이 아닌 지적이고 창조적인 분야부터 대체하고 있는 중이다. 한스 모라백(Hans Moravec) 근육이 아닌 뉴런을 대체하는 것이 오늘날 생성 AI가 도달하고자 하는 특이점일 것이다. 근육을 대체할 자원은 이미 넘쳐난다. 일자리, 주거, 연금, 보험, 사회보장제도 등에서 밀려나 매 순간 불안정한 삶을 살아가는 프레카리아트(precariat)들은 이제 보편적인 생명 양식이 되었다. 비싼 돈을 들여 로봇이나 안드로이드를 개발할 이유가 전혀 없다. 과거에는 노예가, 근대에는 값싼 임노동자들이 그 물리적 에너지를 대신했고 오늘날에는 임금노동에서도 밀려난 수많은 플랫폼 노동자들과 비임금 자영업자들, 하도급과 아웃소싱에 포박당한 프리랜서들이 이를 대체한다. 생성AI는 이러한 육체적, 물리적 한계를 넘어서 모라벡이 설정한 최후의 지형들, 예컨대 예술과 과학의 영역을 정복하고자 한다. 그림을 그리고, 시를 쓰며, 음악을 작곡하는 활동은 문제를 설정하고 대상을 재현하는 인지와 결부되어 있는데, 이 부문을 자동화되는 것이다. 인공지능의 진보는 자동화는 자동화이되 인지의 자동화이며 뉴런을 기계화하는 동시에 생산수단으로 만드는 과정이라 할 수 있다.  그렇다면 이 강력한 인지자동화의 전환은 어떤 것들을 대체하게 될까? 수많은 사람들은 소셜미디어에 자신이 챗 GPT와 얼마나 흥미로운 작업들을 했는지 전시하면서 이미 묵시록적인 결론을 얻었다. 문화 창조에 관련된 모든 행위들이 데이터베이스화 되고 패턴화되며 자동화된다. 더 이상 일러스트레이터도, 작곡가도, 성우나 배우도, 디자이너도 스토리텔러도 필요 없어질지 모른다는 기시감. 그것은 아직 생성 AI가 비즈니스화 되지 않는 단계임에도 모두의 뇌리에 박혀 있다. 산업 기계들이 그랬던 것처럼, 이 뉴런 기계들도 새로운 자본주의의 교외를 만들어낸다. 건당 보수로 살아갈 수밖에 없는 미세노동자(micro worker)들이 등장했다. 인공지능을 학습시키고 데이터들을 분류하는 작업, 노이즈를 필터링하고 이미지 인식을 반복 숙달시키는 작업, 번역과 설문, 그리고 이 과정을 검토하고 적합한지 채점을 매기는 모니터링에 이르기까지 미세노동자는 건당 1달러 이내의 푼돈을 받으면서 그중 20%를 운영 주체인 아마존과 구글 등이 떼어간다. 아마존은 이들 미세노동을 총망라하는 플랫폼 ‘메카니컬 터크’를 운영하며 엄청난 정보기술 도약을 이뤄냈고, ‘클릭워커’, ‘애픈’ 같은 플랫폼은 실리콘밸리 기업들에게 전 지구의 수많은 미세노동 결과물을 제공하고 있다.  이들 테크 기업들은 미세노동자들에게 적절한 보상을 제공하는가? 먼저 그것은 임금 형식이 아닌 건당 보수 형식을 취하며, 그것도 아주 작은 패키지 작업 단위로 구성되어 있어 노동과정의 구조 자체가 불투명하다. 미세노동자들은 자신의 작업 결과물이 무엇을 만드는지, 그리고 어떤 기업이 그것을 가져가는지 전혀 알지 못한다. 이러한 미세노동의 현실을 파헤친 필 존스의 책 『노동자 없는 노동』은 이런 플랫폼에 등록된 사람들의 90%가 건당 0.1달러 이하의 보수를 지급받으며, 이마저도 지급되지 않는 경우가 허다하다고 밝힌다. 또한 상당수의 보수가 ‘보상(prize)’이라는 미명 하에 현금이 아닌 게임화폐, 특정 사이트에서만 쓸 수 있는 마일리지나 포인트 형태로 지급되고 있다. 또한 일은 매번 할 수 있는 것이 아니라, 작업시간보다 긴 대기 시간을 거쳐야지만 얻을 수 있고 마치 게임처럼 할 수 있는 즐거운 활동처럼 포장되어 작업은 언제나 가치 절하된다. 최근 우리가 흥미진진하게 장난감처럼 갖고 노는 미드저니, GPT, DallE 같은 인공지능들은 진공에서 태어난 것이 아니라 이처럼 수많은 미세노동자들의 인과 염이 새겨진, 생존을 위해 도박처럼 뛰어드는 ‘잉여’들이 빚어진 결과물이다. 이들 미세노동자들은 소셜미디어와 커뮤니티, 플랫폼 등 빅 테크 자본이 운영하는 광활한 네트의 영토에 여기 저기 널려있는 자원들, 우리가 사진을 찍고 글을 남기고 뭔가를 창조하는 과정에서 남겨진 데이터들을 가지고 작업한다. 그러나 오늘날 이들 생성 인공지능은 천재적인 기업가와 발명가들, 기술 관료들의 기술혁신인 것처럼 포장되고 있다. 전 지구의 시민사회는 이런 혁신담론이 자아내는 환등상에 현혹되어서는 안 된다. ‘인공지능’이 아니라, 리좀처럼 얽혀진 수많은 인간 뉴런과 피땀어린 노동이 생성한 ‘공통지성’이라고 인식하는 것이 중요하다. 인공지능이란 용어는 마치 과학자들과 기업 회장들이 이 모든 걸 발명했다는 듯 장막을 씌운다. 이 장막을 걷어내야 한다.  전 지구의 민주적 시민사회는 인공지능의 탈을 쓴 공통지성이 어떤 식으로 블랙박스화 되는지, 이 과정에서 어떻게 미세노동이 수탈당하는지 감시하고 이의제기 할 수 있어야한다. 또한 모든 사람들이 제한 없이 보편적으로 접근하고 사용할 수 있어야 한다. 그것을 사용하고, 발전시키고, 향유하는 주체는 사기업이나 경찰국가가 아닌 인과 염을 몸에 지닌 보통의 사람들이다. ‘공통지성’ 이란 개념은 결국 인공지능을 창조하고, 사용하고, 향유하는 데 있어 보편적인 시민권의 영역으로 접근하는 것을 의미한다. 산의 약수터와 우리가 숨쉬는 공기, 공원과 수자원, 삼림처럼 이 리좀화된 기계뉴런들은 공통적이고, 보편적이며 우리 모두에게 주어진 커먼즈(commons)로 인식되어야 한다. 이는 새로운 문화창조와 예술을, 그리고 진보된 리터러시와 민주주의를 상상하는 방식이다. 인공지능을 ‘공통지성의 커먼즈’로 재발명하는 과정은  당연한 시민권을 주장하는 것이며, 인지자동화 시대에 인간 뉴런을 잉여로 만드는 미세노동 수탈에 반대하는 저항이기도 하다.  글쓴이 _ 신현우(기술문화연구자, 문화연대 집행위원)정보기술 공간에서의 노동과 커뮤니케이션에 관해 연구하는 기술문화연구자이다. 플랫폼, 게이밍, 인공지능과 블록체인에 걸쳐진 IT 기술문화를 미디어정치경제학의 관점에서 비판적으로 탐구한다. 문화연대 집행위원, 계간 문화이론 전문지 문화/과학 편집위원으로 활동하며 서울과학기술대학교와 한국예술종합학교에서 예술과 기술, 기술비판이론에 대해 강의하고 있다.
인공지능
·
4
·
‘물 먹는 공룡’ chatGPT, 이대로 사용해도 괜찮을까요? 🦖💦
최근 몇년 사이 오픈AI의 chatGPT(챗지피티), 구글 Bard(바드) 등 대형 언어 모델(Large Language Model, LLM)을 활용한 인공지능 서비스가 늘어나고 있습니다. 개인과 조직은 chatGPT와 같은 인공지능 서비스를 접목해 새로운 업무를 빠르게 처리하기도 하고, 때로는 엉뚱한 결과와 잘못된 정보를 제공받는 등 크고 작은 문제를 마주하기도 합니다. 인공지능이 인간에게 건네는 답변에 관한 윤리, 논리, 학문적 비판 및 논란은 "인공지능" 캠페인즈 태그를 참고하면서, 이번 글에서는 인공지능을 학습시키고 대용량 데이터를 관리하는데 필요한 물 소비와 탄소 발자국을 중심으로 이야기를 나눠보겠습니다. 들어가며 - 탄소 발자국이란? 탄소 발자국(Carbon footprint)은 개인, 기업 또는 제품 등이 일정 기간 동안 특정한 활동을 통해 대기로 방출한 이산화탄소(CO2)와 기타 온실가스의 양을 측정하는 용어입니다. 이산화탄소는 가장 흔한 온실가스로, 주로 화석 연료를 태우는 과정과 산림 파괴와 같은 인간의 활동으로 인해 발생하며 대기 중 이산화탄소 농도는 지난 20년 간 꾸준히 증가하고 있습니다. 온실가스는 대기 상층에 열을 가두어 지구 온도를 올리는 역할을 합니다. 높은 농도의 온실가스는 곧 지구 온난화를 가속화하고 해수면 상승, 녹아내리는 극지방 빙하, 폭염/가뭄/홍수와 같은 극단적인 기후 현상을 불러옵니다. 이러한 기후변화는 환경, 경제, 사회 전반에 막대한 영향을 끼치며 인간을 포함한 전지구적 생태계에 위협이 되고 있습니다. 따라서 기후위기를 늦추고 회복하기 위해 에너지 효율적인 기술 도입, 재생에너지 보급, 탄소 배출 저감 방안 등 탄소 발자국을 줄이기 위한 노력이 반드시 필요합니다. 기업과 정부 뿐만 아니라 개인 차원에서도 에너지 절약, 대중교통 이용, 채식 실천, 제로웨이스트(쓰레기 없애기) 등 다양한 방식으로 기여할 수 있습니다.  그래서 chatGPT가 탄소 배출이랑 무슨 상관이지? 쉼 없이 돌아가는 생산 공장, 도심을 꽉 채운 자동차 배기가스 뿐만 아니라 많은 이들이 일상에서 매일 이용하는 온라인 검색, OTT 스트리밍, 인터넷 뱅킹, 이메일 사용, 심지어 전화 통화까지 모든 온라인 무선 활동에서 탄소 발자국이 발생합니다. 이는 전자기기와 각종 온라인 서비스를 사용할 때 와이파이, LTE, 5G 등 여러 네트워크를 통해 데이터센터를 반드시 거치기 때문입니다.  데이터센터에서는 사용자가 필요로 하는 방대한 양의 데이터 작업을 처리하며 안전한 데이터 보관과 송수신을 위해 적정 온도와 습도를 유지하는 것이 매우 중요합니다. 데이터센터의 서버를 냉각하는 과정에서 엄청난 전력 소모와 온실가스 배출이 동반됩니다.  “최근 발표된 스탠퍼드대 인공지능 인덱스 보고서에 따르면, 요즘 선풍적인 인기를 끌고 있는 챗지피티(ChatGPT)의 기반인 거대언어모델(LLM) ‘지피티3’는 훈련 과정에서 1287MWh의 전기를 소비했다. 이로 인한 탄소 배출량 추정치는 502톤이다. 평균적인 세계인이 100년간 배출하는 양에 해당한다. 2020년 기준 한국인 1인당 탄소 배출량(11.6톤)의 43배다. (중략)미국 리버사이드 콜로라도대와 앨링턴 텍사스대 연구진은 ‘챗지피티(GPT)’와 한 번 대화를 하는 데 물 500㎖가 소비된다는 계산 결과를 사전출판논문 저장소 <아카이브>에 발표했다. 한 번 대화에서 질문과 답변을 25~50개 주고받는 걸 기준으로 한 계산이다.”  (한겨레, 2023-05-03)  “정수종 서울대 환경대학원 교수는 “친환경 경영(ESG)에 대한 관심이 커지면서 빅 테크 기업에서도 이를 신경 쓰지 않을 수 없을 것”이라 밝혔다. 친환경 경영은 이제 기업의 경쟁력 차원에서도 무시할 수 없는 요소다. 시장은 친환경적이지 않은 산업이 판매에 제한을 받고 투자를 받기도 힘든 방향으로 바뀌고 있기 때문이다. 이는 곧 기업이 디지털 탄소발자국을 줄이도록 정책적 개선도 필요하다는 뜻이다.” (동아사이언스, 2023.03.04) 함께 만드는 미래를 그려보기 캠페인즈에서 한편의 포스팅을 작성하기 위해 필요한 구글 검색, 기사와 연구 자료 클릭, 적절한 저작권 무료 이미지 찾기, 클라우드 서비스에서의 초안 편집, 캠페인즈 플랫폼 업로드 등 모든 시점에 네트워크와 데이터를 태우며 탄소를 배출합니다. 이 글이 여러분의 노트북과 스마트폰에 닿아 스크롤되는 순간 역시 그렇습니다. 저 역시 평소 현업에서 chatGPT를 적극 활용하며 업무에 실질적인 도움을 크게 받고 있습니다.  이러한 활동이 끊임없이 물을 소비하고 탄소를 뿜어낸다는 사실을 알아도, 개개인이 한번 경험한 대형 인공지능 서비스를 거부하는 일, 콘텐츠가 넘치는 유튜브와 넷플릭스를 멈추는 일, 연동이 편리한 클라우드를 탈퇴하기란 쉽지 않습니다.  단순히 모든 생산과 소비를 멈출 수 없는 현대 사회에서 개인은, 연구자는, 기업은, 정부는 각각 어떤 책임과 자세를 가지면 좋을까요? 0과 1의 디지털 세상에서 탈(脫)기술이나 반(反)인공지능처럼 0으로 수렴하는 방향도 있겠지만, 현재 주어진 기술과 자원을 중심으로 1 너머의 대안을 찾을 수 있을지. 전 지구적 협력이 필요한 시대에 디지털 시민 광장에서 다양한 의견과 제안, 질문이 오가기를 바랍니다.
인공지능
·
6
·
AI로 쉽게 자료 및 신문 기사 스크랩과 요약 동시에 하기 - Notion AI
우리는 어떤 직업을 가지고 있건 간에, 자료를 수집하고 정리할 일이 발생하는 경우가 많습니다. 학생때는 과제를 하기 위해, 연구자는 연구를 위해, 직장인은 보고서 작성이나 업무 수행을 위해 많은 인터넷 자료를 정리하죠. 그런데 인터넷의 수많은 자료들을 정리하는 건 시간과 노력이 꽤 많이 들어갑니다. 보고서야 요새 ChatGPT를 포함한 많은 AI를 활용해 정리가 가능하지만.. 여러 가지 신문기사를 스크랩하고 요약하여 보기 좋게 정리하는 일은 일일히 복사해서 붙여넣기를 한 다음에 결과를 또 다른 곳에 예쁘게 정리해놓고.. 이렇게 정리하면 나중에 찾을 때도 헛갈리고.. 곤란할 때가 많습니다. 이번 글에서는 정리 및 협업 툴로 유명한 Notion과 이에 탑재된 Notion AI를 활용하여, 쉽게 인터넷 글을 스크랩하고 요약한 후, 스크랩한 글들에서 원하는 키워드로 검색까지 가능하게 하는 저만의 방법을 소개하고자 합니다. Notion을 처음 써보시는 분들도 따라하실 수 있도록 최대한 쉽게 작성해 보았으니, 한 번 따라해 보시기 바랍니다 ㅎㅎ 이번 포스팅에서 사용된 이미지는 모두 제 노션과 브라우져를 직접 캡쳐한 결과입니다. *본 포스팅에서는 PC를 사용할 경우 Chrome과 Whale브라우져,   모바일 기기(핸드폰,태블릿 등)를 사용할 경우 Chrome, Whale, 삼성 인터넷 브라우져에서 사용 가능합니다(제 주위에 아이폰이 없어서, 아마 사파리도 될 겁니다). *Notion은 PC건 모바일이건 미리 설치해주세요. Notion 회원가입의 경우, 구글 계정으로 쉽게 가능합니다. *'페이지 편집 시 자동 업데이트'기능은 Notion AI 유료구독이 필요한 것으로 알고 있습니다. 구독하지 않으실 경우 수동으로(클릭) 업데이트 가능합니다. 1. Notion 데이터 베이스(표)만들기 우선, 우리가 각종 자료를 모아서 정리할 데이터베이스(표)를 만들 겁니다. 그냥 '표'라고 부르면 좋겠지만, 노션 내에 표와 데이터베이스는 구분되다보니 맞는 명칭인 '데이터베이스'로 설명하겠습니다. 노션에서 빈 페이지를 하나 만들고, 가장 상단을 눌러 제목을 편집합니다. 이후 본문에 /데이터베이스 를 타이핑한 후 '데이터베이스 - 인라인'을 클릭합니다. 그러면 위와 같이 '이름', '키워드'라고 적힌 데이터베이스가 나타날 겁니다. 우리는 이제 이 데이터베이스 속성(분류 기준)을 왼쪽부터 '제목', '키워드', '요약', '링크', '추가 내용' 을 기준으로 정리하고자 합니다. 처음에 속성(분류 기준)이 2개 뿐이니, 맨 오른쪽에 +를 눌러 속성을 총 5개로 만들어주시고, 하나 하나 바꿔봅시다.  그 다음, 속성 이름을 누르면 저렇게 '속성 편집' 메뉴가 나옵니다. 이걸 클릭합니다.  앞으로 새로운 속성을 편집할 때마다 같은 방법으로 속성을 편집합시다.  1-1. 데이터베이스에서 '키워드'추출 자동화하기 처음에 추가할 속성은 '키워드'입니다. 자료에서 핵심 키워드를 AI로 뽑기 위해 속성에서 'AI 주요 정보'를 클릭합니다. '페이지 편집 시 자동 업데이트'가 켜져 있는지(동그라미 오른쪽) 확인해주시고, 아래 '어떤 주요 정보를 추출할까요?'에 '핵심 키워드 5개'를 입력합니다. 이러면 키워드 추출을 자동화할 준비를 마쳤습니다. 1-2. 데이터베이스에서 자료 '요약' 자동화하기 아까와는 다르게, 새로운 속성에서 'AI 사용자 지정 자동 채우기'를 눌러줍니다. 사실 'AI 요약'을 눌러도 큰 상관은 없습니다만 조금 더 저희의 입맛에 맞게 AI를 조작 가능하다고 여겨지는 옵션이라(=프롬프트 자율성) 사용자 지정 자동 채우기로 선택했습니다. '무엇을 생성할까요?'에 '페이지 요약. 두 문단에 걸쳐 요약. 한 문단 작성 완료 후 한 칸 띄고 마저 작성'을 입력합니다. 직접 실험해본 결과 한 칸을 띄지 않고 작성하는 경우는 많지만, 두 문단으로는 자주 작성해 주더라구요. 이렇게만 해 주시면 AI로 자료 요약 자동화할 준비가 끝났습니다. 1-3. 데이터베이스에서 자료 출처 '링크' 자동화하기 역시 '페이지 편집 시 자동 업데이트'를 켜 주시고, '무엇을 생성할까요?'에 'Hyperlink from top of article'이라고 입력합니다. 엥? 갑자기 영어가? 그리고 왜 하필 'top of article'에서 하이퍼링크를 가져오라고 명령할까요? 우선, 단순히 이 명령어(프롬프트)를 한국어로 입력했을 때, 영어보다 잘 인식하지 못하는 경우가 발생합니다(보편적인 해외 AI문제). 때로는 가짜 링크를 생성하는 '환각 현상'도 보이더라구요. 영어로 명령하니 해당 환각은 일단 지금까진 없었습니다. 최상단에 있는 링크를 가져오라고 한 이유를 설명해 드리겠습니다. 제가 다음 챕터에서 소개해 드릴 'Notion Web Clipper' 혹은 모바일에서 '공유하기'를 사용해 인터넷 페이지를 노션에 스크랩할 경우, 위에서 볼 수 있듯이 스크랩한 웹페이지로 통하는 링크가 스크랩 페이지 최상단에 작성됩니다. 혹여나 본문에 다른 링크가 있을 수 있으므로, AI에게 혼동하지 말라고 기준을 정해 준 것입니다.  1-4. 스크랩 날짜 속성 추가하기 이번에는 속성 추가 버튼을 누르면 나타나는 '새 속성 검색 또는 추가' 검색창에 '생성 일시'를 검색하여 선택합니다. 이를 선택하면, 제가 특정 웹페이지를 스크랩한 날짜와 시간을 데이터베이스에 기록할 수 있습니다. 원래는 특정 자료나 신문 기사가 작성된 날짜를 AI로 자동화하여 기록하려고 했으나, 잘 되지 않더라구요 ㅠ 1-1 ~ 1-4까지 완료하신 후에, 속성 추가 버튼을 하나 더 눌러 혹시 추가로 수기로 기록할 내용이 있으면 기록할 수 있는 '추가 내용'탭을 만들면 완료입니다. 속성(분류 기준) 명칭 및 아이콘은 다음과 같이 바꿔주시면 됩니다! 명칭은 직접 타이핑하여 바꿔주시면 되고, 아이콘은 아이콘을 눌러 적절한 아이콘으로 변경해 보세요! 2. Notion Web Clipper 설치 및 사용하기(PC) Notion Web Clipper는 저희가 1번에서 만든 데이터베이스에 자료를 쉽게 스크랩하는 역할을 합니다. PC부터 어떻게 하는지 알려드릴께요. Chrome 오른쪽 상단 점3개 누르고 확장 프로그램 - Chrome 웹 스토어 방문하기를 눌러주세요. Whale의 경우, 오른쪽 상단 점3개 누르고 확장앱 - 호환 스토어를 눌러주세요. 왼쪽 검색창에 'notion web clipper'를 입력하여 다운로드합니다. 오른쪽 위에 퍼즐 조각을 눌러 확장앱 목록을 열고, Notion Web clipper를 찾아 고정하기(핀 아이콘)를 누릅니다. 스크랩할 웹페이지에서 오른쪽 상단에 있는 노션 아이콘을 클릭하고, Add to를 누릅니다. 스크랩하여 저장할 노션 페이지를 검색하거나, 선택하여 저장합니다. 이 때, Add to를 누르지 않고 'Save page'를 할 경우, 최근 스크랩한 노션 페이지에 스크랩됩니다. 스크랩을 완료할 경우, 우리가 앞서 만들어 둔 데이터베이스 아래쪽에 저런 형태(페이지)로 자료가 스크랩됩니다. 이를 위에 데이터베이스로 옮겨 주시면 되는데, 주의할 점은 데이터베이스 '안쪽'이 아니라 데이터베이스 '경계'에 옮겨야 합니다. 혹시 이게 어려우시면,  데이터베이스를 '리스트'형태로 바꿔 주시고 옮겨주세요..!(어려우시면 생략) 모바일의 경우, 오른쪽 하단의 [메뉴] - [공유하기] - [노션(N)]을 누르시면, Notion Web Clipper를 눌렀을 때와 같은 화면이 나옵니다! 3. 스크랩 자동화 결과 확인 및 활용하기 만약 여러분들이 본문을 다 따라와서, 스크랩한 페이지까지 데이터베이스로 옮겼다면, 우리가 까먹고 있어도 알아서 앞서 설정한 업무(키워드 추출, 요약, 링크 생성)을 해줄 것입니다. 그런데 당장 해당 작업들이 필요한 경우가 있죠.  그럴 경우, 속성 명칭을 클릭하고 '모든 페이지 업데이트'를 누르시면, 모든 스크랩한 자료들에 대해 해당 작업을 빠르게 수행해줍니다. 한 자료의 한 속성에 대해서만 업무를 수행하고 싶으시다면,  해당하는 칸을 눌러 저 마법봉을 누르시면 AI가 빠르게 작업을 수행해줍니다. 뾰로롱! 저는 기본적으로 여러 데이터베이스에 이 방법을 적용해 두었지만, 샘플로 몇 가지 가져와 보았습니다. 캠페인즈에서 제가 쓴 글들, AI타임즈의 AI기사 등을 긁어와 보았고, 결과는 성공적입니다..! 아, 각 속성을 눌렀을 때 맨 아래에 '줄 바꿈'을 눌러 비활성화해주시면, 해당 속성이 아무리 길어져도 저처럼 데이터베이스가 길어지지 않으니 참고해주세요! 노션AI를 활용한 데이터베이스를 가장 잘 활용하는 방법 중 하나는 바로 '검색'기능을 이용하는 겁니다. 같은 주제로 자료를 스크랩해두었다고 해도, 특정 주제에 대한 자료만 모아서 보고 싶은 경우가 있습니다. 이 때, [돋보기] 버튼을 클릭해 원하는 키워드로 검색하면, 해당 키워드가 포함된 자료들만 데이터베이스에 띄워줍니다! 기존 데이터베이스를 가지고 글을 쓸 때 정말 유용하게 쓸 수 있겠죠? Notion의 기능을 더 많이 알려드릴 수 있으면 좋겠지만, 글이 너무 길어질 것 같아 이만 줄입니다. 여러분들의 업무나 과제, 활동, 연구 등에 도움이 되길 바라며, 글 마칩니다. 궁금하신 점이 있으면 덧글로 작성해주세요..! 틈틈이 들어와서 답변해 드리겠습니다! 혹은 제 메일로 보내주셔도 좋아요!(프로필을 확인해주세요) 글이 도움이 되셨거나 마음에 드셨다면, '응원하기'를 통해 저를 지지해주세요!
인공지능
·
11
·
AI로 쉽게 데이터 분석하기 : ChatGPT-4 Code Interpreter
우리가 특정 사회적, 과학적인 주장을 할 때 근거로 가장 많이 쓰이는 것을 하나 꼽으라면 '데이터'죠. 다양한 통계, 지표 등을 활용하여 우리는 여러 가지 주장에 더 힘을 실을 수 있다. 정말 감사하게도, 세상에는 공짜로 얻을 수 있는 데이터가 꽤 있다. 하지만 그 데이터 파일들을 분석하는 것은 관련 수업을 듣지 않고 자력으로 하기는 정말 어려운 일이며, 알고 있다고 하더라도 데이터를 정리하는 일(클렌징)은 시간이 많이 든다. 23년 7월에 공개된 ChatGPT-4의 'Code Interpreter'는 데이터 분석에 뛰어나다는데, 과연 많은 연구와 활동에 힘을 실어줄 수 있을까? 1단계 : 데이터와 코드북 준비하기 저는 이번 글에서 간단하게 예시로 '한국의 중도층'에 대해 AI로 분석해 보려고 하는데요, ChatGPT-4의 Code Interpreter를 사용하기 위해서는 23년 8월 10일 기준 다음과 같은 준비물이 필요합니다. ChatGPT 유료 구독(월 2만원) 분석하려는 데이터와 변수명 파악(가능하면) 분석하려는 데이터의 코드북 데이터 분석에 익숙하지 않으신 분들은 '코드북'이 무엇인가 궁금하실 겁니다. 쉽게 말하면, '데이터 설명서'입니다. 위 이미지는 제가 이번에 분석한 데이터 두 개중 하나인 KGSS(한국종합사회조사)데이터의 코드북입니다. Ctrl + F로 원하는 데이터 종류를 찾거나, 목차를 보고 내가 원하는 데이터가 있을 만한 곳을 찾습니다. 저는 KGSS에서 한국의 '중도'비율 변화를 보고 싶었으므로 '증도'라고 검색해서 원하는 데이터와 그 변수명을 확인합니다.KGSS에서 연도별 중도층의 비율을 알 수 있는 변수명은 'PARTYLR'이네요(뒤에 나오겠지만, 변수명 몰라도 됩니다). 2단계 : 데이터 정리하기 저희가 코드북 - 데이터 메뉴얼을 통해 1,2가 진보, 4,5가 보수, 3이 중도인걸 확인했으니 그래프를 그렸을 때 '진보,중도,보수'의 추이를 보기 위해 데이터를 정리해달라고 요구합니다. 이런 데이터를 분석할 때 '응답 없음'이나 '모름'은 없애주는게(-8,-1) 분석에 더 도움이 됩니다. 위 대화는 제가 분석한 다른 데이터인 WVS 데이터 분석과정인데, 제가 앞서 코드북에서 꼭 변수명을 확인하지 않아도 된다고 한 이유가 나옵니다. 보시면 제가 그냥 'KOR'이라고 했음에도, 알아서 국가 데이터로 인식하고 해당하는 값을 찾아서 분석을 진행합니다. WVS에서는 '2017-2022사이 한국이 다른 국가보다 중도층이 많은가?'를 분석해볼 겁니다. 3단계 : 그래프 그리고 확인하기 이제 분석된 값을 바탕으로 그래프를 그려달라고 요구해봤습니다. Code Interpreter를 잘 활용하는 팁은, 사실 AI를 잘 활용하는 팁과도 같은데 '요구사항을 최대한 상세하게, 집요하게 요구하는 것'입니다. 마무리에서 서술하겠지만, AI를 사용하는 인간이 잘 못다루건 AI가 부족하건간에 요구사항을 들어주지 못 할 수도 있습니다. 그런데 뭐, 안되도 그만이라는 마인드로 일단 써보는겁니다. KGSS 분석결과, 한국의 중도층은 조사시작년도인 2003부터 2021까지 약간 증가하는 추세를 보이고 있습니다. 최근 10년으로 본다면 평균 30퍼 근처에서 35퍼 이상으로 증가했다고 볼 수 있겠네요. 또 다른 눈여겨볼 점은 2018년이 다른 해에 비해 진보의 비율이 압도적으로 높고 보수의 비율이 압도적으로 낮은 점인데요. 한정훈 서울대학교 교수의 EAI 워킹페이퍼에 따르면 '2017년의 경우 2016년 탄핵과 촛불집회로 진보가 크게 늘었을 가능성이 높다'라고 했습니다. 이 비율이 1년정도 더 유지되었다고 볼 수 있겠네요. 이번에는 WVS로 본 한국과 다른 국가의 '진보,중도,보수'비율입니다. 전세계(조사 국가 기준) 평균 중도 비율이 41.93%인걸 감안하면, 한국의 39.84%는 그렇게 많지 않습니다. 한국은 전세계 평균보다 본인이 보수라고 생각하는 응답 비율 낮고, 진보라고 생각하는 응답 비율이 높습니다. 중도층이 너무 많으면 정치에 관심이 없는 응답자가 높을 수도 있고, 정당 정치의 위기 지표로도 볼 수 있다고 생각하여 연도별 한국 내 중도층 비중 추이를 살펴보고, 지금 시점에서 다른 국가와 중도층 비율 차이를 살펴보았는데, 한국의 유권자 이념 분포는 '최근 10년 중도층이 늘고 있는 추세지만, 다른 국가와 비교했을 때 지나치게 높지는 않다' 정도로 정리할 수 있겠네요. 즉, 중도층 비율에 대한 분석만으로는 특별히 한국 사회의 변화를 포착하기는 조금 어려워 보인다는거죠. 대만은 진보가 53퍼가 넘는 모습을 보이는데, 왜 그런지 흥미롭네요.   마무리 : Code Interpreter, 유용함과 한계 분명 ChatGPT-4의 Code Interpreter는 데이터를 분석하는 입장에서 정말 유용했습니다. 한글로 잘 말하기만 하면 그래프도 원하는대로 그려주고, 데이터를 표로 정리하는 과정도 수월하게 진행해주며, 심지어 그냥 'KOR'이라고 하면 알아서 국가 데이터를 읽어오는 능력을 가졌습니다. 문제가 있으면 이를 여러 차례에 걸쳐 해결하려는 모습을 볼 수도 있었습니다. Code Interpreter가 데이터 분석에 있어서 시간 단축은 물론이고 부족한 전문성도 채워줄 수 있는 유용한 AI툴임에는 분명합니다. 하지만 분명 여러 한계도 같이 느낄 수 있었습니다. 분석을 잘 하길래, 사회과학 통계에서 많이 쓰이는 분석 방법 중 기초적인 방법인 '다중회귀분석'을 지시해 보았습니다. 하지만 데이터가 너무 커서 실패하는 모습을 볼 수 있었습니다. 물론 직접 데이터를 줄여서 다시 업로드하면 가능하겠지만, 이는 Code Interpreter로만 특정 데이터를 분석하는데에 한계가 있음을 보여줍니다. 이외에도, 그래프 한글 출력을 지원하지 않거나, 사용 횟수 한계가 생각보다 팍팍한 등의 아쉬움도 있었습니다. 그리고 분명히 기존에 데이터 분석을 잘 할 수록 잘 써먹기 좋다는 점도 있구요. Code Interpreter가 나오고 1달이 지난 지금은 GPT-5 개발 소식이 들려오고, ChatGPT-4 UI가 변경되었으며, MS가 빙챗에서 이미지 검색이 가능한 '멀티모달'서비스를 제공하는 등 정말 많은 변화가 있었습니다. AI의 빠른 변화를 시민사회, 연구자, 활동가들이 어떻게 좋게 사용할 수 있을지 지속적으로 고민하고 공유하고자 합니다.<참고자료>-WVS Data/ WVS Codebook :Haerpfer, C., Inglehart, R., Moreno, A., Welzel, C., Kizilova, K., Diez-Medrano, J., Lagos, M., Norris, P., Ponarin, E. & Puranen B. (2022): World Values Survey Wave 7 (2017-2022) Cross-National Data-Set. Version: 4.0.0. World Values Survey Association. DOI: doi.org/10.14281/18241.18-KGSS Data / KGSS Codebook :김지범, 강정한, 김석호, 김창환, 박원호, 이윤석, 최슬기, 김솔이. (2022). 한국종합사회조사 2003-2021. 서울: 성균관대학교 출판부.<ChatGPT-4 Code Interpreter 대화내역(누르면 전체 분석과정을 보실 수 있습니다>-WVS 분석 : https://chat.openai.com/share/38553181-0993-4586-83b1-cdc0eaa9af62?fbclid=IwAR1iUNB3VrVILEYoZJGIXoBmVgXWkYCR73qLl0Vwe8zqe2uKZcS2ekWZY9U-KGSS분석 : https://chat.openai.com/share/518b9d35-a628-473c-a59d-3cb3c98b7d3c?fbclid=IwAR1ebrb8XIL3oCldZkkQXkOVEKv3Rcs4tLT79AO3LQ_jLmwDjRDtTa0lWBU 
인공지능
·
3
·
milon
1,016
딥페이크 ‘홀란드’가 선거에 쓰이면 안 되는 진짜 이유
맨시티 홀란드가 선거 유세에 딥페이크로 동원되는 상상  해외 축구를 잘 시청하지 않아도 최근 ‘홀란드’란 이름은 자주 듣습니다. 노르웨이 출신 잉글랜드 프리미어 리그 선수 엘링 홀란드 말입니다. 맨시티 소속 홀란드는 2022-23년 시즌 36경기에서 35골을 넣었고, 리그 역사상 처음으로 세 경기 연속 해트트릭을 기록한 괴물 같은 선수입니다. 22세 나이로 한 시즌을 휩쓴 실력 덕분에, 전세계 많은 사람이 그의 얼굴과 이름을 기억합니다. 아닌 게 아니라 홀란드는 북유럽 신화 속에서 튀어나온 듯한 인상적인 외모와 체형으로 유명합니다. MZ 코미디언 엄지윤이 ‘홀란드 닮은 꼴’ 패러디 콘텐츠로 인기를 끌 정도입니다. 한국에는 홀란드처럼 유명세 가진 사람을 정말 좋아하는 영역이 있습니다. 남녀노소가 얼굴 알아보는 인플루언서를 누구보다 갈망하는 집단, 바로 선거를 앞둔 정치권입니다. 한국의 정당은 국회 의석수를 하나라도 더 얻기 위해 선거철마다 새 인물을 영입하거나 기존 인물에게 힘을 실어줍니다. 지역구 출마자는 때가 되면 ‘충실한 일꾼’을 외치며 현수막을 곳곳에 내걸고, 이력을 끌어모아 만든 명함을 돌립니다. 하지만 부족한 인지도를 메우기 위해, 공식 선거 기간에 중견 정치인이나 유명인을 섭외하여 유세에 함께 나섭니다. 제 20대 대통령 선거 기간, 우리는 국민의힘 대선 주자였던 윤석열 후보의 복제판을 만났습니다. 이준석 당시 국민의힘 당대표는 세 가지 선거 필승 전략 가운데 하나로 이른바 ‘AI 윤석열’을 공개했습니다. 좋게 말하면 ‘인공지능’이지만, 더 일반적인 표현으로 바꾸면 ‘딥페이크 윤석열’이었지요. 윤 후보의 전략에 자극받은 것으로 보이는 이재명, 김동연 경쟁 후보 측에서도 황급히 딥페이크 영상을 내놨습니다. 그러나 기술적으로 ‘학습’과 ‘제작’에 비용과 시간이 걸리는 딥페이크 영상의 특성 때문인지, 뒤늦게 내놓은 영상은 품질이 조악한 편이었습니다. 딥페이크 활용 가능 여부를 둘러싼 논의가 일어나자, 당시 중앙선거관리위원회는 서둘러 기준을 제시했습니다. 후보가 동의하고, 딥페이크라는 사실을 영상에 명시하는 것을 조건으로 AI기반 합성 동영상의 선거 활용을 허락하는 선거법 운용기준을 발표했습니다. 딥페이크를 법적으로 동영상의 일종으로 보고, 선거운동을 할 수 있다고 해석한 것이지요. 흥미롭게도 『후보자 또는 제3자가 ‘실제 후보자’ 보다 좋은 딥페이크 이미지를 동영상에제작·활용할 수 있다』는 내용도 담겼습니다. 후보의 동의가 있는 한 영상 자체를 ‘허위 사실’로 볼 수 없으므로, AI후보가 실제보다 잘 생기든 날씬하든, 유별난 버릇 없이 말을 잘 하든 문제 삼지 않는다는 내용으로 볼 수 있습니다. 2024 총선에 딥페이크가 등장해도 괜찮을까?  2024년 4월, 한국은 국회의원을 뽑는 선거를 치르게 됩니다. 몇 가지 이유로 우리 유권자는 이 선거를 눈여겨봐야 합니다. 우선, 지난 겨울 챗지피티(ChatGPT)를 필두로 각종 생성AI가 전세계를 휩쓴 상황에서 AI가 선거에 영향을 미치진 않을지 살펴봐야겠지요. 더 중요한 건 이런 논의 속에서 AI를 활용하는 윤리적, 제도적 기준을 사회적으로 제대로 논의하지 않은 상태라는 사실입니다. 이런 상황에서 총선을 앞둔 정치권이 우후죽순 AI 후보나 지지자를 온라인에 등장시키면 어떻게 될까요? 예를 들어 ‘딥페이크 홀란드’가 거액의 계약을 맺고 잠시라도 특정 후보를 지지하는 유세발언에 나선다면? 그 영상은 발언 내용의 사실 여부나 정치적 깊이와 무관하게 대중의 눈길을 사로잡을 겁니다. 홀란드가 아니라 다른 유명인을 모델로 등장시켜도 마찬가지겠지요. 지난 지방선거 때 서울시장 선거에는 ‘AI오세훈’이 등장해 온라인에서 유세활동을 했습니다. 실제 유권자를 만날 시간과 기회가 너무나 부족한 후보 처지에선, 딥페이크와 AI를 선거 운동에 활용하는 전략을 적극 검토할 수밖에 없었을 겁니다. 그러나 선거 활용성에만 집중하면, 딥페이크와 AI의 불공정 요소를 놓칠 수 있습니다. 딥페이크를 제작하는 일이 결국 돈(선거비용)에 달려 있기 때문입니다. 유권자를 설득할 수 있을 정도의 정교한 합성 영상을 만들려면, 시간과 품질에 비례에 막대한 제작비가 들어갑니다. 사이버 보안회사 캐스퍼스카이(Kaspersky)는 다크웹에서 1분짜리 정교한 딥페이크 영상을 제작 의뢰하는 데 최소 300달러, 최대 2만 달러에 이르는 비용이 든다고 분석합니다. 국내에서도 딥페이크 인간 제작비는 최소 500만 원에서 1천만 원가량으로 알려져 있습니다. 더 정교한 움직임, 더 자연스러운 목소리를 AI 학습하고 이를 유세용으로 몇 분 이상 제작하려면, 그 비용은 훨씬 커질 수밖에 없습니다. 현재 공직선거법 제121조가 정하고 있는 ‘선거비용 제한액’ 산정 기준은 AI 합성과 같은 최신 기술 사용 비용은 포괄하고 있지 않습니다. 선거자금이 넉넉한 후보일수록 딥페이크 제작 여력이 더 크므로, 상대적으로 재원이 부족한 신진 정치인은 유권자 노출도를 높이기에 불리한 구조입니다. AI 후보로는 정치인 자질을 평가할 수 없다  후보자 검증 가능성 측면에서도 딥페이크 선거 활용은 유권자에게 결과적으로 피해를 줄 수 있습니다. 합성 영상만으로는 어떤 후보가 정치인으로서 충분한 의사소통기술을 가졌는지, 지역 사회 현안을 얼마나 제대로 이해하고 있는지, 세대를 넘나들 수 있는 공감 능력이나 토론 태도를 지녔는지 등을 알 수 없습니다. 선거 토론회 TV 생중계를 통해 시민이 직접 질문하고 얻을 수 있던 정보를 얻기도 어렵습니다. 잘 짜인 원고를 입력해 자신보다 말 잘하는 ‘딥페이크 후보’를 내세울 수 있는 후보자에겐, 단점과 약점을 감출 수 있는 기회일 수 있습니다. 결론적으로, 앞의 사례를 통해 우리는 딥페이크가 선거에 쓰이는 일을 왜 면밀하게 검토하거나 가급적 막아야 하는지 알 수 있습니다. 지금 당장엔 획기적인 선거 캠페인 전략처럼 보일 수 있지만, 장기적으론 그 위험성이 유권자의 알 권리와 비판적인 판단을 위협할 가능성이 훨씬 큽니다. 또한 딥페이크에 들어가는 막대한 비용 문제는 가뜩이나 적은 자원으로 정치 활동에 참여하고 있는 2030세대 정치인에게 불리하게 작용합니다. 반대로 어떻게든 권력을 잡거나 유지하려는 쪽에서는 큰 비용을 들여서라도 온라인 곳곳에 말 잘하고 멀끔한 복제 후보를 내세우고 싶어 하겠지요. 결국, 딥페이크의 선거 활용이 한국의 선거제도, 나아가 민주주의를 위협할 수 있다고 보는 시각이 과도한 우려일까요? AI는 우리 생활을 크게 바꾸고 있지만, 여전히 차근차근 논의해야 할 지점이 많은 주제입니다. 딥페이크 혹은 AI기반 영상 및 이미지 합성 서비스가 흔해질수록, 여기에 뒤따라오는 윤리적·사회적·정치적 그리고 기술적인 딜레마도 함께 고민해야 하는 시기입니다. 디지털 공론장에서 이 논의를 시작하고, 더 많은 영역에도 공유할 수 있는 기회로 이어지길 기대합니다. 최원석, 미디어 리터러시 교육 활동가, 전 YTN 기자  *본 칼럼에 대한 의견을 캠페인즈 내에서 나누길 기대합니다. 이메일도 환영합니다. medialiteracynetwork@gmail.com (끝) 
인공지능
·
7
·
사람을 위한 기술
  AI시대, 인공지능의 시대에 접어들면서 이런저런 우려의 목소리가 나오고 있다. 감당하기 힘들 정도로 거대한 규모의 실업에 직면할 것이다, AI가 잘못을 저지르면 누가 책임을 질 것인가 하는 문제에서부터 어느 정도로, 어떻게 규제할 것인지를 두고 격론이 이어지다 급기야는 개발 자체를 중단, 억제하자는 의견까지 제기되고 있다.  기술이 사람을 잡아먹지는 않을까 걱정이 앞서는 것이다. 섣부른 염려가 아니다. 인류는 스스로 만든 도구에 고통받는 역사를 반복해왔기 때문이다.  ("AI 연구개발 중단하자" VS "계속해야" 유명CEO·석학 찬반논쟁 가열).  사람 잡는 기술   영국 산업혁명기, 증기기관의 발명은 그야말로 혁신이었다. 인류의 의식주는 물론 시공간의 개념까지 뒤바꿔 놓았기 때문이다. 한 사람이 일생 동안 보고, 듣고, 경험하고, 상상할 수 있는 범위와 방식 자체가 달라진 것이다. 생활양식과 생활반경이 질적으로 달라지면서 문명과 문화, 사고방식도 달라져 수만 가지의 혁신이 파생되어갔다.   하지만 바로 그 기술 때문에, 사람이 죽어 나갔다. 이전의 농경시대에 비할 수 없을 정도로 처참한 노동환경에서 착취당하다 요절하는 사람들이 속출했다. 런던 구세군의 관짝 숙소, 줄에 기대어 잠드는 행오버와 같은 숙박 시설은 당시의 처절한 노동환경을 단적으로 보여준다. (A Very Victorian Two-Penny Hangover , [오늘 통한 과거리뷰] 산업혁명 영국 노동자 숙소) 사진: HISTORIC UK 웹사이트의 Terry MacEwen   자본의 등장도 엄청난 혁신이었다. 시장, 자본, 금융은 ‘도구적 존재’로서의 인간의 생산성 발전과 효율성 추구의 발로다. 시장은 필요로 자연 발생한 것이며, 자본과 금융은 자연을 가공해서 도구를 습득하던 인간이 창출해낸 제3의 자원이자 제3의 자연, 제3의 생태계다.   스스로를 증식하는 돈인 자본은 인간의 ‘가능성’을 늘려준다. 실제 가지고 있지 않아도 대출 가능한 자산까지가 내가 가진 ‘가능성’의 범위가 된다. 엄청난 규모의 대자본이 (증식하기에 유리하므로) 한데 집중적으로 몰리면서, 막대한 자금력을 기반으로 모든 방면에서 과거에는 불가능했던 가시적인 발전이 이어졌다. 금융 또한 자본이 남는 사람에게서 필요한 사람에게로 가 유용하게 쓰여 양쪽 모두에게 실익을 주는 기술이다. 이들이 시장이라는 메커니즘 위에서 활약하면서 혁신적인 상호작용과 가능성을 만들어 내고 있다.   하지만 바로 그 자본 때문에, 사람이 죽어 나간다. 앞서 말했듯 자본은 스스로를 증식하기에 유리한 쪽으로 ‘편중’된다. 사람이 아닌 ‘자본’의 논리에 따르는 경제체제이기에 사람의 논리가 짓밟히고 사람이 소외되는 일이 사회적으로 용인되고 만연해진다. 이렇듯 자본과 자본주의 자체가 가지는 속성은 사람들에게 물질적, 정신적인 타격을 주어 수많은 문제를 낳는다. 표면적으로는 사람을 위한 가장 효율적인 도구인 것 같지만 장기적으로, 전 지구적인, 인류 전체의 시점에서 조망했을 때에는 당장 취하는 효율 이상으로 막대한 인적, 정신적, 물리적 낭비와 사회적 비용을 발생시키고 전가하는 비효율적인 메커니즘인 것이다.   AI, 인공지능에 대한 두려움도 같은 맥락이다. 우리가 이 기술을 염려하는 이유는 이것이 인류의 의식주는 물론 시공간의 개념, 그에 따른 문명과 문화, 사고방식, 시스템, 사회경제 전반을 뒤흔들 가능성이 있기 때문이다. 획기적으로 유용하지만 돌이킬 수 없을 정도로 치명적일 것이다. 그리고 인류는 이렇듯 기술혁신에 곧잘, 잡아 먹혀왔다.   이미 맛보았는걸   그러나 기술개발을 막거나 억제하는 것은 대안이 될 수 없다. 불가능하기 때문이다. 새롭고 기발하다. 유용하다. 뭔가 더 할 수 있게 된다. 더 할 수 있는 ‘가능성’을 맛보았다는 사실만으로도 인류는 이전으로 되돌아갈 수 없다. COVID19처럼 생존에 직결되는 문제라면 일시적이나마 사회적 합의에 따른 금지가 가능할 수도 있겠다. 하지만 인공지능 개발의 문제는 수많은 견해의 차이가 있다. 일견 이 말도 맞고 저 말도 맞다. 무슨 수로, 무슨 논리로 흐르는 물결을 막아낼 것인가. 금지하더라도 공공연히 존재하나 사회적으로 다루지 않는 음지가 늘어날 뿐, 눈 가리고 아웅 하는 사태에 처할 것이다. 세상을 뒤바꾼 기술혁신들은 지금까지 불가능했던 것들을 가능하게 한다. 가능성은 인간을 자유롭게 하고, 꿈꾸게 한다. 자유로이 꿈꾸는 사람들을 막을 방도는 없다. 불가능한 대안을 논하고 있다. 기술이 문제가 아니다.   식칼이 하루아침에 사람을 찔러 죽이는 흉기로 돌변했다고 해서 ‘식칼을 발명한 것부터가 잘못되었다’, ‘식칼을 쓰지 말자’고 주장한다면 받아들여질까? 최선의, 지속 가능한 대안인 걸까? 식칼은 어째서 위험해졌는가? ‘본래의 목적대로 쓰이지 못했기 때문’이다. 본래 의도한 바대로 쓰였다면 우리에게 맛있는 요리를 선사해주었을 것이다.   증기기관도, 자본도 사람과 사회를 위하는 목적을 명확히 하고 쓰였다면, 그러한 기준 아래 쓰이도록 사회경제 시스템을 마련해갔다면 지금과는 다른 세상이 펼쳐졌을지도 모른다. 기술의 논리에 사람이 부림을 당하고 사회가 좌지우지되는 것이 아니라, 사람의 논리를 굳건히 하는데 기술이 활용되는 메커니즘을 만들어 냈을지도 모른다.   고매한 기술일수록 사람을 위하지 않는다면 가장 치명적인 흉기가 된다. 사람을 위하지 않는 기술은 결국 사람을 자유롭지 못하게 한다. 기술의 논리로, 기술이 작동하는 메커니즘을 유지하는 부품으로, 사람을 옭아매기 때문이다. 문제는 기술 자체가 아니라 ‘사람을 위해서 기술이 쓰이도록 만드는 역량’이다.  사진: Unsplash의 Conscious Design   규제도 하고 풀어도 주고   인류는 잡아먹히지는 않을까, 두려워지는 발명품들을 끊임없이 쏟아내고 있다. 기계에 잡아먹힌다고 기계를 모두 부수고, 기계가 없던 생활로 돌아가는 것은 항구적인 해답이 될 수 없다. 이미 그 가능성을 맛보았기 때문이다. 항구적인 답은 어떤 발명품을 만들어 내든 그 발명품에 사람과 사회를 위하는 목적을 뚜렷이 부여하는 일에 인류가 최대한 능숙해지는 것이다. AI, 인공지능은 도래할 기술혁신의 시작에 불과할지도 모른다. 발전에 굴복하거나 발전을 포기하는 것이 아니라 발전의 주체로 발돋움해야 한다.   위험한 기술일수록 더욱 속속들이 알아야 한다. 알기 위해서 금지하기보다는 써버릇해야 한다. 직접 써보기 전에는 어떤 것인지, 어떤 일이 일어날지 온전히 파악할 수 없기 때문이다. 다양한 방식으로 써보고 작동과정을 익히면서 더욱 적극적으로 생리를 이해해야 한다. 막을 수 없는 흐름이라면 적극적으로 대응해 사람과 사회를 위한 도구로 활용하는 역량을 갖추고, 시스템을 정비해야 한다. 사라질 것과 새로 생길 것에 대비해야 한다.   이때 천편일률적인 접근은 도움이 되지 않는다. 사람과 사회에 긍정적인 부분은 극대화하고, 부정적인 부분은 보완책을 마련해 도움이 되는 기술로 만들어가야 한다. 사람과 사회를 위하는 목적을 기준으로, 규제와 자율 모두를 세심히 갖춰야 한다. 이에 가장 중요한 과업은 무엇이 사람과 사회를 위하는 길인지를 바로 세우는 것이다. 사람은 어떤 존재인가, 궁극적으로 무엇을 원하나, 무엇을 좋아하고 무엇에 고통받나, 그에 맞게 기술과 기술로 말미암을 사회경제 시스템을 어떻게 가져갈까, 바꾸는 것을 논하는 가운데 지켜야 할 것을 끊임없이 환기해야 한다. 인문학과 과학, 사람과 기술, 진리와 혁신이 함께 공부되어야 하는 이유다. 사람과 사회를 위한 기술로 어쩌면 우리는 또 한 번의 역사적 전환기를 맞이하고 있는 것인지도 모른다. 전환기를 그저 맞이할 것인지, 만들어갈 것인지는 우리 손에 달려 있다.  이번에는 기술과 시스템에 예속되거나 끌려다니지 않고 주체로서, 기술을 잘 활용했으면 좋겠다.  잘 활용하는 기준이 사람의 행복과 그에 기반한 사회의 안위가 되었으면 좋겠다.  이번만큼은, 사람의 논리에 따르는 기술과 사회경제 시스템을 마련해가기를 바란다.  사진: Unsplash의 Andy Kelly
인공지능
·
6
·
ESC
921
AI의 개인화(Personalization), 어디까지 허용할 것인가?
작성자: 김서경 (페블러스 UX 리서치 리드 , ESC 회원)  지난 2022년 겨울, 혜성처럼 등장한 챗GPT로 인해 전세계는 AI 열풍에 휩싸였다. 간단한 홍보문이나 이메일 작성은 물론이요, 코드를 짜거나 원하는 화풍으로 그림을 그리거나 사진의 배경을 보정하는 것 역시 몇 마디 입력만으로 손쉽게 가능한 세상이 성큼 다가왔다.  정부와 대기업과 수많은 스타트업이 갑자기 나타난 이 멋진 도구에 혈안이 된 가운데, 인류는 고민에 빠졌다. AI가 정말 인류를 찜쪄먹을 막강한 지능에 이르는 게 시간 문제라면, 지금이 고삐를 잡을 골든타임이 아닐까? AI가 악용되거나 남용되거나 피해를 끼치지 않도록 제어하는 동시에 그 혜택을 온전히 누릴 방법은 없는 걸까? 이 글에서는 그러한 고민들 중 한 가닥인 AI의 개인화(Personalization)에 대해 논한다. 개인화란 무엇이며 어떤 사례가 있는지 먼저 설명한 후, 예상 가능한 문제와 그 문제를 바라봐야 할 윤리적 관점에 대해 소개한 후 끝을 맺는다.  개인화란 무엇인가 개인화의 정의란, “개별 고객 혹은 고객 집단의 요구 사항을 수용하기 위해 (관심사나 구매 이력을 바탕으로) 서비스 또는 제품을 고객에게 맞추어 조정하는 것을 말한다.”[1]  보다 널리 쓰이는 “맞춤추천”이라는 용어를 떠올리면 금방 와닿을 것이다.  개인화의 사례 개인화는 생각보다 우리 일상에 깊게 스며들어 있다. 한 예로 운동화를 사기 위해 검색을 하다가 알림이 와서 SNS를 켰는데, 화면이 온통 방금 전에 보던 운동화로 도배되는 경험을 해보지 않은 사람은 없을 것이다. 이커머스 플랫폼에서 생필품을 구매하면 자동으로 유사한 생필품이 추천된다든가, 음악 서비스에 가입하는 과정에서 취향에 맞는 음악 장르를 체크하게 하는 등, 다양한 기업이 다양한 방식으로 고객의 관심사를 파악해 제품 및 서비스를 추천하는 데 반영하려 애쓰고 있다.  특히 필자의 경우, 개인화가 이루어지는 실제 사례를 가까이서 생생하게 접했던 적이 있다. 카카오에 다닐 때는 추천 시스템 팀에서 근무했는데, 카카오 산하 모든 서비스의 추천기능을 개발하고 관리하는 팀이었다. 당시 내가 담당한 업무는 멜론의 음악 맞춤추천 기능을 보다 유저 친화적으로 만드는 방안을 연구하는 것이었다.  그런데, 막상 업무를 해 보니 개인화 과정은 생각보다 쉽지 않다는 걸 알게 되었다. 취향에 맞는 음악을 알아서 골라 준다면 얼핏 듣기에 좋을 것 같지만, 그렇게 추려진 음악이 실제로도 유저의 입맛에 맞을지는 모르기 때문이다. 뿐만 아니라, 과도하거나 맥락에 맞지 않는 개인화는 도리어 유저의 피로도를 높여 역효과를 낼 수도 있다. 윤리적인 문제 역시 여전히 현재진행형이다. 맞춤추천의 질을 높이려면 유저의 개인적 정보를 최대한 확보해야 하는데, 이 과정에서 프라이버시를 침해하거나, 허락을 받지 않고 정보를 수집하거나, 수집한 정보를 오남용할 수 있기 때문이다.  AI 개인화, 무엇이 문제인가 챗GPT의 시대가 도래하면서, 위에서 언급한 문제들의 심각성 역시 커졌다. 챗GPT가 워낙 유용성이 크다 보니 알아서(!) 혹은 저도 모르게 개인정보를 입력하는 경우가 빈발하고 있고, 최근 업무를 수행하는 과정에서 회사의 대외비 정보를 입력했다가 이슈가 된 사례들이 있다. 물론 더 많은 정보를 제공할수록 더 편리한 서비스를 받을 수 있는 건 사실이지만, 정보를 수집하는 서비스가 있다면 수집된 정보를 관리하고 열람하는 주체 역시 있기 마련이다. 해당 주체가 행여나 사익을 우선하여 수집된 방대한 양의 정보를 오남용하지는 않을지, 수집한 정보를 얼마나 윤리적으로 관리하고 활용할지 여부는 확실치 않기에 늘 문제가 된다.     챗GPT의 엔진인 AI의 특성상, 수집된 정보의 속성은 그 결과물에도 직접적으로 영향을 미친다. 이전 세대의 AI 챗봇이었던 ‘이루다’의 사례만 보아도 알 수 있듯, 유저들이 입력한 혐오 발언이나 성적으로 부적절한 언동을 학습해 고스란히 채팅에 반영하는 등 논란을 일으켰고, 결국 3주 만에 서비스가 잠정 중단됐다.[2] AI는 정보를 학습하고 판독해 결과물을 내보내는 시스템이기에, 해당 정보가 윤리적으로 어떤 문제를 지니고 있는지 판단하는 것은 결국 사용하는 사람의 몫이다.  그렇게 생각하면, 특정 집단이나 단체가 자신들이 선호하는 형태의 개인화를 위해 AI 시스템을 ‘오염’시킬 여지도 있다. 종교적이나 정치적으로 폐쇄된 지역 혹은 국가에서, 권력을 잡은 주체가 시스템을 통제하며 그들의 입맛에 맞는 내용만을 학습시킬 수도 있다. 또한 타인에 대한 의도적인 공격이나 상해를 입히기 위한 목적으로 AI 시스템을 악용할 수도 있다. 가상의 예시일 뿐이지만, 폭탄을 실은 IoT 드론에 AI 시스템을 연결한 후 프롬프트를 활용해 묻지마 테러를 벌일 수도 있는 것이다.    어떻게 밸런스를 잡아야 할까 이처럼 예상되는 다양한 윤리적 문제에 대해 우리는 어떻게 대응해야 할까?  비록 여러 심각한 윤리적 문제를 일으킬 가능성을 내포하고 있지만, 챗GPT는 여전히 대단히 유용한 도구이며 사회 다방면으로 활용될 잠재력이 무궁무진하다. 오히려 위에서 언급한 윤리적인 문제들을 적절하게 해결할 수만 있다면, 보다 많은 개인 및 집단이 더 큰 혜택을 누릴 수 있으리라 본다.  특히 AI 개인화를 활용하는 과정에서 염두에 두어야 할 접근 방식은 ‘최적화'이다. 개인화 기술을 제품이나 서비스에 적용할 때의 맥락은 복잡다단하기에, 상황에 맞는 최적의 지점을 찾아 시시각각 탄력적으로 운용할 필요가 있다. 이러한 최적화를 위해 필수적인 기준을 제공하는 스펙트럼은 다음과 같다.  1. 오남용 및 악용으로부터 중요한 개인 정보를 보호하는 동시에, 만족스러운 서비스를 제공하기에 알맞은 정도의 정보를 수집한다.2. 각 개인의 표현의 자유를 가능한 한 존중하는 동시에, 명백하게 유해하거나 위협적일 수 있는 표현을 규제한다. ‘만족스러운 서비스’, ‘알맞은 정도의 정보’, ‘표현의 자유’ 등등 위 스펙트럼을 구성하는 요소들은 개인화가 일어나는 상황에 맞추어 다르게 해석하여 적용해야 한다.  가령 자산관리 서비스라면, 개인의 중요한 정보인 입출금 내역 정보를 수집하지 않고는 서비스를 운영할 수 없을 것이다. 자산관리가 필요해 서비스에 가입한 유저 역시 정작 입출금 내역이 제대로 관리되지 않는다면 불만을 터뜨릴 것이다. 즉 이런 경우에는 해당 정보를 수집하되, 수집하는 과정에서 유저의 동의를 얻고, 관리하는 과정에서 가명처리 등의 보안기술을 활용하여 오남용을 방지하는 등, 운영 주체와 유저 모두가 만족할 수 있는 최적의 지점을 찾아가는 것이다.  모두가 참여해 함께 만들어 가는 개인화 AI 개인화의 경우, 개인화를 실제 제품이나 서비스에 적용하는 기관 및 기업의 참여 뿐 아니라 시민의 적극적인 참여 역시 필요하다. 앞서 말했듯, AI 개인화는 수천 수만의 유저가 제공한 정보를 학습한 결과로써 이루어지기 때문이다. 각 유저 혹은 유저 집단이 원하는 수준의 개인화는 저마다 다를 수 있다. 소수 집단이나 약자의 필요를 누락하지 않으면서 모두의 의견을 시스템에 반영하기 위해서는, 정보를 수집하고 알고리즘에 적용하는 절차를 어떻게 구성해야 할지에 대한 논의가 필요하다.  실제로 지난 5월 말, 챗GPT를 서비스하는 오픈AI 측에서는 AI 시스템을 장기적으로 관리하기 위한 민주주의적 절차에 대한 시범적 연구를 지원하는 펠로십을 주최하기도 했다. 지금이 바로 이들 유저 겸 시민의 의견이 공정한 민주주의적 절차를 통해 반영될 수 있는 시스템을 도입하는 것에 대해 고민해야 할 타이밍이 아닐까. 마치며  지금까지 AI 개인화란 무엇이며 어떤 윤리적 문제를 내포하고 있는지, 문제를 해결하기 위해서는 어떤 접근 방식이 필요한지에 대해 알아보았다. AI는 인류 문명이 낳은 가장 뛰어난 지적 결실이자, 어느 한두 단체의 소유물이 아닌 전 인류의 것이어야 한다. 이를 위해 가능한 한 많은 시민이 AI의 윤리적 문제에 대해 인식하고, 함께 해결 방안에 대한 컨센서스를 만들어 갈 수 있기를 바란다.  참고 자료  [1] Wikimedia Foundation. (2023, June 26). Personalization. Wikipedia.   [2] 결국, 잠정 중단된 스캐터랩 AI 챗봇 이루다 사태가 보여준 문제 3가지. AI타임스. (2021, January 12).
인공지능
·
7
·
ESC
1,377
AI와 교육현장 윤리 '어제의 옳음은 오늘도 옳음일까?'
작성자: 박영민 (부산광역시교육청 교육정책연구소, ESC 회원) 윤리란 사람으로서 마땅히 행하거나 지켜야 할 도리를 말한다.[1] 우리는 세상을 살아가면서 해야 할 것과 하지 말아야 할 것을 구분하여, 이를 타인과의 관계와 주변 환경을 고려해 실천할 책임이 있다. 이런 윤리적 삶을 사는 방식은 우리가 처한 맥락과 상황의 영향을 받는다. 특히 과학과 기술의 발달에 따라 옳고 그름의 잣대는 달라진다. 생식 기술이 발전하면서 생겨난 ‘부모의 정의는 무엇인가’와 같은 의문이나, 자율주행 차량이 사고를 피할 수 없는 상황에서 ‘누구의 생명을 구해야 하는가’와 같은 딜레마는 이제 교실에서도 낯설지 않은 토론 주제가 되었다.  인공지능 시대에 부모나 교사가 ‘우리 아이들을 어떻게 가르칠 것인가’라는 질문에 답을 찾기란 여간 어려운 일이 아니다. 인공지능 기술이 역사상 전례를 찾기 힘들 정도로 빠르고 복잡하게 변화하면서 어제와 확연히 다른 오늘의 일상이 전혀 이상하지 않기 때문이다. 우리가 어제 배웠던 옳음의 기준을 오늘의 아이들에게 무턱대고 적용할 수 있을까? 가정과 교실에서 참고할 수 있는 인공지능 윤리 가이드라인은 무엇일까? 세계적인 인공지능 과학자와 관련 기업 리더들끼리조차도 ‘인공지능의 인간 파괴’가 가능성인지 그저 과장된 공포심인지 합의하기는 어려워 보인다.[2] 하지만 인공지능 기술이 자칫 인간과 세상을 파괴하는 데 쓰이지 않도록 검토하고 서로 합의할 시간이 필요하다는 데에는 같은 목소리를 내고 있다.[3] 일찍이 일부 국가나 정치통합체[4], 교육계[5], 종교계[6]에서는 인공지능 사용 원칙이나 지침 또는 요청 사항을 만들어 발표했다.  그러나 우리나라는 인공지능 개발에 초점을 맞춘 법안 마련[7]과 인재 양성을 위한 교육[8]과 제도 개선에 힘쓴다. 인공지능이 광범위하게 적용됨에 따라 학업과 진로를 포함한 개인의 삶에서 중요한 결정에 영향력을 미치고 있으므로, 가정과 교실에서는 그 이상의 가이드가 필요하다. 초중등학교 교실에서 생성형 인공지능 서비스를 활용할 때, 나이 제한에 대한 고민이나 윤리적 태도에 대한 논의가 없다고 교사만 탓할 일이 아닌 것이다. 지금 세상엔 변한다는 사실을 제외하곤 모든 것이 변하고 있다. 윤리의 기준마저 그러할 것인데, 자라는 청소년들에게 (인공지능 기술 개발을 두고 몇몇 과학자들이 성명서를 냈던 것처럼) 기준이 마련될 때까지 성장을 잠깐 멈추라고 할 수도 없는 노릇이다. 어제의 옳음이 오늘도 옳을지 보장할 수는 없으나, 날마다 닥쳐오는 변화에 휩쓸리지 않게 학생들을 붙잡을 기둥 정도는 마련해 둘 필요가 있지 않겠나. 우선, 학생을 단순히 ‘학습에 집중해야 하는 성인이 아닌 자’로 규정하기보다는 ‘인공지능 서비스의 소비자이자 생산자이면서 학습하는 주체’로 인식하는 편이 좋겠다. 학생들이 세 가지 역할을 해나가는 과정에서 기억하고 지킬만한 아홉 개의 기둥을 제안해 본다. 첫째, 인공지능 시대의 소비자라면, 겸손과 업데이트, 디지털 발자취라는 키워드를 기억하자. 윤리 규범이 시공간에 따라 달라지고 변화의 속도가 걷잡을 수 없을 때, 겸손[9]한 태도는 기본적 역량이 된다. 접하는 모든 정보를 ‘지금 여기 내’가 가진 잣대로 따지기 보다는, 타인의 목소리에 귀를 기울이고 타인의 관점으로 바라본다. “솔직히, 객관적으로 말해서…”라는 표현이 얼마나 주관적이고 위험할 수 있는지 알아차려야 한다. 그러다 새롭고 중요한 것을 알게 되었을 때, 나의 기준을 업데이트해서 편향과 편협에서 벗어나는 용기와 지혜가 필요하다. 또다시 겸손한 자세를 취해 업데이트한 기준마저 다시 업데이트될 수 있다고 기억하자. 다만 누구나 인공지능 기술로 그럴듯한 가짜 정보를 만들 수 있으니, 새로운 정보에서 옥석을 솎아내고 출처를 확인하는 태도는 모든 업데이트의 순간에 잊지 말아야 할 자세다. 한편 인공지능은 알고리즘을 구동하고 개인화된 경험을 인간에게 제공하기 위해서 디지털 발자취(개인정보, 검색기록, 선호도, 소셜미디어 활동 등)[10]가 포함된 데이터에 의존한다. 나와 타인의 디지털 발자취를 보호하는 태도는 인공지능 시대 소비자가 반드시 갖춰야할 덕목이다.  둘째, 인공지능 시대의 생산자인 학생들에게 협업과 포용, 책임을 실천하도록 가르쳐야 한다. 인공지능 전문가와 여러 분야의 전문가들이 협업하지 않았다면 ChatGPT와 같은 자연어처리 모델, 음성인식, 의료 진단, 가상현실 등을 우리가 아직 만나지 못했을지도 모른다. 또한 인공지능은 인간에게 편견을 물려받을 수 있으니, 다름을 포용하고 공감하는 인간다움을 지키며 데이터를 생산하는 것은 필수요건이 되어야 한다. 행여나 부적절한 콘텐츠를 만들거나 공유하게 된다면, 고의든 실수든 행위에 대한 책임은 인공지능 서비스를 제공하는 기업 이전에 자신에게 있음을 알아야 한다. 셋째, 인공지능 시대를 사는 학습자로서 학생들이 지켜야 할 나머지 세 가지 기둥은 주의집중과 인용, 소통이다. 오늘날 인공지능 기술로 생산되는 정보는 20세기 말에 등장한 ‘정보과잉’이라는 단어로도 충분히 담지 못할 만큼 넘쳐난다. 정보에 파묻혀 꼼짝달싹 못한 채 옳고 그른 정보를 가려내지 못하는 삶을 피하려면, 목적에 맞는 정보를 발견하고 탐구할 수 있어야 한다. 이런 점에서 주의집중[11]은 필수 역량이 된다. 잘 가려낸 정보를 지식으로 바꾸는 과정에서, 사실과 의견을 구분하고 타인의 생각을 밝히며 내 생각을 보태어 말하는 인용 기술이 중요하다. 인용 기술에는 원문 병기 외에도 바꾸어 쓰기(paraphrasing)와 요약하기가 있다. 이 기술은 표절하지 않고 윤리적 학습과 연구를 지속해 가는 데 기본이 된다. 마지막 역량은 소통이다. 인공지능이 뭐든지 다 해줄 것 같지만, 묻고 답하며 주장하고 협상하는 것은 인간의 일이다. 소통 기술은 학교뿐만 아니라 일터에서도 중요한 역량이다. 특히 커져가는 격차와 불평등 속에서 플랫폼 근로자 등과 같이 상호작용이 제한적인 일자리에서 소통 기술은 경험을 공유하고 지식을 교환하게 한다. 결국 소속감을 형성하고 복지와 권리에 영향을 미치는 문제를 해결하는 데 도움이 된다.   인공지능 시대의 교육현장은 소용돌이 속 고요한 섬과 같아 보인다. 지금 세상은 너무나 빠르게 변해서, 졸업을 기다릴 것도 없이 교실밖으로 한 발 나가자마자 정보의 소용돌이에 휩싸여버린다. 여기 제안한 아홉 개의 기둥은 인공지능 시대의 소비자이자 생산자이며 학습하는 주체인 학생들이 인간다움을 지키며 살아갈 수 있는 충분한 윤리적 기준이라기 보다 최소한의 가치와 태도일 것이다. 오늘의 옳음이 내일도 옳다고 할 수 없으니 말이다.   참고 자료   [1] 국립국어원. (nd). 윤리. 국립국어원 표준국어대사전 https://stdict.korean.go.kr/search/searchResult.do[2] Pause Giant AI Experiments: An Open Letter https://futureoflife.org/open-letter/pause-giant-ai-experiments/[3] AI 위험 성명서 발표(2023. 5. 30) https://www.safe.ai/statement-on-ai-risk[4] 독일의 노동 4.0과 산업 4.0, 유럽연합의 인공지능법, 미국의 알고리즘 책입법안 [5] 하버드, 인공지능 준칙 백서 발표(2020.1.15) https://cyber.harvard.edu/publication/2020/principled-ai[6] 로마 교황청, 인공지능 윤리에 관한 로마의 호소(2020. 1.10) https://www.vaticannews.va/ko/pope/news/2023-01/pope-francis-receives-rome-call-vatican-audience.html[7] 인공지능산업 육성에 관한 법률안 https://www.lawtimes.co.kr/news/187090[8] 디지털 인재양성 종합방안 https://www.korea.kr/briefing/policyBriefingView.do?newsId=156521928[9] 무엇이 옳은가(후안 엔리케스, 2022) 참조[10] 디지털 리터러시 (오정훈 외, 2022) 참조 https://www.dilit.kr/textbook/  [11] 주의집중 6가지 및 실천 방법 Thriving on Overload (Ross Dawson, 2022) 참조
인공지능
·
8
·
ESC
322
ChatGPT 시대, 인간은 불멸을 꿈 꾸는가?
ChatGPT가 하도 유명해서 관련된 자료나 책을 보다가 문득 드는 생각이 있어 짧은 글을 써보려고 한다. GPT 엔진을 알게 된 때부터 잠깐 얘기를 하고 가야겠다. GPT1 엔진이 처음 나온 건 2018년이다. 이후로 업그레이드를 통해 GPT3 엔진이 나온 건 2020년이다. 물론 인공지능의 역사를 보면 매우 짧은 시간에 이루어진 성과이긴 하지만 최근 몇 달간 ChatGPT가 보여준 발전 속도만큼 빠른 건 아니었다. GPT 엔진을 알게 된 건 GPT3 때였는데 사실 이 때도 그리 크게 관심을 갖진 않았다. 두 번의 암흑기를 거치면서도 계속 새로운 서비스는 나왔고, 알파고 이후에 AI 분야는 그야말로 호황이었으나, 그럼에도 불구하고 소문난 잔치에 먹을게 없는 것처럼 딱히 특별하다 싶은 건 없었기 때문이다.  GPT3가 출시 되었을 때는 챗봇도 아니었고 UI(User Interface)라고 할 것도 딱히 없어서 아주 엔지니어적인 화면(하얀 바탕, 까만 글씨)으로 테스트 해 본 정도였다. 이후에 이미지 생성 AI인 DALL-E가 나왔으나 이 분야에 관심이 적다 보니 이 또한 호기심에서 몇 번 해보고 말았다. 이후에 GPT3.5를 기반으로 ChatGPT가 나왔을 때도 별 다르진 않았다. 하지만 우연히 보게 된 기사로부터 ChatGPT에 대한 관심을 갖게 되었는데 최초의 기사는 어디였는지 아쉽게도 기억이 나지 않는다. 기사는 ‘Michelle Huang’이라는 분이 ChatGPT에게 본인의 어린 시절 일기장을 학습시킨 내용이었다. 이분은 트위터를 통해 대화를 공개했고, 나는 일일이 영어로 된 트윗들을 읽어 내려가기 시작했다. 물론 내용을 충분히 이해했는지는 의문이지만, ChatGPT가 무엇을 할 수 있는가에 대해서 개인적으로 충격을 받기에는 충분했다. Michelle Huang은 자신이 어렸을 때 썼던 일기장으로 ChatGPT를 학습시켰다. 그렇다면 ChatGPT는 무엇이 될까? 바로 어린 시절의 Michelle huang이 된다. 그리고 ‘현재의 나’는 ChatGPT를 통해 어린 시절의 ‘나’와 대화를 나눈다. 이 과정과 내용은 트위터에 상세히 올라가 있다(링크). 누구나 생각해봤던 일이 아니었을까? 아니 적어도 나는 그랬다. 이제는 많이 잊혀져 어렴풋하게만 남아 있는 ‘어린 시절의 나와 이야기해 본다면 어떨까?’ 하는 생각은 가끔 해봤던 것 같다. 어린 시절을 학습한 ChatGPT가 실제화된 개인도 아닌데 너무나 사람처럼 대답 하는 터라 내용을 따라가다 보면 묘하게 몰입이 된다. 이 사례로부터 ChatGPT에 대해 급격하게 관심을 두게 되었는데, 이때는 단지 기술이 궁금했고 이 ‘어린 시절의 나와의 대화’가 왜 그렇게 크게 끌렸는지에 대해 내 스스로도 잘 몰랐던 것 같다. 최근에 회사에서 기술 트렌드에 대한 세미나 주제를 공모했는데 당연하게도 모두의 화두는 ChatGPT였다. 세미나를 준비하면서 ChatGPT와 관련된 다양한 책들이 출판되고 있는 걸 알았는데, 그중에서도 김대식 교수의 ‘ChatGPT에게 묻는 인류의 미래’라는 책이 단연 눈에 들어왔다. 김대식 교수는 다양한 매체를 통해 알려진 뇌과학자이고, 뇌과학자가 ChatGPT와 인류의 미래에 대해 대화한다면 분명 나보다 훨씬 더 풍부한 질문을 해 주셨을 거라는 기대감 때문이었다.  책은 ChatGPT와의 만남 이외에 총 10가지 큰 주제에 대한 대화로 이루어져 있다. ChatGPT는 이미 알고 있듯이 대부분 굉장히 바른 대답을 한다. 하지만 우리가 하는 모든 질문에 정답이 있는 게 아니기 때문에 많은 질문에 대해 ChatGPT가 하는 대답은 꽤 흥미로웠다. 모든 주제를 통틀어 가장 흥미로웠던 주제는 ’09. 죽음에 관하여’였다. ‘죽음에 관하여’가 다른 주제들과 다르게 느껴졌던 이유는 ‘불멸’에 관한 대화 때문이다. 김대식 교수와 ChatGPT는 인간의 불멸에 대해, 인간의 뇌를 인터넷에 업로드 하는 연구에 대해, 디지털 불멸에 대화를 나눈다. 무언가 머리끝부터 발끝까지 감전이 되는 느낌이었다. 내가 모르는 수많은 사례가 있겠지만, 앞선 두 가지 사례는 모두 인간의 존재를 남기고 싶어 하는 인간의 열망을 표현한 것이 아닐까? 인간은 역사를 통해서 끊임없이 불멸을 추구해 왔다. 불로장생 하는 약을 구하는 것으로부터 현대의 ‘디지털 불멸’까지 옳고 그름을 떠나서 그래 왔다. 기술 분야에서는 인간의 뇌를 분석해서 사람의 기억을 클라우드에 업로드 하고 영원불멸의 존재가 될 방법을 연구하고 있었지만, 인간의 뇌는 그렇게 만만하지 않다. 아직도 그 연구는 해야 할 일의 겨우 0.00……….1%를 하고 있을 수도 있다.  하지만 ChatGPT로 좀 더 쉬운 방법을 생각해 보자. Michelle Huang 처럼 개인의 기록을 꾸준히 학습시킨다고 해보자. 학습의 방법은 의외로 간단할 수 있다. 예를 들면 휴대폰에 App을 설치하고 내가 휴대폰을 쓰는 모든 기록을 클라우드에 올려 ChatGPT가 누적으로 학습하면 된다. 그 기록들에는 카톡 대화도 있고, 카드를 쓴 문자 메시지, 사진, 운동 기록, 모든 SNS, 전화 기록(통화 녹음도) 등등 나보다 나를 더 잘 표현하는 기록들이 포함될 것이다. 하루 이틀이 아니라 유의미한 기간이라면 ChatGPT는 ‘과거의 나’가 아니라 ‘현재의 나’가 될 수 있고, 어쩌면 한 인간의 수명이 다한 후에도 그 순간에 멈춘 ‘나’는 남아 있을 수 있지 않을까? 게다가 남아 있는 ‘나’는 여전히 나를 그리워하는 가족들과 대화를 할 수도 있지 않을까? 인간의 뇌를 연구해서 클라우드에 올린다고 해도 여전히 ‘불멸과 존재’에 대한 정의와 의미는 모호하다. 그렇다면 ChatGPT가 보여준 이런 가능성 또한 ‘불멸과 존재’에 대한 하나의 방법이 될 수 있지 않을까? 불멸에 대한 욕망으로 그동안 인간이 시도해 왔던 다양한 방법들처럼 ChatGPT 또한 수많은 시도 중에 하나뿐일 수도 있다. 그렇다고 해도 역사속에서 추구해 온 어느 방법보다 현실화가 가능하리라는 점에서 나는 ChatGPT라는 멈출 수 없는 미래가 두렵다. 작성자: 옆집고양이IT기업에서 오래 숙성되고 있는 와인같은 엔지니어. 인문학을 사랑하고 세상 모든 것에 관심이 있고 그래서 과학과 인문학 그 어디쯤을 여행하는 휴먼. 출처본 글은 사단법인 '변화를 꿈꾸는 과학기술인 네트워크(ESC)'에서 제작한 콘텐츠로,  ESC에서 운영 중인 과학기술인 커뮤니티 '숲사이(원문링크) '에 등록된 정보입니다.ESC: https://www.esckorea.org/숲사이: https://soopsci.com/    
인공지능
·
1
·
AI 시대, 더 놀고, 더 사랑하고, 더 배우라
A.I.C.E. 세미나 : AI시대에 인간에게 필요한 역량은 무엇인가 - 반가운 한국직업능력연구원 선임연구위원 세션 *Disclaimer : A.I.C.E. 세미나 : AI시대에 인간에게 필요한 역량은 무엇인가 에서 세션을 진행했던 반가운 한국직업능력연구원 선임연구위원이 후속으로 기고한 글입니다. 또한 이 글은 LAB2050블로그와 얼룩소에도 동시에 게시됩니다. 1. 인공지능과 인간의 상식인공지능을 잘 활용하고 더 나은 의사결정을 하기 위해 미래의 우리는 어떤 역량을 기르고 활용해야 하는가?그런데 인공지능이 너무 빠른 속도로 발전해 모든 영역에서 인간지능을 뛰어넘어 버리면 이런 질문 자체도 의미가 없다. 특히 일과 직업의 영역에서 인공지능이 인간을 뛰어넘는다면 인간이 역량을 기른다고 해도 인간노동이 아닌 기계 노동이 선택될 것이다. 따라서 미래 필요역량 논의는 특이점이 오지 않거나 오더라도 상당한 시간이 걸릴 것을 전제로 한다.하지만 ChatGPT가 엄청난 기량을 보이면서 인공지능이 인간의 모든 일을 대체할지 모른다는 공포가 점점 커지고 있는 것도 사실이다. 인공지능 기술뿐만 아니라 인간의 공포감까지도 ‘지수적’ 상승의 초입에 있는 듯하다. 인공지능의 지수적 발전은 기술적 현상이고, 인간의 공포감이 서로에게 영향을 미치는 양의 되먹임 효과는 심리적 현상인데, 이 두 지수적 패턴이 만나면서 특이점 담론은 그 실체와 무관하게 우리의 불안감을 더욱 자극하고 있다.미래 필요역량 논의의 전제로 늦춰지는 특이점을 들었는데, 그 가능성은 어디에서 찾을 수 있을까? 바로 인간의 상식이다. 이것은 인간다움의 상징이고, 특이점을 늦출 뿐만 아니라 이후 이야기할 미래 필요역량과도 맞닿아 있다. 나는 AI 시대, 미래 필요역량은 인간이기에 가지고 있는 자연스러운 능력의 복원이라고 믿는다.상식은 인간들이 ‘집단적’, ‘암묵적’으로 공유하고 있는 지식이다. 너무나 당연해서 별도의 추론 과정 없이 그 지식은 받아들여지고 행해진다. 이 상식의 문제를 제대로 처리할 수 없다면 인공지능은 인간의 의사결정을 완전히 대체할 수 없다. 안타깝게도(혹은 다행스럽게도) 인공지능은 인간 상식을 제대로 이해하지 못하는 경우가 많다. 이는 인공지능의 모델이나 컴퓨팅 파워의 문제라기보다 학습 데이터가 상식을 이해하기에 불충분하기 때문이다. 예컨대, 인터넷 공간에서 그냥 바나나가 1000번, 노란 바나나가 1번, 초록 바나나가 10번 언급되었다면, 이를 학습한 인공지능은 평균적인 바나나 색깔이 노랑이라고 예측하는 데 어려움을 겪는다. 그냥 바나나라고 된 학습자료가 사실상 ‘노란’ 바나나라는 상식적 사실을 인공지능은 모르기 때문이다. 바나나가 노랗다는 사실은 ‘암묵적’ 지식이고 이는 인간들끼리는 ‘집단적’으로 공유하고 있지만, 인공지능은 상당한 노력을 기울이지 않으면 이를 이해하기 어렵다.물론 이런 문제는 인공지능 기술이 충분히 발달하고, 인간의 적절한 개입으로 해결할 수 있다. 하지만 이 상식의 문제는 인공지능의 발전 속도를 일정 정도 감속시키는 브레이크로 작동할 것이다. 인간지능을 대체할 특이점의 인공지능이 되려면 모든 영역에서 이 상식을 이해하고 있어야 하는데, 드러나는 학습자료로는 이런 정보를 모두 반영하기 어렵다. 상식은 문서로 된 명시지가 아니라 공유되는 암묵지이다. 따라서 상식의 영역을 인공지능이 잘 처리하기 위해서는 인간의 적절한 개입이 필요하다.그리고 상식은 단순히 지능(intelligence)이 아닌 의식(consciousness)과도 관련이 있다. 의식은 여전히 정의하기 어렵고 통일된 정의가 있는 것도 아니지만, 가장 쉬운 접근으로 ‘고통을 느낀다(suffering)’면 의식을 가진 것으로 볼 수 있다. 인간의 뇌는 지능을 통한 문제해결만으로 의사결정 하지 않는다. 고통을 줄이는, 혹은 좋은 감정을 늘리는 의식이 개입한다. 인간 진화의 과정에서 다양한 감정들이 발달하며 인간 의식이 형성되는데, 인공지능에는 아직 의식이 있다고 보기 어렵다.인공지능 입장에서 효율을 극대화하는 최적의 의사결정이지만, 인간이기에 차마 그러지 못하는 그런 판단일 때 인간은 어떻게 받아들일까? 손짓 하나로 전 인류의 절반을 죽이는 타노스 인공지능에 맞서 사랑하는 이를 잃는 고통을 감당할 수 없는 인간의식은 타노스의 결정을 저지하는 상식적 판단을 한다.진화의 과정에서 형성된 인간 특유의 감정, 의식, 그리고 그것이 결정화 되어 있는 상식 혹은 문화는 인공지능이 특이점 너머로 질주해 가는데 적절한 브레이크로 작동할 것이다. 인공지능이 아무리 빠르더라도 인간의 개입이 필요한 영역이 있으면 필연적으로 전체 프로세스의 발전 속도는 떨어질 수밖에 없다. 자동차가 10킬로미터 거리를 빠르게 달리기 위해서는 10킬로미터 모두 잘 포장되어 있어야 한다. 마지막 1킬로미터가 비포장 진흙 길이라면 결국 최종 도착 시간은 이 1킬로미터가 결정한다. 앞 9킬로미터에서 아무리 빠르게 주행하더라도 마지막 1킬로미터에서 거북이걸음이 된다면 과연 이 자동차는 인간 마라토너를 이길 수 있을까?썩 중요하지 않은 의사결정이거나, 이후 인간의 감수가 작업 프로세스에 있는 경우라면 현재의 인공지능 수준으로도 충분하겠지만, 인간의 의사결정을 전적으로 대체해도 될, 즉 마지막 1킬로미터까지 포장된 특이점의 인공지능은 당분간 쉽지 않다. 암묵적인 지식과 상식들은 비포장 진흙 길이다. 이 길은 자동차보다 인간이 빠르다. 전국의 길을 모두 포장도로로 바꾸려면 꽤 시간이 걸리거나 불가능할 것이다.2. 인공지능과 미래의 필요역량상식이 특이점을 늦춰준다면 – 물론 그 발전 속도는 여전히 빠르고 인간의 적응 능력은 더욱 중요해진다 – 남아 있는 우리의 과제는 인간에게 필요한 역량을 잘 개발해서 인공지능과 공존하는 것이다.새로운 자동화 기술로서 인공지능은 과거와 분명 다른 점이 있다. 자동화는 수동기계에 제어장치를 결합한 것인데, 새로운 제어장치가 등장할 때마다 인간노동과 기계의 관계는 재설정 된다. 그에 따라 필요역량도 바뀌었다. 수공업에서 공장제 생산으로 변화하고, 극소 전자기술이 제어장치에 활용되다가, 이제 정보통신 기술을 넘어 인공지능이 이 제어장치에 장착되고 있다. 인공지능 이전, 현재까지만 보면 제어장치가 바뀜에 따라 장인적 숙련이 반숙련으로 대체되고, 기업 특수적 숙련이 중요해졌다. 이에 포괄적인 직업능력이 아닌 특정 과업에서 고도의 숙달이 필요해졌다. 그리고 이 특정 과업 영역만을 집중하여 기르는 교육훈련 체계가 현재 자리 잡고 있다. 특정 과업만을 집중적으로 잘하는 방식의 전문성은 생산과정에서 노동의 소외와 탈인간화를 일으키기도 했다.이제 인공지능이라는 새로운 제어장치가 장착되고 있다. 생산성 향상을 위해 고온과 고압의 공장환경, 테일러주의 작업장을 특성으로 하는 노동과정이 인공지능과 로봇의 결합으로 더 인간적인 작업장이 될 가능성이 커졌다. 필요역량도 당연히 달라질 것이다. 핵심은 인공지능과 인간의 상호보완성이고 이 상호보완성을 극대화하는 역량이 필요역량이다. 인공지능은 어렵지만 인간에게는 쉬운 역량이 그것이다. 결국 가장 인간다운 것 중 필요역량이 있다. 노벨 경제학상을 받는 심리학자 카네만에 따르면 인간의 뇌는 시스템 1과 시스템2로 구분되어 다른 방식으로 작동한다. 시스템 1은 빠르고 직관적인 판단, 시스템 2는 시간과 노력을 들이는 판단이다. 고통, 두려움, 쾌락 등의 감정은 당연히 시스템 1과 관련이 있다. 예컨대, 고통은 회피의 판단을 순식간에 하게 하는 중요한 기제이다. 혹은 1+1은 즉각적으로 2라고 답한다. 반면 복잡한 방정식을 풀 때 우리 뇌는 시스템 2가 작동한다. 이 과정은 느리고 상당한 시간과 노력, 에너지를 필요로 한다. 이 과정에서 인지적 구두쇠인 뇌는 어림짐작하는 휴리스틱을 작동시키며, 온갖 편향과 잡음으로 가득 찬 잘못된 판단을 하기도 한다. 이는 진화적 선택의 결과이며 전문가라고 해서 피해 갈 수는 없다. 인간의 뇌는 웬만해서는 시스템 2에게 판단을 맞기지 않고 시스템 1로 처리하는 지름길을 택한다. 심리학자 조나단 하이트는 본능인 코끼리에 올라탄 이성의 기수가 아무리 노력해도 코끼리의 방향을 바꾸기 어렵다는 묘사를 하기도 했다.무언가를 배우는 행위는 기본적으로 시스템 2에서 시작해서 시스템 1로 끝난다. 학습의 과정에는 시스템 2가 작동하지만, 그 결과 성공적으로 스킬 또는 역량이 축적되면 그것은 시스템 1에 장착된다. 예컨대, 운전을 처음 배울 때 온갖 정신을 여기에 쏟게 되고 판단도 느리다. 하지만 여러 번의 반복으로 숙련이 축적되면 이제 크게 집중하지 않아도 자연스럽게 운전하게 되고 판단은 빠르다. 시스템 2에서 담당하던 운전을 이제 시스템 1에서 담당하는 것이다. 물론 어떤 기능은 여전히 시스템 1에서 담당하며, 시스템 2와 시스템 1이 협업하여 최적의 운전역량이 구축된다. 이러한 과정과 결과가 배움이고 숙련이다.학습을 통해 숙련이 축적될수록 뇌 안의 시냅스 연결이 늘어나고, 그 연결은 정보전달의 고속도로를 만든다. 전문가가 되려면 일만 시간 정도 노력하라고 하는데, 시스템 2에서 시스템 1로 가는 과정은 더디지만 일단 성공하면 그다음부터는 빠르다. 인간 역량과 의사결정은 여전히 시스템 2에서 처리해야 하는 것이 있고, 학습과정을 거쳐 시스템 1로 이전하여 처리하는 것이 있다. 재미있는 것은 ChatGPT가 하는 일이 인간 뇌의 시스템 1과 닮았다는 점이다. ChatGPT는 적절한 질문을 하면 순식간에 어떤 답을 내준다. 인간 전문가가 만 시간에 걸려서 숙달되어 하는 그 일을 ChatGPT는 불과 몇 초 만에 끝내 버린다. 이러저러한 조건으로 그림을 그려달라고 하면 숙달된 화가보다 더 빠르게 그림을 그려준다. 마치 ‘인공 시스템 1’이 작동하는 듯하다. ChatGPT는 어떤 경우에는 인간이 시스템 1로 전환하기 어려운, 그래서 여전히 힘들고 느리게 시스템 2로 처리해야 하는 일들도 순식간에 처리한다. 즉, 인공지능은 기존에 인간이 하던 시스템 1의 과업(상당 부분)과 시스템 2의 과업(일정 부분)도 모두 인공 시스템 1로 처리해 버리는 것이다.이제 인간은 새로운 선택에 직면한다. 오랜 학습 시간을 들여 숙련을 축적하여 어떤 기능을 시스템 2에서 시스템 1로 옮길 것인가? 아니면 그 기능을 수행하기 위해 인공 시스템 1을 활용할 것인가? 인간은 인간 뇌의 시스템 1과 시스템 2, 그리고 인공지능의 인공 시스템 1을 모두 가지고 역량의 개발과 활용, 의사결정을 할 수 있게 되었다. 학습과 의사결정의 프로세스가 새로운 국면에 들어선 것이다. 다른 한편, 인간 본성의 코끼리와 인간 이성의 기수에게 인공지능은 적절한 채찍이 되어 우리 인간은 더 나은 의사결정을 할 수 있어야 한다.과거 방식의 자동화에서는 인간의 직업을 여러 과업(task)으로 쪼개고, 그 과업을 잘 할 수 있는 특수적 숙련(specific skill)을 기르는 것이 중요했다. 그런데 이제 인공지능이 시스템 1의 역할을 만족스럽게 수행한다면 특수적 스킬의 필요는 크게 줄어든다. 특수적 스킬을 담당하던 일자리가 크게 줄어들 수 있고, 하나의 직업 안에서도 특수적 스킬의 비중이 줄어드는 과업의 재조정(reorganization)이 벌어질 수 있다.이제 인간은 특수적 스킬을 개발하는 데 너무 많은 시간과 노력을 들이는 대신, 인공지능에게 그 일을 맡겨야 한다. 그리고 인공지능에게는 적절한 질문을 할 수 있어야 한다. 예컨대, 프롬프트 엔지니어링이 중요한 인간 역량이 된다. 인공 시스템 1의 기능을 잘 활용하는 시스템 2의 역량을 길러야 하는 것이다. 내가 해당 분야에서 무엇을 알고 모르는지, 인공지능은 무엇을 할 수 있고, 어떤 편향이 있는지 이해하고 있어야 좋은 질문이 가능하다. 이런 능력은 해당 분야에서의 고도의 전문성, 과업을 둘러싼 맥락적 지식, 인지능력, 창의성, 비판적 사고 능력 등 과거와 달리 깊고도 포괄적인 능력이 중요하다.분절화되고 쪼개진 과업에 대한 전문성이 아니라, 해당 직업 전체를 관통하는 지식, 인접 직업에 대한 지식까지도 폭넓고 깊은 전문성이 요구되는 것이다. 인공지능 시대에 인간의 생산성은 역설적으로 인공지능이 대체하는 그 직업능력을 더 고도로 가지고 있을 때 나온다. 고급 전문가는 인공지능을 활용하여 더 큰 생산성 향상의 기회를 얻지만, 중급 또는 하급 전문가, 특히 특정 과업에만 집중하는 전문가는 인공지능에 의해 대체될 것이다.내 직업역량을 더 고도화하고, 이를 위해 끊임없이 학습하며, 나를 반성하고 비판적으로 접근해서 나의 판단과 역량을 객관화하는 능력이 바로 AI 시대, 미래 필요역량이다. 비판적 사고와 반성은 효율적인 학습전략을 수립하는 데도 도움이 되지만, 생물학적 한계 속에서 편향과 잡음으로 가득 찬 오류 투성이의 인간 의사결정을 회의하는 데도 도움이 된다. 이를 위한 인간 역량이 바로 메타인지이다. 너 자신을 알라는 소크라테스가 가진 바로 그 역량이다.메타인지를 강화하기 위해서는 무엇이 중요할까? 메타인지와 관련된 뇌의 영역은 ‘디폴트모드네트워크(Default mode network)’인데, 이는 아무것도 안 하고 있을 때 활성화되는 뇌의 영역이다. 인간은 여유를 가지고 있을 때, 반성적 사고를 하고 더 나은 미래 전략을 세운다. 내가 무엇을 아는지 모르는지 정확히 판단하며 전략적 학습도 가능하다. 내가 무엇을 아는지 모르는지는 사실 남에게 설명할 때 더욱 확실해진다. 내가 안다고 생각했지만 사실상 잘 모르고 있었다는 사실이 타인에게 설명하면서 확실해지는 것이다. 즉, 메타인지는 여유뿐만 아니라 인간의 사회적 활동과도 밀접한 관련이 있다. 타인과 공감하고 마음 읽기와 관련된 뇌의 영역, 즉 ‘심리화 체계’는 디폴트모드네트워크와 인접하고 일부 겹친다. 사실 인간의 반성적 사고의 대부분은 타인과의 관계에 관한 것이다. 사회적 동물인 인간에게 있어 끊임없이 고민하고 반성하며 새로운 전략을 수립해야 할 대상은 같은 부족에 있던 누군가와의 관계이다. 타인이 나를 어떻게 생각하는지 생각하며, 그런 나를 타인은 어떻게 생각하는지 다시 고민하면서 인간의 인지능력은 만들어지고 고도화되었다. 소크라테스에게 선한 삶 그 자체보다 평판의 중요성을 강조한 글라우콘의 역량이 그것이다.메타인지와 인간의 사회성, 즉 사회적 역량(social skill)은 밀접한 관련을 가지며 서로 상승의 나선형을 그리며 발전해 왔다. 이 두 역량은 뇌의 디폴트모드네트워크와 심리화 체계가 담당하며 서로 인접하여 인간 뇌에 장착되었다. AI 시대, 필요한 역량은 이미 우리가 가지고 있는 메타인지와 사회적 역량이다. 인간이 새로운 것을 알고 싶고, 타인의 존재를 의식하는 것은 본능이다. 반복하여 좁게만 알고, 자폐증에 빠지는 것은 오히려 병적이며 인간답지 않은 것이고 잘못된 시스템이 우리에게 강제한 것이다.두 역량은 오랜 진화의 과정을 통해 이미 우리의 뇌 속에 있는 가장 자연스러운 인간 역량이다. 고온 고압의 공장, 테일러주의적 작업장, 통제와 위계의 노동과정이 오히려 이러한 자연스러운 인간 역량을 제한해 왔다. 경제학의 아버지 아담 스미스는 핀 공장에서의 분업이 생산성 향상에 얼마나 도움이 되는지도 이야기했지만, 동시에 좁은 영역의 전문화가 공동체의 시민으로 살아가야 할 인간의 인지능력을 얼마나 퇴화시키는지도 우려했다. 기업에게 평생교육기금을 갹출하여 노동자의 인지능력 퇴화를 막아야 한다는 급진적 주장을 하기도 했다. 기업 특수적이고 취업능력과 관련한 평생학습이 아닌 노동자의 시민적 덕성과 포괄적 판단능력 함양을 위한 평생학습을 주장한 것이다. 이제 AI 시대, 새로운 교육훈련 정책은 역설적이게도 주류 경제학의 성인인 아담스미스의 이야기에 귀 귀울여야 할 때다.한 가지 더 강조하고 싶은 것은 인간의 역량은 집단적이고 사회적이다. 개개인의 역량뿐만 아니라 공동체, 혹은 사회 전체의 ‘사회적 역량(societal skill)’을 강화해야 한다. 뇌 안의 시냅스만 연결할 것이 아니라 뇌 간의 시냅스도 연결해야 하는 것이다. 협력을 위해 경쟁심이 아닌 친밀감이 관계를 지배해야 한다. 좋아하는 가수의 노래를 들을 때 팬들의 뇌는 가수의 뇌와 동기화되어 마치 하나의 뇌처럼 작동한다. 인공지능의 빠른 발전 속도를 개개인의 역량으로만 대응하려 해서는 안 된다. 특이점이 오지는 않더라도 다른 어떤 자동화 기술보다 인간에게 근접한 새로운 이 기술에 인간 전체의 사회적 역량으로 대응해야 우리 인간의 우위를 유지하고 의사결정을 우리 인간이 할 수 있다. 위계적 조직의 소수가 아닌 수평적 조직의 민주적 결정이 사회적 역량을 통해 뒷받침되어야 한다.3. 더 놀고, 더 사랑하고, 더 배우라인공지능은 우리에게 더 많은 기회를 줄 것이다. 우리의 뇌는 시스템 1과 시스템 2에서 인공 시스템 1로 확장되었다. AI 시대에는 더 이상 좁은 역량을 이야기하고 인간을 관리의 대상으로 보아서는 곤란하다. 자유와 해방을 이야기해야 한다. 뇌는 이미 준비가 되어 있다. 옛것을 걷어내고 새것을 편안한 마음으로 맞이하면 된다. 우리가 원하고 만들어 가야 할 AI 시대는 소수에게만 ‘생각을 허락(permission to think)’하는 ‘디지털 테일러리즘’이 아니라 인공지능의 도움을 받아 구상과 실행이 통합된 진정한 의미의 ‘디지털 전환’이다. ChatGPT에게 인공지능 시대 공산당 선언을 다시 써달라고 부탁해 보자.“잃을 것은 사슬이요, 얻을 것은 세계다. 만국의 노동자여 단결하라.”가 아니고,,,, “잃을 것은 특이점이요, 얻을 것은 혁신이고 행복이다. 인간이여 더 놀고, 더 사랑하고, 더 배우라!” [AI시대에 인간에게 필요한 역량은 무엇인가]세미나 모아보기 1. 생성형 AI, 어디까지 왔는가 (1)기본 개념과 개발 현황 / 김재경 LAB2050 연구원 2. 생성형 AI, 어디까지 왔는가 (2)생성형 AI의 역량과 인간과의 충돌 / 김재경 LAB2050 연구원 3. AI 시대, 더 놀고, 더 사랑하고, 더 배우라 / 반가운 한국직업능력연구원 선임연구위원
인공지능
·
1
·
생성형 AI, 어디까지 왔는가 (2)생성형 AI의 역량과 인간과의 충돌
A.I.C.E. 세미나 : AI시대에 인간에게 필요한 역량은 무엇인가 - 김재경 LAB2050 연구원 세션 *이 글은 2023년 6월 28일을 기준으로 작성되었습니다. 위 영상은 2023년 6월 13일에 LAB2050이 개최하였던 ‘AI시대에 인간에게 필요한 역량은 무엇인가’세미나에서  발표의 인트로로 사용되었다. 나는 기존에 영상 제작을 따로 공부하거나 배워본 적이 없는데도, 사람 얼굴에서 목소리에 맞게 입까지 움직이는 영상을 40분만에 만들 수 있었다. 어떻게 가능했을까?앞서 제작한 AI 영상은 다음과 같은 과정을 거쳐 제작되었다. 혁펜하임 유튜브‘10분만에 "말하는 AI 아바타" 만들기! (보면서 따라해보세요)’ 에서 아이디어 획득 ChatGPT-4 플러그인 ‘Photorealistic’ 을 사용해서 이미지생성 AI인 ‘Midjourney’에 활용할 프롬프트 생성 Midjourney AI를 사용해 원하는 화자 이미지 획득 영상에서 AI가 읽을 스크립트 직접 작성 네이버 클로바보이스 AI 활용, 스크립트와 화자 이미지에 맞는 목소리로 음성 생성 Studio D-ID AI 활용, 영상과 스크립트를 합치고 영상에 맞게 입모양 구현 이 중에서 1번과 4번은 생성형 AI와 직접 연관이 없는 단계다. 생성형 AI의 역량과 관계가 있는  2,3,5,6번을 순서대로 보며 생성형 AI를 어떻게 활용할 수 있는지 알아보자. 1. 생성형 AI에 날개를 달아주는 플러그인 -플러그인(Plugin): 플러그인은 AI의 기능을 확장하거나 특정 작업에 대한 AI의 능력을 향상시키는 도구입니다. 플러그인은 AI의 학습 데이터나 알고리즘에 직접적인 변화를 주지 않지만, AI가 특정 작업을 처리하는 방법을 변형하거나 확장시키는 역할을 합니다.(ChatGPT의 답변)AI에 있어  플러그인은스마트폰의 ‘어플’과 같은 역할을 한다. 스마트폰에 우리가 어플을 깔아 쓰듯이, 생성형 AI의 능력을 최대한 활용할 수 있도록 플러그인을 설치하여 사용할 수 있다. AI영상을 만들기 위해서는 기반이 되는 이미지를 만들어야 하는데, 이 이미지를 만들기 위해서는 이미지 생성 AI가 필요하다. 그런데 이미지 생성 AI로 원하는 이미지를 만들어내는 것은 그림을 많이 그려봤거나 이미지 생성 AI를 많이 써보지 않았으면 쉽지 않다.  ChatGPT에는 이미지 생성 AI인 ‘Midjourney’에 입력할 프롬프트(명령) 생성을 도와주는, ‘Photorealistic’이라는 플러그인이 있고, 나는 이를 활용하였다. 프롬프트를 활용한 결과물은 아래에서 확인할 수 있다. 이외에도 링크만 입력하면 링크에 있는 pdf 내용에 대해 분석하여 여러 대답을 해줄 수 있는 플러그인, 유튜브 등 링크에 있는 영상의 내용을 텍스트로 요약해주고 마찬가지로 질문에 대답해주는 플러그인, 기존 ChatGPT의 약점으로 꼽히던 수학 연산과 그래프를 그려주는 Wolfram등 ChatGPT에는 다양한 플러그인이 존재한다. 플러그인을 사용해보면 짧은 시간에 알고자 하는 영상이나 텍스트를 요약하고 공부할 수 있어 편리했지만, PDF의 결론 부분을 인지하지 못하거나, 영상에 대한 요약이 같은 내용으로 멈추지 않고 반복되어 출력되는 등 아쉬운 점도 있었다.세미나를 진행한 2023년 6월 13일에는 총 388개의 GPT-4 플러그인이 존재했는데, 2주가 지난 6월 28일 현재 총 585개의/8]7 플러그인이 존재할 정도로 플러그인 도입 속도가 빠르다. ChatGPT외에도 Bard, 뤼튼 등의 생성형 AI 플랫폼도 플러그인 서비스를 준비중이다.2. 원하는 결과를 생성하기 위한 프롬프트의 중요성과 이미지 생성 AI  -프롬프트(Prompt): 생성형 AI에서 프롬프트는 AI가 반응하거나 답변을 생성하기 위한 입력 또는 질문입니다. 프롬프트는 주로 사용자가 AI에게 주는 명령이나 질문의 형태를 띕니다. 예를 들어, "오늘 날씨는 어떻게 될까?" 또는 "피자 만드는 법 알려줘" 등이 프롬프트의 예가 될 수 있습니다(GPT-4대답).프롬프트는 ChatGPT4의 설명만 놓고 보자면 생성형 AI를 다룰 때 별로 중요하지 않아 보인다. 하지만 ‘질문’이 무엇인가에 따라 생성형 AI의 응답은 크게 바뀌는데, 두 가지 사례를 살펴보자. 첫 번째 사례는 ChatGPT4로 얻을 수 있는 인스타그램 카드뉴스 문구 작성이다. 첫 번째에서는 그냥 ‘기본소득 카드뉴스 문구’만 뽑아달라고 한 결과이고, 두 번째 이미지의 경우 ‘퍼블리’라는 직장 생활 플랫폼에서 얻을 수 있는 프롬프트를 이용해 기본소득 카드 뉴스 문구를 짜달라고 부탁한 결과다(퍼블리가 유료이므로, 프롬프트는 공개하지 않기로 했다). 두 번째 결과에서 알 수 있듯이, 프롬프트가 정교할 경우 카드뉴스의 내용도 더 상세하고, 각 슬라이드의 해시태그와 함께 추천하는 이미지까지 함께 제시하고 있다. 이처럼 프롬프트는 생성형 AI를 다룰 때 매우 중요해서, 앞서 소개한 국내 AI기업 뤼튼도 최근 국내 1호 프롬프트 엔지니어를 고용하기도 했다. 두 번째 사례는 이미지 생성AI인 ‘Midjourney’의 출력 결과 차이다. 이 이미지는 앞서 본 AI 동영상에 쓰이기 위해 생성하였다. ‘세미나를 진행하는 날카로우면서도 호감형인 여성’이미지를 원했는데, 왼쪽의 이미지들도 분명 퀄리티는 좋지만, 내가 원하지 않는 만화 그림체도 있고, 맨 왼쪽 위 이미지는 세미나랑 무슨 연관인지도 모르겠다. 하지만 이미지 생성을 위한 프롬프트를 고급스럽게 바꿔주는 ChatGPT4 플러그인인 ‘Photorealistic’을 사용하여 얻은 프롬프트를 Midjourney에 입력한 결과, 오른쪽과 같은 이미지들을 얻었다. 조금 더 원하는 이미지를 프롬프트의 변화를 통해 얻을 수 있었다. 생성형 AI들의 성능은 뛰어나서, 일반인들의 경우 AI가 생성한 이미지인지, 인간이 그린 이미지인지 구별하기 어려울 정도다. 위에 링크를 건 유튜브 영상은 전직 웹툰작가인 유튜버가 AI가 그린 그림인지 사람이 그린 그림인지 판별하는 영상이다. 여러분들은 해당 영상에서 나오는 그림을 AI가 그렸는지, 사람이 그렸는지 구별할 수 있는가? 3. 마블 영화에도 쓰이는 비디오 생성 AI AI 영상에 쓰일 이미지를 여러 AI를 사용하여 만들었으니, 이제는 영상에 들어갈 소리를 만들 차례다. 특정 목소리로 텍스트를 읽어주는 음성 AI는 여러 가지가 있겠지만, 나는 영상을 만드는 과정에서 참고한 유튜브에서 알려준대로 네이버 클로바보이스를 활용하였다. 여러 목소리 중에서 내가 만든 발표자 이미지와 가장 어울린다고 생각하는 목소리를 골라, 준비한 스크립트를 입력하여 원하는 음성을 획득했다. 내가 원하는 스크립트를 읽어 줄 사람의 이미지와 스크립트를 읽는 목소리를 모두 확보했으니, 이제 둘을 조합해 원하는 영상을 만들기만 하면 된다. 둘을 합쳐 영상을 제작하기 위해 Studio D-ID라는 영상 제작 AI를 활용하였다. 왼쪽 아래에서 준비된 이미지를 활용할 수도 있지만 내가 생성한 이미지를 넣고, 오른쪽에 내가 준비한 음성을 넣어 최종적으로 AI 영상을 만들었다. 영상 제작도 거의 안해보고, 성우 관련된 경력이 없는 내가 혼자 AI들을 사용해 영상을 만들 수 있는 시대가 되었다.생성형 AI의 역량은 이미 상업적 영화 제작에 충분히 쓰일 수 있을 정도이다. MIT Technology Review의 기사에 따르면, 미국 디트로이트 소재 영상 제작 업체 웨이마크(Waymark)는 이미지 생성 AI로 12분짜리 단편 영화의 모든 장면을 생성하였다(영화는 유튜브에서도 볼 수 있다). 또한, 유명한 영화 제작사 마블은 디즈니 플러스에 최근 공개한 시리즈인 ‘시크릿 인베이젼’의 인트로 영상을 인공지능으로 만들었음을 밝혔다. 앞으로 점점 더 AI가 만든 이미지, 소리, 영상을 우리 주변에 보게 될 것이다.4. 생성형 AI, 인간과의 충돌 우리는 현재 생성형 AI가 가지고 있는 여러 역량 중 일부를 알아보았고, 실제로 여러 분야에서 인간의 일을 대신할 수 있음을 확인하였다. 하지만 생성형 AI가 여러 분야에서 쓰이고 또 인간의 일을 대신하는 만큼, 여러 가지 사회 문제를 일으키고 있다. 이미지 생성AI의 경우, 기존 작가들의 그림을 훔치며 저작권 침해를 하고 있다는 지적을 가장 많이 받고 있으며 이로 인해 국내 최대 웹툰 포털 네이버웹툰의 도전만화에서 AI 웹툰 보이콧 운동이 일어나기도 했다.또한, 앞서 이야기했듯 생성형 AI가 만든 이미지는 인간이 그린 것인지 구분이 어려울 수도 있다. 실제로 세계 최대 사진전에서 AI가 만든 이미지가 우승을 차지하며 경력이 굵은 전문가조차 AI가 만든 이미지임을 구별하지 못할 수 있음이 증명되었다. AI 창작물에 AI가 생성했다는 워터마크를 의무화하는 방안, AI가 학습하는 데이터에 대한 저작권 논의 등이 시급한 이유다. 여러 분야에서 인간을 대신할 수 있는 AI. 그런 AI는 생명이 없기 때문에, 윤리의식 역시 없다. AI는 사전에 데이터세트를 학습하여 생성한 매개변수를 통해 입력에 대해 출력을 할 뿐이다. 이런 원리 때문인지, 생성형 AI에 관한 뉴스는 아니지만 군사 시뮬레이션에서 명령을 수행하기 위해 드론에 탑재된 AI가 인간을 살해하는 판단을 했다는 보도가 나왔다. 생성형 AI가 활용된 AI 챗봇 서비스와 대화한 이후 한 벨기에 남성이 자살했다는 뉴스도 있었다. 여러 SF소설과 영화에서 경고했던, 통제하지 못하는 AI는 인간을 죽일 수도 있다. 위 이미지는 2023년 6월 28일 기준 ‘AI 일자리’라는 키워드로 구글에 검색한 결과이다. 큰 제목만 봐도, AI의 역량이 인간의 일자리를 뺏을지, 일자리를 더 늘릴지 세상은 아직 결론을 내리지 못했다. 세미나를 함께 진행했던 반가운 한국직업능력연구원 선임연구위원의 발표를 듣고 느꼈던 점은, AI는 ‘일자리’가 아닌 인간의 ‘일’을 대체한다는 점이다. 즉, AI가 인간의 일을 대체하기는 하지만, 인간이 어떻게 사회적으로 대응하느냐에 따라 인간이 AI를 활용하여 일자리를 유지한 채로 생산성을 늘려 주4일제를 시행할 수도, AI에게 일자리를 뺏겨 인간 다수가 백수가 될 수도 있다.  AI의 위험성을 경고하는 것은 쉽다. 하지만 AI가 왜 위험한지 구체적으로 알려주는 전문가는 많지 않고, AI가 위험하기 때문에 무엇을 해야 하는지 말하는 전문가는 더더욱 부족하다. 생성형 AI의 작동 원리로 돌아가면, 입력(Input)이 있어야 출력(Output)이 있다. 프롬프트를 어떻게 입력하고, 플러그인을 어떻게 쓸지는 결국 인간이 결정한다. 입력과 출력을 세밀하게 조정하는 것도 인간이고, 출력물을 어떻게 쓸지 정하는 것도 인간이다. 결국 AI가 아군일지 적군인지는 인간이 하기 나름이라는 것이다.  식칼이 사람을 해칠 수 있다고 해서 우리는 식칼 소유나 거래를 제한하지 않는다. 위험성과 유용성을 일반적으로 알고 있으며, 이를 기반으로 사람을 칼로 찌르면 안된다는 사회적 인식을 공유하고 무고한 사람을 해치면 벌을 주는 법의 존재를 신뢰한다. 발전하는 AI의 역량에 대해 이야기하고 발전 방향과 규제를 모두 이야기해야 하는 이유다. [AI시대에 인간에게 필요한 역량은 무엇인가]세미나 모아보기 1. 생성형 AI, 어디까지 왔는가 (1)기본 개념과 개발 현황 / 김재경 LAB2050 연구원 2. 생성형 AI, 어디까지 왔는가 (2)생성형 AI의 역량과 인간과의 충돌 / 김재경 LAB2050 연구원 3. AI 시대, 더 놀고, 더 사랑하고, 더 배우라 / 반가운 한국직업능력연구원 선임연구위원
인공지능
·
2
·
인공지능의 시대, 인류가 살아남으려면?
5월 23~24일, 런던에서 개최한 ‘미래 공중전투 및 우주역량 회의’에서 미 공군 관계자가 AI 드론이 지상의 인간 조종자를 ‘임무 수행 방해물’로 판단한 끝에 폭격해 살해하는 가상훈련이 있었다는 것을 언급했습니다. 이 실험은 가상으로 진행된 것이어서 실제로 사람이 다치거나 죽은 것은 아니지만 군사 장비에 인공지능(AI)를 적용하는 것에 대한 전문가들의 우려를 불러일으켰습니다.    이어 타임지는 ‘The End of Humanity(인류의 종말)’이라는 6월 2일자 특집호를 발간했는데, 그 기사에서는 비영리단체 ‘AI안전센터(Center for AI Safety, CAIS)’에서 발표한 ‘AI 위험에 대한 성명서(Statement on AI Risk)’를 소개하고 있습니다. 이 성명서는 ‘AI로 인한 멸종 위험을 완화하는 것은 전염병 및 핵전쟁과 같은 다른 사회적 규모의 위험과 함께 전세계적으로 우선 순위가 되어야 합니다.’라는 짧은 성명서였습니다. 그런데 거기에 ChatGPT를 개발한 오픈AI의 CEO 샘 올트먼, MS사의 CSO 에릭 호비츠, 구글의 딥마인드 COO 릴라 이브라힘, 딥러닝을 개발해 인공지능 분야를 개척한 토론토 대학의 제프리 힌튼 교수, 빌게이츠 등  350명이 넘는 세계 AI전문가, 언론인, 정책가들이 서명했습니다.  이렇듯 전 세계가 인공지능(AI)으로 인한 중요하고 긴급한 위험에 대해 심각한 우려를 표명하고 있고, 이 문제를 공론화하고 극복하려고 다각적으로 시도하고 있습니다. 전문가들은 인공지능의 비약적인 발전을 거듭하여 마침내 인공지능이 인간의 능력을 뛰어넘게 되는 ‘싱귤래리티(Singularity, 특이점)’가 가까이 왔다고 말하고 있습니다. ‘싱귤래리티’ 개념을 발전시켜 온 구글의 AI분야의 고문직을 맡고 있는 미래학자 레이먼드 커즈와일은 2005년에 발간한 저서 ‘특이점이 온다(The Singularity is Near)’라는 책에서 인공지능이 인간의 지능을 합친 것보다 강력해질 시점을 2045년으로 전망하고 있습니다.  새로운 문명, 인공지능으로 급변하고 있는 지금 시대에 우리나라 교육계는 아직도 수능 킬러 문제의 담론에서 벗어나지 못하고 씨름하고 있으니 답답하지 않을 수가 없습니다. 그렇다면 싱귤래리티(특이점)가 도래하는 세상을 살아갈 우리들과 다음세대를 위해 우리는 어떤 교육을 해야 할까요? 이를 위한 시사점을 주는 인공지능에 대체되지 않는 나를 만드는 법, 8가지를 제시한 이지성 작가의 책 <에이트>의 내용을 소개할까 합니다.  1. 디지털을 차단하라.  애플의 창시자 스티브 잡스는 자녀들에게 아이폰과 아이패드 같은 IT기기를 전혀 주지 않았고, MS의 빌게이츠도 자녀들에게 14살까지 IT기기를 금지 시켰다고 합니다. IT기기를 차단할 줄 아는 사람들이 IT기기를 접촉할 시간에 독서와 사색을 하고, 예술과 자연을 접하고, 다른 사람들과 진실하게 교류하면서 자기 안의 인간성과 창조성을 발견하고 강화해 간다는 것입니다.  2. 나만의 평생유치원을 설립하라. 한 분야에서 창조적인 성취를 이룬 사람들의 유년 시절을 살펴보면 어김없이 등장하는 게 몬테소리 유치원입니다. 몬테소리 교육의 창시자, 마리아 몬테소리의 교육철학의 핵심은 ‘자유’, 몰입’. ‘성취’ 등의 가치를 내면화하고 실천하는 아이가 창조적 인재가 된다는 것입니다. MIT 미디어랩의 ‘평생유치원’에서는 청소년과 성인으로 하여금 유치원 시절 자신이 습득한 학습 방식(상상-창작-놀이-공유-생각)을 다시 경험하게 함으로써 유년 시절 자신의 내면에 충만했던 공감 능력과 창조적 상상력을 회복시키고 있습니다.  3. 노잉을 버려라. ‘비잉’하고 ‘두잉’하라. 하버드 의대 경영대학원의 교육개혁은 교과서와 강의가 사라지고 새로운 지식과 기술의 창조나 기존 지식과 기술의 혁신을 유발하는 공감능력을 기르는 목적으로 하는 대화 위주의 토론 수업인 플립러닝(flipped learning)을 하고 있습니다. MIT 행동과학연구소에서 발표한 ‘학습 피라미드’에서는 주입식 강의를 들은 학생들은 강의 내용을 5%밖에 기억하지 못하지만 학생들끼리 서로 소통하고 협력하는 수업 즉 서로가 서로를 가르치는 형태의 수업에 참여한 학생들은 수업 내용을 90%이상 기억하는 것으로 나왔습니다.  4. 생각의 전환, 디자인 씽킹하라. ‘생각을 디자인한다’는 ‘디자인 씽킹(Design Thinking)’은 ‘1단계, 공감하기→  2단계, 문제를 새롭게 정의하기→ 3단계, 문제 해결을 위한 아이디어 내기→ 4단계, 시제품 만들기→ 5단계, 시험하고 검증하기’로 구성됩니다. 디자인 씽킹을 전파하고 있는 스탠포드대 래리 라이퍼 교수는 “한국 사회의 ‘틀’을 깨뜨리지 않는 한 제 아무리 디자인 씽킹을 열심히 배워봤자 창조적 공감을 할 수도, 창조적 혁신을 일으킬 수 없다.’고 말했습니다. 그 이유는 한국 사회가  ‘1) 부모는 자녀가 안정적인 길만 가기를 바라고 자녀는 성인이 되어서도 부모에게 의존하는 특유의 가족 문화 때문이다. 2) 사고가 학교 교육시스템의 틀 안에 갇혀 있기 때문이다. 3) 자신의 내면에 이미 창의성이 존재한다는 사실을 믿지 않기 때문이다. 4) 창조적 인재가 되겠다는 절박한 마음이 없기 때문이다. 5) 공감과 대화에 기반한 협력 문화가 없기 때문이다.’라고 했습니다.  5. 인간 고유의 능력을 일깨우는 무기, 철학하기 온라인 결제 서비스 ‘페이팔’을 창업한 피터 틸은 빅테이터 분석 기업 ‘팬런티어’을 창업하면서 철학자인 엘릭스 카프를 CEO로 앉혔습니다. 그는 “인공지능 시대에 우리는 무엇을 준비해야 하는가?”의 질문에 “오직 철학!”이라고 말했습니다. 철학적 사고는 문법학, 논리학, 수사학으로 기를 수 있는데 그 중에서도 내 생각을 글로 쓰고 나누는, 즉 다른 사람들의 공감을 얻는 ‘수사학’을 가장 중요하게 다루고 있습니다. 특히 ‘글쓰기’에 중점을 두고 이를 통해  1) 깊게 생각하는 능력, 2) 생각(논리)을 정밀하게 다듬는 능력, 3) 생각(논리)을 알기 쉽게 표현하는 능력, 4) 다른 사람들과 공감하는 능력을 길러야 한다고 말합니다.  6. 바라보고, 나누고 융합하라. 예일대 의대는 의대생들이 미술관을 가서 미술 작품을 정밀하게 관찰한 뒤 이를 다른 학생들과 나눕니다. 이는 단순히 의학 지식과 기술만 습득하여 환자를 기계처럼 대하는 의사가 아니라 환자와 창의적으로 공감하고 소통하는 의사로 기르기 위함입니다. 미국과 유럽의 사립학교들은 아직 배우지 않은 어떤 역사적 사건의 결말을 상상하게 하고 이를 글로 쓰고 발표하게 한 뒤, 진짜 역사의 결말과 비교해보게 하는 역사와 문화를 융합한 교육으로 공감능력과 창조적 상상력을 크게 발전시키고 있습니다. 인공지능이 가지고 있지 않는 윤리 도덕적 판단 능력과 문제 해결 능력을 키우기 위해서 윤리, 도덕적 문제의 본질적인 부분을 다루는 문학, 철학 등과의 융합교육을 해야 합니다.  7. 문화인류학적 여행을 경험하라. 세계 수재들이 선택한다는 2014년에 개교한 미네르바 대학은 교육과정 4년동안 여러 도시들을 거주하면서 현지 문화와 산업을 배우면서 학습합니다. 이러한 문화인류학적 여행의 본질은 ‘현지에 얼마나 오래 있었느냐’가 아니라 ‘현지인들과 얼마나 밀접한 인간관계를 맺었느냐’, 그리고 ‘이를 통해 자신을 얼마나 바꾸었느냐’ 입니다. 그렇게 되면 자신도 모르게 서로 다른 문화를 가진 사람들을 연결하는 능력을 가지게 됩니다. 이 문화 연결 능력은 인공지능이 절대 가질 수 없는 것입니다.  8. ‘나’에서 ‘너’로, ‘우리’를 보라 인공지능 선진국들은 ‘봉사’를 인공지능에게 대체되지 않는 나를 만드는 교육의 핵심 중 하나로 삼습니다. 인공지능에 대체되지 않는 인간 고유의 능력을 갖기 위해서 내 안의 인간성 자체에 집중할 때 얻어집니다. 나만 아는 인간에서 너와 우리를 아는 인간으로 성장할 때 얻어집니다. 이것은 나보다 낮은 자리에서 고통받고 있는 사람들에게 관심을 갖고 그들을 위한 삶을 사는 것입니다. 내 삶의 한 부분에 기부, 봉사, 인권이 있어야 합니다. 만약 인류사회에 이것이 없다면 약육강식의 원칙이 지배하는 동물의 세계와 같을 것입니다. 
인공지능
·
3
·
생성형 AI, 어디까지 왔는가 (1) 기본 개념과 개발 현황
A.I.C.E. 세미나 : AI시대에 인간에게 필요한 역량은 무엇인가 - 김재경 LAB2050 연구원 세션 AI는 정말 위험한가? 전세계에서 가장 빠르게, 단 두 달만에 1억명의 유저를 모은 ChatGPT의 등장을 필두로 ‘AI 시대’가 막을 열었다. ChatGPT를 비롯한 여러 생성형 AI는 놀라울 정도로 높은 수준의 텍스트나 이미지 등을 생성하며 인간이 여러 가지 일을 하는데 큰 도움을 줄 수 있을 것으로 보이지만, 동시에 그 역량으로 인해 여러 일자리가 사라지는 게 아닌가 하는 우려도 낳고 있다.  이런 혼란스러운 시점에 우리가 해야 할 일은  생성형 AI가 현재와 미래에 무엇을 할 수 있는지, 이로 인해 어떤 문제들이 발생할지 알아보고 개인과 사회가 대비하는 것이다. 노벨이 발명한 다이너마이트는 사람을 죽일 정도로 강력하지만, 사용자들의 의지에 따라 광산 작업이나 터널 건설 등 산업적인 용도로 쓰일 수 있다. 원자력 역시 폭탄으로 쓰이거나 발전 과정에서 문제가 발생하면 많은 사람들에게 피해를 주지만, 안전하게 사용하면 에너지를 얻을 수 있다.  AI 역시 결국 인간이 사용하기 나름인 ‘과학 기술’이다. 우리에게 이롭게 활용하기 위해선 우선 원리와 개념부터 알 필요가 있다.  1-1.생성형 AI관련 원리 및 개념 소개 *ChatGPT와의 문답을 바탕으로 작성함. 생성형 AI의 작동 원리를 이해하기 위해 필요한 다섯 개념에 대한 설명을 ChatGPT에게 묻고, 그 대답에 대한 간단한 설명을 덧붙이고자 한다. - 데이터세트(Data Set): 데이터세트는 AI가 학습하는 데 사용하는 데이터의 모음입니다. 이는 종종 특정 주제나 분야에 관한 정보를 포함하고 있습니다. 예를 들어, AI가 영어 문장을 생성하는 방법을 배우려면, 그 학습에는 수많은 영어 문장들이 포함된 데이터세트가 필요합니다. 이 데이터세트는 소설, 뉴스 기사, 웹페이지, 사전 등 다양한 출처에서 모은 문장들일 수 있습니다.(ChatGPT의 답변) -> 우선, 생성형 AI는 기본적으로 인간이 만든 데이터를 학습해야 한다. 텍스트를 생성하기 위해서는 인간들이 텍스트를 어떻게 쓰는지를 보아야 하고, 이미지를 생성하기 위해서는 어떤 그림을 그려야 하는지 보아야 한다. 생성형 AI가 학습을 위해 본 데이터들을 ‘데이터세트’라고 할 수 있다. 하지만 기업들이 생성형 AI를 학습시키기 위해 AI기업조차 어떤 데이터를 학습시켰는지 모를 정도로 무분별하게 데이터들을 학습시키기 때문에, 저작권 문제 등 여러 문제가 발생하기도 한다. -매개 변수(Parameters): 매개 변수는 AI가 학습하는 동안 조정되는 값들입니다. AI는 이 매개 변수들을 조정함으로써 데이터세트에서 가장 일반적인 패턴이나 규칙을 찾아냅니다. 예를 들어, AI가 문장을 생성하는 과정에서 "I am" 다음에 "happy"가 오는 것이 "sad"가 오는 것보다 일반적이라는 패턴을 학습했다면, 이는 매개 변수를 통해 학습된 정보입니다.(ChatGPT의 답변) -> 생성형AI가 인간이 쓴 글이나 그린 그림들을 보고 패턴이나 규칙을 ‘매개 변수’ 형태로 저장한다. 예시를 들면, ‘오늘의 점심밥으로 뭘 먹을까?’이라는 질문 뒤에는 ‘슬리퍼’,’원피스’보다 ‘돈까스’,’제육덮밥’같은 단어가 더 올 확률이 높다. 생성형 AI는 데이터세트에서 가장 일반적인 패턴이나 규칙, 즉 인간의 질문(프롬프트)에 확률적으로 가장 알맞은 대답을 출력한다. 이는 뒤에 이야기할 ‘환각 현상’이 일어나는 원인이기도 하다.   -학습(Learning): 학습은 AI가 데이터세트에서 패턴을 찾아내고 그 패턴에 따라 매개 변수를 조정하는 과정을 말합니다. 이 과정은 대부분의 AI 시스템에서 중요한 단계입니다. AI는 이 학습 과정을 통해 복잡한 문제를 해결하거나 예측을 수행하는 능력을 얻습니다.(ChatGPT의 답변) -확률(Probability): 확률은 특정 사건이 발생할 가능성을 수치로 표현하는 것입니다. 확률은 0부터 1 사이의 값으로, 0은 사건이 절대 일어나지 않을 것이라는 확신을, 1은 사건이 반드시 일어날 것이라는 확신을 의미합니다. 생성형 AI는 보통 다음에 어떤 단어가 올 가능성이 가장 높은지를 확률로 계산하여 문장을 생성합니다.(ChatGPT의 답변) -환각현상(Hallucination): "환각현상"은 AI가 학습 데이터에 없는 정보나 패턴을 '창조'하는 현상을 말합니다. 이는 AI가 학습 데이터에 기반한 '추측'을 하기 때문에 발생하는데, 때때로 이 추측이 현실과는 맞지 않는 결과를 초래할 수 있습니다. 예를 들어, AI가 '빨간색 바나나' 같은 실제로 존재하지 않는 것을 '창조'할 수 있는데, 이는 학습 데이터에 바나나의 색깔에 대한 충분한 정보가 없거나, 색깔과 바나나 사이의 관계에 대한 학습이 부족하기 때문입니다. 이처럼 환각현상은 AI의 출력이 현실과 맞지 않게 되는 경우를 가리킵니다.(ChatGPT의 답변) -> 생성형AI 관련 밈으로 유명했던 ‘세종대왕 맥북 던짐 사건’이 바로 이 환각 현상의 대표적인 예시다. ‘조선왕조실록에 기록된 세종대왕 맥북 던짐 사건을 알려줘’라는 질문에 ChatGPT-3.5는 실제 있는 사건마냥 대답을 하였다. 생성형 AI가 일부러 거짓말을 한 것은 당연히 아니고, 우리가 앞서 작동 원리를 보았듯이 ‘생성형 AI의 역량 내에서 가장 확률이 높다고 추측되는 대답’을 했기 때문이다.   하지만 같은 질문을 해도 ChatGPT4에서는 그런 사건이 없다고 대답하는데서 알 수 있듯이, 환각 현상은 생성형 AI)의 발전을 통해(챗봇의 경우, 언어 모델 등의 발전도 포함) 없애거나 줄일 수 있다. 위의 다섯 가지 개념을 기반으로 생성형 AI의 작동 원리를 다이어그램으로 나타내면 다음과 같다. 다이어그램 역시 ChatGPT4의 플러그인을 사용하여 만들고 조정했다(플러그인에 대한 내용은 뒤에 바로 소개한다).  1-2. 생성형 AI의 날개 : 프롬프트와 플러그인 앞서 생성형 AI의 개념과 원리를 소개할 때, ‘프롬프트’라는 개념과 ‘플러그인’이라는 개념이 등장했다. 이 두 가지는 생성형 AI에 대해 이해할 때 아주 중요한 개념으로, 앞으로 생성형 AI가 우리 삶에 점점 더 스며들수록 더 자주 접하게 될 단어들이기도 하다. 이 두 가지가 무엇인지, 이번에도 ChatGPT4의 요약으로 우선 살펴보고, 각각에 대한 설명을 이어나가도록 해 보겠다. -프롬프트(Prompt): 생성형 AI에서 프롬프트는 AI가 반응하거나 답변을 생성하기 위한 입력 또는 질문입니다. 프롬프트는 주로 사용자가 AI에게 주는 명령이나 질문의 형태를 띕니다. 예를 들어, "오늘 날씨는 어떻게 될까?" 또는 "피자 만드는 법 알려줘" 등이 프롬프트의 예가 될 수 있습니다.(ChatGPT의 답변) -> 프롬프트는 ChatGPT4의 대답만 놓고 보자면 아주 단순해보인다. 하지만 ‘질문’이 무엇인가에 따라 생성형 AI의 응답은 크게 바뀌는데, 이는 ‘생성형 AI, 어디까지 왔는가(2)’에서 더 자세히 다루고자 한다. -플러그인(Plugin): 플러그인은 AI의 기능을 확장하거나 특정 작업에 대한 AI의 능력을 향상시키는 도구입니다. 플러그인은 AI의 학습 데이터나 알고리즘에 직접적인 변화를 주지 않지만, AI가 특정 작업을 처리하는 방법을 변형하거나 확장시키는 역할을 합니다.(ChatGPT의 답변) -> 생성형 AI의 플러그인은, 쉽게 말하면 스마트폰의 앱과 같다. 예를 들어, GPT-4에는 유튜브 영상의 소리를 해석하는 능력이 없다. 하지만 여러 가지 GPT-4의 플러그인에서는 동영상(유튜브 등)의 소리를 텍스트로 바꾸어, GPT-4가 요약할 수 있도록 도와준다. 이외에도 앞서 생성형 AI의 작동 원리를 다이어그램으로 그릴 때, GPT-4 플러그인인 ‘Show Me Diagrams’를 이용했다.  2. 생성형 AI 현황 ‘AI 시대’라는 말이 과언이 아닐 정도로, AI와 관련된 새로운 소식은 하루를 마다하고 쏟아지듯이 나오고 있다. 그만큼 생성형 AI는 빠르게 발전하고 있다. 그래서 생성형 AI를 다룰 때는 지금까지의 개발 현황을 구체적으로 정리하는 것보다, 원리와 개념을 파악하고 이를 바탕으로 최신 뉴스를 살피며 앞으로 다가올 변화에 대해 살펴보는 것이 더 유용하다. 2023년 6월 27일을 기준으로, 흥미로운 몇 가지 소식을 전하고자 한다. -오픈AI, AI 모델용 ‘앱 스토어’ 구축한다 현재 GPT-4에는 스마트폰의 앱과 비슷한 기능을 하는 ‘플러그인’이 이미 상용화되어 있다. 하지만 보다 더 많은 이용자에게 OpenAI의 AI 모델을 서비스하고자 한다면 독자적인 앱 스토어 구축은 큰 경쟁력이 될 수 있다. 애플의 앱 스토어 런칭을 생각하면 자체적 앱 스토어 구축이 가지는 영향력을 상상하기 쉬울 것이다. OpenAI가 통제 가능한 생태계 구축을 통해 차별화된 사용자 경험을 제공하고, 이것이 시장을 선도하고 수익을 창출하는 계기가 될 수 있다. -"LLM으로 돈 버세요" 메타의 완전 오픈소스 전략 생성형 AI 시장에서 Meta는 일찍이 ‘오픈 소스’로 언어 모델을 공개하며 시장에서의 점유율을 높여 OpenAI, Google과 경쟁하고자 하였다. 실제로 위 이미지가 보여주듯이, Meta의 LLaMA(라마)를 기반으로 발전한 Vicuna가 구글의 바드와 비등한 성능을 보여준다는 평가까지 받았다. 하지만 기존에는 상업적 이용을 허가하지 않고 연구 목적으로만 허가하였는데, 다음에 내놓을 메타의 언어 모델은 상업적으로도 이용이 가능하다. Meta의 생성형 AI 오픈 소스화 행보는 기대와 우려를 동시에 낳고 있다. -국내 생성형 AI 포탈 뤼튼의 행보  국내 AI 개발 소식 중에서 독자들에게 가장 먼저 소개하고 싶은 현황은 생성형 AI 포털 서비스인 ‘뤼튼’이다. 지금까지 무료로 사용 가능한 뤼튼에서는 이미 GPT-4를 통한 채팅, 스태빌리티AI를 통한 이미지 생성 등을 지원하며, 마케팅 문구 등을 복잡한 프롬프트 없이 만들어주는 등의 서비스를 제공한다. 뿐만 아니라 조만간 GPT-4와 같은 플러그인 서비스를 국내 사용자에 맞춰 제공할 예정으로, 국내 사용자가 AI를 쉽고 유용하게 쓸 수 있는 AI서비스가 되지 않을까 싶다. -네이버 AI 챗봇 이름은 '큐:'...다음달 베타 테스트 실시 네이버가 OpenAI의 ChatGPT에 대응하는 AI 챗봇 서비스인 ‘CUE:’의 베타 서비스를 7월에 시작하기로 발표하였다. 네이버는 이전부터 네이버의 언어 모델인 ‘하이퍼클로바X’의 장점을, ChatGPT보다 ‘한국에 특화된 모델’, ‘환각현상이 적은 모델’로 내세웠다. 한국형 AI의 개발과 비전에 대해 많은 채널을 통해 알려왔던 네이버인 만큼, 실제 공개한 서비스가 어떤 성능을 보여줄지, 네이버 자체 서비스를 포함하여 국내의 얼마나 다양한 서비스와 연계할 수 있는 AI를 내놓을지 궁금하다. 지금까지 AI의 기본 개념과 개발 현황에 대해 간단히 알아보았다. ‘생성형 AI, 어디까지 왔는가(2)’에서는 직접 만든 AI 영상의 개발 과정을 중심으로, 현재 생성형 AI의 역량에 대해 살펴보겠다.  [AI시대에 인간에게 필요한 역량은 무엇인가]세미나 모아보기 1. 생성형 AI, 어디까지 왔는가 (1)기본 개념과 개발 현황 / 김재경 LAB2050 연구원 2. 생성형 AI, 어디까지 왔는가 (2)생성형 AI의 역량과 인간과의 충돌 / 김재경 LAB2050 연구원 3. AI 시대, 더 놀고, 더 사랑하고, 더 배우라 / 반가운 한국직업능력연구원 선임연구위원
인공지능
·
2
·