*본 포스팅은 기고요청을 받아 서울시공익활동지원센터에 먼저 작성된 글입니다. 허가를 받아 출처를 밝힌 후 캠페인즈에 업로드합니다.
*지난번 샘 알트만 해고 사태를 포함하여, 기존에 AI에 대해 작성한 글들의 내용과 중복되는 부분도 많습니다!
2023년이 끝나가는 지금, 딱히 기술에 관심이 없는 사람이라도 ‘AI’라는 단어를 한 번쯤은 접했을 것이다. 그만큼 AI는 우리에게 이전보다 친숙하게 다가온 개념이다. 2022년 11월에 출시된 ChatGPT 3.5를 필두로, 2023년 3월에 출시된 ChatGPT 4를 비롯해 구글, 네이버 등 국내외 대기업에서 잇따라 AI모델을 내놓고 있다. 여러 기업이 앞다투어 AI 기술 및 상품 발전 경쟁을 이어나가는 지금, AI는 점점 더 발전하고 다양한 일을 할 수 있게 될 것이고, 따라서 우리 삶에 미치는 영향도 점점 커질 것이다.
이런 상황에서 누군가는 AI가 우리의 일자리를 빼앗고 여러 사람들의 그림, 글을 훔쳐 저작권을 침해하는 등 여러 문제를 일으킬 것이라고 AI 발전을 우려한다. 반대로 AI의 발전에 따라 인류는 다양한 일을 할 수 있게 될 것이며, 의학 등 인류에 이로운 과학기술 발전을 가져오고, 인간의 업무를 덜어 노동시간을 단축시킬 것이라며 AI 발전을 긍정적으로 본다. AI 발전에 대한 비관과 낙관 사이, 우리가 취해야 할 태도는 무엇일까?
1. 좋거나 나쁜 과학 기술은 없다. 인간이 좋거나 나쁘다
그림 2 과학 기술의 양면성. DALL-E 3로 필자가 생성(ChatGPT 4). 의학의 발전으로 사람의 생명을 구하기도 하지만(왼쪽), 환경오염과 전쟁으로 사람이 생명을 잃기도 한다(오른쪽).
AI를 두고 대립하는 낙관적/비관적인 시선의 대립은 기존 과학 기술들에도 존재해왔다. 이는 과학 기술이 언제나 인간에게 이롭게 쓰이면서도, 해롭게 쓰여왔기 때문이다. 예를 들어, 노벨의 다이너마이트는 광산을 뚫는 이로운 기술이지만 사람을 죽이는 데에도 쓰였다. 인터넷의 발전으로 우리는 다양한 정보를 빠르게 찾을 수 있게 됐고 원격으로 토론도 가능해지며 민주주의의 발전에 도움을 줬지만, 동시에 가짜뉴스의 확산이나 자기 의견이 강해지는 반향실 효과를 불러일으키면서 민주주의가 후퇴하는 상황이 발생하였다.
그렇다면, 왜 과학기술은 긍정적인 면과 부정적인 면이 모두 존재하는가? 과학기술은 인간이 개발하고 사용하며 적용하기 때문이다. 사전적 정의에 의하면, 과학 자체는 편견이 없으며 세상과 현상을 다루는 학문이다. 하지만 필자가 여러 책에서 정의하는 ‘과학 기술’의 의미를 분석해본 결과, 편견이 없던 과학이 인간의 이익을 위해 개발되는 과정에서 ‘과학 기술’은 인간의 가치가 개입된다. 정부의 개발비 지원도, 기술기업의 이익추구도, 개인의 호기심도 결국 모두 누군가의 가치가 개입되는 과정이 존재한다. 인간이 추구하는 가치에는 돈이나 욕심 등 이기적인 가치와 선의, 정의 등 이타적인 가치가 모두 존재하기 때문에 과학 기술 역시 인간 사회에 부정적인 가치와 긍정적인 가치를 모두 가지게 된다.
즉, 우리는 특정 과학 기술이 ‘좋다’ 혹은 ‘나쁘다’ 라고 딱 잘라서 말할 수 없다. 모든 과학 기술은 천천히, 자세하게 뜯어보면 사람과 마찬가지로 좋은 점도 있으면서 동시에 나쁜 점도 있다. 하지만 역시나 사람과 마찬가지로, 특정 과학 기술에 대한 좋은 점은 극대화하고 나쁜 점은 최소화하는게 제일 좋다. 이를 위해 AI라는 과학 기술의 양면적인 모습을 몇 가지 살펴보고, 우리는 어떤 태도를 가져야 할지 생각을 나누고자 한다.
2. AI라는 양날의 검은 무엇을 찌르는가
① 생성형 AI, 편리한 도구지만 인간의 저작권을 침해해
우리는 생성형 AI를 통해 다양한 지식을 빠르게 탐구하거나 글이나 정보를 빠르게 찾고 정리할 수 있다. AI에게 철학적인 질문을 하며 토론을 할 수도 있고 데이터 분석을 도와달라고 할 수 있다. 이전 부분에 삽입한 과학 기술 이미지도 몇 번의 수정을 거치긴 했지만 그림을 전혀 그리지 못하는 필자가 몇 분 안에 그린 이미지다. 뿐만 아니라 AI가 가수처럼 노래를 대신 불러준다던가, AI로 영화를 만든다던가 하는 등 창작의 영역에서도 AI가 점차 할 수 있는 일이 많아지고, 전문성도 점점 갖추고 있다.
하지만 개인이나 기업 단위에서 AI활용에 어려움을 겪는 경우가 많다. 실제로 소프트웨어정책연구소(SPRi)의 보고서에 따르면, 기업들은 AI 기술 도입과정에서 주요 애로사으로 ‘투자 대비 성과의 불확실성’, ‘내부 운용의 기술력 부족’을 2,3위로 꼽으며 AI를 ‘잘’활용하는 방법과 AI가 실제로 성과를 낼 수 있을지에 대한 의문, 어떻게 쓸지에 대한 배경지식이 부족한 경우가 많다고 밝혔다. 기업 단위나 개인 단위에서 업무 뿐만 아니라 일상에서도 생성형 AI를 어떻게 다룰지 다양한 경험과 배경지식을 공유하고, 교육하는 과정이 필요하다.
좋은 도구로서 주목받는 만큼, 생성형 AI가 발전하는 과정에서 가장 큰 문제점으로 지적받는 것 중 하나가 바로 ‘저작권’이다. 생성형 AI가 사용자의 요청에 맞게 특정 결과물을 생성하려면 결국 기존 인간의 창작물을 학습해야 하는데(생성형 AI 작동원리 등에 대한 기본 지식이 궁금하다면 필자의 이 글을 참고하기 바란다), 이 과정에서 사용자의 동의 없이 학습된 데이터도 많다. 수많은 사람들의 글과 그림과 같은 창작물들의 저작권이 보장받지 않는다면, 기자나 작가, 일러스트레이터들의 생계 보장이 어려울뿐더러 창작물이 감소하여 사회적 이익이 저해된다. 생성형 AI 저작권 문제로 ChatGPT를 만든 OpenAI가 소송을 당하기도 하고, 이미지 생성 AI기업들이 단체로 아티스트들과 소송전을 벌이고 있기도 하다.
생성형 AI가 일으키는 저작권 문제를 해결하기 위한 방법은 크게 두 가지가 있다. 하나는 AI의 저작권 침해와 관련된 법안 등의 규제를 만드는 것이다. 현재 AI관련 법안 및 규제와 관련하여 가장 앞서나가고 있는 곳은 유럽연합(이하 EU)와 미국이다. 비록 최근에 프랑스 등의 반대로 AI 법 제정이 불투명해지긴 했지만, EU에서는 2021년부터 AI 관련 법안의 제정을 준비해왔다. 주요 내용 중 생성 AI가 학습데이터의 저작물 정보를 공개해야 하는 조항 등이 포함되어 있다. 미국에서는 저작권청에서 직접 생성형 AI가 일으키는 저작권 문제에 대한 논쟁에 대해 의견을 수렴하고 있으며, AI 기업에 자율규제를 요구하고 안전과 보안, 신뢰를 위해 기업을 강제하는 행정명령을 발표하기도 했다. 한국은 현재 AI규제와 관련된 입법을 시도하고 있지만 제대로 이루어지지 않고 있으며, 오히려 생성형 AI의 학습 과정에서 저작권 침해를 면책해야 한다는 법 도입이 시도되며 우려를 낳고 있다. AI 저작권 문제의 심각성을 많은 국민이 알고 관련 논의와 여론 형성이 활발해지길 바란다.
두 번째 해결책은 기술적으로 AI가 저작권을 침해하지 못하도록 막는 것이다. 여러 가지 기술이 활용되곤 하는데, 가장 많이 연구되는 방식 중 하나는 AI의 학습 자체를 망가뜨리는 방법들이다. 최근 나온 ‘나이트셰이드’라는 도구는 생성형 AI가 데이터를 잘못 학습하게 하여 사용자의 의도와 다른 결과물을 출력하도록 한다. 기사를 보면 모자 데이터를 학습하여 케이크를 출력하는 것을 볼 수 있다. 이외에도 웹 개발 과정에서 사람은 인지할 수 없지만 컴퓨터는 인식할 수 있는 문장을 넣어 생성형 AI의 학습을 막는 방법 등도 활용되고 있다. 제도적 해결책과 기술적 해결책 모두 생성형 AI로 인해 나타나는 저작권 문제를 해결하는데 필요하다.
② 편향적이고 차별적인 AI vs AI가 편향적이지 않게 하려는 인간의 노력
앞서 AI가 인간의 데이터를 학습하여 여러 결과물을 만든다고 설명한 바 있다. 주로 인터넷에 있는, 혹은 회사가 가지고 있는 데이터를 학습하여 사용자가 원하는 결과물을 만들어내는데, 이 과정에서 AI가 기존 인간의 편향성을 그대로 드러내는 경우가 자주 있다. 예를 들어, 미국의 한 회사에서는 AI가 고령의 구직자를 자동으로 탈락시켜 소송을 받았다. 또한, 미국 미시간주 디트로이트 경찰이 얼굴 인식 기술로 용의자를 특정하는 과정에서, 무고한 흑인 여성이 용의자로 지정되기도 했다. 기존 사회에서 인간이 가지고 있던 나이, 성별, 직업, 인종 등에 대한 편견과 편향을 AI 역시 그대로 학습할 확률이 높으며, 편향적인 AI가 여러 분야에 활용된다면 기존의 편향과 편견이 더 넓게, 더 강하게 퍼질 수 있다.
이런 AI 편향 문제를 해결하기 위해 기술자와 연구자들은 여러 노력을 하고 있다. 예를 들어, 여러 기술 기업에서는 AI 편향성을 측정하고 평가하기 위한 모델들을 개발하고 있다. 아예 AI 학습 및 설계 단계에서부터 편향성을 줄이기 위한 방법도 시도되고 있다. 또한, 우리는 AI에게 편향성을 줄여달라고 직접 요구하는 것만으로도 AI의 편향성을 줄일 수 있다. 이미 많은 사람들이 편향과 편견에 반대 목소리를 냈던 흔적이 인터넷에 남아 있기 때문이다. 이외에도 AI가 학습할 데이터에 직접 소수 의견, 편향된 의견에 반대되는 의견을 넣는 캠페인을 벌여 AI의 편향 문제에 대응할 수 있다. 이런 기술적인 노력 외에도, 사회 문제에 관심을 가지고 논리적으로 사고할 수 있는 능력을 시민들이 가질 수 있게 하는 노력이 함께 진행되어 인간이 가진 부정적 편향을 근본적으로 줄여 나갈 필요가 있다.
③ 일자리를 위협하는 AI vs 노동시간을 줄여주는 AI
AI의 발전에 따라 예상되는 또 다른 대표적인 사회 문제로, 인간의 일자리를 AI가 뺏을 것이라는 우려가 있다. 속도도 빠르고 능력도 좋은 AI가 산업 전반의 업무를 수행할 수 있게 될 경우, 자연스럽게 인간의 일자리를 AI가 대체할 것이라는 전망을 많은 사람이 내놓고 있다. 앞서 AI가 일러스트레이터들의 저작권을 침해하는 문제가 심각하다고 소개했는데, 일러스트레이터들의 일자리 역시 AI가 침해하고 있다. 다른 일자리는 어떨까? 한국은행은 화학공학 기술자나 철도 및 전동차 기관사 등 국내 일자리 중 약 341만개(전체 일자리의 12%)가 AI에 의해 대체될 가능성이 크다고 분석했다.
AI의 발전은 인간의 일자리를 위협하기만 할까? 인간의 관점에서는 두 가지 대응방안이 있다. 하나는 개인의 역량으로 인공지능과 대결하는 게 아닌, 사회적 협동역량을 길러, 인공지능을 ‘활용’하는 것이다. 지금까지 인간 사회와 문명이 발전할 수 있던 이유는 인간 개개인의 역량이 모여 집단 지성의 힘을 발휘했기 때문이다. 인공지능은 개개인보다 뛰어날 수 있지만, 특정 집단과 사회의 역량으로 대응한다면, 아직 일반인공지능(AGI)에 도달하지 못하고 한계가 분명한 AI의 역량에 대응할 수 있다. 또한 사회적 역량을 발휘하기 위해선 인간 간의 소통과 교감이 필요한데 이 역시 AI가 인간을 대체하기 어려운 분야라고 할 수 있다.
또한 발전한 AI가 일자리를 줄이는 것이 아닌, ‘일하는 시간’을 줄일 수도 있다. AI의 생산성이 늘어난다는 것은 인간이 일할 자리를 줄일 수도 있지만, 고용된 인력은 비슷하게 유지한 채로 인간이 일할 시간 자체를 줄여줄 수 있다는 말도 된다. 빌게이츠는 미국의 팟캐스트에 출연해 ‘기계가 모든 음식과 물건을 만들어줘서 사람들이 생활비를 벌기 위해 주 5일 이상 근무할 필요가 없어질 것이며, 아마 주3일 근무를 해도 괜찮은 세상이 올 것’이라고 낙관했다. 이를 위해선 근로 시간을 조정하는 제도적 지원이 필요하다.
3. AI는 결국 인간의 문제라는 걸 일깨워준 OpenAI CEO 샘 알트만의 퇴출과 복귀
글에서 다룬 내용 외에도 미처 언급하지 못한 AI의 장점과 단점은 정말 많다. 결국, AI의 발전은 인간의 삶에 여러 긍정적/부정적 영향을 미치고, 그 영향들에 대해 어떻게 생각하느냐에 따라 사람마다 AI의 발전을 보는 시각은 복잡하고 다르게 나타난다. 현재 최고의 AI회사인 OpenAI의 이사회 구성원들 사이에서도 AI의 발전에 대해 다른 생각을 가지고 있었고, 이는 OpenAI의 CEO인 샘 알트만의 퇴출 사태로 이어졌다.
그림4 오픈AI 지배구조. 출처 OpenAI 홈페이지
OpenAI는 회사 명칭에서 알 수 있듯이, 개방적인 AI 개발을 통해 공익을 추구하는 비영리단체에서 출발했다. 성능이 좋은 일반인공지능(AGI)을 개발해 여러 사람들이 그 이익을 누리게 하는 게 회사의 최종목적이다. 하지만 미래기술로 불리는 일반인공지능을 개발하기 위해서는 막대한 돈이 필요했고, 지금의 ChatGPT처럼 부분적으로 수익을 추구하게 되었다.
OpenAI는 세계 최고의 AI를 빠른 속도로 발전시키며 큰 수익을 얻으며 사회의 주목을 받게 되었고, 이 과정에서 OpenAI는 AI의 발전을 두고 갈등하기 시작했다. AI가 너무 빠르게 발전시키면 AI로 인해 많은 문제가 발생할 것이기 때문에 발전 속도를 늦춰야 한다는 효과적 이타주의(Effective Altruism)와 많은 사람이 발전된 AI로 인한 이익을 볼 수 있도록 하기 위해 발전 속도를 빠르게 해야 한다는 효과적 발전주의(Effective Accelerationism)를 두고 이사회 내부에서 갈등이 생겼고, 이 과정에서 상대적으로 효과적 발전주의에 가까웠던 OpenAI의 CEO인 샘 알트만과 OpenAI의 공동창업자인 그렉 브록만이 갑자기 퇴출되는 사건이 발생했다.
하지만 샘 알트만이 퇴출되고 나서 OpenAI의 투자자, OpenAI의 직원 대다수, 그리고 OpenAI의 최대 파트너인 마이크로소프트(MS)가 샘 알트만의 복귀를 원했다. 특히 마이크로소프트의 경우, 샘 알트만과 그렉 브록만을 MS로 영입한 후, 남은 OpenAI의 이사회 전원 사임을 전제로 둘이 OpenAI에 돌아갈 수 있도록 도왔다. 결국 샘 알트만과 그렉 브록만은 OpenAI로 복귀했으며, 이로 인해 OpenAI는 마이크로소프트라는 글로벌 대기업의 영향을 더 크게 받게 되었으며, 이전보다 효과적 발전주의에 입각한 AI 발전에 더 속도를 올리게 되었다.
우리는 샘 알트만의 퇴출과 복귀 사태를 통해 AI 문제에 대해 두 가지 생각할 점이 있다. 하나는 AI 발전에 대해 고민할 때 효과적 이타주의와 효과적 발전주의 중 어떤 시각이 맞는지, 혹은 또 다른 시각이 맞는지에 대한 고민이다. AI의 발전에 따라 인간에게 미치는 긍정적 영향과 부정적 영향이 공존하는 만큼, 우리는 AI 발전속도에 대해 어떤 입장을 가져야 할지 고민이 된다. 효과적 이타주의가 AI등의 과학기술의 발전에서 오는 이익을 누리지 말자는 이야기는 아니지만, 너무 빠르게 발전한다면 AI가 인간에게 미치는 부정적 영향은 더 커지고 많아질 수 있다.
하지만 이미 많은 국가와 기업이 AI 발전 경쟁을 하고 있는 만큼, 특정 회사나 국가가 AI 발전 속도를 늦추자고 하는 이야기는 현실적으로 어려울 수 있다. AI를 빠르게 발전시키되, AI로 인해 나타날 부정적 영향을 최소화할 방법을 찾는 게 최선일 수 있다. 앞선 두 시각과 다르게, AI의 영향력을 현실에 비해 너무 과대평가할 수 있으며, AI HYPE 뉴스를 경계해야 한다는 주장도 있다. 효과적 이타주의와 효과적 발전주의 모두 AI의 미래 영향력에 대한 일종의 ‘믿음’에 근거한 주장인 만큼, AI의 영향력과 가능성에 대해 현실적 감각을 가지려고 노력해야 할 것이다.
또한, 샘 알트만 퇴출 및 복귀 사태는 결국 AI 문제가 인간의 문제임을 다시 한 번 강조한다. 세계 1위를 달리고 있는 OpenAI의 가장 큰 위기는 경쟁사와의 AI 경쟁, 해커의 공격 등 기술적 문제가 아니었다. 이사회 구성원 간의 견해 차이로 인해 발생한 OpenAI의 위기는 회사 구성원들의 의사, 마이크로소프트를 포함한 다수의 투자자들의 이해관계에 의해 해결되었다. 만약 샘 알트만이 복귀하지 못했다면 OpenAI는 내부 분열과 투자 중단으로 원하는 일반인공지능을 개발하기 어려워졌을 수도 있지만, 동시에 더 안전한 AI를 개발하자는 목소리가 전세계적으로 더 커졌을 수도 있다. 결국 AI를 어떻게 개발할 것인지, 어떻게 규제할지 정하고 그에 따른 결과는 인간에게 좋든 나쁘든 큰 영향을 미친다. 이 글이 사회에 영향을 미칠 AI 관련 의사결정에 대한 독자들의 이해에 도움이 되고, 그 도움이 더 좋은 사회를 만드는데 기여하길 바란다.
코멘트
4첫 이미지가 '이것이 미래세계다 희망편과 절망편'을 떠올리게 하네요.ㅎㅎㅎ(궁금하면 구글 검색)
AI를 좀더 깊이 이해하고 바라보는데 큰 도움이 되는 것 같습니다. 항상 좋은 글 써주셔서 감사합니다. (_ _)