우리 사회 인공지능의 잠재위협과 시민참여의 관점 확보하기
"[빠띠 월간 이슈] 캠페이너 인생게임 시리즈- stage. 인공지능" 발제- 이광석(서울과학기술대)
오늘 제 발표에서는 한국형 인공지능의 도입과 잠재 위협을 잠시 살피고, 이에 대응해 우리가 어떤 관점과 시각을 가져야할지를 간단히 논의하고자 합니다. 무엇보다 이를 통해 시민사회의 개입과 참여가 가능한 인공지능의 비판적 관점을 견지할 때만이 향후 이의 기술민주주의 모델 구성이 가능하다는 점을 강조하고 싶습니다.
한국형 인공지능의 안착 방식
먼저 한국형 인공지능의 안착 방식을 살펴봅시다. 우리 사회는 인공지능 기술 도입에 있어서 몇 가지 경향이 두드러집니다.
첫째로, 국가 차원에서 시장 경쟁 기술로서 인공지능을 최우선 과제로 삼아 이를 진작하는데 모든 것을 쏟아붓고 다른 경쟁 요인이나 모순을 부수적으로 보는 태도입니다. 가령, 인공지능 산업 진작을 위해, 시민 데이터의 광범위한 수집과 활용을 법적으로 정당화하는 것이나 정보인권 위협이 큰 고위험군 인공지능 개발에 대한 규제를 최대한 시장 내적 논리에 맡기려는 사회 분위기가 그것입니다. 우리는 이를 ‘테크노-발전주의’ 국가 모델로 볼 수 있겠습니다. 테크노-발전주의는 노동 기본권이나 시민 인권 영역을 희생양 삼아 국가 주도의 기술 성장과 발전을 도모하는 모델이라 할 수 있습니다.
둘째로, 인공지능 기술이 갈수록 우리 사회의 소비와 소통은 물론이고 사회적 의식과 규범을 매개하거나 대신해 자동화 하지만, 이에 대한 사회 영향력 평가나 반성적 수용의 논의 없이 인공지능의 안착을 빠르게 이루려는 ‘테크노-낙관주의’가 팽배하다는 점입니다. 가령, 스탠포드 대학에서 발간한 ‘인공지능 지표 보고서 2023’에 실린 갤럽 조사에 따르면, 20년 후에 인공지능이 어떠할 지에 대한 미래 전망에서 한국과 중국의 동아시아 국가군이 다른 지역 국가들에 비해 압도적으로 미래 낙관적인 견해를 보였습니다. 이런 사회 정서에서는 인공지능 시장의 부흥이나 과도한 기대 말고는 장기적으로 사회적인 영향 평가나 질적으로 갖춰야할 시민 보호 논의는 거의 부재합니다.
셋째로, 정부의 인공지능 정책 슬로건만 봐서는 그 모든 것이 디지털 경제 성장의 일환으로 보이지만, 그것은 또 다른 한편으로 우리 일상 삶의 조직과 사회관계의 효율성과 합리성을 높이기 위한 인프라로 인공지능 기술을 빠르게 안착시키고 있다는 점을 주목할 필요가 있습니다. 이미 우리는 AI 알고리즘 논리가 사회의 자동화된 일반 규범이 되는 현실 한가운데 있습니다. 예컨대, 카카오톡 메신저나 소셜미디어 등 전자적 소통 방식의 일상화는 물론이고, 일상 면접, 구인・구직, 배달, 주문, 추천, 예측, 판결, 관리 시스템 등에 지능형 알고리즘 기술이 두루 착근되어 운용되고 있습니다. 시간이 갈수록 인공지능 알고리즘의 자동화된 기술 설계 구조가 일상의 특정 업무나 규범을 대체해갑니다. 즉 기업의 지능형 자동화 기술 설계들이 일과 일상 모두에서 효율과 생산성을 높이는 수단으로 주목받지만, 이에 대한 영향 평가나 사회적 대비는 미흡합니다.
마지막으로, 국가 주도의 일상 속 인공지능 기술 가속화가 초래할 수 있는 민주주의에 대한 잠재적 위협을 지적하고자 합니다. 민주주의가 직업 정치와 관료주의로 축소되고 정치적 미사여구로 전락할수록, 디지털 플랫폼과 인공지능 등 첨단 기술이 이를 관장하는 사회의 중심 역할을 자처할 공산이 커집니다. 이는 우리가 흔히 경계하는 기술의 ‘도구적 합리화’ 과정에 가깝습니다. 판단과 의사결정의 빈틈과 공백을 인공지능 기술이 대신해 메우는 일이 잦아지면, 우리 사회의 전산통계학적 의존율이 더 커질 것입니다. 이를테면, 2010년대 초부터 소셜미디어 알고리즘이 우리 사회에 미쳤던 관계와 소통의 왜곡과 이로 촉매된 혐오와 적대의 현실 정치의 위기 상황은 지금 우리에게 뼈아픈 교훈이 되고 있습니다. 이제 다시 챗GPT 등 생성형 인공지능의 등장과 함께, 인간 사유와 사회적 숙의 과정의 생략과 탈숙련화를 부추키는 인공지능 기술의 위협과 우려가 점점 커지고 있습니다.
인공지능에 대한 시민 참여와 역할 찾기
영국 카디프 소재 시민사회 단체 데이터정의랩(Data Justice Lab 2022/7)의 진단에서처럼, 인공지능 현실은 “일상 삶의 데이터화, 알고리즘의 사회적 영향력, 시민 민주주의의 위기”를 야기하고 있습니다. 무엇보다 일상 삶 속에서 인공지능이 범용화되고 그것의 사용에 대한 심리적 저항감이 적을수록, 우리는 그것의 심각한 문제에도 불구하고 이후에 실질적으로 그 잠재적 위협에 대응하기 더욱 어려워질 것입니다. 기술이 굳어지기 전에 시민사회의 능동적 개입 역할이 요청되는 대목입니다.문제는 시민들이 인공지능위험을 대비하기 위해서는 시민행동 이전에 어떤 시각을 견지해야 할지가 중요하다는 데 있습니다. 관점의 부재는 자칫 판단에 혼동을 일으킵니다. 부지불식간에 기술 도구주의적이고 개발주의적인 국가 정책 방향에 힘을 실어주거나 지지하고 있을 때도 종종 생깁니다. 그래서, 쉽지는 않겠지만, 인공지능 기술 인권의 측면에서 어떻게 인공지능 윤리나 규범에 좀 더 시민사회적 가치나 기술 비판적인 시각을 확보할 수 있는지를 고민해야 할 것입니다.
오늘 발표에서는 인공지능의 잠재 위협에 맞서 논의되는 주요 담론 지형을 살펴보려 합니다. 표에서는 현재 인공지능 담론을 세 가지 정도로 분류하고 있습니다. 즉 ‘실용주의적 접근’(이른바 사람 중심 인공지능), ‘기술 비판적 접근’, 그리고, ‘생명・인권적 접근’을 간단히 살펴보겠습니다. 특히, 나는 인공지능 논의 지형에서, 실용주의적 접근 보다는, 기술 비판적이고 생명・인권적 접근의 통합적 시각을 시민사회가 견지해야 한다고 강조하고 싶습니다.
1. 실용주의적 접근: ‘사람 중심’ 인공지능
먼저 ‘실용주의적 접근’을 살펴보겠습니다. 2010년대 말부터 국제 사회에서 인공지능의 상업화가 진전되면서 점차 관련 AI 윤리나 가이드라인 혹은 원칙에 대한 요구가 크게 증대해왔습니다. 인공지능 기술이 인류와 사회에 미치는 영향력이 점차 커지는 것에 대한 사전 대비를 위한 조처였습니다. 그래서, 각국 정부, AI 관련 빅테크, 국제기구, 학계 연구소, 시민사회 등이 나름 권리장전, 윤리, 원칙, 권고안 등을 속속 마련해왔습니다. 하지만 이를 발표한 기업, 정부, 학계, 시민 등 주체에 따라 인공지능을 바라보는 강조, 관점, 목적, 활용, 효과 등에서 서로 동상이몽을 꾸고 있다는 점도 확인해줍니다. 먼저, 글로벌 빅테크를 봅시다. 대표적으로 마이크로소프트의 AI 원칙(2018/2)이나 구글의 AI 원칙(AI at Google: Our Principles)(2018/6)이 대표적으로 우리의 시야에 들어옵니다. 이들은 대체로 최소 수준에서의 인공지능 개발 책임과 원칙을 담고 있습니다. 하지만, 시민사회가 강조하는 국제 인권, 공정과 비차별, 인본주의적 가치의 진흥 관련 원칙과 진술이 구체화 되지 않거나 상대적으로 미흡합니다.
선진국들의 공동 의사 조율 역할에 충실한 경제협력개발기구(OECD)의 경우는 비슷하지만 조금 다릅니다. OECD의 AI 원칙 및 권고안(2019/5)은 인공지능의 일반적인 위협 요인들을 중립적으로 나열하거나 지구촌 제 주체의 의무와 역할을 강조하는 원론 수준의 진술로 구성돼 있긴 합니다. 그럼에도 OECD의 AI 원칙은, 단순히 ‘착한’ AI 시스템 개선을 통해 기술공학적 해결에 의지하던 빅테크의 오래된 수동적 태도를 벗어났다는 점에서 살짝 진일보했습니다. 말하자면, 이전에는 중립적이고 ‘착한’ 기술 그 자체의 성장 논리를 강조했다면, ‘인간 중심’ 혹은 ‘인간 주도’의 알고리즘 접근으로 기술 도입에 대한 인간 책무를 강조한다는 점에서 의미 부여할 만합니다. 무엇보다 OECD의 AI 원칙 발표는 국내 인공지능 정책 패러다임에도 큰 영향을 미쳤습니다. 국내외적으로 이른바 ‘인간 중심(human-centered) AI’ 담론 확산을 공식화한 계기가 됐다고 볼 수 있습니다. ‘인간 중심’ 인공지능 개념은 구체적으로 두 가지 맥락적 의미를 지닌다고 봅니다. 하나는 인간의 기술 통제력과 책임성을 강조했고, 다른 하나는 인간에 이롭기도 하지만 ‘해로운 AI’ 기술에 대한 예방적 대응안 마련이란 맥락이 존재합니다. 특히, OECD AI 원칙에서는 “신뢰 가능한 AI” 구현을 위한 5가지 원칙을 제시하고 국제 사회에 이를 권고하고 있는데, 포용성 및 지속가능성, 인간 중심성, 투명성 및 설명가능성, 견고성 및 안정성, 관련 제 주체의 사회 책무를 강조합니다.
국내에서는 OECD AI 원칙에 반응해 문재인 정부 시절 ‘인공지능 국가전략’(2019/12)에서 처음으로 ‘사람 중심’의 인공지능에 대한 접근 방향을 잡았다고 볼 수 있습니다. 이후에는 미 AI 권리장전과 비슷한 이름과 취지 아래 발표된 윤석열 정부의 ‘디지털 권리장전’(2023/9)이 “디지털 공동번영사회”, 즉 “디지털 기술에 기반한 혁신을 추구하면서 그 혜택을 함께 향유하는 사회”라는 상당히 원론적이고 모호한 구상을 제시한 적이 있습니다. 디지털 권리장전은 시민 안전이나 약자의 보호를 중심 가치로 삼기보다는, 주로 디지털 역량, 디지털 혁신, 디지털 다양성 등 첨단 기업 성장 중심의 권리와 책무를 나열하는 경향이 큽니다. 게다가 시민 보호와 지원을 위한 구체적 정책 입안이나 실제 조치 사항과 연관된 실행 방안이 부재합니다.
해외 빅테크의 AI 윤리와 원칙 제정과 마찬가지로 국내 주요 IT 대기업들의 경우에도 실제로 ‘사람 중심’ AI 윤리 원칙을 마련하는 일에 그동안 꽤 적극적이었다고 볼 수 있습니다. 네이버, 카카오, LG 등이 해외 빅테크와 유사하게 “사람을 위한 AI”, “인간 존중” AI 개발을 목표로 AI 윤리나 원칙을 빠르게 기업 내부에 도입했던 정황이 있습니다. 이들 대부분은 정부의 플랫폼 알고리즘 규제를 위한 법안이나 제도 도입에 선제적으로 대응하고, 시민사회의 AI 인권 문제 제기를 누그러뜨리기 위한 사전 정지 작업으로 AI 윤리나 원칙을 적극 도입해 홍보하하는 경향이 크다고 볼 수 있습니다. 실제 ‘챗봇 이루다 사건’의 논란을 전후해 인공지능에 대한 정부 규제 기류가 감지되면서 국내 관련 대기업들이 앞다퉈 인공지능 윤리 팀과 대학 연구소 공동으로 AI 윤리와 AI 원칙을 서둘러 발표했던 정황은 이와 관련해 꽤 흥미로운 지점이라 할 수 있습니다.
이제까지 본 것처럼 국내외 빅테크, 정부, 국제기구 등에서 발표했던 AI 윤리나 원칙이 담고 있는 ‘사람 중심’의 인공지능 접근은 기술에 대한 인간의 책무를 전제하고 있지만, 실제 인공지능 기술의 구조적 억압과 기술 권력의 문제로 바라보는 심층 감각이 부족하다고 볼 수 있겠습니다. 모든 주체를 단 하나의 인간종으로 호명하고 간단히 평등적 주체로 바라보는 ‘사람 중심’ 인공지능의 시각으로는, AI 기술에 이미 내재한 차별과 폭력의 구도를 부각하는 비판적 관점이나 정작 사회 약자들이 기술 설계에 관여해 어떤 목소리를 내거나 권리를 찾을 수 있는지에 대한 날선 전망이 크게 빈약할 수밖에 없습니다.
2. 기술 비판적 접근: 사회 구성물로서 인공지능
앞서의 ‘인간 중심 AI’라는 실용주의 관점은 한 사회에서 인공지능이 일으킬 수 있는 예상 위험을 대비하기 위해 법적 강제성이 약한 인공지능 윤리와 원칙 마련에 충실한 반면, 상대적으로 인공지능이 사회에 불균등하게 작동하는 비판적 실재를 파악하는 데는 인색합니다. 실용주의적 접근은 인공지능을 우리의 미래 풍요와 성장을 좌우할 중립적 기술 수단으로만 보려 하면서 그것이 실제로 사회・역사적 구성물이란 사실을 간과하는 경향이 있습니다. 늘 기술은 그 기능적 효과와 더불어 사회문화적 층위와 씨줄 날줄처럼 긴밀히 엮여 있다는 점을 재확인할 필요가 있습니다.
우리는 자본주의 비판적 실재를 읽고 인공지능의 사회 구성주의적 성격을 강조하는 시각을 AI ‘기술 비판적 접근’이라 부를 수 있을 것입니다. 표에서 보자면 중간 열에 해당합니다. 인공지능의 기술 비판적 접근은 제도 정치나 현장에서보다는 주로 비판 인문사회 학계를 중심으로 민주주의, 인권, 노동과정, 체제, 권력, 기술사 등의 주요 논제와 접붙으면서, 인공지능이 단순히 인류에 공헌할 중립적 기술 대상이 아니라 보고 동시대 자본 권력이 이를 통해 물질계를 좌우하고 데이터 인클로저(종획) 질서를 꾀하려는 실체적 진실을 파악하고자 합니다(이광석, 2021). AI 기술 비판적 접근은 인공지능에 얽혀 있으나 그 열광과 신화에 의해 가려진 비가시적 심층 구조를 드러내는 비판적 인식의 방법입니다. 예컨대, 인공지능 연구자 크러포드(Crawford 2022, 10-11)는 인공지능 질서의 비판적 실재를 드러내는 자신만의 방식을 인공지능 ‘지형학 혹은 지리학적 접근(a cartographic or topographical approach)’이라 언급합니다. 그는 AI 지형학적 탐색을 통해 그 심연에 존재하는 광물 채굴, 데이터 채굴, 착취적 노동 관행 등 비판적 실재의 구체적 지형을 일관되게 드러내고자 합니다. 크러포드는 시각 예술가 블라단 욜러와 공동으로 집필한 글(Crawford and Joler 2018)에서도, AI 지형학과 유사한 개념으로 ‘AI 해부도(AI’s anatomy)’의 필요성을 제안하기도 했습니다. 그의 AI 지형학처럼 AI 해부도는 오늘날 자본주의 기술의 새로운 국면, “채굴, 로지스틱스(물류), 유통, 예측, 최적화된 자원 추출, 인간 노동, 알고리즘 처리의 상호 얽힌 연쇄고리”로서 인공지능의 표층 아래 인공지능 실체 이해의 방법론이라 볼 수 있겠습니다. 그 외에도 이탈리아 철학자 파스퀴넬리와 시각미술가 블라단 욜러(Pasquinelli and Joler 2021)가 개념화했던 ‘누스코프(Nooscope)’ 또한 인공지능의 한계와 그 비판적 실재를 읽으려는 지도 혹은 해부도 그리기 작업에 해당합니다. 특히 이들은 인공지능의 비판적 지도 제작 작업을 통해 AI의 기술적 화려함 뒤에 가려진 살아 숨 쉬는 인간 생명 활동으로부터의 “지식 추출주의(knowledge extractivism)”와 데이터 라벨링 등 인공지능을 위한 허드렛일에 투여되는 위태로운 유령노동의 실상을 드러냅니다. 주로 학술장을 중심으로 한 이들 인공지능의 기술 비판적 접근은 이렇듯 AI 해부도, AI 지형학, 누스코프 등의 위상학적 개념을 통해 불투명한 기술 권력의 실체를 가시권으로 끌어오는 데 집중합니다. 이는 겉보기에 매끈하게 보이는 인공지능의 자동화 기제 아래 놓인 물질적 조건들의 심층 인프라 구조와 이들 기술 인프라의 상호 얽힌 연결망을 드러내는 전략을 취합니다. 더불어, AI 기술 비판적 접근은 기술 권력의 비가시적 실체를 드러내는 동시에 기술 민주주의적 대안 기획을 구상하고자 합니다.
3. 생명・인권적 접근: 시민 개입의 AI 기술정치학
마지막으로, 표에서 보면 맨끝 열 인공지능의 ‘생명・인권적 접근’은, 바로 시민 개입의 AI 기술정치학에 연결된다고 볼 수 있습니다. 가령, 독일 알고리즘 와치(Algorithm Watch 2020)의 ‘자동화 사회 보고서 2020’은 인공지능 ‘자동화 의사결정(automated decision-making; ADM)’이 유럽 국가에 미치는 문제점, 현황, 정책 제언을 담아내는 데 공을 들입니다. 또 다른 시민사회 단체 액서스나우(Access Now 2018)의 ‘인공지능 시대 인권’ 보고서는 시민 인권의 관점에서 ‘이로운/해로운(helpful/harmful) AI’ 구분법을 소개하고 ‘해로운 AI’의 양상을 유목화하기도 했습니다. 국제 인권 그룹 앰네스티(Amnesty International)와 액서스나우(2018/5)가 공동으로 발표했던 ‘토론토 선언’에서는 국제 인권법에 기초해 머신러닝 기반 AI 시스템의 평등과 비차별 권리를 신장할 수 있는 방안을 구체적으로 의제화하기도 했습니다. 이들 국제 시민사회 단체들이 인공지능을 바라보는 공통점은, ‘사람 중심’의 인공지능이란 모호한 정의 대신, 인공지능 시대의 약자 보호와 인권 지향의 기술 민주주의적인 설계 원칙을 보다 분명히 하려 한다는 데 있습니다.
더불어, ‘생명・인권적 접근’은 인공지능 업계가 소홀히 하는 기술 약자 인권을 보호하기 위한 시민사회의 개입과 실천 또한 강조한다는 점에서 특별합니다. 이를테면, 시민사회 단체 알고리즘저스티스리그(Algorithm Justice League)의 설립자인 조이 부올람위니(Buolamwini 2023, 280-281)는 ‘알고리즘 정의(algorithmic justice)’에 기댄 개입의 방식을 구체적으로 제시한 적이 있습니다. 부올람위니는 인공지능 시대 인권 보장을 위해서 시민의 알고리즘 선택 및 이를 논의할 수 있는 권리 보장, AI 시스템에 의해 입은 시민 피해 구제책 마련, 역사・사회적 요인을 고려하지 않는 AI 공정성의 불인정, AI 개발에 해당 사회 이슈를 반영할 것, 데이터로 인한 부당한 차별 금지, 낯선 데이터 프로필 내용에 기댄 섣부른 판단 금지, AI 연산 지표보다 인간의 존중, 피부색에 의한 차별 논리 금지 등을 제안합니다. 이에 덧붙여, 그는 인공지능이 소수의 특권층이 아닌 시민에 의한 시민을 위한 것이어야 한다고 강조합니다.
오늘날 인공지능 자동화와 가장 첨예하게 부딪히는 핵심 인권 영역 중 하나는 AI 노동 영역일 것입니다. 이와 관련해 인공지능이 노동자에게 미치는 인권 침해 위협에 대한 논의 또한 국제 사회의 중요한 의제로 취급되어왔습니다. 가령, 노동 전문 법률가인 아이다 폰스 델 카스틸로(Ponce del Castillo 2020)는 유럽노동조합연구소(Etui)에 쓴 그의 논문에서 인공지능 알고리즘 통제로부터 노동자를 보호하기 위한 방안으로 다음 7가지 구체적 실행 지침을 제안한 적이 있습니다. 즉 노동자의 프라이버시 및 데이터 보호, 감시・추적 및 모니터링 명시 의무화, AI 알고리즘 활용 목적에 대한 투명성 적시, 알고리즘이나 기계학습 모형에 의한 결정에 관한 ‘설명권(right to explanation)’ 보장, 인간-기계 상호작용에 있어서 노동자 보안 및 안전 확대, 인간-기계 상호작용에 있어서 노동자의 자율성 증대, 노동자의 ‘인공지능 문해력(AI literate)’ 확대를 제안합니다.
인간에 국한하지 않고, 생명 일반에 대한 인공지능의 생태주의적 규제를 요구하는 시민사회의 요구 또한 주목할만 합니다. 알고리즘 와치와 베를린 기술대학 소재 DAI랩이 공동으로 개발한 ‘AI 지속가능성 지표’에서 ‘환경 지속가능성’을 제안하고 있는데, 이에는 인공지능 시스템의 에너지 소비, 탄소 및 그린하우스 가스 배출 규제, 특정 인공지능 기술의 지속가능성 적용의 잠재성 여부 판단, 그 외 인공지능의 간접적 자원 소비 정도 등을 면밀하게 살필 것을 요구하고 있습니다(Rohde et al. 2021). 이들 시민 연합의 AI 환경 지표는 온・오프라인에 걸쳐 확대되는 인공지능 생태 파괴의 영향력을 문제시하고, 생명과 물질 수탈과 자연 오염을 야기하는 인공지능의 생명 ‘추출주의’에 맞서 시민사회적 실천 의제를 제기하고 있다고 볼 수 있습니다.
종합하면, 동시대 시민사회의 인공지능 관련 생명·인권적 접근은 특징적으로 소수자, 시민, (남반구) 노동, 지구 환경에 대한 문제의식을 기본으로 삼고 있음을 살필 수 있었습니다.
***결론적으로, 지금의 폭주하는 인공지능의 범용화 흐름에 맞서 ‘사람 중심’의 인공지능 원칙은 현실감 없는 맥 빠진 수사학이 되거나 기실 어떤 사회적 약자도 대변하지 못하는 관련 기업이나 정부에서 내놓는 공허한 빈말일 공산이 큽니다. 그에 비해 ‘AI 기술 비판적 접근’은 적어도 우리에게 인공지능의 비판적 실재와 기술을 둘러싼 심층 구조를 읽을 수 있는 시야를 확보해 줍니다. 하지만, 아쉽게도 이에는 구체적인 기술 실천의 가이드라인이나 구상이 약합니다. 학계를 중심으로 한 논의 때문인지는 몰라도, 시민 개입의 AI 기술정치학이나 기술 민주주의에 대한 구체적 방법론의 제시가 미비합니다. 이를 보완하는 시민사회 주도의 ‘생명・인권적 접근’은 인공지능이 인권과 생명권에 위배가 된다면 과감하게 AI 기술 도입의 속도와 방향을 조절할 수 있다는 생태주의적 실천론으로까지 나아갑니다.
이제 우리 시민사회에 필요한 것은 인공지능의 비판적 실재를 읽는 눈과 더불어 현실의 기술 민주주의적 상상력을 자극하는 관점과 시각이 아닐까 합니다. 기업과 정부 주도의 ‘사람 중심’ 인공지능에 맞서 이 둘의 길항 담론은 기후 재난과 신권위주의적 질서가 압도하는 다중재난의 현실에서 시민사회가 인공지능의 미래를 준비하기 위해서 기본 전제가 되어야 한다고 봅니다. 물론 이들 관점과 시각을 받아들인다고 해서 모든 것이 해결되지는 않겠지요. 무엇보다 우리 사회에 안착되는 인공지능의 맨얼굴에 대한 시민사회의 구체적 개입과 대안 구성의 지형그리기를 지속적으로 심도있게 해나가야 할 것입니다. 그럼, 제 얘기는 여기서 줄이도록 하겠습니다.