AI 빅테크와 민주주의 위기 : 사고의 확장은 어떻게 갇히는가
한나 아렌트의 말
독일 출신의 작가이자 나치의 홀로코스트 생존자인 한나 아렌트는 책, <예루살렘의 아이히만>에서 ‘악의 평범성’¹을 말했다. 스스로 악한 의도를 품지 않아도 당연하고 평범하다고 느끼는 일 중 무엇인가는 악이 될 수 있으며, 인간은 누구나 그 악의 평범성을 갖고 있다는 것이다.
한나 아렌트가 말한 악의 평범성을 두고 사방에서 비판이 쏟아졌다. “어떻게 누가 봐도 학살하는 것에 대해서 아무런 의심 없이 상관의 명령이라는 이유로 그렇게 할 수 있느냐, 그런 점을 어떻게 인류가 모두 갖고 있다는 것이냐.” 등이었다.
한나 아렌트의 <예루살렘의 아이히만>과 그에 대한 비판들을 다 읽고 난 뒤 명징하게 들었던 생각은 단순했다. 끼리끼리가 가장 위험하다는 것. 당시 노트에 작성했던 메모를 조금 옮겨보면 이렇다.
“아, 끼리끼리가 이렇게 위험한 거구나. 끼리끼리 사이의 대화나 공유되는 정보는 그게 맞냐, 틀리냐가 중요하지 않구나. 그게 맞든 틀리든 상관없이 그저, 내가 속해 있는 공간과 사람들 사이에 좋다고 공유되면 되는 거구나. 또 우리 사이에 공유되는 건 다 맞고 좋은 거라고 생각하는 거구나.”
또 다른 결론도 있었다. “소위 권위 있는 사람들의 말이 다 맞는 건 절대 아니며, 권위가 정당성과 동의어가 아니다. 특정 개인이 가진 권위만큼 정당성을 부여받아서는 안 된다.” 아무리 유명한 학자, 정치인, 경제인, 선생님, 직장 상사, 회사의 대표라 할지라도 틀린 점은 반드시 있으며, 항상 맞는 말과 옳은 말은 하는 건 아니다. 또한 아무리 유명하고 대중적인 플랫폼에 공유되는 것이라 할지라도 사실이 아닐 수도 있다는 것이었다. 물론 이건 이런 글을 쓰는 나조차도 마찬가지다. 내 생각조차 틀릴 수 있다.
중요한 건 내 생각이 틀릴 수도 있다는 생각을 하는 것이다. 그렇게 생각할 때 나와 다른 생각을 하는 사람들의 의견이 궁금해지고, 그들의 의견을 보고, 들어야겠다는 생각이 들 수 있다. 그럴 때에야 비로소 사고의 확장이 나타나는 것이다.
만약 아이히만이 상관의 명령이라는 이유로, 나 말고도 주변에서 다 한다는 이유로, 주변에서 저 사람 말을 들어야 한다. 혹은 저 사람이 맞다고 말했다는 이유로, 히틀러의 말이 무조건 옳고 따라야 한다고 생각하지 않았다면, 가스실에서 수십 만의 사람들이 학살되는 일은 없었을지도 모른다.
AI는 사고에 결계를 친다
물론 이건 결과론적인 이야기라 할 수 있는 말이다. 나 역시도 주변에서 다 맞다고 하는데 틀리다고 말하기 어려울 때가 있다. 이런 어려움은 AI가 득세인 요즘은 더욱 그렇다. AI가 내게 보여주는 콘텐츠들은 온 세상이 내 생각이 맞다고 말해주는 것 같은 착각을 불러온다.
그 이유는 AI와 알고리즘이 내가 웹상에서 만든 데이터를 수집하고, 그것을 기반으로 내게 필요한 정보를 주기 때문이다. AI와 알고리즘은 내 검색 기록을 통해 내가 필요로 하는 게 무엇인지 파악한다. 그리고 정말 놀랍게 관련한 콘텐츠와 제품, 관련 광고를 보여준다.
당연하지만 이런 AI와 알고리즘을 다루는 건 디지털 플랫폼을 보유한 빅테크들이다. 빅테크들은 사용자 데이터를 기반으로 빠르게 분석하고, 알고리즘을 통해 비슷한 유형의 콘텐츠나 제품, 서비스를 쏟아내듯이 보여준다.
이런 것이 필요한 제품을 찾을 때는 도움이 될 수도 있지만, 특정 정보를 찾을 때는 위험하다고 생각한다. 내게 맞춰 정보를 준다는 건, 내가 좋아할 만한 정보만 준다는 말이기 때문이다. 이는 내 사고 범위를 한계 짓는 것과 다를바 없다.
그림에서는 조금 크게 그렸지만, ‘나’라는 세계관은 전체 세계의 아주 작은 일부분일 뿐이다. 전체 세계에는 결계가 없다. 즉, 얼마든지 확장될 수 있다. 우리나라만 해도 5천만, 전 세계적으로 80억이 넘는 인구가 존재한다. 또한 각자 삶의 배경과 환경, 경험이 다르다. 때문에 전체 세계는 서로 다른 생각을 접하면서 제대로 교류만 한다면 사고의 확장을 일으킬 수 있다.
전체 세계 안에 속한 개인의 세계 역시 마찬가지다. 기본적으로 무수히 많은 사고 확장이 가능하다. 나와 다른 사람들과 만나고, 이야기를 나누고, 책을 읽고, 생각하고, 사고하면서 사고의 확장을 일으킬 수 있다. 여기서 전제는 나와 다른 생각을 하는 사람들과 자주 접하는 것이다.
하지만 AI 시대에는 이런 확장이 힘을 얻기가 어렵다. 내가 원하는 정보만 단시간에 쏙쏙 뽑아서 주기 때문이다. 짧은 텍스트도 훌륭한 게 많겠지만, 여기에만 매몰되면 긴 호흡의 글을 읽기가 힘들어지고, 그만큼 오래도록 생각하는 것도 어려워 진다. 사고의 확장은 생각이 전제가 되어야 하는데, 생각조차 어렵게 만드니 사고의 확장은 더더욱 어려워 진다.
개인적으로 이런 점에서 빅테크들의 AI와 알고리즘은 활용 방식은, 나와 다른 사람들의 생각을 접할 기회는 차단하며, 궁극적으로 나와 다른 사람 혹은 생각과 마주하며 생길 수 있는 사고의 확장을 막는 느낌을 받는다. 사고 확장에 결계를 치고 그 밖으로 넘어갈 수 없게 하는 것이다.
더 무서운 건 AI가 내 생각이 맞다고 말해준다는 것
결계 밖으로 나갈 필요가 없다고 생각하게 하는 것
더 무서운 건 빅테크들이 보여주는 콘텐츠들이 모두 “네가 맞아”라고 말하는 것들만 보여주고, 이를 통해 마치 그것이 세계의 전부인 양 생각하게 만든다는 것이다. 결계 밖의 무수히 많은 다양한 생각이 있는데도, 결계 밖으로 나가지 못하게 하니 빅테크의 플랫폼 안에서는 다른 생각을 접할 수가 없다.
이렇게 되면 나라는 사람의 생각이 맞고, 옳다는 착각이 든다. 확증편향이다. 틈이 크던 작던 있어야지 내 생각이 밖으로 나가고, 다른 생각이 안으로 들어오는 데 빅테크 플랫폼의 운영방식에는 그런 틈을 허용하지 않는다. 오히려 그런 결계를 강화한다. 이런 통로가 없으면 내가 틀릴 수 있다는 생각을 전혀 하지 못하게 되고, 더 나아가 다른 사람의 생각을 들어야 한다는 생각조차 못하게 한다.
그 이유는 두꺼워진 결계로 인해 내가 보는 세계관이 세상의 전부이고, 다른 사람들 역시 나와 같은 생각을 하고 있을 것이라 착각하게 되기 때문이다. 물론 해당 플랫폼에는 그런 생각들을 조장하는 무수히 많은 콘텐츠들도 있다. 이렇게 되면 플랫폼 안에서 정보를 찾는 사람들은 나와 같거나 비슷한 생각만을 하는 정보만 접하게 되고, 결계 밖으로 나가 나와 다른 생각을 가진 사람들과 교류해야 한다는 생각 자체를 지워 버린다.
물론 우연히 나와 다르게 생각하는 사람들을 마주칠 수도 있다. 돌부리는 어디에나 있고, 언제나 부딪힐 수 있기 때문이다. 그렇게 부딪혔을 때 나와 다른 생각 때문에 불편할 수도 있다. 하지만 그것도 잠시 뿐이다. 사람들은 내가 틀렸다고 말하는 사람보다 내가 맞다고 해주는 사람에게 의지하고, 기대게 된다. 내가 맞다고 해주는 세계관으로 스스로를 넣게 된다는 말이다.
여초 커뮤니티에서 노는 사람과 남초 커뮤니티에서 노는 사람들은 각자 자기가 속한 커뮤니티에서 활동한다. 여초 유저가 남초에 가서 놀지 않고, 남초 유저가 여초에 가서 놀지 않는다는 말이다. 상대방 커뮤니티로 갈 때는 헐뜯고 맹목적으로 비난하러 갈 때 뿐이다.
이러한 이유로 요즘 빅테크와 그들의 AI, 알고리즘, 플랫폼이 무섭다는 생각을 자주 한다. 사람들로 하여금 한 가지 생각만을 강화하게 만들고, 그것이 가장 옳은 것이라 생각하게 만들기 때문이다.
민주주의에서는 한 가지 생각만이 아니라 다양한 생각과 의견이 서로 부딪히고, 부딪히고, 또 부딪힐 때 발전할 수 있다. 그러한 다양한 생각을 공유하고, 모으고, 의견을 나누는 곳이 공론장이다. 지금의 AI 빅테크들의 운영 방식은 그러한 공론장은 필요 없으며, 그 필요성 조차 인지하지 못하게 만든다고 생각한다.
한때 SNS가 새로운 공론장이 될 수 있을 거란 시각도 있었다
페이스북이 처음 등장했을 때 지금까지 없었던 새로운 공론장이 탄생하고 민주주의가 확대될 것이란 시각도 있었다. 더이상 언론사나 정부에서 보여주는 대로가 아니라, 시민이 직접 자신만의 시각대로 의견을 자유롭게 말하고 토론하는 문화가 될 것이라고 말이다.
필리핀의 언론인 마리아 레사역시 마찬가지였다. 그는 필리핀 두테르테 정부의 언론 자유 탄압에 맞서 싸운 것을 인정받아 2021년에 노벨 평화상 공동 수상했다. 또다른 공동 수상자는 러시아 언론인인 ‘드미트리 무라토프’로 그 역시 푸틴에 맞서 언론 자유를 위해 싸운 인물이다.
페이스북이 새로운 공론장과 민주주의 확산에 기여할 것이라 생각했던 마리아 레사는, 소셜미디어가 여론을 어떻게 조작하는지 몸소 싸워 경험한 뒤 이렇게 말했다.²
“소셜미디어는 민주주의가 발생하는 현장인 우리가 공유하는 현실을 파괴하고 있다. 우리에게 필요한 뉴스를 전하는 바로 그 플랫폼이 사실에 대해 편견을 갖게 한다.”
“기술은 우리를 거짓말 바이러스에 감염시키고 서로 싸우게 만들며, 두려움과 분노와 혐오를 자극하거나 심지어 불러일으키고, 전 세계 권위주의자와 독재자의 부상을 가속화한다.”
“기술 기업은 민주주의를 파괴하는 데서 그치지 않는다. 저지하지 않으면 훨씬 더 많은 것을 잃을 수 있다.”
새로운 형태의 디지털 공론장이 될 거라고 기대되었던 소셜미디어는, 혐오와 가짜뉴스로 사람들을 자극하는 플랫폼으로 변질됐다. 이렇게 된 건 당연히 돈 때문이다. 사람들은 혐오와 자극적인 콘텐츠에 반응하고 모인다. 사람이 모인 곳에서는 돈이 쓰인다. 광고가 집행된다는 말이다. 광고로 수익을 얻는 플랫폼은 이런 콘텐츠를 더욱 밀어주게 된다. “분노와 선동으로 강한 감정을 자극하는 것이 이를 달성하는 가장 효과적인 길”³이다.
대안은 없을까. 있다. 플랫폼이 문제를 일으키면 그 플랫폼을 떠나면 된다. AI가 문제를 만든다면, AI를 사용하지 않는 것이 최고의 대안일 수 있다. 하지만 현실에선 전혀 그렇지 않다. 오히려 AI는 현실에서 반드시 사용해야 하는, 쓸 수밖에 없는 강제적인 기술이 되고 있다. 또한 플랫폼은 그 강제적인 기술을 가장 잘 활용한다.
강제적인 기술이 되어가는 AI
강제적인 기술이란, 사회 속에서 생활하려면 어쩔 수 없이 써야 하는 것을 말한다. 가령 지하철, 버스 등 대중교통이 없는 지역의 주민은 개인용 자동차를 쓸 수밖에 없다. 이렇게 주변 환경에 의해 어쩔 수 없이 사용하고 싶지 않아도 사용하게 되는 기술이 강제적인 기술이다.
AI 역시 마찬가지다. 빅테크 중 AI를 상용화 하지 않는 기업은 없다. 또한 우리 사회는 AI 사용과 개발을 장려하는 분위기로 흘러가고 있다. 이런 상황에서 AI를 사용하지 않을 수가 없다. 더구나 현대 기업 활동 대부분은 플랫폼을 활용하게 되어 있다.
콘텐츠를 만들든, 광고를 하든 모두 플랫폼을 써야 한다. 그렇게 하지면 확산조차 되지 않는다. 만약 그 플랫폼이 AI를 사용하면 일개 회사원은 일하면서 본인도 모르게 AI를 쓰는 게 된다. 이렇듯 AI와 알고리즘이 사회 전반으로 스며들수록 우리는 점차 벗어나기 어려워진다. 또한 이들의 힘은 점점 강해진다. 시도 때도 없이 광고 정책을 바꾸는 메타에 맞춰 소비자들이 끌려가는 것이다.
점차 플랫폼이 원하는 대로, 플랫폼이 만든 알고리즘대로 콘텐츠들이 유통되게 되는 것이다. 이렇게 되면 앞서 말했던 개별 사람들의 사고 확장도, 더 나은 대안과 사회, 환경에 대한 담론도, 그런 사람들이 모여서 자신 생각을 마음껏 이야기하는 공론장도 더는 존재하기 어려줘 진다. 오히려 일개 개인의 비전과 방향성만 담은 콘텐츠를 확산하는 도구로 전락할 수 있다.
트럼프 당선의 일등공신 일론 머스크,
일론 머스크의 확성기가 된 X
이번 미국 대선에서 트럼프 당선의 일등 공신은 일론 머스크였다. 트럼프 역시 일론 머스크를 “새로운 스타(New Star)”라며 치켜세웠다. 그는 트럼프 정부의 효율성 위원회에 소속되어 정치권에서도 활동할 것으로 보인다.
대선 기간 동안 일론 머스크는 X를 통해 트럼프를 지지하는 발언을 서슴치 않았다. 민주당이 이민자들에게 투표권을 주고 있다는 음모론을 퍼트리기도 하고, 트럼프는 총을 맞았는데 왜 해리스는 안 맞냐는 등 믿지 못할 발언을 하기도 했다. 블롬버그는 이런 모습을 “2억 명이 넘는 팔로워를 위한 트럼프 광고판으로 만들었다”며 비판했다.
또한, 일론 머스크 자신의 트윗이 많이 공유되지 않으면 직원들에게 알고리즘을 고치라고 명령하고, 그렇지 않을 시 해고하겠다는 엄포를 놓는 일도 있었다. 실제 직원 한 명은 해고됐다. 당시 자신의 트윗은 910만 명이 리트윗했는데, 조바이든 대통령의 트윗은 2,900만 명이 리트윗했다는 이유였다. 결국, X의 엔지니어들은 알고리즘을 수정해 일론 머스크의 트윗이 가장 우선(first)적으로 보여지도록 수정했다.
일론 머스크의 행동은 권위를 가진 사람이 자신의 비전과 방향성을 위해 수 억 명이 이용하는 플랫폼을 조작하고, 자신의 비전과 방향성만이 옳다고 말하는 플랫폼으로 변질시킨 것이라 생각한다. 이렇게 되면 플랫폼 이용객의 사고 역시 권위 있는 한 개인의 비전과 방향성에 국한되어 머무를 수밖에 없다. 아무리 다른 의견이 있다고 해도, 알고리즘을 조작해 그런 의견을 묵살해 버릴 수 있기 때문이다.
이러한 행태에 반대해 SNS를 탈퇴하는 것도 한 가지 방법이 될 수는 있다. 하지만 탈퇴 이후 대안이래봐야 또다른 빅테크가 운영하는 플랫폼으로 이동하는 것 뿐이다. 현재 빅테크가 운영하는 플랫폼 외에는 다른 대안이 없는 실정이다. 설령 대안이 있다해도, 그 플랫폼을 운영하는 기업과 경영진이 제대로 감시되지 않으면 같은 문제는 또 발생할 것이다.
AI, 알고리즘, 플랫폼, 빅테크 비전에 대한 공론이 필요
2024년 노벨 경제학상을 받은 대런 아세모글루와 사이먼 존슨은 AI 등 기술의 발전이 결코 진보와 동의어가 아니라고 말한다. 그것이 공유된 번영 즉 모든 사람에게 혜택으로 돌아가지 않는다면, 기술의 발전은 소수의 배만 불리고, 그들의 의제와 비전만 유통되게 만든다며 아래처럼 경고한다.³
우리가 오늘날 목도하고 있는 것은 공공선을 향해 멈추지 않고 전개되는 진보가 아니라 강력한 테크놀로지 리더들이 공유하는 비전이 발휘하는 영향력이다. 그들의 비전은 자동화, 감시, 대규모 데이터 수집에 초점을 맞추고 있으며, 공유된 번영을 훼손하고 민주주의를 약화시키고 있다. 또한 그들의 비전은 소수 지배층의 부와 권력을 증폭시키는 동시에 대부분의 평범한 사람들을 희생시키는데, 이것은 우연이 아니다.
사회는, 그리고 사회에서 담론의 강력한 게이트기퍼 역할을 하는 사람들은 테크 업계의 억만장자와 그들이 말하는 의제에 홀려 있는 데서 벗어나야 한다. 새로운 테크놀로지에 대한 사회적 논의는 새 제품과 알고리즘이 얼마나 놀라운 기능을 가지고 있는지뿐 아니라 그것들이 사람을 위해 쓰이는지 사람에게 적대적으로 쓰이는지에 대해서도 이루어져야 한다.
빅테크가 만드는 소셜미디어 플랫폼과 운용 방식은 개인적으로 사회에 이로울 게 없다고 생각한다. 사람들의 생각과 사고의 확장을 막고, 한쪽으로 치우친 극단적인 생각으로 매몰시키기며, 알고리즘과 AI를 활용해 이런 모습을 강화하기 때문이다. 그 피해는 상관않고 말이다.
빅테크가 날로 강화하는 가운데 시민사회에 필요한 건 대런 아세모글루와 사이먼 존슨의 제안처럼, AI가 도대체 어떻게 쓰이고 있고, 어떻게 쓰여야 하는지 시민과 기업, 정치 모두가 한데 모여 이야기하고 토론해, 우리 사회에 필요한 기술 발전의 비전이 무엇인지 정립하는 건 아닐까 싶다. 이게 과연 가능할까?
다시 한나 아렌트의 말,
디지털 공론장은 가능할까?
플랫폼 스스로 “우리 조직은 민주적인가?” 질문해야 할지 않을까
한나 아렌트는 1974년에 진행된 인터뷰에서 이렇게 말했다.
모두가 늘 당신에게 거짓말을 한다면, 그 결과는 당신이 그것을 믿게 되는 것이 아니라 더는 아무도, 아무것도 믿지 않게 되는 것입니다
If everybody always lies to you, the consequence is not that you believe the lies, but rather that nobody believes anything any longer
대런 아세모글루와 사이먼 존슨 모두 사회가 발전하기 위해선 민주주의가 가장 중요하다고 말한다. 그들의 저작들은 모두 사회가 진보하는 기반에 민주주의가 있었음을 보여준다. 물론 민주주의가 아닌 착취적이고 소수 엘리트의 지배 상황에서도 일시적으로 발전할 수는 있지만, 그것이 참된 의미의 진보는 아니며 반드시 쇠락한다고 말한다.
그러한 민주주의를 파괴하는 가장 확실한 행위는 사람들의 생각을 특정 개인의 생각과 비전에만 머물도록 하는 것이다. 민주주의의 기본은 다양성인데, 특정 개인의 생각과 비전에 머물도록 하는 건 그 다양성을 파괴하는 행위이기 때문이다.
그리고 또한가지는 아무도 믿지 못하게 하는 것이다. 남을 신뢰하지 못하면, 안정감을 얻을 수 없고, 안정감을 얻지 못하면 그 누구에게도 나의 진심과 사실을 말할 수 없다. 내 생각에 대해 터놓고 말하고, 사람들을 마주할 수조차 없게 만든다는 말이다. 내 생각을 말하지 못하는 사회에서는, 특정 개인의 생각이 쉽게 득세할 수 있다.
다양성은 민주주의의 기본이며, 민주주의를 기본으로 하는 공론장에서는 안정감을 갖고 나의 생각과 의견을 사실대로 있는 그대로 말할 수 있어야 한다. 또한 공론장을 운영하는 조직이나 플랫폼은 이 다양성과 안정감을 무엇보다 중요하게 여기고, 그것을 운영하는 조직 자체가 민주적이어야 한다고 생각한다. 이런 게 과연 가능할까? 그것도 디지털에서?
개인적으로는 디지털 공론을 말하는 플랫폼 역시 추구하는 바가 있을 것이기 때문에, 추구하는 것에 맞는 콘텐츠가 가득하도록 플랫폼을 운영할 가능성이 있다고 생각한다. 무엇보다 그 플랫폼 자체에도 그런 것을 선호하는 유저들이 모일 것이라 생각한다. 그런 손호를 가진 유저들에게 해당 공간이 안정감을 주는 듯 보일 수도 있지만, 다른 말로 하면 다른 조직들의 참여를 막는 장벽이 될 수도 있다.
가령 친환경만을 옹호하는 콘텐츠가 절대 다수인 플랫폼에서 이에 대해 반대 목소리를 가진 사람들이 들어올리 만무하다. 그렇게 되면 결국 결이 비슷한 사람들끼리의 커뮤니티 플랫폼이 되지, 다양한 의견들이 모여서 부딪히고, 새로운 대안이 나오는 공론장이라고는 할 수 없다고 생각한다. 진짜 좋은 공론장은 다른 의견을 가진 사람들을 환영하고, 오히려 끌어와서 활발한 논의를 만들어 내는 곳이다.
만약, 디지털 플랫폼 혹은 디지털 기술을 이용해 공론장을 만들고, 공론을 만들고 확장시키겠다는 조직이 있다면, 우선은 그들부터 다양성을 존중하고, 내부 의사결정이 민주적이어야 한다. 일론 머스크가 트위터를 인수해 X로 변경하고 난 뒤 보여준 모습은, 다양성을 가장한 개인적 선호를 확산한 것이었고, 민주적이라고 할 수 없는 독선이었다.
때문에 플랫폼을 운영하는 곳 내부가 정말 다양성을 존중해야 하고, 의사결정을 민주적으로 해야겠다는 생각을 한다. 내부에서 다양성을 존중하지 않고, 민주적이지 않은데, 운영하는 공론장이 다양성으로 채워지고 민주적인 공간일리 없다.
플랫폼 공론장을 운영조직에서 의견이 다양하지 않고, 의사결정이 민주적이지 않다면, 일론 머스크의 X처럼 어느 한 사람의 비전과 방향에 맞게 플랫폼이 운영되고 결국, 사고는 갇히고, 우리 사회에 진짜 필요한 안건과 의제는 죽고, 그런 안건과 의제를 논의하는 공론장조차도 없어질 것이다.
플랫폼은 내부적으로 “우리 조직은 민주적인가? 우리 조직은 다양성을 갖추고 있는가?”를 스스로에게 묻고, 사회에 “우는 사회는 지금 민주적인가? 혹은 일부 권력을 가진 사람들에 의해 이끌려 가고 있는 것은 아닌가?” 질문해야 한다. 그런 내외부적인 질문과 점검을 통해 하지 않으면, 일론 머스크의 X처럼 플랫폼은 망가지고, 민주주의 역시 위험에 처할 것이다. 그러면 시민들의 사고의 폭은 점점 좁아져, 다른 생각을 받아들이는 것과 받아들여야 한다는 생각에 무감각해져 소수의 의제와 안건만 중요해지고 이끌려가게 될 것이다.
현재 우리 사회는 빅테크와 그 경영진들이 기술이 발전이 우리에게 준다고 말하는 실체없는 비전에 눈이 멀어, 실제 벌어지고 있는 피해에 대해서는 제대로 논의를 못하고 있다는 생각이 든다. 지금 우리 사회에 필요한 의제와 안건은 정부든, 조직이든, 그것이 크든 작든 우리들의 의사결정이 민주적으로 논의되고 있는지, 다양한 목소리를 듣고 있는지, 다양한 목소리를 허용하고 있는지가 아닐까 싶다. 이런 물음을 던지고 확산시키는 데에 AI가 활용되고, 각자의 답을 모으고 토론하는 것이 현재 우리 사회에 가장 필요한 플랫폼이고, 우리 사회가 필요로하는 디지털 공론장이 아닐까 생각해 본다.
1) <예루살렘의 아이히만 : 악의 평범성에 대한 보고서> (한나 아렌트/ 한길사/ 2016) p.349
2) <권력은 현실을 어떻게 조작하는가> (마리아 레사/ 북하우스/ 2022) p.17, 372
3) <권력과 진보> (대란 아세모글루・사이먼 존슨/ 생각의 힘/ 2023) p.57, 517, 558