한나 아렌트의 말
독일 출신의 작가이자 나치의 홀로코스트 생존자인 한나 아렌트는 책, <예루살렘의 아이히만>에서 ‘악의 평범성’¹을 말했다. 스스로 악한 의도를 품지 않아도 당연하고 평범하다고 느끼는 일 중 무엇인가는 악이 될 수 있으며, 인간은 누구나 그 악의 평범성을 갖고 있다는 것이다.
한나 아렌트가 말한 악의 평범성을 두고 사방에서 비판이 쏟아졌다. “어떻게 누가 봐도 학살하는 것에 대해서 아무런 의심 없이 상관의 명령이라는 이유로 그렇게 할 수 있느냐, 그런 점을 어떻게 인류가 모두 갖고 있다는 것이냐.” 등이었다.
한나 아렌트의 <예루살렘의 아이히만>과 그에 대한 비판들을 다 읽고 난 뒤 명징하게 들었던 생각은 단순했다. 끼리끼리가 가장 위험하다는 것. 당시 노트에 작성했던 메모를 조금 옮겨보면 이렇다.
- “아, 끼리끼리가 이렇게 위험한 거구나. 끼리끼리 사이의 대화나 공유되는 정보는 그게 맞냐, 틀리냐가 중요하지 않구나. 그게 맞든 틀리든 상관없이 그저, 내가 속해 있는 공간과 사람들 사이에 좋다고 공유되면 되는 거구나. 또 우리 사이에 공유되는 건 다 맞고 좋은 거라고 생각하는 거구나.”
또 다른 결론도 있었다.
- “소위 권위 있는 사람들의 말이 다 맞는 건 절대 아니며, 권위가 정당성과 동의어가 아니다. 특정 개인이 가진 권위만큼 정당성을 부여받아서는 안 된다.”
아무리 유명한 학자, 정치인, 경제인, 선생님, 직장 상사, 회사의 대표라 할지라도 틀린 점은 반드시 있으며, 항상 맞는 말과 옳은 말은 하는 건 아니다. 또한 대중적인 플랫폼에 많이 공유된 것도 사실이 아닐 수 있다. 물론 나도 마찬가지다. 내 생각조차 틀릴 수 있다.
중요한 건 내가 틀릴 수도 있다고 생각하는 것이다. 그럴때 나와 다른 생각과 의견이 궁금해지고, 찾아보고, 만나보고, 대화할 수 있다. 또 그런 부딪힘이 있을 때 비로소 사고의 확장이 나타난다.
만약 아이히만이 상관의 명령이고, 나 말고도 주변에서 다 하고 있고, 주변에서 저 사람 말이 맞고 따라야 한다고 말한다는 이유로, 히틀러를 무조건 따라야 한다고 생각하지 않았다면, 가스실에서 수십 만의 사람들이 학살되는 일은 없었을지도 모른다.
AI는 사고에 결계를 친다
물론 이건 결과론적인 이야기라 할 수 있는 말이다. 나 역시 주변에서 다 맞다고 하는 걸 틀리다 말하기 어려울 때가 있다. 이런 어려움은 AI 시대인 요즘 특히 더 어렵다. 애초 내 생각이 틀렸나? 라는 생긱조차 하기가 힘들다. AI가 보여주는 콘텐츠들이 마치 온 세상이 "너가 맞아"라고 말해주는 듯한 착각을 불러오기 때문이다.
AI는 나보다 나를 더 잘 안다. AI는 내가 웹상에서 만든 데이터를 수집해, 내 성향과 필요를 파악한 뒤, 알고리즘을 통해 내가 필요한 줄도 몰랐던 정보와 콘텐츠, 제품, 서비스를 보여준다.
이런 AI와 알고리즘을 다루는 건 디지털 플랫폼을 보유한 빅테크들이다. 그들의 강력한 AI와 알고리즘 기술력은 사람들이 그들의 플랫폼으로 모은다. 온갖 정보와 재미가 그들에게 있기 때문이다. 그렇게 사람들이 모일 수록 그들의 기술은 날로 향상되고, 플랫폼은 날로 커진다.
한편, 나보다 나를 더 잘 알고 찾아주는 편리성은 일말 편리해 보이지만 그 편리성만큼이나 위험하다. 내게 맞춰 정보를 준다는 건, 내가 좋아하는 정보만 준다는 말이고, 내가 싫어하는 것 혹은 내 생각과 다른 것은 차단한다는 말과 같기 때문이다. 이는 내 사고 범위를 한계 짓는 것과 다를바 없다.
그림에서는 크게 그렸지만, ‘나’는 전체 세계의 아주 작은 일부분이다. 전체 세계에는 결계가 없다. 즉, 얼마든지 확장될 수 있다. 우리나라만 해도 5천만, 전 세계적으로 80억이 넘는 인구가 존재하며 각자의 삶의 배경과 환경, 경험이 모두 다르다. 때문에 전체 세계는 제대로 교류만 한다면 서로 다른 생각의 부딪힘을 통해 지수적인 사고의 확장을 일으킬 수 있다.
개인도 마찬가지다. 기본적으로 한계 없는 사고의 확장이 가능하다. 나와 다른 사람들과 만나고, 이야기를 나누고, 책을 읽고, 생각하면서 사고의 충돌이 일어난다면 말이다.
하지만 AI 시대에는 이런 확장을 얻기가 어렵다. AI와 알고리즘이 내가 원하는 정보만 짧은 글과 영상으로 쏙쏙 뽑아서 주기 때문이다. 게다가 그 정보들은 모두 내 생각과 비슷한 정보를 담고 있다. 이런 매커니즘에서는 다른 생각과 관점을 접할 수 없고, 그 결과 의견 충돌도 그것을 통한 사고의 확장도 일어날 수 없다.
또한, 짧은 콘텐츠에만 익숙해지다보면 긴 호흡으로 생각하는 능력이 퇴화된다. 사고의 확장은 생각이 전제되어야 하는데, 생각하는 능력을 퇴화시켜 버리니 사고의 확장이 어려울 수밖에 없다.
이런 점에서 빅테크의 AI와 알고리즘은 활용 방식은 위험하다고 생각한다. 다른 생각을 차단함으로써 사고 확장에 결계를 치고, 짧은 콘텐츠만 보여줌으로써 생각하는 능력을 퇴화시키기 때문이다.
가장 무서운 건 AI가 내 생각이 맞다고 말해준다는 것
결계 밖으로 나갈 필요가 없다고 생각하게 하는 것
가장 무서운 점은 빅테크 플랫폼이 모두 "네가 맞아"라는 콘텐츠만 보여준다는 점이다. 아무리 찾아도 내가 원하는 정보만 혹은 내 생각이 합당하다 말하는 콘텐츠만 나온다면, 마치 내가 아는 게 세상의 전부인 양 생각하게 된다. 결계 밖에 무수히 많은 다른 생각이 있음에도, 결계 밖으로 나가지 못하게 내 눈과 귀에 달콤한 콘텐츠로 장벽을 치니 밖으로 나갈 수도, 나갈 필요성도 느끼지 못하게 되는 것이다.
이것의 위험성은 확증편향이다. 내 생각만 맞고, 옳다는 착각이다. 다른 생각을 접해야 내가 틀릴 수도 있다는 생각을 하는데, 빅테크의 운영방식은 그 기회를 원천 차단하고 결계를 강화한다. 그 결과 다른 생각이 있다는 것도, 다른 생각을 접해야 한다는 생각도 못하는 결과가 초래된다. 내 생각이 세상의 전부가 되는 것이다.
한편, 이를 방치하면 나와 다른 생각을 하는 사람은 이상한 사람이 되고, 다른 것이 아니라 틀린 것이 된다. 그리고 결계 밖은 틀린 사람들만 있는 위험한 세계가 된다. 결계 밖의 세상이 이상한 사람들로 가득하다면 나갈 필요가 없고, 그들과 교류할필요성을 느끼지 못하게 된다. 편향된 세계관이 더욱 좁아지는 것이다.
물론 우연히 나와 다르게 생각하는 사람을 마주칠 수도 있다. 돌부리는 어디에나 있고, 언제나 부딪힐 수 있기 때문이다. 있는지도 몰랐던 돌부리에 걸려 넘어지면 불쾌하듯, 다른 생각을 가진 사람을 만나면 불쾌하다. 더구나 그 사람이, "네 생각은 틀려"라고 말한다면? 불쾌를 넘어 분노할 것이다.
하지만 불쾌와 분노는 내가 틀리지 않았다고 말해주는 사람을 만나면 금세 사라진다. 빅테크 플랫폼에서 내가 틀리지 않았음을 증명해주고, 내 생각이 맞다고 말해주는 콘텐츠를 찾아보고 쉽게 안심할 수 있다는 말이다.
이런 이유로 요즘 빅테크와 그들의 AI, 알고리즘, 플랫폼이 무섭다는 생각을 자주 한다. 사람들로 하여금 내 생각만 맞고, 옳다는 편협성을 키우기 때문이다.
민주주의의 가장 큰 위협은 편협성
민주주의를 가장 크게 위협하는 건 편협성이다. 민주주의는 한 가지 생각만이 아니라 다양한 생각과 의견이 서로 부딪히고, 부딪히고, 또 부딪힐 때 발전할 수 있다. 그런 다양한 부딪힘 속에서 무엇이 사회를 위해서 더 좋은 것인지, 우리가 무엇을 놓치고 있는지, 무엇이 우리 사회에 필요한지 논의되고 관련 제도와 정책이 마련될 수 있다. 좋은 민주주의에는 다양성이 중요한데, 편협성은 그 다양성과는 정반대에 서서 다양성을 폄하한다.
이러한 편협성의 득세를 막고, 다양성의 확대를 만들기 위해선 공론장이 있어야 한다. 공론장이란 다양한 생각을 공유하고, 모으고, 토론하고, 토의하고, 의견을 나누는 곳이다. 제대로 된 공론장이 있다면, 그 사회의 민주주의는 건강하게 유지될 수 있다.
하지만 빅테크가 운영하는 플랫폼은 이런 공론의 필요성을 느끼지 못하게 한다. 알고리즘을 통한 운영방식이 편협한 생각만을 강화하게 만들기 때문이다. 만약 이것이 더 확대된다면 다른 의견은 틀리고 필요 없으며, 논할 가치가 없고, 그런 것들을 논하는 공론장 역시 필요 없다고 생각하게 만들지도 모른다. 빅테크가 민주주의의 적이 될 수 있는 이유다.
한때 SNS가 다양한 의견이 넘치고 부딪히는 공론장이 될 수 있을 거란 시각도 있었다
페이스북이 처음 등장했을 때, 지금까지 없던 새로운 공론장이 탄생하고 민주주의가 확대될 것이란 시각이 있었다. 더이상 언론사나 정부에서 보여주는 대로가 아니라, 시민이 직접 자신만의 시각대로 의견을 자유롭게 말하고 토론하는 문화가 될 것이라고 말이다.
필리핀의 언론인 마리아 레사역시 마찬가지였다. 그는 필리핀 두테르테 정부의 언론 자유 탄압에 맞서 싸운 것을 인정받아 2021년에 노벨 평화상을 수상했다. 또다른 공동 수상자였던 러시아 언론인 ‘드미트리 무라토프’도 푸틴에 맞서 언론 자유를 위해 싸운 걸 인정받아 수상했다.
페이스북이 새로운 공론장과 민주주의 확산에 기여할 것이라 생각했던 마리아 레사는, 두테르테 정부의 언론 탄압에 맞서 싸우며 소셜미디어가 여론을 어떻게 조작하는지 몸소 경험했다. 그 뒤 그는 이렇게 말했다.²
- “소셜미디어는 민주주의가 발생하는 현장인 우리가 공유하는 현실을 파괴하고 있다. 우리에게 필요한 뉴스를 전하는 바로 그 플랫폼이 사실에 대해 편견을 갖게 한다.”
- “기술은 우리를 거짓말 바이러스에 감염시키고 서로 싸우게 만들며, 두려움과 분노와 혐오를 자극하거나 심지어 불러일으키고, 전 세계 권위주의자와 독재자의 부상을 가속화한다.”
- “기술 기업은 민주주의를 파괴하는 데서 그치지 않는다. 저지하지 않으면 훨씬 더 많은 것을 잃을 수 있다.”
새로운 형태의 디지털 공론장이 될 거라 생각했던 소셜미디어는, 공론은 없고 혐오와 가짜뉴스로 사람들을 자극하고 생각을 조장하는 플랫폼일 뿐이었다. 마리아 레사는 페이스북이 그런 조장을 가만히 두며, 오히려 부추긴다고 비판한다.
한편, 페이스북이 그렇게 된 건 돈 때문이다. 플랫폼이 돈을 벌기 위한 가장 확실한 방법은 “분노와 선동으로 강한 감정을 자극하는 것”³이다. 사람들은 혐오와 자극적인 콘텐츠에 반응하고 모인다. 사람이 모인 곳에는 광고가 찾아가고, 광고는 수익을 가져온다. 페이스북이 혐오와 가짜뉴스, 조작 콘텐츠를 밀어주고, 방관한 이유다. 마리아 레사는 더는 소셜 미디어가 새로운 공론장이 될 수 있다는 희망을 갖지 않는다. 페이스북을 고쳐보려 했지만, 무의미할 뿐이었기 때문이다.
그렇다면 대안은 없을까? 있다. 플랫폼이 문제면 플랫폼을 떠나면 되고, AI가 문제면 AI를 사용하지 않으면 된다. 하지만 현실에선 그럴 수 없다. 오늘날 AI와 플랫폼은 반드시 사용해야 하는, 쓸 수밖에 없는 강제적인 기술이 되고 있다.
강제적인 기술이 되어가는 AI와 플랫폼
강제적인 기술이란, 사회 속에서 생활하려면 어쩔 수 없이 써야 하는 기술을 말한다. 가령 지하철, 버스 등 대중교통이 없는 지역의 주민은 개인용 자동차를 쓸 수밖에 없다. 가까운 마트나 병원, 편의시설에 가려고 20km를 걸어갈 수는 없기 때문이다. 이렇게 주변 환경에 의해 어쩔 수 없이 사용하고 싶지 않아도 사용하게 되는 기술이 강제적인 기술이다.
AI와 플랫폼 역시 마찬가지다. 빅테크 중 AI를 상용화 하지 않는 기업은 없다. 사회도 AI 개발이 거스를 수 없는 필연인듯 적극 장려하고 있다. 이런 상황에서 AI를 사용하지 않을 수가 없다. 플랫폼도 마찬가지다. 개인은 물론이고 회사에서도 소셜 미디어 등 플랫폼 활용은 선택이 아니라 필수다.
예를 들어 보자. 회사원이 있다. 콘텐츠를 만들었다. 콘텐츠를 우리 회사를 모르는 사람들에게 보여줘서 유입 시켜야 한다. 가장 확실한 방법은? 사람들이 자주 쓰는 소셜미디어에 광고를 집행하는 것이다. 만약 그 플랫폼이 AI를 활용해 광고를 하면 일개 회사원은 일하면서 본인도 모르게 AI를 쓰게 된다. 쓰지 않고 싶어도 대안이 없는 상황에서 쓸 수 밖에 없는 것이 현재의 플랫폼과 AI다.
이럴수록 플랫폼과 AI, 알고리즘은 점차 힘을 얻는다. 그들이 힘을 얻을 수록 이용자들은 그들 정책에 따라갈 수밖에 없다. 메타와 구글은 광고 정책을 시도 때도 없이 바꾸며, 어디에 어떻게 문의해야 하는지 조차 알려주지 않는다. 이렇게 되면 이용자들은 플랫폼의 정책에 끌려갈 수밖에 없다. 문의처 찾기보다 적응하는 게 더 빠르고 편하기 때문이다.
시도 때도 없이 바뀌는 플랫폼 정책에 사용자들이 끌려가게 되면, 플랫폼은 그들이 원하는대로 콘텐츠를 유통시킬 수 있다. 자사 기준에 부적절 하다면 지우거나 노출을 제한시키면 그만이다. 이렇게 되면 앞서 말했던 개별 사람들의 사고 확장도, 더 나은 대안과 사회, 환경에 대한 담론도, 자신 생각을 마음껏 이야기하는 공론장도 더는 존재하기 어려줘 진다. 오히려 플랫폼 자체가 일개 개인의 비전과 방향성만 확산하는 도구로 전락할 수 있다.
트럼프 당선의 일등공신 일론 머스크,
일론 머스크의 비전의 확성기가 된 X
이번 미국 대선에서 트럼프 당선의 일등 공신은 일론 머스크였다. 트럼프 역시 일론 머스크를 “새로운 스타(New Star)”라며 치켜세웠다. 그는 트럼프 정부의 효율성 위원회에 소속되어 정치권에서도 활동할 것으로 보인다.
대선 유세 기간 동안 일론 머스크는 X에서 트럼프 지지 발언을 서슴치 않았다. 더 나아가 민주당이 이민자들에게 투표권을 주고 있다는 음모론을 퍼트리기고, 트럼프는 총을 맞았는데 왜 해리스는 안 맞냐는 등 믿지 못할 발언을 하기도 했다. 블롬버그는 이런 모습을 “2억 명이 넘는 팔로워를 위한 트럼프 광고판으로 만들었다”며 비판했다.
한편, 일론 머스크는 자신의 트윗이 많이 공유되지 않으면 직원들에게 알고리즘을 고치라고 명령하고, 그렇지 않을 시 해고하겠다는 엄포를 놓기도 했다. 실제 직원 한 명은 해고됐다. 당시 머스크의 트윗은 910만 명이 리트윗했는데, 조바이든 대통령의 트윗은 2,900만 명이 리트윗했었다. 이에 대한 불만이었다. 결국, X의 엔지니어들은 알고리즘을 수정해 일론 머스크의 트윗이 가장 우선(first)적으로 보여지도록 수정했다.
일론 머스크의 행동은 권위를 가진 사람이 자신의 비전과 방향성을 위해 수 억 명이 이용하는 플랫폼을 자신의 비전과 방향성만 옳다고 말하는 플랫폼으로 변질시킨 행위다. 이렇게 되면 플랫폼 내에 다양한 의견들이 존재할 가능성이 적어지고, 특정 개인의 비전과 방향에 맞는 콘텐츠들만 남게된다. 남은 이용자들은 특정 개인의 비전과 방향에만 물들 가능성이 커진다.
사실 일론 머스크의 X 사례는 특수한 경우다. 공개적이었기 때문이다. 문제는 이런 일들이 대중이 모르게 진행된다는 점이다. 때문에 이 경우는 탈퇴라를 통해 직접적인 저항을 할 수도 있다. 실제 일론 머스크의 이런 행태에 반대해 X를 탈퇴하는 사례도 많았다.
하지만 앞서 말했듯 플랫폼과 AI는 강제적인 기술이다. 탈퇴해봤자 또다른 빅테크가 운영하는 플랫폼을 이용해야 하는 건 변하지 않는다. 그저 이 플랫폼은 제발 다르길, 이라고 믿어야 할 뿐이다.
또다른 대안이 있다면 빅테크가 아닌 새로운 기업이 만든 대안 플랫폼을 이용하는 것이다. 하지만 대안 플랫폼으로 넘어간다 해도, 그 대안 플랫폼을 운영하는 기업과 경영진이 앞선 플랫폼들의 문제점들을 동일하게 갖고 있다면 문제는 또 발생할 것이다.
AI, 알고리즘, 플랫폼, 빅테크 비전에 대한 공론이 필요
2024년 노벨 경제학상을 받은 대런 아세모글루와 사이먼 존슨은 AI 등 기술의 발전이 결코 진보와 동의어가 아니라고 말한다. 그것이 공유된 번영 즉 모든 사람에게 혜택으로 돌아가지 않는다면, 기술의 발전은 소수의 배만 불리고, 그들의 의제와 비전만 유통되게 만든다며 아래처럼 경고한다.³
- 우리가 오늘날 목도하고 있는 것은 공공선을 향해 멈추지 않고 전개되는 진보가 아니라 강력한 테크놀로지 리더들이 공유하는 비전이 발휘하는 영향력이다. 그들의 비전은 자동화, 감시, 대규모 데이터 수집에 초점을 맞추고 있으며, 공유된 번영을 훼손하고 민주주의를 약화시키고 있다. 또한 그들의 비전은 소수 지배층의 부와 권력을 증폭시키는 동시에 대부분의 평범한 사람들을 희생시키는데, 이것은 우연이 아니다.
- 사회는, 그리고 사회에서 담론의 강력한 게이트기퍼 역할을 하는 사람들은 테크 업계의 억만장자와 그들이 말하는 의제에 홀려 있는 데서 벗어나야 한다. 새로운 테크놀로지에 대한 사회적 논의는 새 제품과 알고리즘이 얼마나 놀라운 기능을 가지고 있는지뿐 아니라 그것들이 사람을 위해 쓰이는지 사람에게 적대적으로 쓰이는지에 대해서도 이루어져야 한다.
그리고 그들이 한 말 중 중요한 또다른 말은 "테크놀로지는 그것의 기저에 있는 비전과 떨어져 존재하지 않는다"³는 말이다. 이것이 사회 전체가 기술의 비전에 대해 말해야 하는 이유다. 한 사람의 비전만으로 플랫폼이 운영되면 그의 비전과 방향만을 말하는 플랫폼이 되고, AI와 알고리즘이 그 비전과 방향의 확산을 위한 도구가 된다. 하지만 사회 전체가 논의 해서 비전을 만든다면, 사회 전체를 위한 플랫폼을 만들고 AI와 알고리즘을 그 도구로 활용할 수 있다. 이를 위해선 우리는 이 문제에 대해 공론화를 해야한다. 당연히 그것을 공론화해서 대화를 할 수 있는 공론장과 플랫폼이 필요하다.
디지털 공론장은 가능할까?
안정감이 다양성의 장벽이 되고 있지는 않나?
플랫폼 스스로 “우리 조직은 민주적인가?” 질문해야 하지 않을까
기술이 발전함에 따라 디지털도 무수한 발전을 이뤘다. 개인적으로 더는 민주주의를 위해서 광장에 다 같이 모여 공론장을 만들자는 말은 먹히지 않는다고 생각한다. 기술이 발전했다면, 그 기술을 적극 활용하는 게 더 낫다. 때문에 공론장 역시 디지털 공론장으로 확산할 필요가 있다고 생각한다. 다만, 이게 가능한가라는 물음이 있다.
개인적으로는 디지털 공론장을 운영하는 플랫폼 역시 추구하는 바가 있을 것이기 때문에, 추구하는 것에 맞는 콘텐츠가 가득하도록 플랫폼을 운영할 가능성이 크다고 생각한다. 무엇보다 그 플랫폼에도 그런 것을 선호하는 유저들이 모일 것이라 생각한다. 안정감이 들기 때문이다. 나와 비슷한 사람들이 모여 있구나, 저기는 내 생각을 받아주며 안전하겠구나, 라면서 말이다. 하지만 다르게 생각하면 그 안정감이, 생각이 다른 조직과 개인의 참여를 막는 장벽이 될 수 있다.
환경 옹호 콘텐츠가 절대 다수인 플랫폼에 이를 반대하는 사람들이 들어올리 만무하다. 그렇게 되면 결국 결이 비슷한 사람들끼리의 커뮤니티 플랫폼이 되지, 다양한 의견들이 모여서 부딪히고, 새로운 대안이 나오는 공론장이 될 수는 없다. 대형 플랫폼이 AI와 알고리즘으로 같은 생각만 보여주는 것처럼, 결이 비슷한 사람들만 모인 곳에서는 내 생각과 같은 이야기들만 마주하게 되고 그결과 다른 것과 부딪힐 때 생기는 사고의 확장은 일어날 수 없게 된다.
진짜 좋은 공론장은 다른 의견을 가진 사람들을 환영하고, 오히려 끌어와서 활발한 논의를 만들어 내는 곳이다. 또 진짜 좋은 디지털 공론장 플랫폼은 같은 생각만 모이는 것을 반대하며, 다른 생각을 가진 단체와 개인을 끌어오고, 다른 관점을 가진 단체와 개인이 안심하고 이야기 나눌 수 있도록 운영되는 곳이라 생각한다.
이를 위해 무엇보다 중요한 건 그 디지털 공론장 플랫폼을 운영하는 조직이 내부적으로 다양성을 존중하고, 민주적인 의사결정을 내리는 조직이어야 한다는 점이다. 일론 머스크가 트위터를 인수해 X로 변경하고 난 뒤 보여준 모습은, 다양성을 가장한 개인적 선호를 확산한 것이었고, 민주적이라고 할 수 없는 독선이었다.
만약, 디지털 공론장 플랫폼을 운영하는 조직이 내부에서 다양성을 존중하지 않고, 민주적으로 의사결정을 내리지 않는다면, 그 플랫폼 역시 일론머스크의 X처럼 될 가능성은 무궁무진할 것이기 때문이다. 그렇게 되면 결국은 특정 개인이나 경영진의 시각에 맞는 사람들과 단체들만 모이게 되고, 사회적으로 필요한 공론이 아닌 자신들에게만 필요한 공론을 확산시키는 플랫폼으로 변질될 것이다.
한나 아렌트가 말한 악의 평범성처럼, 민주주의 부실성 역시 어느 조직에게나 있을 것이다. 지금이야 말로 모든 조직과 사람들이, 혹은 최소한 플랫폼을 운영하거나 속해 있는 사람들이 “우리 조직은 민주적인가? 우리 조직은 다양성을 갖추고 있는가?”를 묻고, 사회에 “우는 사회는 지금 민주적인가? 혹은 일부 권력을 가진 사람들에 의해 이끌려 가고 있는 것은 아닌가?” 질문해야 한다.
현재 우리 사회는 빅테크와 그 경영진들이 기술이 발전이 우리에게 준다고 말하는 실체없는 비전에 눈이 멀어, 실제 벌어지고 있는 피해에 대해서는 제대로 논의를 못하고 있다는 생각이 든다. 지금이라야말로 개인이, 조직이, 사회가, 내・외부적으로 의사결정을 민주적으로 하고 있는지, 다양성을 받아들이는지, 다양한 목소리를 허용하고 있는지 물음을 던져야 할 때가 아닌가 싶다. 그리고 이런 물음을 던지고 확산시키는 데에 AI를 활용하고, 생각이 다른 사람들을 적극적으로 모아서 안전하게 대화하고 토론할 수 있는 플랫폼이 필요하지 않나 싶다. 그것이 우리 사회가 필요로하는 디지털 공론장이 아닐까 생각해 본다.
※ 참고 문헌 ※
1) <예루살렘의 아이히만 : 악의 평범성에 대한 보고서> (한나 아렌트/ 한길사/ 2016) p.349
2) <권력은 현실을 어떻게 조작하는가> (마리아 레사/ 북하우스/ 2022) p.17, 372
3) <권력과 진보> (대란 아세모글루・사이먼 존슨/ 생각의 힘/ 2023) p.45, 57, 517, 558
코멘트
4AI와 플랫폼이 우리의 시야를 좁히고 있다는 부분이 와닿았습니다. 제가 실제로 경험해보니, SNS에서 제가 '좋아요' 누른 콘텐츠와 비슷한 내용만 계속 추천되더라고요. 처음엔 편리하다고 생각했는데, 글을 읽고 보니 그게 오히려 저를 제 생각의 틀 안에 가두는 것 같네요.
한나 아렌트의 '악의 평범성' 개념을 현대 AI 시대에 적용한 부분도 탁월했습니다. 우리가 편하다고 느끼는 것들이 사실은 우리의 사고를 제한하고 있을 수 있다는 점, 그리고 그것이 얼마나 위험한지 잘 지적해주신 것 같습니다.
앞으로는 제가 보는 정보들이 정말 다양한 시각을 담고 있는지 한 번 더 생각해봐야겠습니다. 새로운 디지털 공론장이 필요하다는 제안에도 동의합니다. 다른 생각을 가진 사람들과 건설적으로 대화할 수 있는 플랫폼이 있다면 좋겠네요.
AI를 제대로 써보시고 글을 쓰셔요. GPT 4도 써보시고 Perplexity Pro도 써보셔요. 선생님의 공부에 큰 도움이 되는 친구가 될겁니다. 선생님 글을 비판해보라고 해보세요. 냉혹하게. 그러면 많이 도와줄겁니다. 그리고 선생님의 생각을 더 확장시켜줄 것이고 몰랐던 레퍼런스도 많이 알려줄거에요. 특히 퍼플렉시티 프로는. 잘 써보시고 위 글을 한번 고쳐보셔도 좋을겁니다.
자체 제작 도식! 정말 이해가 잘되어요! 특히 '너가 맞아'로 표현한 부분은 확 와 닿는 표현인 것 같아요. 유튜브에 매번 비슷한 것만 나올 때가 있어서 때론 절대 찾아보지 않을 유튜버를 몇 시간이고 틀어놓은 경험이 있어요. 가끔은 시청기록을 저장하지 않는 버튼을 누르기도 하고요. '개별화' '개인화' '맞춤형'의 결과인 것이겠죠...
AI와 빅테크들이 사용자 데이터를 바탕으로 나에게 맞는 콘텐츠만 보여주는 게 점점 더 걱정돼요. 이런 시스템은 내 사고를 좁게 만들고, 다른 사람들의 의견이나 생각을 접할 기회를 줄이는 것 같아요. 이게 결국 민주주의와도 연결될 수 있는데, 다양한 의견이 충돌하고 논의되는 공론장이 사라지면 안 되겠죠? AI가 내 생각을 '맞다'고만 말해주면 사고 확장이 어려워지니까, 우리가 좀 더 열린 사고를 해야 할 때인 것 같아요.