토론

민주주의를 돕는 AI?

2024.11.14

54
2
인공지능 윤리를 고민하는 직장인, 프리랜서, 대학원생이 꾸려가는 뉴스레터입니다.

민주적 숙의를 돕는 ‘하버마스 머신’

by 🥨채원


민주주의가 건강하게 작동하기 위해서는 다양한 의견을 가진 사람들이 의견을 자유롭게 나눌 수 있어야 하고, 또 그것을 가능하게 하는 공론의 장이 필요합니다. 특히 이런 공론장의 중요성을 강조한 학자로는 독일의 정치철학자 위르겐 하버마스가 있습니다. 그는 ‘여론에 근접하는 어떤 것이 형성될 수 있는 사회적 삶의 영역’으로서의 공론장의 중요성을 강조하였습니다. 다양한 시민들이 참여하는 자유롭고 활발한 토론을 통해 공론장에서 여론을 형성하고, 또 이러한 합리적인 토론이 현대 민주주의의 위기 상황을 해결할 수 있다는 것입니다.

물론 사람들이 직접 광장에 모여 여러 사회적 안건에 대한 의견을 개진하고 토론하는 것은 현실적으로 쉽지 않습니다. 하버마스의 공론장 이론이 실현 가능한 정책이라기보다는 이상주의적인 이론으로 받아들여지는 이유이기도 합니다. 많은 시민들이 활발하게 참여할 수 있는 공론장을 형성하기 위한 현실적인 제약을 감안하지 않는다고 해도, 점점 양극화되고 부족화되는 현대의 소셜미디어 환경을 생각한다면, 나와 관점과 가치관이 다른 사람과 건강하고 생산적인 토론을 한다는 것 자체가 제법 이상적으로 느껴지기도 합니다.

서로 다를 뿐만 아니라 때때로 충돌하는, 다양한 의견을 잘 들어주고, 끈질기게 갈등을 중재하며, 결국에는 모두가 납득할 수 있는 합리적인 결론을 도출하는 토론은 어떻게 만들어낼 수 있을까요? 최근 사이언스지에 발표된 ‘AI가 민주적 숙의에서 사람들이 공통점을 찾는 것을 도와줄 수 있다’는 논문에서는 복잡한 사회적 정치적 문제를 토론을 중재할 수 있는 AI 모델, ‘하버마스 머신’을 소개합니다.


yellow inflatable smiling emoji balloon in focus photography
출처:Tessler et al. (2024) 논문 갈무리

하버마스 머신은 서로 다른 의견을 가진 사람들의 토론 중 토론자들이 공유하는 공통점을 찾아 ‘그룹 성명서’를 작성합니다. 그리고 이렇게 작성된 그룹 성명서가 최대한 많은 토론자들의 지지를 받는 것을 목표로 합니다. 논문은 오천여명이 참여한 실험을 통해 하버마스 머신이 작성한 그룹 성명서와 인간 토론 중재자가 작성한 그룹 성명서를 비교하며, 토론자들이 하버마스 머신이 작성한 성명서를 일관적으로 선호했다고 밝힙니다. 또한, 추가적으로 실시한 외부 심사에서도 하버마스 머신의 성명서가 품질, 명료성, 정보성, 공정성 측면에서 더 높은 평가를 받았다고 합니다. 이러한 결과를 바탕으로, 본 논문은 AI를 사용한 민주적 집단적 심의에 대한 가능성을 시사합니다.

검색어 자동 완성이나 기계 번역, 요약 등에서 널리 사용되었던 언어 모델은 점차 복잡하고 고도화된 영역으로 활용 범위를 확장하고 있습니다. 요약이나 번역 등 각각의 기능을 따로 사용하는 것에서 나아가, 언어 모델이 갖고 있는 여러 기능들을 결합하여 새로운 가능성을 열고 있습니다. 예를 들어 구글의 노트북 LM은 복잡한 학술 논문을 단순히 요약하는 것이 아니라, 논문 내용을 이해하기 쉬운 팟캐스트의 형태로 변환하는 기능을 선보이기도 했습니다. 마찬가지로 하버마스 머신은 복잡한 글을 특정 목적(많은 사람들의 지지)을 위해 요약하여 토론을 돕는다는 점에서 이전의 기술로는 실현하기 어려웠던 가능성을 실현합니다.

물론 하버마스 머신이 민주주의가 대면한 문제를 해결한다거나, 하버마스가 주장한 공론장을 실현했다고 보기는 어렵습니다. 그럼에도 불구하고, 이 기술이 민주주의라는 공공선을 위해 사용될 수 있는 하나의 가능성을 제시한다는 데에 의의가 있습니다. 이러한 연구는 기술이 할 수 있는 것이 무엇이며, 또 이 기술로 달성할 수 있는 목적이 무엇인가를 고민하는 데에서 시작됩니다. 언어 모델이 잘 하는 것과 사회가 진정으로 필요한 것 사이의 공통 분모에는 또 어떤 것들이 있을까를 같이 고민해보면 좋겠습니다.




#feedback

오늘 이야기 어떠셨나요?

여러분의 유머와 용기, 따뜻함이 담긴 생각을 자유롭게 남겨주세요.

남겨주신 의견은 추려내어 다음 AI 윤리 레터에서 함께 나눕니다.

공유하기

하버마스 머신'이라니... 정말 흥미로운 이름이네요. 언젠가는 나올거라고 생각했는데, 이렇게 접하니 적응이 안되네요.

공감되는 부분은 현대 사회에서 점점 더 어려워지는 '건설적인 토론'의 가능성을 AI가 도울 수 있다는 점입니다. 특히 소셜미디어에서 극단화되는 의견들을 보면서, 공통분모를 찾아주는 중재자의 역할이 얼마나 중요한지 새삼 느끼게 되네요.

다만 몇 가지 우려되는 지점도 있습니다. AI가 '많은 사람의 지지'를 얻는 것을 목표로 한다면, 자칫 중요한 소수의 의견이 희석되거나 배제될 수 있지 않을까요? 또 AI의 중재가 너무 '무난한' 합의만을 이끌어내서, 때로는 필요한 건설적인 갈등과 논쟁을 피하게 되진 않을까 하는 걱정도 듭니다.

그래도 이런 시도 자체가 의미 있다고 봅니다. AI를 어떻게 '공공선'을 위해 활용할 수 있을지 계속 고민하고 실험해보는 게 중요할 것 같아요. 좋은 글 감사합니다!

민주주의는 다양한 의견이 자유롭게 교류되고 서로 이해하는 과정이 중요하죠. 그런데 실제로는 이렇게 서로 다른 사람들과 건설적인 대화를 하는 게 어렵기도 해요. 그래서 최근 AI가 이 역할을 도울 수 있는지에 대한 연구가 나왔습니다! 바로 '하버마스 머신'이라는 AI가 서로 다른 의견을 가진 사람들의 공통점을 찾아 토론을 중재하고, 많은 사람들이 지지할 수 있는 결론을 도출해 주는 역할을 해요. 실험에서도 AI가 작성한 의견이 명확하고 공정하다는 평가를 받았습니다. 이처럼 AI가 민주적 토론에 기여할 수 있는 가능성을 보여주는 사례가 되겠죠!

연관 토픽 : #AI