디지털 시민광장

캠페인즈를 후원해 주세요.

후원하기

주목할 이슈

더보기
오늘의 캠페이너
맥북프로
구독자 4명
이연주
구독자 70명
애증의 정치클럽
구독자 33명
성진
구독자 7명
<서울의 봄>에서 <화려한 휴가>까지, 5·18 42주년 우린 민주화를 달성했는가
얼마 전 개봉한 <서울의 봄>은 1979년 전두환과 하나회의 12·12 군사 쿠데타를 다뤘다. 쿠데타를 일으키려는 자들과 그들을 막으려는 자의 안간힘. 전두환의 쿠데타에 최후까지 저항했던 광주 시민들은 이듬해인 1980년 5월 18일 ‘화려한 휴가’란 작전명에 의해 난사되고 말았다. 이를 영화화한 것이 <화려한 휴가>다. 영화 속에서 주인공은 “여러분, 우리를 잊지 말아 주십시오!” 하고 절실하게 외친다.   5·18 민주화 운동은 1980년 5월 18일부터 27일까지 열흘간 광주와 전남에서 발생한 민주주의를 위한 항거운동이다. 국가에 의한 대국민 학살 속에서 죽어간 민중들이 역사에 물줄기를 내며 간신히 명예를 찾고 한국의 민주화를 대표하는 ‘민주화 운동’이 되었다. 실제로 홍콩 등 동남아시아 독재 국가에서는 민주화의 꿈을 실현한 한국을 모델로 보고 민주화 운동을 다룬 영화 <화려한 휴가>와 <1987>을 본다.   40여 년이 훌쩍 지나 다시 5·18이 다가오는 이때, 우리는 정말로 민주화를 달성했는가. 당시 광주 민주화 운동을 하나의 이정표로 삼고 뚜벅뚜벅 가고 있는가.   최근 ‘그날의 광주’라는 게임이 논란이 되었다. 이 게임은 역사가 얼마나 쉽게 더럽혀지고 농락되는지 보여준다. 피해자가 아닌, 가해자의 입장에서 본 5·18. 국가 권력이 폭력을 휘두르는 것을 게임화했다. 전두환 쿠데타와 독재를 정당화하고, 민주화 운동을 왜곡, 조롱하는 내용이 버젓이 2024년의 한가운데를 활보한다.   이 게임의 문제를 알아차린 자는 초등학생이고, 이 게임을 개발한 자는 10대라고 한다. 아이들은 어른들의 거울이기도 하다. 디지털을 통해 아이들이 만나는 세상은 앞으로의 세상을 좌우할 것이다.   그렇다면 5·18은 우리 미래 어디에 서 있는 것일까.   정말이지 5·18이 과거였으면 한다. 그런데 아직도 과거로만 보낼 수가 없다. 5·18은 변신을 거듭하며 다시 화려하게 복귀하기 쉽기 때문이다. 그래서 5·18을 기억해야 하고 잊혀서는 안 된다.   그날의 광주에서 벌어졌던 만행이 과연 오늘 한국에서 일어나지 않고 있는가. 그것은 아이들이 하고 있는 롤플레이 게임 속에서, 또 누군가의 권력 횡포와 농단 속에서, 민중들을 우매하게 보는 어떤 정치가의 머릿속에서 기생수처럼 살아 있는 것은 아닐까.   5·18 민주화의 바람을 짓밟았던 국가 폭력. 그것은 여전히 국가가 국민을 무책임하게 죽음으로 모는 소위 ‘사고’와 ‘참사’들 속에 있는 건 아닐까.   국가는 국민에게 무엇이어야 하고, 어떠해야 하는가. 그것은 완결되지 않은 숙제고, 영원히 채점되지 않은 문항들이다.   5·18은 끊임없이 우리에게 묻고 있다. 당신들은 기억하고 있느냐고. 한 나라가 부당한 자의 힘에 굴복할 수도 있고, 부당한 자의 힘에 수많은 희생양이 생겨날 수도 있다는 걸. 우리가 지금 누리고 있는 민주주의가 호의로 가득 찬 누군가가 선물해 준 게 아니라, 부당한 권력에 맞서 싸우고 진실을 밝히려 했던 수많은 민중들의 피로 목숨 걸고 얻어낸 걸.   민주주의 정신과 5·18 정신을 말로만 동조하기는 쉽다. 하지만 그 사건과 연쇄된 결말들을 계속해서 마음속에 새기는 건 너무나 어렵다. 하물며 일상생활 속에 스며드는 비민주적, 반민주적 사건들은 일어났음을 깨닫기 무섭게 다른 비민주적, 반민주적 사건들에 의해 무감각해져 버린다. 5·18은 매년 돌아오지만, 매년 같은 마음으로 맞기 어렵다. 잊어버린 채 생활하다, 문득문득 먼 누군가의 기일을 반추해 보듯이 5·18이구나, 할 때도 있다. 그렇더라도 기억해 보자. 마음속에 새겨 보자.  언젠가 피부에 깊숙이 베이는 비민주적, 반민주적 행위들을 쉽게 감지하고 끝까지 그 원인과 결과, 책임, 진실을 캐내는 것, 그리고 마침내 저항하는 것을 주저하지 않게 될 것이다.
국가폭력
·
세상에서 가장 유명한 윤리 딜레마
세상에서 가장 유명한 윤리 딜레마 by. 🥨 채원 이런 밈을 보신 적 있으실까요? 단연코 현 시대에 가장 널리 알려진 윤리적 딜레마가 아닐까 싶은 트롤리 딜레마(광차 문제)입니다. 트롤리의 딜레마는 영국의 철학자인 필리파 풋 (Philippa Foot)에 의해 고안된 윤리학의 사고 실험으로, 1967년에 출간된 <낙태의 문제와 이중 효과 원칙 (“The Problem of Abortion and the Doctrine of Double Effect”)>에서 처음 소개되었습니다. 낙태 문제를 탐구하기 위해 들었던 예시인 이 사고 실험은, 이후에 수많은 윤리 문제를 연구에 사용되어왔습니다. 특히 자율 주행 차량의 윤리학을 다룬 모럴 머신 실험 (The Moral Machine Experiment)에 사용되어 AI 윤리에서도 널리 논의되어 왔죠. 모럴 머신은 온라인에서 누구나 참여할 수 있는 실험으로, 자율 주행 자동차가 직면한 다양한 도덕적 딜레마를 탐구합니다. 출시된 이래 233개국 이상, 4천만 건 이상의 결정을 모으며 꾸준한 관심을 받고 있습니다. 모럴 머신 실험은 2018년 네이처지에 실린 논문을 비롯하여 다양한 학술적 성과를 이루어냈습니다. 이러한 성공과 더불어, 트롤리 딜레마의 한계도 지적되고 있습니다. 트롤리 딜레마는 조금씩 변형하여 다양한 도덕적 의사 결정을 내리는 사고 실험을 하는 데 유용하긴 하지만, 한편으로는 AI 윤리의 논의대상을 물리적이고 기계적인 문제들로 제한한다는 것입니다. 베르겐 대학교의 마리야 슬라브코빅(Marija Slavkovik)과 같은 학자는 이러한 한계는 예컨데 온라인 상 콘텐츠 검열과 같이 정해진 수의 보기가 명확하게 없는 문제에서 극명한 한계를 보인다고 비판합니다. 두 가지 결정 중에 반드시 하나를 선택해야만 하는 이분법적인 접근을 요하는 트롤리 딜레마와 달리, 콘텐츠 검열의 경우 복잡한 스케일 안에서 미묘한 차이에 기반한 다양한 선택 중 하나를 결정해야 하는 경우가 대부분입니다. 예컨대 같은 아동의 사진이라도 아동을 대상으로 하는 성착취물와 전쟁의 참사를 드러내는 사진은 명백히 다른 함의를 가진다는 거죠. 복잡한 사회적 맥락을 고려하지 않고 기계적인 이분법적 잣대를 바탕으로 내리는 의사 결정에는 근본적인 한계가 존재할 수 밖에 없습니다. AI 윤리, 기계 윤리, 데이터 윤리 등 다양한 이름으로, 새로운 기술이 사회에 미치는 영향과 거기서 파생되는 새로운 문제들이 탐구되고 있습니다. 모럴 머신 실험은 한국에서도 AI 윤리 교육에 활용되는 등 활발하게 다루어져왔습니다. 다만 AI 윤리의 문제가 모두 트롤리의 딜레마로 치환될 수 없다는 점은 명심해야 할 것입니다. 혹시나 궁금하실 분들을 위해, 지난주 베를린에서 열린 2024년 기계+행동 학회 (Machine+Behaviour Conference) 중, <기계 윤리 예시: 앞으로 나아가기 (”Machine Ethics Examples: Moving Forward”)>라는 제목으로 마리야 슬라코빅 교수가 발표한 내용은 여기에서 다시 볼 수 있습니다. 신뢰 : AI가 살아남기 위한 조건 by. 🍊산디 막스 베버는 <직업으로서의 학문>에서 공학자가 아닌 일반인이 어떻게 자동차를 신뢰할 수 있는지 이야기합니다. 그는 자동차의 작동 방식을 알지 못하더라도 “원하기만 하면 언제든 ‘배울 수 있다’고 알고 있거나 또는 그렇게 믿고”있기 때문에 자동차를 신뢰할 수 있다고 생각했습니다. 자동차는 신비한 힘이 아니라 계산 가능한, 통달할 수 있는, 탈주술화되어 있는 도구죠. 베버의 관점에서 본다면, 일반인에게 AI는 신뢰할 수 없는 기술입니다. 미지의 ‘블랙박스’로서 AI는 이해할 수 없는, 주술과 같은 영역이기 때문이죠. AI의 탈주술화를 위해 전 세계 연구자들이 연구에 박차를 가하고 있습니다. 의사결정 과정과 이유를 설명할 수 있는 AI(explainable AI), 인간 윤리를 학습한 AI를 개발하려는 노력이 이루어지고 있죠. 이러한 공학적 접근은 AI 자체가 투명하고 윤리적이어야 신뢰할 수 있다는 관점에 입각합니다. AI 자체를 개선하려는 접근은 분명 AI의 신뢰 가능성을 높이는 데 도움이 됩니다. 하지만 기술 자체의 속성만으로 신뢰 가능성이 결정되지는 않습니다. 신뢰는 사회적 실체이기 때문이죠. 기술적으로 완벽하지만 사회적으로 믿을 수 없는 기술이 있을 수 있습니다. 반대로 엉성하다 못해 복장 터지는 기술임에도 불구하고 신뢰받는 경우도 많죠. 자동차 사례로 돌아가봅시다. 저는 자동차의 작동 방식에 별 관심이 없습니다. 그럼에도 불구하고 제가 특정 자동차 모델을 구매하기로 결정했다면 이는 1) 다른 사람들도 해당 자동차 모델을 구매했고, 2) 자동차를 제조한 기업의 과거 행동과 평판에 대해 알고 있고, 3) 자동차를 규제하는 법 제도가 존재함을 알기 때문일 것입니다. 사진: Unsplash의 Jason Leung AI 역시 마찬가지입니다. 인간-AI 상호작용에서 AI를 신뢰할 수 있는지에 대한 판단은 다른 사람도 해당 AI를 사용하는지, AI 제조사를 믿을 수 있는지, AI에 대한 법 제도적 장치가 마련되어 있는지와 같은 AI를 둘러싼 사회적 맥락을 함께 고려하여 이루어집니다.  인간의 윤리를 완전히 학습했다고 주장하는 ‘궁극의 AI'가 혹시라도 가능하고, 또한 등장할 수 있다 하더라도, 그것의 신뢰 가능성은 기술력에 의해 결정되지 않습니다. 사람들은 AI 기업이 어떤 노력을 보여주었는지, 이용자들과는 어떤 관계를 맺고 있는지, 관련 법제도의 정비 수준은 어떠한지를 따져 물을 거예요. 만약 신뢰할 수 없다면, ‘궁극의 AI’는 역사에서 사라질 겁니다.  이용자의 신뢰를 얻을 수 있는 AI가 인류와 함께 살아 남을 것입니다. 이것이 기업과 정부가 AI 윤리를 적극적으로 이야기해야 하는 이유입니다.   오늘 이야기 어떠셨나요? 여러분의 유머와 용기, 따뜻함이 담긴 생각을 자유롭게 남겨주세요. 남겨주신 의견은 추려내어 다음 AI 윤리 레터에서 함께 나눕니다. 
인공지능
·
오늘의 코멘터
더보기