늘어가는 허위정보 확산, 우리는 어떻게 해야할까요?
‘허위정보 확산’은 전 세계가 공통으로 겪고 있는 문제입니다. 국가를 가리지 않고 정치, 사회 등 다양한 분야에서 허위정보가 등장하고 있습니다. 허위정보는 개인의 명예 실추부터 사회 분열까지 다방면으로 문제를 일으킬 수 있습니다. 우리는 페이스북, 트위터 등 소셜미디어의 성장을 지켜봤습니다. 그리고 유튜브까지 등장하면서 인터넷을 통해 확산하는 정보의 양은 전과 비교가 불가능 할 정도로 늘었습니다. 디지털 플랫폼의 성장은 누구나 손쉽게 정보를 만들고, 확인할 수 있다는 장점도 있지만 허위정보가 빠르게 확산할 수 있다는 단점도 있죠. 그렇다면 다양한 디지털 플랫폼이 등장한 시대에서 우리는 어떻게 허위정보의 확산을 막을 수 있을까요? 허위정보 생산의 새로운 도구로 떠오른 인공지능 최근 들어 가장 큰 관심을 받는 키워드는 단연 ‘인공지능’입니다. 챗 GPT 한 번쯤 써보셨죠? 선두 주자였던 오픈AI의 챗 GPT 이후 구글이 바드를 공개하는 등 간편하게 이용할 수 있는 인공지능 기술이 연달아 발표되고 있습니다. 이런 기술을 사용하다 보면 자연스레 ‘기술의 발전이 내 삶에 영향을 끼칠 수 있겠다’는 생각이 듭니다. 하지만 기술의 발전이 늘 긍정적인 방향으로만 흘러가진 않죠. 인공지능 기술도 마찬가지입니다. 올해 3월 트럼프 전 미국 대통령이 맨해튼에서 경찰에게 체포되는 이미지가 트위터를 통해 퍼졌습니다. 이미지 속 특유의 머리카락 모양과 익살스러운 표정은 누가 봐도 트럼프 전 대통령이라고 믿게 했는데요. 여러 곳에 퍼진 이미지의 시작은 디지털 자료 분석단체 '벨링캣'의 창립자 엘리엇 히긴스의 트윗이었습니다. 히긴스는 인공지능 이미지 생성 툴 ‘미드저니’를 통해 이 이미지를 만들었다고 밝혔습니다. 인공지능이 만든 이미지로 허위정보가 확산된 비슷한 사례는 연이어 나왔습니다. 올해 5월 트위터에서 미국 국방성의 본청 청사 ‘펜타곤’에 대형 폭발이 있었다는 정보가 이미지와 함께 올라왔는데요. ‘Bloomberg feed’라는 계정에 올라온 이 트윗도 얼마 지나지 않아 AI로 제작된 이미지에 허위정보가 추가된 것으로 밝혀졌습니다. 미국의 극우 집단 ‘Proud Boys’를 분석해 관련 서적을 쓴 작가 앤디 캠벨은 본인의 트위터를 통해 해당 트윗이 언론사 ‘Bloomberg’를 사칭한 계정의 허위정보임을 지적했습니다. 이뿐만 아니라 ‘AI가 저널리즘을 대체할 수 있을까요?’를 보면 미국의 정보통신 전문 매체 씨넷도 AI를 활용하는 과정에서 문제를 일으켰는데요. 씨넷은 이용자에게 별도의 공지 없이 AI를 활용해 기사를 작성했습니다. 하지만 AI를 활용해 작성한 기사에 허위 정보가 들어가 있었음에도 이를 알아차리지 못했습니다. 악의가 있던 것은 아니었지만 결국 한 달이 지나서야 77개의 기사에 허위 정보가 포함되었음을 인정하고 이를 바로잡았죠. 새로운 기술이 허위정보 생산의 도구가 된다면? 앞서 살펴본 내용은 인공지능이 허위정보 확산에 악용될 경우 발생할 수 있는 문제의 단편적 예시입니다. 이런 단편적 예시를 보면 조금 더 복잡한 방식으로도 악용할 수 있다고 추정할 수 있죠. 쉽게 토론할 수 있는 사례를 들어보겠습니다. 지난 2020년 MBN은 딥페이크 기술을 활용해 김주하 앵커의 AI를 개발해 뉴스에 도입했습니다. 기술이 적용된 영상을 보면 김 앵커의 목소리까지 더해져 큰 어색함을 느낄 수 없습니다. 물론 아직까진 사람과 차이가 있다는 것은 인지할 수 있는 수준이지만 기술이 더 발전된다면 격차가 좁혀질 수 있겠죠. 지난 제20대 대통령 선거에서 등장했던 윤석열 국민의힘 후보, 이재명 더불어민주당 후보의 AI도 유사합니다. 뉴스 앵커, 정치인이 말하는 모습을 인공지능으로 구현할 수 있는 상황입니다. MBN 이혁근 기자가 2021년에 작성한 논문 ‘AI 앵커에 대한 시청자 반응 연구: 인간 앵커와 AI 앵커의 비교 실험을 중심으로‘를 보면 AI 뉴스 제작 과정을 확인할 수 있는데요. 아직까진 “사람이 뉴스 원고를 입력하면 소프트웨어가 해당 원고를 읽는 AI 앵커 영상을 합성해내는 방식”이라고 합니다. 이 방식을 악용한다면 어떻게 될까요? 유튜브에서 자극적인 제목과 이미지로 허위정보를 전달하는 영상 한 번쯤 보셨을 텐데요. 이런 영상들은 주로 텍스트를 음성으로 변환해 주는 TTS(Text to Speech)를 이용합니다. 대부분 기본적인 툴을 이용하기 때문에 사람이 직접 녹음한 목소리가 아니라는 걸 쉽게 알아차릴 수 있습니다. 사람이 직접 등장하지 않기 때문에 영상을 보면서 정보를 의심하기도 비교적 쉽겠죠. 하지만 앞서 언급한 딥페이크 기술을 활용한 뉴스 앵커, 정치인의 AI가 등장하면 상황이 달라집니다. 실존 인물인 뉴스 앵커의 얼굴과 목소리로 뉴스 형식을 갖춰 전달한다면, 유력 정치인이 자신의 주장을 펼치듯 정보를 전달한다면 의심의 수준이 낮아질 수 있습니다. 메시지를 전달하는 사람에 따라 정보의 신뢰도가 높아질 수 있기 때문이죠. 이처럼 기술이 발전해 더 정교한 묘사가 가능해진다면 허위정보 확산의 우려는 더 커질 겁니다. 지금 필요한 건 ‘확신하기 전에 확인하는 습관’ 그렇다면 우리는 허위정보 해결을 위해 확산 경로를 차단해야 할까요? 다양한 대비책을 마련해야겠지만 수많은 이용자가 다양한 플랫폼을 활용해 정보를 만드는 환경에서 확산을 막는 것은 불가능합니다. 그렇다면 우리는 기술의 발전이 만들어 낸 허위정보를 방치할 수밖에 없을까요? 그렇지 않습니다. 정보 확산을 막을 순 없어도 정보를 받아들이는 과정에서 해결책을 찾을 수 있기 때문입니다. 허위정보의 위협에 대한 대응은 정보를 곧이곧대로 믿지 않는 것에서부터 시작합니다. 수많은 정보 중 근거 자료가 확실한 정보만 받아들인다면 우리는 허위정보의 위협에서 조금이나마 자유로울 수 있습니다. 결국 ‘확신하기 전에 확인하는 습관’이 필요한 셈이죠. 더 많은 시민이 확신하기 전에 확인하는 습관을 지니고 있다면 객관적인 근거가 없는 허위정보가 확산되더라도 피해를 줄일 수 있습니다. 그래서 누군가의 발언 혹은 널리 확산된 정보를 객관적인 자료로 검증해 사실여부를 가리는 ‘팩트체크’는 허위정보를 해결하는 효과적인 방법이 될 수 있습니다. 물론 팩트체크는 허위정보를 뿌리 뽑을 수 있는 만능열쇠는 아닙니다. 하지만 팩트체크를 수행하다 보면 자연스레 정보를 끊임없이 의심하고, 사실인지 확인하며 근거가 있는 정보를 받아들이게 됩니다. 이를 통해 검증된 정보의 확산이 이뤄질 수 있습니다. 또한 팩트체크는 단순히 허위정보를 검증해 거짓을 밝혀내는 활동에서 그치지 않습니다. 팩트체커는 정보를 검증하는 과정에서 사실은 무엇인지, 우리는 어떻게 사실을 확인할 수 있는지를 함께 고민하게 됩니다. 사실 여부를 결정하는 최종 판정 단계에선 선입견을 배제하고 객관적인 근거를 바탕으로 정보를 바라보는 냉철함을 얻기도 합니다. 그런 의미에서 ‘팩트체크’는 단순한 정보검증 활동을 넘어 ‘디지털 시대를 살아가는 시민의 필수역량’입니다. 우리에겐 더 많은 시민팩트체커가 필요합니다 정리해 보면 허위정보는 ‘바이러스’, 팩트체크는 ‘백신’과 같습니다. 우리는 바이러스와 백신의 관계를 코로나19 시기의 경험으로 이해하고 있습니다. 허위정보라는 바이러스는 박멸되기 어렵고, 큰 위험을 만듭니다. 하지만 팩트체크라는 백신이 있다면 바이러스를 척결할 순 없어도 위험을 예방하고, 스스로를 보호할 수 있습니다. 더 많은 시민이 백신을 접종할 때 바이러스의 위협이 현저히 줄어드는 것도 마찬가지입니다. 그래서 우리는 더 많은 시민 참여 팩트체크가 필요합니다. 단순하게는 검증이 필요한 정보를 제보하는 것부터 조금 더 깊게 들어가 정보를 직접 검증하는 것까지 팩트체크의 모든 과정에서 시민의 역할이 필요합니다. 다양한 분야의 수많은 허위정보를 검증하기 위해선 다양한 팩트체커가 모여야 합니다.  물론 정보를 검증하는 과정은 쉽지 않고, 큰 노력이 필요합니다. 다양한 분야에서 등장하는 수많은 허위정보를 혼자서 검증하기엔 벅찹니다. 그래서 시민팩트체커의 협업이 중요합니다. 지난 2021년 11월에 오픈 팩트체크 플랫폼 ‘팩트체크넷’ 1주년 토론회 “객체에서 주체로 - 시민과 함께하는 팩트체크의 의미”에서 나온 협업 경험이 이를 증명합니다. 구현정 시민팩트체커는 활동과정을 돌아보며 “처음에 개인적으로 팩트체크 할 때는 배운대로 하면서도 판정을 내릴 때 움츠러들었는데 다른 시민 팩트체커들과 협업하면서 마음이 편해졌다”, “여러 사람이 정보를 더하다 보니 내 눈에 안보이던 것도 볼 수 있게 됐고 최종 결론을 내릴 때 책임감도 나눌 수 있었다”라고 설명했습니다. 이제 모든 시민이 팩트체커가 될 때입니다. ‘시민팩트체커 협업 그룹’은 시민 참여 팩트체크를 통해 더 나은 사회를 만들어 가고자 합니다. 팩트체크가 무엇인지 궁금하다면, 함께 팩트체크에 도전해보고 싶다면 시민팩트체커 협업 그룹에 참여해보세요. 시민 협업 팩트체크 결과물은 시민팩트체커 협업 그룹과 ‘디지털 시민광장’ 캠페인즈를 통해 더 많은 시민에게 전달할 예정입니다. 앞으로 이 여정에 어떤 일들이 있을지는 알 수 없습니다. 하지만 시민 참여 팩트체크가 확산될 때 우리는 더 나은 세상을 마주하게 될 것입니다. 우리에겐 더 많은 시민팩트체커가 필요합니다. 시민 참여 팩트체크가 더 나은 세상을 만드는 여정에 함께해 주세요. ✏️글 : 바다 / 사회적협동조합 빠띠 캠페인즈팀 활동가 / bada@parti.coop
디지털 전환
·
3
·
영화 <아바타>가 현실이 된다면 어떨 것 같나요?
영화 <아바타> 보셨나요? 제임스 카메론 감독이 연출한 <아바타>는 2009년 개봉해 큰 관심을 받았습니다. 당시에는 생소했던 3D 관람이 인기의 한 몫을 했었죠. 13년이 흘러 2022년엔 속편이 개봉되기도 했습니다. 개인적으로 저는 학생이었던 2009년 아바타를 보면서 하반신이 마비된 주인공이 특정 장비에 들어가 자유롭게 움직이는 장면이 가장 기억에 남았습니다.(영화의 스토리는 다 잊어버렸는데도 그 장면은 기억이 나네요) 공상과학 영화 속에서나 나올 법한 장면이 현실이 된다면 여러분은 어떤 기분이 드실 것 같나요? 오늘은 영화 <아바타> 속 장면을 현실로 만들고 있는 기술 BCI(Brain-Computer Interface)에 대해 이야기해 보려 합니다. 머지않아 현실이 될 수 있는 영화 <아바타> BCI에 대한 이야기를 본격적으로 하기 전에 영화 <아바타>에 대한 이야기를 짧게 해볼까 합니다. <아바타>를 제작한 제임스 카메론 감독은 2009년 시리즈를 처음 선보인 이후 다양한 속편 계획을 세웠다고 합니다. 하지만 아시다시피 <아바타> 시리즈의 두 번째 작품은 2022년에서야 개봉했죠. 그 이유는 그동안 움직임을 추적해 기록하는 ‘모션 캡쳐’ 기술이 제임스 카메론 감독의 구상을 구현하지 못했기 때문인데요. 이후 기술의 발전으로 수중 모션 캡쳐 등 다양한 연출이 가능해지면서 영화의 속편이 감독이 만족할 수 있는 완성도를 가지고 제작될 수 있었습니다. <아바타>의 속편 제작이 미뤄지는 사이 발전된 또 다른 기술이 있습니다. 바로 BCI입니다. BCI 기술의 발전을 보여줄 수 있는 사례가 얼마 전 스위스에서 등장했는데요. 스위스 로잔 공과대학 연구진은 5월 24일 과학저널 네이처지에 ‘디지털 브릿지’를 개발했다고 발표했습니다.(로잔 공과대학 연구진은 뇌-척추 인터페이스라는 의미의 BSI(Brain-Spine Interface)라는 용어를 사용했습니다) AI타임스 등이 보도한 ‘디지털 브릿지’ 개발 배경을 살펴보면 실험 연구의 과정과 결과가 흥미로운데요. 로잔 공과대학 실험에 참여한 세르트 얀 오스캄은 영화 <아바타>의 주인공처럼 하반신이 마비됐습니다. 그는 이번 실험을 통해 “12년 만에 다시 일어서고 걷고 계단도 오르고, 복잡한 지형도 통과할 수 있게 됐다”고 합니다.(가디언지의 유튜브 채널에는 그가 실제로 걷고, 계단을 오르는 장면이 올라와 있습니다) 영화 <아바타>에서 주인공이 장비를 통해 다른 행성의 종족과 연결되어 하반신을 움직일 수 있게 됐다면, 현실에선 마비된 하반신을 바로 움직일 수 있는 기술이 개발되고 있는 셈이죠. 그렇다면 어떻게 영화에서 등장한 장면이 현실에서 재현될 수 있었던 걸까요? 뇌와 컴퓨터의 연결은 우리 삶을 바꾸게 될까요? 마비된 하반신을 움직이게 한 과정은 이렇습니다. 먼저 뇌에 BCI를 이식하고, 척수에 센서를 이식합니다. 뇌에 이식한 BCI는 다리 움직임과 관련된 활동을 기록하고 신호를 환자의 보행기 혹은 휴대용 컴퓨터에 전달합니다. 그럼 휴대용 컴퓨터가 신호를 분석하고 척수에 심은 센서에 전달해 다리를 움직이게 합니다. 이렇게 끊어진 신경의 역할을 BCI 장치들이 대체하는 것이죠. BCI는 신경 대체 뿐만 아니라 다양한 영역에서 활용될 가능성을 가지고 있습니다. 활발한 연구가 이뤄지고 있는 분야는 뇌파를 분석해 이미지를 재현하는 기술인데요. 가령 특정 이미지를 볼 때 발생하는 뇌파를 분석해 어떤 이미지를 보고 있는지 역추적하는 기술입니다. 일부 연구에서는 실제 이미지와 매우 유사한 수준의 재현이 이뤄졌을 정도로 구현되고 있습니다. 이 기술은 스위스, 미국, 일본 등 다양한 곳에서 유사한 연구가 진행되고 있는데요. 시각 장애인에게 시각적 감각을 제공하거나 뇌 손상 등의 상황에서 의사소통이 가능하도록 활용될 수 있습니다. 그뿐만 아니라 BCI는 다양한 방향으로 연구가 진행 중인데요. 뇌 신호를 이용해 생각만으로 로봇이 물건을 잡거나 들 수 있는 기술을 비롯해 전자기기, 가전제품 등에도 적용될 가능성이 있습니다. (자세한 기술 연구 사례들은 AI타임스 기사를 참고했습니다) 이렇게 다양한 가능성을 가지고 있는 BCI는 우리 삶을 바꾸게 될까요? BCI가 만들 변화는 긍정적인 방향으로만 흐르게 될까요? BCI 기술 이대로 괜찮을까요? 모든 기술이 그러하듯이 BCI도 장점만 가진 것은 아닙니다. 가장 먼저 지적되는 문제는 개발 과정의 비윤리성인데요. 전기자동차 제조회사 테슬라의 최고경영자 일론 머스크는 2016년 뇌신경 과학 벤처기업 뉴럴링크를 설립했습니다. 머스크의 뉴럴링크는 기술 개발 과정에서 동물 학대 의혹이 지속해서 제기됐는데요. 지난해 말에는 동물권 보호단체 ‘책임있는 의학을 위한 의사위원회’가 미국 연방정부에 뉴럴링크에 대한 조사를 요구하기도 했습니다. 수백 마리의 원숭이와 양, 돼지 등이 뉴럴링크의 실험 과정에서 학대당했다는 문제 제기였습니다.(의혹을 단독 보도한 로이터 통신, 로이터 통신 보도를 전달한 경향신문 등의 보도에서 자세한 내용을 확인하실 수 있습니다) 동물 학대 실험뿐만 아니라 인간을 대상으로 한 실험에서 발생한 문제도 있습니다. BCI는 뇌 등 신체에 칩을 이식하는 침습형과 이식 없이 외부 장비 등을 이용하는 비침습형으로 나뉘는데요. 침습형의 경우 인체에 장비를 이식하기 때문에 거부반응을 일으키는 경우도 발생합니다. 테크레시피에 따르면 앞서 소개한 하바신이 마비된 세르트 얀 오스캄도 두개골에 이식한 장비 중 하나가 감염증을 일으켜 제거하기도 했습니다. 무엇보다 큰 문제의식은 BCI가 비윤리적으로 사용될 우려가 있다는 것입니다. 김성필 울산과학기술원 디자인 및 인간공학부 교수는 2017년 머니투데이와의 인터뷰에서 “BCI가 악용될 경우 사회적으로 심각한 윤리 문제를 일으킬 수 있다”고 주장했는데요. 김 교수의 우려는 아래와 같았습니다. 아직 먼 얘기같지만 만약 뇌파를 측정하는 사람이 다른 의도를 품고 피실험자의 통장계좌나 현관문의 비밀번호 등을 알아볼 수 있겠죠. 본인에게 동의를 구하지 않은 상태에서 원치 않는 정보를 집어넣는 범죄도 일으킬 수 있어요. 이를테면 불법적인 사상과 이념을 주입해 세뇌하는 거죠. 또 만일 뇌 자극을 통해 더 우수한 뇌를 만들 수 있게 됐다고 가정해 보죠. 그런데 수천수억원이 든다. 그러면 부유층만 누리는 특혜산업으로 변질될 우려도 있죠. 김 교수는 인터뷰 마지막에 BCI 기술이 끼칠 영향을 파악하고, 윤리적인 연구가 이뤄질 수 있도록 방안을 마련해야 한다고 강조했는데요. 특히 “인간에게 BCI에 대한 ‘거부권’을 행사할 수 있는 권리를 부여하는 등 사회적인 공감대를 이룰 수 있는 법·제도도 구축해야 합니다”라며 제도적인 해결책을 마련해야 한다고 주장했습니다. 김 교수의 인터뷰로부터 6년이 흘러 BCI 기술은 이제 우리 삶에 영향을 끼칠 수 있는 수준까지 도달했습니다. 하지만 우리는 여전히 BCI 기술과 관련된 충분한 논의를 하지 못했습니다. 김 교수의 우려를 한국 사회는 잘 해결할 수 있을까요? 뇌와 컴퓨터를 연결하는 기술은 이대로 괜찮을까요? 캠페이너 여러분은 BCI 기술을 어떻게 생각하시나요?
인공지능
·
8
·