RightsCon(이하 ‘라이츠콘')은 디지털 시대의 인권에 대한 국제 컨퍼런스로, 지난 2011년부터 Access Now의 주관으로 5개 대륙을 돌며 매년 개최되고 있습니다. 올해는 코스타리카에서 6월 5일부터 8일까지 4일 간 진행되었고, 600개가 넘는 세션에서 174개국의 8100명 이상의 참가자들이 모여 성황리에 열렸다고 하는데요. 디지털 기술로 민주주의의 미래를 만드는 비영리 플랫폼 협동조합인 사회적협동조합 빠띠의 크루들도 일부 세션에 참여하여 각 세부 주제에 대해 함께 고민하고 실제 활동으로 이어갈 수 있는 지점을 모색해보는 시간을 가졌습니다. 라이츠콘에 다녀온 빠띠의 크루 제이, 미키, 리디아의 여정과 함께, 디지털 시대에서 더 나은 민주주의를 만들어 가는 빠띠의 이야기를 소개합니다.
요즘 생성 AI가 난리입니다. 생성AI에 관해 살펴보고 있자니, 이 기술이 어디에 좋고 어떻게 활용할 수 있고, 우리는 이제 큰일났다 같은 식으로 이야기가 귀결되는걸 발견했습니다. 이런 신기술이 우리를 휩쓸 때 어떤 논의가 병행되는지 언급하는 콘텐츠를 별로 살펴보지 못했습니다. 그런데 캠페인즈의 인공지능 이슈를 살펴보니 제가 궁금해 하는 이야기들이 많이 올라오더라구요. 국내 사례가 많이 언급되어서 좋았지만, 다른 나라는 생성 AI에 대한 사회적인 대화를 어떤 식으로 진행하는지도 궁금했습니다. 이번 세션은 Maximilian Gahntz 이 진행하고, Abeba Birhane, Irene Solaiman, Hugging Face, Daniel Leufer 세 사람이 대담을 나눴습니다. (이하 본문은 세션 내용을 요약/편집하여 옮겼습니다.)
생성 AI는 잘 작동할 때는 인상적일 수 있지만, 그렇지 않을 때는 인종차별, 여성혐오, 잘못된 정보, 기타 유해한 콘텐츠를 생성하여 역사적으로 소외된 사람들에게 특히 영향을 미치는 것으로 나타났습니다. 생성 AI의 확산과 상용화가 이뤄짐에 따라 이러한 위험은 더욱 증폭될 것입니다. 동시에, 생성 AI가 업계에서 영향력 있는 소수에게 집중되어 플랫폼과 같은 서비스가 변질될 위험이 있으며, 이에 수반되는 문제가 발생할 수 있습니다. 세션에서는 생성 AI 모델에 수반되는 위험을 매핑하고, 개발자가 책임감 있게 모델을 출시하여 출시 전에 피해를 줄일 수 있는 방법을 다루었습니다. 생성 AI에 대해 전 세계 시민사회, 연구계, 업계의 관점을 바탕으로 콘텐츠 필터부터 책임감 있는 AI 라이선스, 특정 모델에 대한 공개 재고 등 무엇을 할 수 있는지에 대한 논의가 진행되었습니다.
Abeba Birhane : Senior Fellow in Trustworthy AI, Mozilla Foundation
Abeba는 인지과학자로 새로운 AI 기술의 영향과 개인, 지역 사회를 형성하는 방식을 연구했습니다. Abeba “월드와이드웹에 있는 모든 것이 공개된다는 것이 상식이 되었지만, 이를 다시 생각해야한다.”고 주장합니다. “데이터셋 수집부터 세심한 주의를 기울여야 하는데, 이 과정에서 정보를 데이터 집합으로 사용하기 위해 동의를 구하는 이니셔티브도 없기 때문에 문제”라며, “사망한 어린이나 집단 학살 이미지 등 데이터셋에 들어가면 안되는 이미지들”을 예로 들고 있습니다. 하지만 하드코어 머신러닝 지지자들은 ‘인간과 동등한 수준의 모델을 훈련시키기 위해서는 모든 것을 볼 수 있어야 한다’고 주장하는데요. 이에 “ 다양한 정체성과 문화에 대한 질문을 했을 때 고정관념이 고착화”되는 문제가 발생한다고 반론을 펼칩니다. “웹에서 가져온 거의 모든 데이터셋은 항상 인코딩되어 역사적, 사회적 고정관념을 악화시킨다”는 주장입니다.
이에 데이터셋에 대해 독립적인 연구자들이 이를 감사(Audit)할 수 있는 생태계가 조성되어야 한다고 하는데요. 이를 위해선 머신러닝 커뮤니티 정책과 규제 기관 사이에 많은 논의가 필요하고, 데이터셋 감사에 더 많은 리소스를 투입하여 인센티브를 제공하는 등의 방법을 활용할 수 있다는 제언을 남겼습니다.
Irene Solaiman : Policy Director, Hugging Face
Irene은 “시스템이 어떻게 출시되든 위험은 존재합니다. 하지만 이 위험을 막기 위해 모든 시스템을 완전히 닫으면 액세스 권한을 가진 악의적인 행위자가 줄어들 수도 있지만, 중요한 작업을 수행하는 연구자의 수가 줄어들고 시스템을 분석하고 개선하기 위한 커뮤니티 피드백이 줄어듭니다.”라고 주장합니다. 따라서 “시스템의 구성 요소에 따라 환경을 이해하고, 위험을 평가하는 방법을 이해하는 것이 중요하다.”고 강조합니다. 특히 민주적 절차에 영향을 미치는 허위 정보와 잘못된 정보를 살펴보는 것과 어린이와 미성년자를 보호하는 것 또한 강조했습니다.
이를 생성 AI에 접목해서 보자면, “오늘날 인기가 있다고 들었던 생성 AI 시스템이 폭발적으로 증가하고 있지만, 그 임계값이 어디까지인지에 대한 합의가 이루어지지 않고 있으며. 콘텐츠가 누구에게 안전한지 어떻게 판단”할 것인지에 대한 물음을 던졌습니다. *참고자료 (Irene의 관련 논문 : 생성 AI 릴리즈의 그라데이션)
Daniel Leufer : Senior Policy Analyst, Access Now
Daniel은 두 발제자에 이어 개방형 시스템에 대한 이야기를 꺼냅니다. “상당히 폐쇄적인 API 액세스 모델, 개방형 AI, 마이크로소프트, 구글 등을 통해 막대한 이익을 얻고 있는 기업들 중 일부는 완전 개방형 시스템의 위험성에 대한 공포를 퍼뜨리는 경우가 있”다고 주장합니다. 개방형 시스템이라고는 하지만 “잘 문서화되어 있지 않으면 실제로는 열려 있지 않은 것입니다. 그리고 50억 개의 텍스트 이미지가 포함된 데이터셋을 누군가에게 공개했다고 말하면서 필요한 것을 볼 수 있다고 말하기도 하지만, 이는 말로만 데이터를 공개한 것입니다.”라며 비판하며 Abeba의 주장을 보충 설명 합니다.
또한 “생성AI에 대해 긍정적이든 부정적이든 이야기하는 것을 들을 때 종종 완전히 새로운 해악이나 완전히 새로운 이점을 도입하는 것과 같이 정말 새로운 일을 하는 것으로 프레임을 짜는 경우가 많습니다. 하지만 실제로는 그렇지 않은 경우가 많습니다. 좋은 일과 나쁜 일을 모두 더 쉽게 만들어주는 역할을 합니다. 따라서 이러한 시스템이 세상에 영향을 미치고, 우리의 권리에 영향을 미치는 방식은 갈등을 줄이는 방법과 관련이 있기 때문에 릴리스 전략에 대해 고민하게 됩니다.”라며 세션을 정리했습니다.
생성 AI는 우리에게 어떤 현재와 미래를 가져다줄까요? 세 발제자는 부정적 고정관념을 악화시킬 수 있는 데이터셋에 대한 견제와 이것이 적용되는 시스템의 안전, 허울 뿐인 개방형 시스템에 주의를 기울여야한다고 한 목소리로 강조하고 있습니다.
이런 상황에서 우리는 어떤 것을 할 수 있을까요?
고정관념이 강한 데이터가 그대로 사용되지 않도록 잘못된 데이터를 바로 잡을 필요가 있습니다. 그래서 빠띠는 팩트체크의 중요성을 강조하고 있는데요. 이런 맥락에서 빠띠는 한국기자협회, 방송기자연합회, 한국PD연합회와 공동출자하여 2020년 11월 오픈 팩트체크 플랫폼 ‘팩트체크넷’을 만들었습니다. 이후 2021년 1월 설립된 재단법인 팩트체크넷은 전문가를 포함한 시민의 팩트체크 활동을 안정적으로 지원하기 위한 노력과 실험을 했으나, 2023년 2월 해산되었습니다. 비록 팩트체크넷은 해산되었지만, 각자의 활동 안에 ‘시민 협업 팩트체크’의 가치를 녹여내는 활동을 이어질 것입니다.
이런 ‘시민 참여 팩트체크’의 맥락을 그대로 담고있는 시민 참여 팩트체크 그룹을 소개합니다. 그룹 오거나이저인 빠띠 바다 활동가는 “시민 참여 팩트체크를 통해 더 나은 사회를 만들어 가고자 합니다. 시민 협업 팩트체크 결과물은 시민팩트체커 협업 그룹과 ‘디지털 시민광장’ 캠페인즈를 통해 더 많은 시민에게 전달할 예정입니다. 앞으로 이 여정에 어떤 일들이 있을지는 알 수 없습니다. 하지만 시민 참여 팩트체크가 확산될 때 우리는 더 나은 세상을 마주하게 될 것입니다. 우리에겐 더 많은 시민팩트체커가 필요합니다. 시민 참여 팩트체크가 더 나은 세상을 만드는 여정에 함께해 주세요.”라며 시민이 주도하는 팩트체크의 중요성을 강조했습니다. (관련 글 : 늘어가는 허위정보 확산, 우리는 어떻게 해야할까요?)
지금은 생성 AI가 우리의 관심 영역으로 들어왔지만, 앞으로 어떤 새로운 기술이 이 자리를 차지할지 모릅니다. 하지만 확실한 것은 허위정보와 왜곡된 정보가 데이터로 남아있는한, 누군가에게 위협이 되는 결과물이 계속 재상산 될 뿐입니다. 그렇다면 우리가 당장 할 수 있는 것부터 해야하지 않을까요? 시민 참여 팩트체크가 더 나은 세상을 만드는 여정에 함께해 주세요.
코멘트
5"부정적 고정관념을 악화시킬 수 있는 데이터셋에 대한 견제와 이것이 적용되는 시스템의 안전, 허울 뿐인 개방형 시스템에 주의를 기울여야한다"는 이야기들은 이제 많이 하고 공유되고 있는 것 같습니다. 그런데 다른 사회 이슈들도 마찬가지이겠지만, AI 관련 기술이 발전하는 속도에 비해 문제를 해결하고자 하는 논의도 그 속도를 쫓아가기 힘들고, 관련된 실천을 조직하는 것은 느릴 뿐만 아니라 요원해 보이는 듯한 비관이 들기도 합니다. 어떻게든 시민사회의 대응을 함께 만들어 가면 좋겠습니다.
그리고 시민주도의 팩트체크 시도들이 많이 늘어나면 좋겠습니다! 저도 함께 하겠습니다!
예전에 딥러닝 컨퍼런스를 통해 AI의 고정관념을 우려한다는 내용이 이슈가 되었는데 여전히 대안이 마련되지 않은 것이 아쉬워요. 더 광범위한 연구가 필요할 뿐더러 균형있게 기술을 활용할 줄 알아야 할 것 같아요.