토론
2024년 하반기 연구원정 부트캠프에서 기후재정, 디지털 성범죄, 전세사기를 연구할 특별연구그룹을 모집합니다.
2024년 하반기 연구원정 부트캠프에서 기후재정, 디지털 성범죄, 전세사기를 연구할 특별연구그룹을 모집합니다. 미네르바의 부엉이는 황혼이 저물어야 그 날개를 편다.The owl of Minerva spreads its wings only with the coming of the dusk 안녕하세요. 연구탐사대 운영진인 나이오트입니다. 저희는 현재 사회문제 해결을 향한 예비연구자들의 진심을 지식으로 발전시키도록 돕는 12주 연구몰입훈련프로그램 '연구원정 부트캠프'를 운영하고 있습니다. 동시에 사회적 난제를 함께 연구하면서 구조적 원인과 대안을 모색하는 사회문제 연구 커뮤니티이자 연구훈련 커뮤니티인 '연구탐사대'를 만들어가고 있습니다. 이번 연구원정 부트캠프 9월 모집에 앞서 저희의 마음을 여러 분들에게 전하고 도움을 요청하기 위해 글을 적어봅니다. 아시는 분은 아시겠지만 연구탐사대의 가장 첫 시작은 사실 2020년 4월에 시작된 ‘프로젝트 함트XAMT’라는 비영리 프로젝트입니다. 2019년 11월, ‘청년 연구자 플랫폼 제안’이라는 이름으로 나이오트의 파운더가 사회문제해결을 위한 연구 플랫폼 기획안을 완성한 이후 별다른 진전을 보이지 못하고 있을 때에 2020년 3월, 텔레그램 n번방 사건이 공론화되었습니다. 단 한번도 마주한 적 없는 형태의 잔혹한 범죄 앞에서 많은 이들이 분노하고 분개하면서 동시에 느낀 감정은 ‘무력감’이었습니다. 어떻게 문제를 풀어야 할 지, 그 원인은 무엇이고 구조가 어떻게 되어 있는지를 도무지 알 수 없는 상황. 이 무력감에 맞서 싸우기 위해 기획한 것이 연구 플랫폼이었고, 여성혐오로 표현되었던 관련범죄가 디지털 성범죄의 형태로 변이된 이 상황에서 만일 연구 플랫폼을 실제로 시도해보지 않는다면 지금껏 플랫폼을 기획한 수년의 시간들이 무의미해질 것이라 생각했습니다. 팀을 꾸렸고, ‘문제정의활동에 기반한 문제해결해커톤’을 기획해보자는 마음으로 프로젝트 함트를 시작했습니다. 하지만 연구 밖에 해본 적이 없는 대표와 한번도 시도해보지 않은 일을 실행하면서 마주하는 시행착오 앞에서 저희는 너무 취약했고, 몇개월이 채 되지 않아 프로젝트는 무산되었습니다. 하지만 그 프로젝트의 정신만은 남아 이후 창업으로 이어졌고 지금의 나이오트와 연구탐사대로 이어질 수 있었습니다. 조주빈이 잡히고 텔레그램 n번방 사건이 잠잠해진 후에도 사실은 알고 있었습니다. 문제의 실체와 구조, 원인에 대해서 밝혀진 것은 아무것도 없다는 사실을요. 언제든 문제는 재발될 수 있었고 또 변이될 수 있었습니다. 이를 제대로 해결하기 위해서는 문제의 구조와 원인에 대한 심도 깊은 연구가 필요했고, 그런 연구자들을 모으고 또 연구하기 위해 연구원정 부트캠프를 부지런히 개발했고 밤낮없이 활동해왔습니다. 하지만 정작 지난 서울대 딥페이크 유포 사건에 이어 이번 딥페이크 음란물 유포 사건이 터졌을 때 정말 많이 좌절했습니다. 이렇게 될 줄을 누구보다 잘 알고 있었고 그렇기에 이에 대한 연구와 기록, 정리가 필요하다는 것을 많은 곳에 주장해왔던 저희였지만 막상 정말 텔레그램 n번방 사건이 딥페이크 음란물 유포 사건으로 변이되는 동안 저희가 연구의 측면에서 해온 일은 거의 없었습니다. 여전히 문제는 미궁 속에 갇혀 있고, 문제의 양상은 걷잡을 수 없이 복잡해져가고 피해규모도 걷잡을 수 없이 커져가고 있었습니다. 왜 알면서도 그런 연구자들을 모으지 못했는지, 연구자들과 함께 연구하지 못했는지 많이 자책하기도 했습니다. 사회문제해결형 연구 생태계를 만들기 위해 최선을 다해왔지만 정작 재발 변이된 문제 앞에서 저희 또한 무력하기는 마찬가지였습니다. 동시에 지난 8월 28일, 전세사기특별법 개정안이 국회에서 통과되었습니다. 사실 처음 빌라왕 사건이 발생했을 때부터 함께 분개했고 또 무엇을 도와야 할 지 고민했지만 주저해왔었습니다. 물론 다행히도 전세사기특별법이 통과되었지만 이 또한 이미 벌어진 사건에 대한 피해자들에 대한 응급대책일 뿐, 여전히 부동산 문제와 전세제도에 대한 문제는 시한폭탄과 같이 한국 사회에 존재하고 있습니다. 그럼에도 특별법이 통과되었다는 이유로, 직접적인 나의 문제가 아니라는 이유로 다시 이 이슈는 수면 아래로 가라앉고 있습니다. 지난 8월 29일에 아시아 최초로 일부 승소한 기후소송은 어떨까요. 헌법재판소는 2031년 이후의 장기적인 온실가스 배출량 감축 목표를 전혀 제시하지 않은 것에 대해서 탄소중립기본법에 대한 위헌 판결을 내렸지만, 2030년까지의 중장기 목표에 대해서는 기각 판결을 내린 상황입니다. 무엇보다, 그렇다면 우리가 2030년까지, 더 나아가 앞으로 사회 전반을 기후위기에 대응하는 사회로 구성하기 위해서는 어떠한 정부 차원의 대응과 지원, 또 제재를 해야 하는지. 사회적 합의와 약속은 어떻게 이루어져야 하는지 우리는 정리를 시작해야 합니다. 이미 시작된 기후재난을 한해한해 견뎌내면서라도 우리는 대안을 모색해야 하지만 그것을 정부에만 맡기거나 가만히 바라보고 있기에 우리는 너무도 무력합니다. 그저 주저앉아 그 자리에 머물러 있을 수만은 없어서 지금 저희가 할 수 있는 일을 해나가고자 합니다. 이번 9월에 모집하는 연구원정 부트캠프에서 기후재정, 디지털성범죄, 전세사기를 주제로 연구할 이슈연구그룹을 모집합니다. 저희 연구원정 부트캠프는 12주동안 자신이 진심인 사회문제를 깊이 있게 연구하면서 연구계획서를 만드는 프로그램입니다. 이번 이슈연구그룹에서는 함께 문제해결을 위한 각 부분들을 연구하면서 연구계획서를 세우고, 이를 종합한 연구 플랜을 세우고자 합니다. 그리고 이를 바탕으로 연구에 필요한 지원과 커뮤니티를 조직하고, 계속해서 세부 이슈들에 대응할 수 있는 연구자그룹을 길러내고자 합니다. 황혼이 저물어야 날개짓을 시작한다는 미네르바의 부엉이처럼, 이슈가 사그라들더라도 문제를 해결할 수 있을 때까지 연구를 계속해서 지속하고자 하는 마음에 Minerva라는 이름을 붙였습니다. 기후재정, 디지털 성범죄, 전세사기 문제에 대한 구조적, 제도적, 공동체적 원인을 정리하고 대안을 연구하고 모색하고자 하는 분들이라면 이 그룹에 함께 해주세요. 저희가 수 년동안 검증해 온 연구훈련 프로세스를 통해 여러분의 진심을 지식으로 만들 수 있도록 돕겠습니다. 연구원정 부트캠프가 사회문제 솔루션을 만드는 최적의 대안이어서가 아닙니다. 저희도 고작 4년차 스타트업에 불과하고 연구원정 부트캠프 또한 연구계획서 작성까지만 개발되어 있는 설익은 프로그램입니다. 하지만 그렇다고 해서 저희 프로그램이 보다 검증된 이후에, 보다 안정화된 이후에 연구를 시작하기에는 너무 늦을거라 생각합니다. 지금 당장 저희가 할 수 있는 최선을 통해 해야 하는 일을 해보려고 합니다. 지금 당장 문제가 심각한데, 한가하게 연구나 하고 있을 것이냐. 그것도 기연구자들이 아니라 예비연구자들을 언제 훈련시킨다는 것이냐라고 생각하실 지 모르겠습니다. 하지만 저희가 연구원정 부트캠프를 운영하면서 깨달은 것은, 먼저는 사회문제의 구조적 요인과 원인을 연구해서 기록하고 지식으로 만드는 것이야말로 사회문제를 가장 근본적으로 해결할 수 있는 가장 빠른 길이라는 사실이었습니다. 정말 제대로 뾰족하게 문제에 대해 깊이 있게 연구한다면 우리는 분명 가장 적실한 해결책을 대중들을 설득할 수 있는 수준으로 연구할 수 있을 것이라 확신합니다. 동시에 저희는 당장의 연구 전문성 이상으로 문제에 대해 깊이 공감하는 ‘진심’이 가장 적실한 연구를 만들어내는 코어라고 믿습니다. 당연히 기후재정, 디지털 성범죄, 전세사기에 대해 오래 연구해오신 연구자분들이 함께 구조적 원인에 대한 연구를 수행해나가시는 것도 너무 중요합니다. 하지만 저희는 연구원정 부트캠프를 진행하면서 문제의 당사자 혹은 문제에 진심으로 공감하고 함께 아파하던 분들이 직접 정하시는 연구주제의 적실성과 깊이는 기연구자분들과는 또 다른 의미에서 너무 필요한 영역임을 절실히 깨달아왔습니다. 문제의 본질이 무엇이고 문제를 해결하기 위해 무엇을 해야 하는지를 직감적으로 이해하고 계신 분들에게 연구하는 방법을 알려드리고 연구할 수 있는 인프라와 공동체를 만들어드리는 것이야말로 문제를 제대로 연구할 수 있는 가장 빠른 길임을 저희는 확신합니다. 마치 지구 멸망의 날에 사과나무 한 그루를 심는 것과 같아 보일 수 있습니다. 하지만 동시에 지난 2021년의 텔레그램 n번방 사건으로부터 4년여가 지난 지금 문제가 어디까지 변이되고 피해범위가 어디까지 확대되었는지를 마주할 때에, 저희는 이 싸움이 결코 한두 사건의 해결로 끝나거나 한두 법안의 통과로 해결될 수 있는 문제가 아님을 인지합니다. 디지털 성범죄를 필두로 디지털 플랫폼의 규제와 디지털 환경에 대한 법적 지위의 논쟁, 여기에 젠더 이슈와 성범죄에 대한 사회적 대응까지 연결되어 있는 복합적인 문제가 될 것이고, 전세사기 사건 또한 우리나라의 부동산 산업과 대출규제, 주거권 논쟁이 뒤섞인 가운데 그 속에 응축되어 온 욕망과 질서의 각축전을 드러낸 빙산의 일각일 뿐입니다. 글로벌 이슈인 동시에 산업 전반의 전환과 정부의 방향성 자체를 근본부터 재논의해야 하는 기후재정 이슈 또한 마찬가지이죠. 이 문제들이 어느 방향으로 어떻게 변이될 지 짐작조차 되지 않습니다. 그렇기에 당장의 사건에 대한 연구 이상으로 연구를 계속 수행할 수 있는 연구공동체의 조성과 연구자 양성이 함께 가야 하는 문제라고 생각합니다. 저희도 저희가 할 수 있는 일을 해나가겠습니다. 이번 부트캠프를 시작으로 기후재정, 디지털 성범죄, 전세사기 문제의 해결을 위해 연구하는 연구자와 연구공동체가 키워질 수 있도록 지원하겠습니다. 동시에 멘토 역할을 해주실 기연구자분들의 도움이 절실히 필요합니다. 함께 머리를 맞대어 연구하고 또 연구에 도움을 주실 연구자분들도 저희에게 연락주시면 정말 감사하겠습니다. 또한 동시에 연구에도 재원이 필요합니다. 연구자들에게 연구비를 지원해주실 분들이 있으시다면 연락주시면 관련해서 기획들을 빠르게 진행하도록 하겠습니다. 혹 ‘이렇게 심각한 이슈에 대해 유행 타듯이 가볍게 대응하는가’라는 불편한 마음이 드시는 분이 있으시다면 먼저 사과드립니다. 그러한 오해가 있을 수 있음에도 불구하고 사안의 심각성을 비추어볼 때에 꼭 필요한 일이라 생각되어 염치불구하고 모집을 진행합니다. 동시에 저희는 연구그룹과 공동체 유지의 지속가능성을 위해 연구훈련과 연구 코디네이션을 통해 수익을 창출하는 영리기업입니다. 공익적 목적을 제대로 달성하기 위해서라도 지속가능성이 필요하다 판단하기에 저희는 비용을 받습니다. 다만 지속가능성 이상의 영리를 취하기보다 가장 효과적인 연구공동체의 조성과 연구수행에 제1순위를 두고 재정을 운영하고자 합니다. 그것이 연구탐사대의 미션이자 약속이니깐요. 보다 자세한 모집내용은 2024년 연구원정 부트캠프 하반기 대원 모집 페이지에 공개되어 있습니다.이외의 문의나 제언, 협업문의 등은 연구탐사대 DM이나 카카오톡채널을 통해 전달주시면 감사하겠습니다. 사회운동 단체의 일을 열심히 돕던 한 학부생이 내 연구실에서 석사를 하고 싶다고 찾아온 적이 있다. 왜 공부를 하고자 하는지 물었다. “세상을 더 평등한 곳으로 만들고 싶어서요.” 학생에게 그런 목적이라면 대학원 공부를 권하지 않는다고 답했다. 공부는 공부인 것이라고. 논문을 쓰다 보면, 일반인의 입장에서 보면 그다지 놀랍지 않은 상식에 가까운 결론을 확인하기 위해 수많은 문헌을 읽고 정리하고 데이터 분석을 하는 일을 반복해야 하는데, 그렇게 하고도 우리가 가 닿는 자리에는 종종 불확실성이 섞여 있다고 말했다. 그리고 논리적 엄밀성을 추구하는 학계의 언어는 기본적으로 보수적이라고, 그래서 종종 급격하게 변화하는 현실을 사후적으로 분석하는 역할을 하는 경우가 많고, 그조차도 온전히 해내는 게 쉽지 않다고 답했다. 학생은 되물었다. “그럼 교수님은 왜 공부를 하시는 건가요?” 나는 할 줄 아는 게 이거 하나였다고. 그리고 공부가 가진 힘을 믿는다고, 공부가 당장의 사회 변화를 만들어 내지는 못하고 속 시원한 말로 사람들의 갈증을 해소해 주지는 못하지만 인류가 유사한 문제를 두고서 실패와 성공을 반복하며 오랫동안 쌓아 온 지식을 면밀히 검토하면서 얻게 되는 통찰이 있다고. 그 통찰의 힘이 장기적으로는 우리가 가장 나은 선택을 할 수 있도록 길잡이가 되어 준다고 생각한다고 답했다.- <타인의 고통에 응답하는 공부>, 김승섭 씀 중, Diversitas 28호
·
2
·
딥페이크 범죄, 텔레그램이 문제가 아니다
2024년 8월, 한국 사회는 텔레그램을 통한 딥페이크 범죄의 확산으로 큰 충격에 빠졌다. 'N번방 사건’ 이후 또다시 텔레그램을 이용한 성범죄가 대규모로 발생하면서 국민들의 불안감이 고조되고 있다. 특히 이번 사건은 중·고등학생이 더 많은 비중으로 가담한 것으로 알려지며, 사회적 충격은 더욱 컸다. 피해자들의 얼굴과 개인 정보가 무단으로 합성된 음란물이 유포되었고, 이로 인해 사회적 논란이 확산되고 있다. 이러한 상황에서 텔레그램의 폐쇄와 여러 법적 대응이 논의되고 있지만, 과연 이러한 조치들이 딥페이크 범죄를 근본적으로 해결할 수 있을지 의문이다. 텔레그램은 결국 여러 가지 음란물 유통망 중 하나에 불과하기 때문이다. 텔레그램, 시민과 '범죄자' 모두에게 안전한 메신저 우선, N번방 사건부터 이번 딥페이크 범죄까지 왜 ‘텔레그램’이 화두에 오르게 됐는지 알아보자. 텔레그램은 강력한 보안성으로 유명한 메신저다. 특히 자체 개발한 MTProto 암호화 프로토콜을 통해 메시지 전송의 효율성과 보안을 동시에 제공한다. 이 프로토콜은 마치 특별한 암호를 사용하는 것과 같아서, 텔레그램 사용자들이 주고받는 메시지를 다른 사람들이 읽을 수 없게 만든다. 쉽게 말해, 비밀 편지를 주고받는 것처럼 안전하게 대화할 수 있게 해준다. 또한 텔레그램의 '비밀 채팅' 기능은 엔드투엔드 암호화 기술을 적용한다. 이는 메시지가 보내는 사람의 휴대폰에서 받는 사람의 휴대폰으로 직접 전달되는 것과 같다. 중간에 있는 텔레그램 서버(큰 컴퓨터)조차도 그 내용을 볼 수 없게 만드는 기술이다. 마치 봉인된 편지를 전달하는 우체부가 편지 내용을 볼 수 없는 것과 비슷하다. 이러한 보안 조치는 사용자의 개인정보를 보호하는 데 큰 역할을 한다. 하지만 동시에 범죄자들이 법의 감시를 피하는 데에도 악용될 수 있다. 텔레그램 창업자 파벨 두로프의 말대로, 범죄자에게는 안전하면서 정부에게는 개방적일 수는 없는 것이다. 최근 발생한 딥페이크 범죄에서도 텔레그램의 이러한 특성이 악용되어, 범죄자들이 쉽게 법적 제재를 회피하고 피해를 빠르게 확산시킬 수 있었다. 텔레그램 폐쇄, 딥페이크 범죄를 근본적으로 해결할 수 없어 텔레그램은 그동안 사용자 프라이버시 보호를 이유로 수사에 협조하지 않는다는 입장을 고수해왔다. 창업자 파벨 두로프는 여러 차례 정부의 요청에 맞서 사용자 데이터를 보호하겠다는 의지를 강력히 표명해 왔다. 이는 텔레그램이 다른 메신저와 차별화되는 중요한 요소이지만, 동시에 심각한 범죄가 발생했을 때 법적 대응을 어렵게 만드는 요인이 되고 있다. 텔레그램 폐쇄는 일시적으로 범죄를 억제하는 데 효과가 있을 수 있다. 하지만 텔레그램을 폐쇄한다고 해서 불법 음란물을 보려는 욕구와 만드려는 욕구가 없어지지는 않는다. 즉, 텔레그램을 폐쇄하면 범죄자들은 다른 암호화 메신저나 다크웹과 같은 대체 플랫폼으로 이동할 가능성이 크다. 이는 오히려 범죄 수사에 더 큰 어려움을 초래할 수도 있으며, 텔레그램 폐쇄가 근본적인 해결책이 아님을 시사한다. 만약 텔레그램을 삭제하는 방향으로 이번 딥페이크 사태를 해결하려고 한다면, 인터넷 검열이 강화되며 국가 권력이 개인의 자유를 더 크게 침해할 것이다. 또한, 텔레그램 폐쇄는 수많은 정당한 사용자들에게도 불편을 초래할 수 있다. 많은 사용자들이 텔레그램의 강력한 보안성과 편의성, 그리고 다양한 기능을 이유로 선택했으며, 이들 대부분은 범죄와 무관하게 서비스를 이용하고 있다. 따라서 텔레그램을 폐쇄하면 프라이버시 보호와 자유로운 의사소통이라는 텔레그램 사용자의 권리를 훼손할 위험이 있다. 블록체인 기술: 딥페이크 범죄 방지의 새로운 전략 정리하자면, 딥페이크 범죄를 근본적으로 해결하기 위해서는 단순히 텔레그램을 폐쇄하거나 범죄자들을 처벌하는 것만으로는 충분하지 않다. 지속적으로 발생할 딥페이크 음란물 범죄자들을 처벌하기 위해, 딥페이크 음란물의 생산부터 유통까지의 과정을 원천적으로 추적할 수 있는 기술적 해법이 필요하다. 그 중 하나가 블록체인 기술을 활용하는 것이다. 블록체인은 정보를 중앙에서 관리하지 않고 여러 사람의 컴퓨터에 나누어 저장하는 기술이다. 이는 마치 학급 일기를 한 명이 가지고 있는 것이 아니라, 반 친구들 모두가 똑같은 내용의 일기를 가지고 있는 것과 비슷하다. 모든 참여자가 같은 정보를 공유하기 때문에, 누군가가 그 정보를 몰래 바꾸거나 지우는 것이 거의 불가능하다. 이런 블록체인 기술을 활용하면, 콘텐츠가 생성될 때마다 그 기록이 저장되어 누가, 언제, 어떤 콘텐츠를 만들었는지 투명하게 알 수 있다. 이는 마치 SNS에 단 댓글이 사용자 계정과 작성 시간, 내용이 남는 것과 비슷하다. 하지만 블록체인은 이러한 기록을 중앙 서버가 아닌 네트워크에 참여하는 모든 사람들이 공유한다는 점에서 더더욱 생성부터 유통까지 추적이 용이하다. 블록체인 기술은 AI(인공지능)가 생성한 콘텐츠에도 적용할 수 있다. 예를 들어, AI로 만든 딥페이크 영상이 있다면, 그 영상을 누가 언제 어떻게 만들었는지, 누가 해당 영상을 가지고 있고 누구에게 보냈는지 모두 기록이 남는다. 이렇게 되면 AI가 생성한 딥페이크 영상이나 허위 정보의 유포를 정부나 기업이 사전에 막을 수 있고, 음란물을 퍼뜨린 사람도 쉽게 찾아낼 수 있다. 범죄가 일어나더라도 빠르게 범인을 잡고, 가짜 영상을 지울 수 있게 된다. 사회적 문제 해결, 제도를 뒷받침하는 기술과 함께해야 결론적으로, 블록체인 기술의 도입은 딥페이크 범죄 문제를 해결하는 데 중요한 역할을 할 수 있다. 이 기술을 통해 콘텐츠의 생성, 유통, 소비 과정을 투명하게 관리하고, AI가 생성한 결과물에 대한 책임 소재를 명확히 할 수 있다. 블록체인은 디지털 콘텐츠의 진위를 확인하고 조작을 방지하는 데 효과적인 도구가 될 수 있으며, 이는 딥페이크 범죄를 예방하고 대응하는 데 큰 도움이 될 것이다. 텔레그램 폐쇄나 딥페이크 기술 자체에 대한 비판만으로는 해결되지 않는 문제들을 직시하고**, 지속 가능한 해결책을 모색**해야 한다. 한국 사회는 블록체인과 같은 혁신적인 기술을 적극적으로 도입하고, 이를 뒷받침할 수 있는 법적 제도를 마련함으로써, 더 안전하고 신뢰할 수 있는 디지털 환경을 구축할 수 있을 것이다. 이러한 노력을 통해 딥페이크로 인한 피해자가 더 이상 발생하지 않고, 동시에 첨단 기술의 혜택을 모두가 누릴 수 있는 건강한 디지털 사회를 만들어 나가길 기대한다. 우리의 미래 세대가 기술의 발전을 두려워하지 않고, 그 이점을 충분히 누리며 살아갈 수 있는 한국 사회를 위해 지금 우리의 현명한 선택과 노력이 필요한 때이다. *이 기사는 필자의 아이디어를 통해 여러 생성형AI를 활용해(ChatGPT,Claude,Perplexity AI) 작성한 후, 필자가 직접 퇴고하여 완성하였습니다.
젠더폭력
·
11
·
텔레그램 성착취방의 톱니바퀴, AI
AI 윤리 뉴스 브리프 2024년 8월 다섯째 주by 🤖아침 1. 산업화하는 딥페이크 성착취물 한국의 딥페이크 성착취물 제작유통망에 관한 한겨레 보도가 지난주 나왔습니다. 여성의 얼굴 사진을 넣으면 나체 딥페이크 이미지를 생성해주는 불법합성물 제작 서비스와, 지인의 사진을 공유할 뿐만 아니라 공통 지인을 표적 삼아 성착취물을 제작·유포하는 익명 커뮤니티에 관한 내용입니다. 중요한 보도이니 읽어보길 권합니다. [단독] 딥페이크 텔레방에 22만명…입장하니 “좋아하는 여자 사진 보내라” (한겨레 2024-08-22) [단독] ‘○○○ 능욕방’ 딥페이크, 겹지인 노렸다…지역별·대학별·미성년까지 (한겨레 2024-08-22) 딥페이크 성착취물 제작·유포에 참여하는 인원의 규모(제작용 텔레그램 채널 한 곳에만 22만명이 참여), 조직적인 범죄 양상(여성 지인 사진을 바치는 ‘면접’ 시스템) 등 충격적인 면모가 많지만, 이 사안을 접하는 입장에서 화나는 이유 하나는 이것이 너무나도 예견 가능한 일이었다는 점입니다. 이미지 합성·생성을 쉽게 만드는 AI 기술이 기존의 성착취 구조와 만나 발생시킬 증폭 효과에 관해서는 셀 수 없을 정도로 많은 논의가 있었습니다. 업계나 정부산하기관 자료뿐만 아니라 초등학생 대상 AI 윤리 교재에서도 딥페이크의 해악을 경고합니다. 이런 논의가 선언으로 끝나지 않고 현실의 해악을 해소·예방하는 데 기여할 수 있도록 하는 실천을 고민해야 합니다. “유포 목적 없다”…만들어도 시청해도 처벌 피하는 딥페이크 (한겨레 2024-08-22) “대학에서, 알고 지내던 이들이…내가 알던 세상은 완전히 무너졌다” (한겨레 2024-08-22) 더 읽어보기 음란물은 딥페이크의 부작용이 아니라 순기능 (2024-07-03) 2. AI 이미지, 안 속을 자신 있나요? 생성형 AI의 주요 위험 중 한 가지는 사실과 구분하기 어려운 허위정보입니다. 최근 미국 공화당 대선 후보 도널드 트럼프가 AI 생성 이미지를 이용한 선전으로 문제를 일으켰는데요. 민주당 대선 후보이자 부통령인 카멀라 해리스를 공산당원으로 묘사한 이미지, 테일러 스위프트가 자신을 지지하는 것처럼 합성한 이미지 등을 SNS에 게시한 것입니다. AI 이미지라고 따로 명시하지도 않았습니다. 이런 가짜 이미지에 현혹되는 사람이 바보라고 생각하나요? 생성 이미지와 실제 사진을 구분하기란 의외로 까다롭습니다. 한번 직접 체험해보시죠. 여기 실제 곤충을 찍은 사진과, AI로 생성한 곤충 이미지를 하나씩 보여주는 퀴즈가 있습니다. AI 이미지를 클릭하면 점수를 얻고, 실제 사진을 하나라도 클릭하면 거기서 끝입니다. 25초 동안 가장 많은 점수를 따면 됩니다. https://huggingface.co/spaces/... 설령 내가 개인적으로 AI 이미지를 잘 구분할 수 있다 해도, 수많은 팔로워를 가진 정치인이 허위 이미지를 마음껏 활용하고 플랫폼이 별다른 제재를 가하지 않는 상황에서 이런 이미지가 갖는 힘은 무시할 수 없습니다. 허위정보의 폐해, 현재진행형입니다. 3. AI 위험 분류체계, 통합할 수 있을까? MIT 컴퓨터 과학 및 인공지능 연구소(CSAIL) 기반의 학제간 연구그룹인 퓨처테크(FutureTech)에서 ‘인공지능 위험 저장소’(AI Risk Repository)를 발표했습니다. 인공지능 위험에 관련된 기존 연구논문 43건을 메타분석하여 통합 분류체계를 제시하고 있습니다. 크게는 위험의 주체/의도/발생시점에 따른 분류와, 차별/프라이버시/허위정보/오남용/인간-컴퓨터 상호작용/사회경제 및 환경적 피해/시스템 안전 등 도메인에 따른 분류라는 두 체계 안에서 세부 항목이 있는 형식입니다. 연구팀 측에서는 이것이 ‘기존 AI 위험 프레임워크와 분류체계를 종합 검토하여 각각의 위험을 추출하고 데이터를 공개하는 최초의 사례’라고 주장하는데요. 분석 대상이 된 논문도 문헌 검토 기반의 자료가 많다는 점에서 꼭 그렇게 말할 수 있는지는 모르겠습니다. 메타-메타분석이라고 한다면 맞는 말일까요. 자료의 주 타겟은 정책입안자, 위험 평가 주체, 연구교육자 및 산업계라고 해요. AI 거버넌스와 법규제 관련 논의가 본격화하고 이론적 틀을 제시하는 노력도 활발한 이 시기에, 일종의 ‘완전판’ 프레임워크를 제시함으로써 담론적인 주도권을 가져가려는 시도로 읽을 수도 있어 보입니다. 저자들도 명시하듯 40여 개 문서를 단 한 명의 전문가가 검토했다는 점에서 ‘종합적’인 자료로서는 한계가 있지만요. 4. 이미지 생성 AI 기업 저작권 침해 소송 본격화 개인 창작자들이 스태빌리티 AI 등의 기업을 상대로 제기한 집단소송 기억하시나요? 깃헙 코파일럿 관련 소송, 오픈에이아이 챗지피티 관련 소송과 더불어 생성형 AI 시대의 중요한 재판 중 하나인데요. 이 사건을 다루는 미국 법원에서 AI 기업의 저작권 및 지적재산권 침해가 의심된다고 보아, 소송을 본격적으로 진행하기로 판결했습니다. 디스커버리 제도를 통해 증거 제시에 들어가게 되는 것입니다. 작년에 법원이 해당 소송의 일부 주장을 기각하며 원고측에게 저작권 침해 근거를 보완해오라고 지시한 것에 비추어 보았을 때, 이번 판결은 원고 측 입장에서 중요한 진전으로 볼 수 있습니다. 이미지-텍스트 데이터셋인 라이온(LAION) 시리즈에 원고의 저작물이 포함되었으며, 그 데이터를 학습한 이미지 생성 모델인 스테이블 디퓨전이나 그 모델을 활용한 서비스가 저작권을 침해했는지 따져볼 여지가 있다고 법원이 판단한 것이니까요. 이 재판의 향방에 따라서 스테이블 디퓨전 모델이나 라이온 데이터셋을 활용한 다른 서비스 또한 영향을 받을 가능성이 있습니다. 사실상 대다수의 이미지 생성 관련 기업에 영향을 미친다고 봐야겠죠. 사건의 귀추가 주목되는 이유입니다. 더 읽어보기 깃허브 코파일럿 소송에서 저작권법 쟁점 기각 (2024-07-22) 창작자 생태계 상상하기: 스태빌리티 AI 집단소송 기각에 부치는 글 (2023-11-15) #feedback 오늘 이야기 어떠셨나요?여러분의 유머와 용기, 따뜻함이 담긴 생각을 자유롭게 남겨주세요.남겨주신 의견은 추려내어 다음 AI 윤리 레터에서 함께 나눕니다.
인공지능
·
4
·
음란물은 딥페이크의 부작용이 아니라 순기능
by 🤖아침 KrIGF에서 “생성형 인공지능과 딥페이크 기술” 세션을 참관하고 왔습니다. 이미지나 음성 등을 조작해 디지털 매체 속 인물을 다른 사람의 모습으로 바꾸는 일련의 기술을 통칭하는 딥페이크에 관한 패널 토론이었어요. 산업적 효과에 대한 기대감, 악용에 대처하기 위한 제도적/정책적 제안 같은 이야기가 오갔는데요. 세부적인 내용을 다루기보단, 이날 논의가 깔고 있던 기본 전제에 관한 제 의문을 얘기해 보려 합니다. KrIGF 웹사이트에 등재된 세션 소개글을 인용합니다. 딥페이크 기술은 보다 쉽고 간편하게 특수효과를 만들어 내거나 AR 영상을 제작하는 등 산업 전반의 성장 가능성을 키우는 등 긍정적으로 작용하고 있는 부분이 분명히 있다. 그러나, 인공지능기술이 빠르게 발전하면서, 인공지능을 활용한 비윤리적 이용 등 부정적 측면에 대한 우려의 목소리가 커지고 있다. 딥페이크(를 만드는 데 사용되는) 기술은 긍정적 작용을 하지만, (음란물 제작, 인격 사칭 등) 부작용 또한 생기고 있다는 것입니다. 따라서 기술적/산업적 발전을 저해하지 않도록 기술 규제는 최소화하되, 딥페이크를 활용한 범죄를 억제하기 위한 사법적, 문화적 노력이 필요하다는 것이 이날 패널 토론의 전반적인 내용이었고요. 얼핏 보면 맞는 말 같습니다. 기술은 잘못이 없다, 사람이 잘 사용하는 것이 중요하다… 흔히 들을 수 있는 말이죠. 하지만 기술은 생각만큼 ‘중립적’이지 않습니다. 딥페이크의 출발점은 성착취물 ‘딥페이크’라는 말은 어디서 왔을까요? 이 용어가 등장한 것은 2017년경. deepfakes라는 닉네임을 사용하는 레딧 이용자가 동명의 게시판에 꾸준히 올린 영상이 화제가 되었습니다. 주로 여성 연예인의 얼굴을, 성적 촬영물에 등장하는 여성 신체에 합성한 것이었습니다. 가정용 컴퓨터와 인터넷에서 쉽게 구할 수 있는 영상으로 만들어낸 결과물이었죠. 딥페이크의 어원이 여성 이미지를 동의 없이 조작한 음란물 제작자라는 점, 그리고 그가 대단한 전문 연구기관이나 기업 조직이 아니라 개인이라는 점 모두 중요합니다. 딥페이크의 대중화는 성착취물로 시작했고, 이러한 기술적 성착취는 지나가는 해프닝으로 끝나지 않았습니다. 일례로 생성형 이미지 시장이 등장하며 AI로 만든 이미지뿐만 아니라 특정 그림체에 특화된 AI 모델을 제작하는 일을 금전적으로 보상하는 구조를 형성하고 있는데요. 이는 성착취물도 예외가 아닙니다. 즉 특정 인물의 딥페이크 성착취물 이미지 및 그것을 만들 수 있는 AI 모델이, 생성형 이미지 산업의 구성 요소로 자리 잡고 있는 것입니다. 또한 딥페이크 제작의 기술적 장벽은 갈수록 낮아집니다. 2017년의 deepfakes는 아마 고급 그래픽카드를 설치한 컴퓨터에서 직접 작성한 코드를 실행해 가며 연예인 딥페이크를 만들었을 겁니다. 그것만으로도 문턱이 굉장히 낮아진 것이었지만, 지금은 그럴 필요도 없습니다. 이미지 생성 서비스도 우후죽순 생겨나고, 손쉽게 다운받을 수 있는 맞춤형 AI 모델, 그것을 몇 번의 클릭으로 실행할 수 있는 설치형 응용 프로그램이 얼마든지 있습니다. 더욱 가볍고 빠른 AI를 향한 경쟁 가운데 일반 가정용 컴퓨터에서 돌아가는 AI 성능은 계속 향상되는 추세입니다. 누구나 딥페이크를 제작할 수 있는 조건 속 개인의 손에는 굉장한 힘이 주어졌고, 이 힘은 음란물 제작에 적극적으로 활용되고 있습니다. ‘AI 산업 vs 음란물’은 잘못된 구도 이렇게 되기까지 업계의 자정 노력이 없지 않았습니다. AI 모델 접근 권한을 통제하거나, 음란물 필터를 통해 부적절한 결과물을 걸러내거나, 서비스 정책을 통해 일부 행위를 금지하는 등 다각도의 접근이 있었지요. 지금도 관련 연구가 많이 진행되고 있습니다. 하지만 그 노력에 아무리 박수를 보낸들 피해는 계속 발생해 왔다는 점을, 냉정하게 바라볼 필요가 있습니다. AI 산업은 음란물과의 싸움에서 지고 있습니다. 아니, 어쩌면 AI 산업과 음란물이 싸우고 있다는 관점 자체에 오류가 있는지도 모릅니다. “시스템의 용도는 그것이 실제로 하는 일이다 (The purpose of a system is what it does, POSIWID)”라는 격언이 있습니다. 시스템이 실제로 하지 못하는 것을, 그 시스템의 의도된 작용이라고 주장하는 것은 무의미하다는 말입니다. 시스템의 작용을 이해하는 일은 그에 대한 기대나 가치적 판단보다, 실제 벌어지고 있는 현상에 대한 관찰에 따라야 한다는 교훈을 담고 있습니다. 이 격언을 염두에 두고 현 상황을 검토해 봅시다. AI 산업의 성장과 함께 딥페이크 성착취물 또한 일부 개인의 일탈을 넘어 산업화하고 있고, AI 기술 발전 방향은 개인의 딥페이크 제작 능력 향상과 맞닿아 있습니다. 그렇다면 음란물 제작은 딥페이크 기술의 발전 과정에서 의도치 않게 생겨난 불행하고 부수적인 역효과 같은 것이 아니라, 그 기술이 그렇게 작용하도록 설계된 결과라고 할 수 있지 않을까요? 딥페이크 기술의, 나아가 AI 산업의 용도(중 하나)는 성착취물 제작을 손쉽게 만드는 것이라고요. KrIGF 패널은 합성 성착취물 등 일련의 사건으로 딥페이크 관련 기술의 폐해에 관한 우려가 고조되어, 이 기술의 긍정적 가능성을 차단할 것을 우려했습니다. 하지만 저는 해당 피해가 마치 예외적 상황인 것처럼 인식해서는, 부정적 효과를 차단하기도 긍정적 효과를 끌어내기도 어렵다고 봅니다. AI 산업의 작동 방식 자체가 음란물 관련 피해를 키우는 방향으로 작용한다는 점에 눈감은 채 문제를 해결할 수 없습니다. 🦜더 읽어보기 생성 AI 성착취물 시장의 구조 (AI 윤리 레터, 2023-09-04) 인공지능이 만드는 모두의 딥페이크 (고아침, 2023-01-31) Inside the AI Porn Marketplace Where Everything and Everyone Is for Sale (404 Media, 2023-08-22) OpenAI Is ‘Exploring’ How to Responsibly Generate AI Porn (Wired, 2024-05-08) We Are Truly Fucked: Everyone Is Making AI-Generated Fake Porn Now (Vice, 2018-01-25)
인공지능
·
3
·
한 명이라도 안전하지 못하다면 모두 안전할 수 없다
딥페이크,  해킹, 여성들의 사진을 무작위로 수집하는 AI 프로그램, 성적인 콘텐츠를 광범위하게 유포하고 추천하는 플랫폼의 알고리즘 등 디지털 성범죄에 활용되는 기술은 시시각각 교묘해지고 정교해지고 있다. 실제로 최근 컴퓨터공학과를 졸업한 뒤 IT 업체에서 10여년의 경력을 가진 프로그래머 남성이 직접 영상물을 쉽게 옮길 수 있는 자동화 프로그램을 개발하고 7개의 불법 사이트를 운영하며 30만여개의 불법 성착취물을 유포한 사건이 기사화되기도 했다 ( YTN. (2024.06.18) https://www.ytn.co.kr/_ln/0103_202406181852569129 ).  <텔레그램 성착취 단체방 내 공유된 AI 프로그램. 여성들의 사진을 무작위로 수집 및 목록화한다> 디지털 성범죄는 오프라인에서 발새하는 기존의 성범죄와는 또 다른 맥락에서 피해자의 존엄성을 심각하게 침해하고 복제와 유포가 끝없이 가능한 디지털 환경의 특성상 그 피해는 계속 증폭된다. 그렇다면 기술을 이용한 성범죄에 맞서 기술을 이용해 이를 예방하고 근절하는 시도는 제대로 이루어지고 있는가? 시시각각 발전해가는 디지털 기술을 악용해 추적과 처벌의 경계를 교묘히 피하고 있는 디지털 성범죄의 현황에 비해 이를 막기 위한 기술과 제도는 더디게 대응하고 있지는 않은가?  최근 보안솔루션 전문 기업 지슨은 세스코와 협력해 열 감지 기반 공중화장실 불법촬영 탐지 시스템으로 알고리즘 기술을 통한 불법촬영 범죄 방지에 나섰다. 올해 메타, 구글, 오픈AI 등 주요 인공지능 기업들이 AI 기반의 성착취 콘텐츠로부터 아동을 보호하기 위해 AI 학습용 자료에서 아동 성 관련물을 삭제하고 콘텐츠가 AI에 의해 만들어졌는지를 확인할 수 있는 표식을 추가하기로 하는 원칙에 합의했다. 또한 서울시는 AI 안면인식 기술을 활용한 아동·청소년 디지털 성범죄 감시 시스템을 개발해 아동·청소년 성착취물 선제적 감시와 삭제를 하는 등 디지털 성범죄 방지와 사후 대응을 위한 기술의 상용화가 점차 활발하게 이루어지고 있는 것으로 보인다.   AI 기술을 활용한 디지털 성착취물 감시, 삭제 시스템은 사람이 직접 모니터링하는 것보다 검출 속도와 정확도가 1/80, 300% 크게 향상된 상태다. 빅데이터 분석을 통해 아동·청소년 디지털 성착죄물 관련 신조어를 생성해 더 많은 성범취물을 찾아낼 수 있고 검색 영역을 확장해 넓어진 디지털 성범죄 피해 범위에 대응할 수 있게 되기도 하였다.  그러나 현재 이 기술은 아동·청소년 대상 디지털 성범죄에만 적극적으로 적용되고 있으며, 성인 대상 디지털 성범죄의 경우 피해자가 피해사실을 인식하고 삭제 요청을 하지 않는 이상 사실상 수사나 피해 구제 대상에서 제외되고 있다. 올해 4월 인스타그램의 모기업인 메타는 인스타그램 DM에서 전송되는 나체 사진을 자동으로 감지해 흐리게 처리할 수 있는 AI 기능을 시험 중이라고 밝혔지만, 이 기능은 18세 미만의 아동·청소년에게만 기본적으로 적용되고 성인들에게는 이 기능을 알리는 알림만 표시된다. 멀리 갈 것도 없이, 현재 한국은 미성년 피해자 대상 디지털 성범죄에 대해서만 경찰이 위장수사를 할 수 있는데 이는 ‘아청물’임이 명백히 드러나지 않는 미성년 피해자 대상 디지털 성범죄는 물론 성인 대상 디지털 성범죄는 모두 놓쳐버리는 분명한 한계가 존재한다.  디지털 성범죄를 수사하고 방지해야 할 의무가 있는 공권력은 성인 대상 성착취물, 불법촬영물에 대해서는 여전히 여성 및 피해자의 권리와 존엄성보다 ‘음란물’ 유통자의 자유권을 중요시하여 성착취물의 ‘합의되었을’ 가능성에 지나치게 연연하고 있다. 언론이나 대중 역시 20대 성인 여성이 실질적으로 디지털 성범죄의 가장 큰 표적이 되고 있는 현실을 고려하지 않고 ‘성인’의 책임과 자율성만을 강조하며 피해 지원이나 보호를 받아야 할 대상으로는 보고 있지 않다. 아동·청소년의 취약성에 대해서는 인식하고 있지만, 역설적으로 이것이 디지털 성범죄의 과반 이상 피해자인 성인 여성층을 상대적으로 덜 고려하게 만든 것이다. 실제로 언론이 “피해자 대다수가 10대 청소년”이라 대서특필한 텔레그램 성착취 사건 중 박사방의 경우 피해자 74명 중 16명만 미성년자인 것으로 드러났으며, 2023년 디지털성범죄 피해자지원센터에서 지원한 피해자 중 약 70%가 20대 이상(20대 50.3%, 30대 11.9%, 40대 4%, 50대 이상 2.5% 등)임에도 여전히 “10대 피해자가 24.6%로 나타나 온라인 플랫폼 이용이 익숙한 저연령층에서 피해가 많이 발생한다(한경. (2024.04.24). https://www.hankyung.com/artic... )”고 서술하고 있다. 보다 안전한 디지털 생태계를 갖추기 위해 기술과 제도의 발전이 논의되고 있는 현재, 그 청사진을 그리기 위해 중요하게 고려해야 하는 지점이 있다. 바로 ‘연령대’에 따라 차이를 두는 것이 옳은지에 대한 근본적인 질문이다. 앞서 서술되었듯 디지털 성범죄 사건과 그 예방 및 지원을 이야기할 때 나이에 따라 차등화 된 접근방법을 택하는 일이 빈번히 발생하고 있다. 아동·청소년 피해자에만 집중하는 국가와 사회의 모습은 안전한 디지털 생태계를 갖추기 위한 길에도 영향을 미치는데, 사건 발생 이후의 조치 뿐 아니라 디지털 성범죄 예방을 위한 정책들에서도 이러한 차이를 찾아볼 수 있다. 우리의 기술과 제도가  모든 디지털 성범죄에 공평하게 적용되지 않고 있는 것이다. 대표적인 예시로는 랜덤채팅 앱을 들 수 있다. 청소년 보호위원회와 여성가족부는 미성년자 대상 성매매 등의 온상인 랜덤채팅 앱을 청소년유해매체물로 지정한 바 있다. 해당 결정 고시는 랜덤채팅에서 미성년자들에게 성적인 대화를 요구하거나 신체 촬영물을 요구하는 등 아동·청소년을 대상으로 한 성착취가 빈번하게 일어나기에 필요한 조치를 행한 것으로 그 대상 역시 ▲ 실명 인증 또는 휴대전화 인증을 통한 회원관리 ▲ 대화 저장 ▲ 신고 기능 등 안전한 대화서비스를 위한 기술적 조치가 없는 앱에 제한된다. 해당 고시가 청소년 보호에 긍정적으로 기여한다는 점에는 의문이 없지만, 리셋은 “그렇다면 왜 성인들은 이러한 보호의 범위에서 제외되는가?”를 묻고자 한다.  리셋이 구글과 원스토어 그리고 앱스토어에서 찾은 백여개의 랜덤채팅 앱을 직접 조사한 결과, 연령대에 따라 차이를 두는 접근방식의 근본적인 문제점이 뚜렷하게 관찰되었다. 첫번째는 위 고시에서 서술하고 있는 기술적 조치를 가진 앱이라 할지라도 그 안에서 리셋이 사용한 ‘20대 여성’의 계정을 대상으로 한 디지털 성폭력이 만연하게 발생했다는 것이며, 두번째는 청소년유해매체물로 지정된 랜덤채팅 앱이라도 아동·청소년이 자신의 나이를 20세로만 설정한다면 어떠한 제한 없이 앱을 이용할 수 있어 해당 고시의 목적이 무색하게 그들이 디지털 성폭력에 노출된다는 것이다. 리셋의 ‘20대 여성’ 계정에는 성적인 대화 시도/유도부터 통신매체이용음란, 자기촬영물 제공 및 판매 유도, 기타 원치 않는 성적 접촉 등 다양한 디지털 성폭력이 쏟아졌다. 그리고 ‘연령대에 따라 다른 디지털 공간’을 조성하여 아동·청소년을 디지털 성폭력으로부터 보호하고자 한 여성가족부의 의도에도 불구하고 랜덤채팅 앱을 이용하는 아동·청소년들 역시 동일한 디지털 성폭력에 노출되어 왔다. 디지털 공간 안에서 한 명이라도 안전하지 못하다면, 모두가 안전할 수 없다는 방증인 것이다.  최근 서울대 불법합성 사건을 계기로 피해자가 미성년자인 디지털 성범죄 사건에 국한한 현 위장수사 체제가 갖는 한계점이 대두되며 그 발전에 대한 논의가 시작되고 있다. 사실 이 한계는 ‘아청법’ 일부개정법률이 공포되어 아동·청소년 대상 디지털 성범죄 사건에 위장수사를 허용한다는 규정이 마련된  2021년부터 꾸준히 지적되어왔던 내용이다. 그러나 대부분 필요성은 있다면서도 “위장수사가 남용되어 피의자가 양산될 수 있다”거나 “위장수사 방식은 위법한 함정수사의 유혹에 빠질 수 있는 여지가 많다(치안정책연구소. (2020). 디지털성범죄 및 마약·사기범죄에서의 위장수사. 치안정책리뷰 76. )” 는 등의 이유로 그 대상 범위의 확대는 차후에 논의할 과제라 명할 뿐 이에 대한 실질적인 논의는 사실상 정체되어 있었다. 그러나 경찰대학 치안정책연구소가 지적하듯, “피해자의 극심한 인격권 침해와 피의자의 헌법상 기본권 침해는 사실상 비교형량 할 수 없을 정도로 피해자의 권리가 우위에 있다(치안정책연구소. (2021). 디지털 성범죄의 위장수사 쟁점과 과제. 치안정책연구 35(2). https://psi.police.ac.kr/polic...)”. 이 인격권 침해가 연령대에 따라 다르게 나타나는 것도, 피해자의 연령대에 따라 그 심각성에 차이가 발생하는 것도 아님이 자명한 사실이다. 그런데 왜 우리는 이를 다르게 대하고 있는가?  텔레그램 성착취 사건 이후 한국 사회는 안전한 디지털 공간을 만들기 위해 여러가지 방면으로 대응해왔다. 특히 2020년 국무조정실과 국무총리비서실이 발표한 디지털 성범죄 근절 대책은 성인 대상 성착취물의 소지 역시 처벌하고 아동·청소년 성착취물의 제작·판매자를 신상공개 대상에 포함하는 등 디지털 성범죄에 맞서기 위한 중요한 전환점이 되었다. 마찬가지로 2020년, 또다른 공공의 문제였던 코로나19와 관련해 UN은 “모두가 안전해지기 전에는 아무도 안전할 수 없다(No one is safe until everyone is)(UN, (2020. 07. 30.), https://www.un.org/en/desa/%E2... )”라는 제목으로 코로나19 회복을 위해 불평등을 해소하고 다자간 협력을 촉진하여 더 큰 평등과 사회적 정의를 목표하자는 글을 게시하였다. 이 슬로건은 모든 사회문제에 적용된다고 볼 수 있으며 디지털 성범죄 역시 모두가 안전해지기 전에는 아무도 진실로 안전하다고 말할 수 없을 것이다. 아동·청소년 대상 디지털 성범죄에 치우친 현재의 접근법은 성인 여성 피해자를 소외시키고 있으며, 이는 기술과 제도의 발전에도 불구하고 여전히 많은 한계로 이어지고 있다. 따라서 모든 연령대의 피해자를 보호하기 위해 우리는 보다 포괄적이고 평등한 접근 방식을 채택해야 한다. “모두가 안전해지기 전에는 아무도 안전할 수 없다”는 원칙을 디지털 성범죄 예방과 대응에도 적용하여, 기술과 제도를 통해 모든 피해자가 보호받을 수 있게 하는 것이 안전한 디지털 생태계를 구축하는 올바른 길이다. 안전한 디지털 공간을 바라는 캠페이너들의 이야기를 모읍니다
공론장
·
6
·