[디지털전환] AI의 차별과 혐오, 법적으로 규제해야 할까요?
2022.07.28
최근 AI(인공지능) 챗봇인 ‘이루다’가 서비스를 시작하자마자 여러 논란 속에 서비스를 중단하게 된 일이 있었습니다. ‘이루다’가 만들어지는 과정에서 개인정보 활용 및 처리에 문제가 있었다는 것과, ‘이루다'의 발언들이 차별과 혐오를 담고 있다는 것이 주요 골자입니다.
AI는 데이터를 학습하고, 그 학습을 바탕으로 결과를 도출하는데요. 이러한 AI 기술로 만들어진 챗봇인 ‘이루다'가 대화 속에서 소수자 차별이나 혐오 발언을 하게 된 상황은, AI인 ‘이루다’가 학습한 데이터들에 차별이나 혐오 내용이 있었다는 것이며, 그것을 거름망 없이 그대로 표출했다는 점이 문제라는 지적이 있었습니다.
현행법상으로는 ‘국가와 지방자치단체는 지능정보기술의 개발·고도화 및 활용을 제약하는 불필요한 규제를 적극적으로 개선해야 한다(지능정보화 기본법 제4조)’는 조항이 있고, 이에 대해 계명대 인권센터 김희정 교수는 “지능정보화 기본법에는 AI 또는 머신러닝을 이용해 도출된 결과에 대한 규제나 의무 규정이 없다”라고 설명했습니다. (국민일보, 2021.01.17)
해외 여러 나라들에서 시행되고 있거나 마련되고 있는 AI 규제는 크게 두 가지로 나뉩니다. 의회 입법을 통한 법적 규제와, 법적 구속력이 없는 윤리적 규제인데요. 이 두 가지 규제 방법과, 규제를 최대한 하지 않는 방안 등, AI 규제에 관하여 다양한 의견이 논의되고 있습니다. 대부분의 국가들에서 규범 차원의 가이드라인을 발표하는 추세이며, 법적 규제를 위한 입법의 움직임도 보이고 있습니다. 우리나라에서도 지난해 12월 ‘국가 인공지능 윤리기준’이 발표되었고, 과학기술정보통신부와 국무조정실이 국정현안점검조정회의에서 확정한 ‘인공지능 법·제도·규제 정비 로드맵’에는 AI 관련 데이터나 알고리즘 투명성, 법인격, 책임체계 관련 법 개정에 대한 내용과 AI 활용·확산에 필요한 제도 개선 내용이 담겼습니다. (서울신문, 2021.01.12) (아시아경제, 2020.12.24)
.
?AI의 차별과 혐오 규제, 어떻게 생각하세요?
??⚖️ AI가 차별, 혐오를 하지 못하도록 법적으로 규제해야 한다
이재웅 전 쏘카 대표는 '이루다'의 서비스의 잠정 중단 결정을 환영하며, "AI 챗봇, 면접/채용, 뉴스 추천 등이 인간에 대한 차별, 혐오를 조장하고 있는 것은 아닌지 사회적으로 점검하고, 포괄적 차별금지법 제정 등을 통해 AI 를 학습시키는 우리 인간들의 규범과 윤리도 보완했으면 좋겠다"고 말했습니다. 이 전 대표는 ‘이루다’ 서비스 잠정 중단 결정 이전부터 자신의 페이스북을 통해 이루다의 차별과 혐오 조장에 대해 문제제기를 하며 서비스 잠정 중단을 촉구해 오기도 했습니다. (뉴시스, 2021.01.12)
2019년 미국에서는 AI의 알고리즘으로 인한 인종·계층 등의 차별을 방지하기 위한 ‘알고리즘 책임법’이 발의됐습니다. 연 매출 5000만 달러 이상, 100만명 이상의 소비자가 사용하는 기기의 데이터를 수집하는 기업을 대상으로 알고리즘의 공정성, 사생활 침해 여부 등을 검토한 후 기업에 알고리즘 산출방법 등을 공개하도록 하는 것이 주 내용입니다. (국민일보, 2021.01.18)
??♀️ AI 관련 윤리적, 사회적 가이드라인을 수립하는 게 바람직하다
카카오는 지난 13일 공식 브런치를 통해 증오발언 근절을 위한 원칙을 발표했습니다. 이 원칙은 크게 네 가지 항목으로 구성되어 있는데요. 기업 차원에서 카카오는, 출신이나 인종 등 여러 정체성 요인으로 인한 차별을 반대하고, 그에 기반한 증오발언에 강경 대응할 것이라는 것과, 증오발언 근절을 위해 정책이나 기술, 교육 등을 고도화하기로 하였다는 내용입니다. 뿐만 아니라 이용자들로 하여금 타인의 존엄성을 지키고 폭력을 행사하지 않도록 하는 권고도 포함하고 있습니다. (매일경제, 2021.01.13)
고학수 한국인공지능법학회장은 “사회적 맥락과 일상생활에서 AI 윤리규정을 어떻게 만들지, 수집된 데이터를 어떻게 보정해야하는지 등의 연구와 논의가 지속 필요하다”라고 말하며, “데이터 편향성이나 AI 윤리같은 문제에 대해 개발 프로세스 단계에서 적절하게 고민할 수 있는 거버넌스나 세밀한 적용사례가 필요하다.”라고 말했습니다. (전자신문, 2021.01.18)
??? 법적/윤리적 규제는 AI 발전을 저해할 수 있어 반대한다
이에 반해, 법적 또는 윤리적 규제에 대한 우려의 목소리도 나오고 있습니다. 남궁훈 카카오게임즈 대표는 “규제로 혁신을 가둘 수 있다”고 우려를 표했습니다. (서울경제, 2021.01.12)
양종모 영남대 법학전문대학원 교수는 지난해 '인공지능 챗봇 알고리즘에 대한 몇 가지 법적 고찰' 논문을 통해 "AI 알고리즘에 사용되는 모든 개인정보 수집을 포괄적으로 규제하는 유럽연합의 GDPR(일반 데이터 보호 규정) 수준으로의 강화되는 것은 업계 입장에선 커다란 장애물이고 부담"이라고 밝히며, "GDPR은 AI 알고리즘 발전에 저해 요인이 될 수 있다"고 주장했습니다. (디지털타임스, 2021.01.17)
✏️AI 기술의 올바른 활용, 시민주도 공론장에서 논의하자!
AI 기술을 어떻게 하면 올바르게 사용할 수 있을까요? 법적 규제가 필요한 걸까요? 기업들이나 사회에서 윤리적인 가이드라인을 수립하는 것이 좋을까요? 또는 새로운 산업의 발전을 위하여 규제라는 장애물을 최대한 없애는 것이 좋을까요? 시민주도 공론장에서 함께 이야기 해 보면 좋겠습니다!
?AI의 차별과 혐오, 법적으로 규제해야 할까요?
코멘트
10우선 가이드를 먼저해보고..
차별금지법 제정 / ai 윤리가이드를 시민과 함께 만드는게 필요합니다. Ai가 우리가 가진 차별과 혐오의 언어를 드러낸 계기가 된거 같습니다.
섣부른 규제 보다는 가이드를 점진적으로 만들어가면 좋겠습니다.
@트리
네, 법적 규제에 앞서 사회적 논의와 윤리적 가이드라인에 대한 합의가 잘 이루어져야 하겠죠. 그리고 결국에는 법적 규제가 필요하지 않을까 합니다.
AI의 학습은 결국 우리들의 언어와 행동에서 시작됩니다. 즉, AI가 차별과 혐오를 하도록 만든 것은 우리들이 그러한 언어를 사용하고, 행동을 했기 때문이죠. AI를 법적으로 규제하게 된다면 이는 근본적인 원인을 그대로 둔 채, 임시로 막는 것에 불과한 방법이라고 생각합니다.
근본적으로는 이러한 문제의식을 저희 스스로가 인식하고, 우리들부터 바뀌어야 합니다. 그리고 그 다음에는 규제가 아닌 윤리적,사회적인 합의를 바탕으로 문화를 바꾸어야 합니다. 저는 그 시작점이 가이드라인을 만드는 것에서 출발할 수 있다고 생각합니다.
@시스
공감됩니다. "더 빠르게 앞지르기 위해서 여러 우려점들을 충분히 고려하지 않고 달려간다한들 얻게 될 편익과 감당해야 할 리스크 중 어떤 것이 클지 누구도 알 수 없습니다." 이번 이슈가 시사하는 바라고 생각합니다. 선제적 조치로서 법적 규제를 논의해야 할 시점이라고 생각됩니다.
패스트 팔로워일 경우에는 이미 고려해야 할 여러가지 법적 제도적 장치들을 참고할 수 있지만. 선도하는 입장에 설 때는 참고할 수 있는 사례가 적어질 수 밖에 없습니다. 더 빠르게 앞지르기 위해서 여러 우려점들을 충분히 고려하지 않고 달려간다한들 얻게 될 편익과 감당해야 할 리스크 중 어떤 것이 클지 누구도 알 수 없습니다. 한국 사회가 더 선도적인 IT 강국이 되고 싶다면 이제는 지금 여기서 고려해야 할 여러가지들을 함께 논의하고 필요한 법적, 제도적 장치도 선도적으로 논의하는게 앞으로를 위해서도 더 확실한 방향이라고 생각합니다.
@제이
기업과 정부, 개인 및 시민사회가 생각하는 선이 다를 수 있다는 말씀에 공감합니다. 공론장에서 활발한 논의가 필요한 시점이라는 생각이 드네요.
AI는 발전해야하는 산업이고, 이슈화 된 이후에 어떻게 논의를 이끌어갈지가 중요하다고 생각합니다. 신산업에 규제가 걸림돌이 될 수 있으니 사회적인 가이드라인이
충분한 사회적 논의와 이해가 우선이라고 생각드네요.