길들임의 거리
by 💂죠셉
전치형 교수는 저서 <로봇의 자리>에서 동화 <어린 왕자>의 한 부분을 인용, 기술을 ‘길들인다’는 유용한 개념을 제시합니다.
여우는 입을 물고 오랫동안 어린 왕자를 쳐다보았다.
🦊 ‘제발.. 나를 길들여줘.” 여우가 말했다.
🤴🏻“나도 정말 그러고 싶어.” 어린 왕자가 대답했다.
🤴🏻“그렇지만 내겐 시간이 많지 않아. 찾아내야 할 친구들도 있고 알아볼 것도 많아.”
🦊“우리는 우리가 길들이는 것만 알 수 있어.” 여우가 말했다. “사람들은 이제 무엇도 알 시간이 없어 (…) 네가 친구를 원한다면, 나를 길들여!”
길들임을 ‘관계를 맺는다’는 의미와 연결 지은 것이죠. 일반적으로 저게 물건이나 동물 등, 비인간을 대상으로 사용되는 건조한 표현이라는 점을 기억 해보면, 여기서 제시된 관계 맺음으로서의 길들임은 기술과의 관계를 설명하는 데도 적절한 것 같습니다. 관계 맺는 대상이 한편으로 ‘도구’라는 점을 상기시키면서도 사용-피사용의 일방성 대신 관계의 양방향성을 드러내 주기 때문이죠. 모르고 있다가는 종종 사람과 헷갈릴 정도로 그럴듯한 아웃풋을 내어놓는 AI와의 관계에서는 더더욱요.
기술과 사회, 개인이 만나 서로를 길들이고, 길들여지는 과정엔 시간의 경과가 필수적일 겁니다. ‘적당한 거리를 두고 관찰하기, 어떤 존재인지 이해하려 노력하기, 낯선 환경에 적응하도록 도와주기. 지켜야 할 규칙을 알려주기, 규제하고 관리하기(p.9)’에 참여하는 가운데 우리는 삶이라는 맥락 속 기술에 대해 사유하고, 이야기하고, 애매한 윤리적 지점에 대해 논쟁하며 사회적 맥락 속 나의 가치들에 대해 고민하게 됩니다.
그렇게 사람들이 서로 연대하고, 공론화시키고, 행동할 시간이 주어졌기 때문에 만드는 사람들도 어느 정도는 사회와 발맞춰 방향키를 잡았을 것이고, 시간이 지나며 그 혜택의 분배도 이뤄진 것이겠죠. 기술 진보를 마치 진화의 과정처럼 여기며 그게 자동으로 우리를 계몽하고 이롭게 할 것이라는 기술 유토피아주의는 비판적으로 거리를 두고 봐야 할 환상입니다. <권력과 진보>에서 저자들이 말했듯, 독점하려는 세력에 대항하는 길항권력이 형성되고, 투쟁해온 사람들이 있었기 때문에 낙수효과도 있었겠죠.
그런데 AI라는 기술을 생각하면 우리에게 그 길들임을 위한 시간이 충분히 주어지고 있는지 의문입니다. 신기술이 이전 것을 갱신하는 속도는 갈수록 빨라져서 생각할 시간도 없이 휘몰아칩니다. 그리고 그 모든 과정이 소수의 닫힌 집단에 의해 이뤄지는 경향 또한 갈수록 심화하고 있죠. 이런 점에서 AI라는 기술은 지금까지의 기술 패러다임과 구분되어 분석할 필요가 있어 보입니다.
규제, 민주적인 의사 결정 과정 등 모두 중요하지만 개개인이 '길들임'을 스스로 연습해 나갈 수 있도록, 기술에 대한 주도적 비판 능력을 갖추는 것이 AI시대를 위한 궁극의 해답일 겁니다. 어려운 문제죠. 어디서부터 시작할 수 있을까요? 시중에 나와 있는 훌륭한 기술 철학, 윤리 책은 정말 많지요. 지금 우리에게 없는 건 그 지식을 밀접한 생활 속에서 녹여낸 이야기들이 아닐까 생각해봤습니다. 지난 레터에 썼듯, 내가 보고 싶은 세상의 모습은 무엇인지, 그것과 기술의 지향점 사이 거리는 어느 정도인지 가늠해 볼 수 있게 도와줄 '작은' 이야기들이요. 종종 명확한 답이 없는 AI 윤리 문제들을 고민하는 일이 위와 같은 테크 감수성(sensibility)을 기르는 데 기여할 수 있으리라 믿습니다.
세계 평화를 향하여
by 🥨채원
저는 지난주 리스본에서 열린 <평화와 안보를 위한 책임감있는 AI> 워크샵에 다녀왔어요. 보통 학교나 기업에서 주관하는 대부분의 AI 관련 행사와 달리, 유엔(United Nations, UN)이라는 국제 기구에서 개최한다는 점에 흥미를 느껴서 다녀오게 되었습니다. 이틀간의 워크샵은 유엔 군축 사무국(United Nations Office for Disarmament Affairs, UNODA)과 스톡홀름 국제 평화 연구소(Stockholm International Peace Research Institute, SIPRI)가 공동으로 개최한 행사였습니다. 군축과 국제 평화를 고민하는 사람들이 이야기하는 AI는 어떤 모습일지 궁금했는데요, 오늘 레터에서 가볍게 저의 감상을 나눠보려고 합니다.
AI와 평화, 그리고 안보라니, 처음에는 낯선 단어들의 조합으로 느껴지기도 했습니다. 학부 때 들었던 <국가 안보와 정보>라는 수업을 떠올려보면, 각 국의 정보기관이라든가 국제 정세와 외교 정책 같은 것들을 다뤘던 것 같아요. 그래서인지 워크샵 주제를 듣고 가장 먼저 든 생각은 지금 우크라이나와 가자지구에서 활발히 쓰이고 있는 각종 첨단 AI 기술들이었습니다. 신장 위구르나 홍콩 시위 때도 그랬듯, 기술을 계속해서 발전하고, 이렇게 하는 것이 옳은 것인지 고찰할 새도 없이 사회 곳곳에서 쓰이고 있으니까요.
일단 제 기억에 남는 것은 전통적인 안보 문제 (예컨데 핵확산 방지조약이라든가 치명적 자율 무기 체계 등)와 AI를 비교하는 것이었어요. 국가간 이런 논의를 진전시키는 데 얼마나 많은 시간이 필요한지, 아주 간단한 정의 조차 동의하기 어렵다는 점이 닮았다는 게 흥미로웠습니다. 반면, 핵무기처럼 특정한 행위자만이 ‘추적 가능한’ 형태로 개발하는 전통적인 안보 기술과 달리 AI 기술은 안보에 큰 영향을 미치면서도 기존과 다른 행위자들 - 예컨데 구글같은 미국의 테크 기업들이라든가 다양한 오픈소스 커뮤니티 - 에 의해 이루어지기 때문에, 새로운 접근 방식이 필요하다는 것도 인상깊었습니다.
지금 AI에 대해 이루어지는 많은 비판이 윤리적인 비판 혹은 안전성, 위험성에 기반을 두고 있는데요, 이러한 관점이 국제 안보에서 이야기되는 안보와 비슷하면서도 다른 점이 많다는 생각이 들었습니다. 결국 중요한 것은 어떤 맥락에서, 누구의, 무엇을 위한 안전인가를 묻는 것이겠지요. ‘책임감 있는’ 기술 혁신의 책임이란 무엇 혹은 누구에 대한 것일까요? 또 AI 기술을 개발하고 사용하는 개인의 입장에서 책임감이란 어떤 의미일까요?
한편으로는 비슷한 논의점이라도 ‘윤리적 문제’로 이야기되는 것과 ‘안보의 문제’로 제시되는 것에서 오는 차이점 또한 흥미로웠습니다. 윤리라는 말랑한(?) 이름이 오히려 날카로운 비판을 어렵게 만드는 것은 아닐까 싶기도 했고요. 너무 말랑하지 않으면서도 냉정하되 너무 날카롭지만은 않은 그런 ㅎ 관점을 갈고 닦아서 앞으로 독자 여러분과도 나누어보도록 할게요.
#feedback
오늘 이야기 어떠셨나요?
여러분의 유머와 용기, 따뜻함이 담긴 생각을 자유롭게 남겨주세요.
남겨주신 의견은 추려내어 다음 AI 윤리 레터에서 함께 나눕니다
코멘트
2다 읽고 나니 '윤리는 왜 말랑해 보일까?'라는 생각을 했네요. 어느 산업이든 '윤리'는 매우 중요한 요소라고 생각하는 편인데요. 특히 기술에선 윤리가 끼치는 영향이 매우 크지 않나 싶어요. 비유가 너무 극단적이지만 오펜하이머의 사례가 답을 보여주는 것 아닐까 싶기도 하고요. '인공지능이 세계를 지배할거야!'라는 말이 과도한 포장이라고 느껴지지만 반대로 '인공지능에 왜 윤리가 필요해?'라는 태도도 위험하다고 느껴지네요.
<전통적인 안보 문제 (예컨데 핵확산 방지조약이라든가 치명적 자율 무기 체계 등)와 AI를 비교>한다는게 인상 깊네요. 그만큼 AI의 위험성과 그 중요도가 많이 올라갔다는 거겠죠. 정말 다양한 분야에서 AI를 고민하는 듯 하네요.