인공지능

혹시라도 뉴스를 읽다가 지쳐버릴까봐서!
뉴스를 읽다가 지쳐버릴까봐 쓰는 글 by. 🍊산디 AI 디지털 교과서 도입에 대한 MBC의 [집중취재]가 눈에 띄어 기대를 품고 읽기 시작했습니다. 🦜AI 윤리 레터에서도 소개된 바 있는 있는 이슈이지요. 이주호 교육부총리가 “우려를 충분히 잘 제어하면서 진행하면 전세계적으로 주목받을 것”이라고 말한 정책이기도 합니다. 초등학생을 대상으로 시행되는 AI 정책입니다. 무엇을 보호해야 하며 어떻게 보호할 수 있는지 더 많은 고민과 논의가 필요한 분야죠. [집중취재]라고 하여 그간 미진했던 논의들을 살펴보는 보도일거라 기대했지만, 아니었습니다. 빛나는 미래가 성큼 다가온 듯한 교실이 그려졌을 뿐, 학생들의 정보인권과 AI 디지털 교과서가 미칠 영향은 다루어지지 않았습니다. 다른 지면을 빌려 다루기도 했습니다만, AI 디지털 교과서에 대해 따져 물어야 할 질문이 참 많습니다. UNESCO의 <인공지능과 교육-정책입안자를 위한 지침>은 마침 교육 분야에 AI를 적용할 때 어떤 질문들을 따져보아야 하는지 다음과 같이 친절히 안내합니다. 학습 데이터를 윤리적으로 수집 및 활용할 수 있는 경계는 어디까지인가? 그 기준은 무엇인가? 학교, 학생, 교사가 데이터 수집을 거부하거나 대항할 수 있는 방법은 무엇인가? 인공지능의 처리 결과를 쉽게 알 수 없다는 것은 어떤 의미인가? 기업과 공공기관은 어떤 윤리적 의무를 지는가? 학생들의 일시적인 흥미, 감정과 학습 과정의 복잡성을 고려했을 때 인공지능은 어떠해야 하는가? 사진: Unsplash의Good Good Good AI 디지털 교과서를 담당하는 공무원과 교사, 기업 관계자 분들이 위 질문에 대한 답을 가지고 있는 것일까요? 설령 나름의 해법을 가지고 있다 하더라도 그 내용은 학부모와 학생들에게 공유되어야 마땅합니다. 만약 답을 찾아가고 있는 과정에 있다면, 그 과정 또한 공유되어야 합니다. 질문과 해법을 찾아가는 과정을 공개하는 것이 언론의 역할입니다. 많은 언론 보도는 AI가 가져올 경쾌한 미래를 그리는 데에 초점을 맞춥니다. 정부나 기업의 보도자료를 그대로 전하거나, 기술의 장점만을 부각하여 전하는 보도는 굳이 인용하지 않아도 숱하게 찾아볼 수 있습니다. 하지만 모든 보도가 AI 디지털 교과서에 관해 아무것도 묻지 않는 것은 아닙니다. 그리고 저는 제 역할을 해낸 보도에 더 많은 조명이 비추어져야 한다고 생각해요. 다음은 AI 디지털 교과서를 비판적으로 다룬 보도들 중 일부입니다. 국민일보는 교과서의 데이터가 엄밀히는 사교육업체에게 제공되며, 교육청 관계자들 사이에서도 이견이 있고, 의견수렴이 미진함을 지적합니다. 교과서 이용에 “동의하지 않는 학생의 수업을 어떻게 할 지는 검토해보지 않았다”는 교육부 관계자 인터뷰 내용을 인용하기도 했습니다. 경향신문은 AI 디지털 교과서 정책이 알고리즘 편향을 비롯해 AI 사용 시 발생하는 윤리적 쟁점을 충분히 다루지 않은 채 ‘속도전’을 치르고 있음을 비판했습니다. AI 디지털 교과서 도입에 대한 7명의 교사의 의견을 인터뷰한 내용을 소개하기도 했습니다. IT 조선은 AI 디지털 교과서가 클라우드 컴퓨팅 보안인증에서 난항을 겪고 있다는 사실과 함께 장애, 다문화, 기초학력 등 학생들의 다양한 특성을 고려한 보편적 학습설계도 중요한 문제가 될 것임을 지적합니다. [집중취재] 보도가 있었던 바로 다음날, MBC 역시 AI 디지털 교과서가 문해력을 해칠 수 있다는 우려의 목소리를 전했습니다. 이외에도 많은 언론인들이 문제의식을 안고 해당 이슈에 접근하고 있을 것입니다. 제가 소개해드리지 못한 보도도 많구요. 그러니 한국 언론인들은 문제의식이 없다고 비판하는 게 아니라, 언론 조직의 의사결정 과정과 보도 구성의 논리를 어떻게 개선할 수 있을지 고민해야 합니다. AI와 같은 기술을 다루기 위한 내부적인 가이드라인이 도움이 될 수 있을 겁니다. 만약 AI 보도 가이드라인을 논의하게 된다면 🦜AI 윤리 레터가 제시했던 ☑️ AI 하이프 뉴스 체크리스트가 도움이 되었으면 합니다. 퓰리처 재단이 ‘인공지능을 취재하는 언론인을 위한 스포트라이트 시리즈’에서 이야기하는 것처럼, 언론 또한 AI를 공개, 조사, 설명하는 책임을 집니다. 비단 AI 디지털 교과서뿐만 아니라 기술 정책 이슈를 다루는 과정이 보다 풍성한 물음으로 가득차기를 간절히 바랍니다. 🦜함께 읽으면 좋을 글 AI 교과서는 우리 아이 데이터 채굴기?(2024-01-29) 외부인의 'AI 디지털교과서' 단상(2024-02-21) 우주 정복과 영생의 꿈은 TBC! by. 💂죠셉 오늘 레터는 작년 여름 무렵부터 테크 커뮤니티에서 언급되기 시작한 화제의 단어로 시작해 보려 합니다. 바로 TESCREAL (‘테스크리얼')인데요. 저희 레터에서도 종종 언급되는 AI 윤리학자인 팀닛 게브루와 에밀 토레스가 처음 만들고 홍보해 온 이 단어는 Transhumanism (초인간주의), Extropianism (무한생명주의), Singularitarianism (특이점주의), Cosmism (우주론), Rationalism (합리론), Effective Altruism (효과적 이타주의), Long-termism (장기주의)라는 일곱 개의 이념을 통칭합니다. (*💂 각 개념을 설명/이해하는 게 오늘 레터의 목적은 아니니 링크 첨부로 대신합니다.) AI 윤리의 관점에서 TESCREAL이 흥미로운 이유는, 테크 업계의 거물들이 AI에 대해 취해온 입장에 대해 중요한 문제 하나를 지적하고 있기 때문입니다. 왜 그들은 특이점과 초지능의 등장으로 인한 인류 멸망 시나리오에 대해서는 열정적으로 발언하면서 정작 AI의 편향성과 환경문제와 같은 ‘당장 직면한 문제들’에 대해서는 침묵하는 걸까요? 게브루/토레스는 일론 머스크와 샘 올트먼을 비롯한 테크-유토피아 주의자 중 상당수가 사상적으로 TESCREAL 진영에 속해있다는 점을 지적함으로써 이에 대한 흥미로운 대답을 내놨습니다. 이렇게 설명해 볼게요. “머지않은 미래에 인간은 기계와의 결합을 통해 강화(enhanced)된 영생을 얻고, 수 조명의 ‘디지털 시민'들이 살 수 있는 가상 세계의 시민으로 살게 될 것이며, 나아가 우주 전체를 식민화(colonise)시켜 그곳을 무대로 무한히 뻗어나갈 것’이라는 믿음을 가진 사람을 만났습니다. 이런 이야기를 여러분께선 어떻게 받아들이실 것 같나요? 예상하셨겠지만 위 내용은 게브루/토레스에 의해 ‘TESCREAL 주의자들’로 언급된 사람들이 그리는 미래의 축약본입니다. SF 소설 혹은 음모론 같다고 생각할 수 있겠지만, 오래전부터 아주 많은 인터뷰를 통해 공개적으로 밝혀온 바 있죠. 인물 별로 조금씩 편차는 있지만, 머스크와 올트먼 뿐만 아니라 ‘초지능(super-intelligence)' 내러티브의 창시자인 닉 보스트롬, 그리고 ‘라이프 3.0’으로 명성으로 막스 테그마크 등이 지속해서 밝혀온 입장과도 접점이 있습니다. 범용 인공 지능 (AGI) 이들이 그리는 미래의 중심에는 AGI(Artificial General Intelligence, 범용 인공 지능)이 있습니다. AGI는 일반적으로는 ‘인간이 할 수 있는 어떤 지적인 업무도 수행할 수 있는 AI’로 정의됩니다. ‘범용'이라는 단어에서 알 수 있듯 그 활용 방법이 무궁무진할 것이므로 오픈AI를 비롯한 많은 이들이 공개적으로 지향하고 있는 업계의 ‘성배'와 같죠. 요즘 밈처럼 사용되는 ‘특이점'은 바로 AGI가 ‘초지능’의 수준에 이르러 인류에게 폭발적 지적 혁명을 가져오는 시점을 뜻합니다. 앞서 언급된 영생을 얻는 신인류, 가상 세계, 우주로의 진출 등 지금 인류의 지능으로는 불가능한 목표도 초지능의 출현과 함께 가능해진다는 것이죠. 게브루/토레스의 지적에 따르면 TESCREAL 주의자들은 위와 같은 초지능의 출현을 필연으로 상정한다는 공통점이 있습니다. 더 나아가 그 정도 지적 수준을 갖춘 AI가 만약 인간의 가치 및 세계관과 일치를 이루지 못했다면 어떤 참사가 일어날까? 라는 질문을 던짐으로서 아젠다를 선점하고 있다는 것이죠. 같은 ‘AI safety’를 이야기하지만 실상 바라보고 있는 곳은 현재가 아닌 먼 미래인 샘입니다. 이게 왜 문제라는 걸까요? 일단 AGI라는 목표 설정 자체의 문제가 있습니다. 실현 가능성이 확인되지 않은 AGI에 대한 ‘믿음'을 ‘필연’처럼 홍보하며 회사의 가치를 올리려는 시도도 문제지만, 게브루/토레스는 그 개발 과정에 있어 제대로 된 테스트가 불가능하다는 점을 지적합니다. 활용 가능한 케이스가 무한하다는 것은 반대로 말해 안전을 위한 검증이 필요한 경우의 수도 무한하다는 의미겠죠. 같은 맥락에서 AGI에 대한 이들의 비젼은 ‘과학적'일 수도 없다는 것입니다. 예측 불가능한 신적 영역을 목표로 할 게 아니라, 일단 테스트 해야 하는 경우의 수가 유한한, 한정된 범위의 업무만을 수행하는 ‘좁은 (Narrow) AI’ 개발을 우선으로 할 것을 제안하고 있습니다. 또 다른 문제는, 이들의 종말론적 비전이 현재 당면한 문제를 놓치게 한다는 지적입니다. 대표적으로 AI 모델을 구축하고 가동하기 위해 소비되는 막대한 에너지와 환경 문제가 언급되는데요. TESCREAL의 핵심 인물 격으로 지목된 닉 보스트롬과의 그간 주장을 요약한 다음 부분을 살펴보면 TESCREAL의 마지막 두 축인 ‘효과적 이타주의’와 ‘롱터미즘'이 그들의 비전에 어떤 사상적 근거를 제공하고 있는지 알 수 있습니다. "TESCREAL 주의의 관점에서 보면 ‘한계가 없는 지성’을 만들기 위해 투입되는 막대한 자원과 같은 환경문제도 AGI라는 유토피아의 가능성 앞에서 정당화될 수 있다. 보스트롬을 인용하자면 단기간의 ‘대규모 인간 학살마저도 우주로 나아갈 인간의 거대하고 영광스러운 미래를 생각하면 인류를 위한 작은 한 걸음'일 뿐이기 때문’이다." (*💂 효과적 이타주의는 공리주의 관점에서 다수에게 이득이 되는 결정을 내려야 한다고 말합니다. 롱터미즘도 마찬가지로 공리주의 관점에서 우리는 먼 미래의 신인류에 대한 도덕적 책임이 있다는 점을 강조하고요. 이렇게 둘을 포개면 현재의 인류가 손해를 보더라도 먼 미래를 위한 선택을 해야 할 당위성이 만들어집니다.) To infinity... and beyond? 지속 가능성과 기술 윤리를 '거짓말'로 규정하며 '유일한 가치는 무한한 성장뿐이다'라고 외쳤던 실리콘 밸리의 거물, 마크 엔드리슨의 테크-유토피아 선언문이 떠오르는 대목입니다. 이런 관점에서 보면 AI를 발판 삼아 영생과 우주라는 무한의 세계로 향하는 TESCREAL의 지향점은 그들의 논리적 귀결로서 자연스러워 보입니다. 하지만 우리의 일상과는 너무나 동떨어진 이 이야기를 마냥 무시할 수 없는 이유는, 그들이 오늘 우리 삶에 가장 큰 영향을 끼치는 기술을 선도하는 리더들이고, 실제로 그 미래에 초석이 될 사업을 조금씩 현실화 시켜나가고 있기 때문일 겁니다. (추신: 사실 게브루/토레스가 발표한 내용의 핵심은 TESCREAL의 뿌리에 우생학이 있다는 주장입니다. 우생학은 아우슈비츠 학살의 당위성을 나치에게 제공한 문제적 사상이자 유사 과학이죠. 그 사상적 뿌리로 인해 알고리즘이 가진 인종 차별과 소외 그룹에 대한 차별의 문제를 대수롭지 않게 여긴다는 점 또한 지적됐지만 지면상 생략했습니다.) 🦜함께 읽으면 좋을 글 AGI vs. 현실 (🦜AI 윤리 레터 2023-05-29) 오늘 이야기 어떠셨나요?여러분의 유머와 용기, 따뜻함이 담긴 생각을 자유롭게 남겨주세요.남겨주신 의견은 추려내어 다음 AI 윤리 레터에서 함께 나눕니다. 
인공지능
·
4
·
탈세계화 시대의 AI
AI 윤리 뉴스 브리프 2024년 4월 다섯째 주 by 🧙‍♂️텍스 1. 원격 계산원과 키오스크 글로벌 아웃소싱은 어제오늘의 일이 아닙니다만, 정보기술의 발전과 함께 다양한 형태로 다양하게 변화하고 있습니다. 최근 뉴욕타임스는 원격 계산원을 도입하여 오프라인에서 아웃소싱한 뉴욕 레스토랑의 사례를 다루었습니다. 그동안 🦜AI 윤리 레터에서 다루었던 온라인 아웃소싱에서 한 발 더 나간 모습이네요. 가게 소재지인 뉴욕 퀸스의 롱아일랜드 시티 최저임금은 시간당 $15인 반면, 필리핀에 거주 중인 원격 계산원은 $3의 임금을 받습니다. 최저 임금 관련 법률이 주에 물리적으로 위치한 사람에게만 적용되기 때문에 가능한 임금 차별이죠. 리처드 볼드윈의 저서 Globotics Upheaval (2019)에서는 세계화와 로보틱스의 결합을 globotics (globalization + robotics)로 정의하고 세계화가 단순히 재화와 상품의 교환에서 벗어나서 원격이주(telemigration)의 형태로 확장되어 간다는 예측을 하기도 했습니다. 원격 계산원의 사례도 위와 같은 원격이주의 한 형태로 볼 수 있을 듯하네요. 원격 계산원은 줌의 가상 접객원(virtual receptionist) 플랫폼 기반으로 구현이 되어 있는 것으로 보입니다. CNBC의 2021년 기사에 따르면, 줌은 코로나-19 이후 줌을 통한 화상회의 수요가 줄어들 것을 대비하면서 가상 접객원 기능을 이미 준비해 두었다고 하네요. 가상 접객원 시스템의 특성상 목적에 부합하는 데이터 취득이 용이하기 때문에 미래에는 가상 아바타와 거대언어모델을 조합한 알고리즘으로 아웃소싱 업무 자체도 완전히 대체되지 않을까 조심히 예측해 봅니다. 반면, 한국의 경우는 언어 때문인지 제3국으로의 아웃소싱보다는 기술에 전적으로 의존하는 노동 대체가 일어날 것으로 예상됩니다. 이는 종업원 고용을 대체할 수 있는 기술 및 로봇에 크게 투자가 몰리고 있는 사실로 확인할 수 있습니다. 특히 한국 테이블 오더 시장의 65%를 차지하고 있는 티오더는 최근 300억 규모의 추가 투자를 받았습니다. 더 읽어보기 강화학습이 강화하는 역사 (2024-04-24) "세계 최초 윤리적 데이터 회사"는 어떤 모습일까? (2023-08-07) 2. 탈세계화 시대의 플랫폼 1: 틱톡(Tik Tok) 금지 법안 통과 최근 미국 의회 하원(4월 21일)과 상원(4월 23일)은 조건부 틱톡 금지 법안을 통과시켰습니다. 틱톡의 모회사 바이트댄스 지분을 1년 내에 매각하지 않으면 미국에서 틱톡을 금지한다는 법안입니다. 이 법안은 우크라이나, 이스라엘, 대만의 경제적 지원을 위한 법안과 함께 통과하였습니다. 틱톡은 이에 즉각 반발하는 성명을 냈습니다. 틱톡은 위헌적 금지(unconstitutional ban)라면서 미국에 미국 내 데이터의 안전과 외부로부터의 악의적인 영향 및 조작을 막기 위해서 데이터 거버넌스에 많은 투자를 진행해 왔다는 사실을 언급했습니다. 양당 대다수 의원의 동의 입장과 달리, 트럼프 전 대통령은 틱톡 금지가 메타에게 큰 이득을 줄 것이라며 반대하고 있네요. 논쟁의 배경을 이해하기 위해서는 2020년 9월로 거슬러 올라가야 합니다. 당시 트럼프 정부는 중국 정부가 틱톡의 데이터를 훔쳐볼 수 있다며 문제를 제기했고, 미국계가 50% 이상의 지분을 갖는 틱톡글로벌을 세우는 골자로 대략적인 합의가 진행되었습니다. 하지만 2020년 11월 미국 대선이 끝나면서 관련 이슈는 마무리되지 못한 채 바이든 정부의 몫으로 넘어갔습니다. 데이터 거버넌스의 해결을 위해 틱톡은 2022년 3월 중국 서버의 데이터를 모두 미국 내 오라클 클라우드로 이전하는 계약을 체결했습니다. 하지만 여전히 미국의 데이터에 중국 엔지니어가 접근할 수 있다는 사실이 2022년 6월 보도되면서 논란은 이어졌고, 미국 의회는 2022년 12월 정부 기관의 기기에서 틱톡 사용을 금지하는 법안을 제출했습니다. 틱톡은 지분구조의 변화가 데이터 거버넌스와 안보 문제를 해결하지 않는다며, 외부 개입이 없는 데이터 거버넌스를 위한 지속적인 투자를 이야기하고 있습니다. 하지만 틱톡이 어떤 기술과 방법을 동원하든, 중국 공산당이 틱톡에 접근하지 못한다는 사실을 설득하기는 어려워 보입니다. 더 읽어보기 틱톡을 금지하라! (2023-05-22) 3. 탈세계화 시대의 플랫폼 2: 일본 라인(Line) 지분 매각 권고 라인 메신저 운영사 라인야후의 지분구조 일본 정부가 라인 메신저를 운영하는 라인야후에 네이버 지분 매각을 권고했습니다. 틱톡의 사례와 마찬가지로 ‘글로벌 플랫폼 산업’이 실제로는 특정 국가의 통치권을 벗어날 순 없다는 사실을 보여줍니다. 라인 메신저는 월간 활성 사용자 수가 9600만 명에 달하는 일본 내 1위 메신저로, 한국의 카카오톡과 유사한 위상을 점하고 있습니다. 단순히 개인 간의 메신저를 넘어서 정부에서도 라인을 사용할 정도죠. 일부 집단에서는 일본의 주요 메신저를 한국 기업이 소유하고 있다는 사실에 예민하게 반응한다고 합니다. 작년 10월 한국 네이버 클라우드를 통해서 일본 라인의 해킹이 있었고, 이로 인해 라인 이용자, 거래처, 네이버 직원 등의 51만 건의 개인 정보 유출이 있었습니다. 일본 총무성은 이에 대한 사고 재발 방지의 일환으로 라인야후에게 두 차례 행정지도를 내렸으며, 여기에는 보안 거버넌스 개선방안을 위한 네이버에 대한 업무 위탁 및 네이버와의 자본관계 재검토도 포함되어 있습니다. 라인 메신저 사례는 플랫폼과 국가 안보 문제가 결합했다는 점에서 틱톡의 사례와 결을 같이 합니다. 우리나라 외교부는 “우리 기업에 대한 차별적 조치가 있어서는 안 된다”는 입장을 표했죠. 거대언어모델 개발과 활용을 주도하는 미국 빅테크 기업들에 대항하기 위해서, 각 지역의 선도 기업들은 자국에서 소버린 (sovereign) AI의 필요성을 주장하고 있습니다. 네이버도 소버린 AI를 주창하면서 한국 고유 거대언어모델의 필요성을 이야기하고 있죠. 시대의 조류가 탈세계화라면, 네이버에도 국가 내부를 향하는 소버린 AI를 넘는 담론 아이디어가 있어야 라인의 지분을 지키기 유리할 것으로 보입니다. 💬🦜소식 LG AI연구원 AI 윤리 분야 정책 연구 직원 채용 오늘 이야기 어떠셨나요?여러분의 유머와 용기, 따뜻함이 담긴 생각을 자유롭게 남겨주세요.남겨주신 의견은 추려내어 다음 AI 윤리 레터에서 함께 나눕니다. 
인공지능
·
오래된 미래의 AI
더 나은 AI를 위한 상상 by. 💂죠셉 어떤 계기로 <AI 윤리 레터>를 구독하게 되셨나요? 원래 AI와 관련된 분야에 종사하고 계셨을 수도 있지만, 많은 경우는 2022년 11월 출시된 챗GPT 이후로 본격적인 관심을 가지게 되시지 않았을까 합니다. 잘 아시다시피 챗GPT와 같은 챗봇들은 ‘LLM(거대 언어 모델)’을 기반으로 작동하는데요. 이후 클로드(Claude), 제미나이(Gemini)등 LLM 챗봇들이 쏟아져 나오면서 요즘 미디어에서 언급되는 ‘AI’는 사실상 ‘LLM’과 동의어처럼 사용되고 있습니다. LLM이 현재 AI 산업을 이끌어가는 패러다임인 건 분명한 사실입니다. 하지만 LLM은 인간 뇌의 작동 방식을 모방한 신경망(Neural network)을 바탕으로 하고, 이 신경망 기술이 인공지능이라는 목표에 이르기 위한 여러 방법론 중 하나란 사실은 짚고 넘어갈 필요가 있습니다. LLM은(=하위개념) AI지만(=상위개념) 그 반대는 불완전한 설명이라는 것이죠. 오늘 레터에서는 이게 왜 윤리 이슈 관점에서도 흥미로운 지점인지 짧게 다뤄보도록 할게요. 뉴로..심볼릭..? AI와 LLM을 동의어처럼 사용하는 경향은 얼마 전 발행된 스탠포드 HAI의 연간 리포트에서도 볼 수 있었는데요. 그 와중에 흥미로운 단락이 하나 등장합니다. (185페이지). 바로 뉴로 심볼릭 AI (Neuro-symbolic AI, 이하 ‘뉴로 심볼릭’)라는 개념인데요. 안 그래도 복잡한데 이건 또 뭐냐? 하실 것 같아 AI 역사의 맥락 속에서 간단히 정리해 보겠습니다. AI 연구가 하나의 학문으로서 정립된 것은 1956년. 이 당시 주류 패러다임은 기호주의(symbolism)로서, 세계의 지식을 기호로 바꿔 컴퓨터에 계산하는 규칙 기반의 방법론이라 할 수 있음. 반면 현재 신경망 기술의 기원이 된 건 1957년 프랑크 로젠블랫(Frank Rosenblatt)이 발표한 퍼셉트론(Perceptron) 논문. 이 때부터 이 계열의 연구에는 연결주의(connectionism)라는 이름이 붙었음. 이후 AI 연구가 몇 차례 호황기와 부침을 겪는 오랜 기간 동안 주류의 위치를 차지해 온 건 기호주의. 그러나 떨어지는 효율성과 수익화 문제 등을 극복하지 못하며 1990년대 들어 산업 전체가 침체기에 빠짐. 2010년에 이르러 데이터셋과 반도체 성능의 비약적 발전과 함께 대세가 전환됨. 2012년, AI의 이미지 분류 정확도를 평가하는 이미지넷 (ImageNet)대회에서 제프리 힌튼 연구팀의 알고리즘인 ‘알렉스넷’이 획기적인 성과를 증명. 이때부터 신경망을 바탕으로 하는 딥러닝은 승승장구해 지금의 주류 패러다임이 되기에 이름. 뉴로 심볼릭은 이름처럼 신경망(neuro)과 기호주의(symbolic)를 혼합한 형태. 현재 AI 기술의 문제에 대한 대안으로 조금씩 언급되며 다양한 연구가 진행 중. (*AI 역사에 대해 더 읽고 싶으시다면 첫 책으로 케이드 매츠의 <AI 메이커스>를 추천드립니다.) 신경망, 기호주의에 대한 설명과 함께 미래 AI 생태계에 대한 흥미로운 예측을 들려주는 카톨린 욘커 교수 (영상: The Royal Institution 유튜브 채널) 방대한 데이터를 통해 자가 학습하는 딥 러닝 기술은 스케일과 성능의 측면에서는 월등하지만, ‘블랙박스’로 대표되는 설명 불가능성의 취약점을 가지고 있습니다. 이론상으로는 더 많은 데이터를 확보해 결과물의 정확도를 올릴 수 있지만 투입할 수 있는 데이터는 유한하며, 그에 따르는 환경 문제도 계속 지적되고 있죠. 반면 인간이 입력해 둔 지식을 바탕으로 세계를 재현하는 기호주의 계열 AI의 대표적 장점은 명시적인 법칙과 규칙을 알고리즘에 반영하기가 훨씬 용이하다는 것입니다. 가령 우리에게 익숙한 AI 윤리 문제(할루시네이션, 편향, 상식 부족 등)가 발생했을 때 그 원인을 정확히 특정해 낼 수 있습니다. AI에게 인간의 상식과 도덕관 등을 주입하는 연구에서 이 기술이 자주 언급되는 이유죠. (TED 강의로 화제가 된 최예진 교수의 연구가 좋은 예시입니다.) 뉴로 심볼릭은 오랫동안 경쟁해온 두 패러다임의 장점을 취해 성능과 설명 가능성, 두 마리 토끼를 모두 잡기 위한 시도라고 할 수 있습니다.  ‘더 나은’ AI? 현재 AI 그 자체처럼 여겨지는 딥러닝 또한 기나긴 AI 흥망성쇠 역사의 일부라는 사실은 향후 5년, 10년 이후의 전망을 더욱 흥미롭게 만듭니다. 그리고 뉴로 심볼릭이라는 가능성은 앞으로 어떤 기술주에 투자해야 할지(?)에 대한 안목뿐만 아니라 AI 윤리의 쟁점들에 대해서도 시사하는 바가 있습니다. 가령 더 투명하고 설명 가능한 AI의 필요성에 대해 저희 레터에서도 여러 차례 다룬 바 있는데요. 스케일의 LLM과 투명한 심볼릭, 혹은 그 혼합체의 다양한 모델들이 서로를 보완, 공존하는 하이브리드 형태의 AI 생태계가 실현된다면 어떨까요? 저희 레터에서 다뤄 온 시급한 이슈들도 AI 기술 자체의 난제라기 보다는 LLM이라는 한 패러다임이 가졌던 한계점으로 기억될 날이 올지도 모릅니다. 그래서 블랙박스의 한계, 혹은 AI가 환경에 끼치는 영향이 기술 발전으로 인한 ‘불가피함’이라 누군가 말할 때, 뉴로 심볼릭은 (아직 대중화까지는 거리가 있음에도 불구) ‘더 나은 AI’에 대한 우리의 상상력을 확장해 준다는 점에서 의미를 가질 수 있지 않을까요?  강화학습이 강화하는 역사 by. 🥨채원 지난주, 무언가를 자세히 살펴 본다는 뜻의 영어 단어 ‘delve’가 화제가 되었습니다. 이 단어는 챗GPT를 자주 사용하는 사람들 사이에서 챗GPT에 자주 등장한다고 이미 널리 알려진 단어 중 하나였습니다. Y Combinator의 공동 창립자인 폴 그레이엄은 이를 X (구 트위터) 에 ‘누군가가 나에게 새로운 프로젝트를 제안하는 콜드메일을 보냈다. 그런데 거기에 단어 ‘delve’가 쓰였다는 사실을 알아챘다’며, 해당 단어가 챗GPT 등장 이후 사용 빈도가 크게 증가했다는 그래프를 첨부하였습니다. 해당 사건을 다룬 가디언지 기사에서는 ‘delve’라는 단어가 아프리카의 웹, 특히 나이지리아에서 자주 사용되는 단어라는 점을 지적합니다. 아프리카는 챗GPT를 비롯한 많은 언어 모델의 학습 데이터를 외주로 생산하고 있는 곳이기도 합니다. 지난 레터에서 케냐의 노동자들이 한시간에 2불이 채 되지 않는 임금을 받으며 챗GPT를 학습시킨 케냐 노동자들에 대한 TIME지의 심층 취재를 공유드리기도 했습니다. 그리고 챗GPT의 답변에 챗GPT의 학습 데이터를 생성하는 아프리카 화자들의 언어습관을 반영되었다는 것은, 기존의 언어모델의 문제로 제기되는 편향의 문제를 넘어선 사회경제적, 역사적 문제점을 시사합니다. RLHF 인간 피드백을 통한 강화학습(Reinforcement Learning with Human Feedback, RLHF)은 거대언어모델 (LLM)의 한계를 극복하기 위한 방법론 중 하나로 각광받고 있습니다. 챗GPT를 비롯한 LLM을 학습 시키는 방법론 중 하나인 RLHF는 인간의 피드백을 명시적으로 학습에 포함시킴으로서, 학습 데이터만을 기반으로 가장 확률이 높은 출력을 생성하는 것과 더불어 인간이 보기에 더 나은 출력을 생성하도록 돕습니다.  인간의 명시적인 선호도는 일명 선호데이터를 생성하여 학습에 추가하는 식으로 반영됩니다. 선호 데이터는 대개 서로 다른 LLM이 생성한 답변들과, 이들 중 채점자 (annotator)가 더 나은 답변으로 판단한 선호도로 구성되어 있습니다. 더 나은 답변이라는 것은 방식에 따라 정확도나 자연스러움 등 다양한 기준으로 정의됩니다. 수만건의 답변을 비교하여 판단하는 데에는 많은 사람이 필요하기 때문에 이 과정은 대개 크라우드소싱이나 외주를 통해 이루어집니다. 예를 들어 오픈AI의 WebGPT모델에 사용된 선호 데이터셋은 19,578개의 비교 데이터로 구성되어있습니다. 논문에 따르면 해당 데이터는 프리랜서로 고용된 56명이 생성했는데, 특히 이 중 다섯명이 데이터셋의 절반을 제공했다고 합니다. 즉, 이들 다섯명이 대략 데이터셋 전체의 10%씩을 각각 생성했다는 것입니다. 그렇다면 이 다섯명의 판단이 해당 데이터셋의 추이를 결정하는 데에 결정적인 역할을 했을 것으로 짐작할 수 있습니다. 논문은 이들의 인구구성학적인 정보를 밝히지 않고 있지만, 이 다섯명의 채점자 편향 (annotator bias)이 데이터셋에 반영될 소지가 있을 것입니다. 편향의 문제를 넘어서 폴 그래햄의 트윗으로 다시 돌아가서 살펴보면, 챗GPT로 생성한 메일은 인간이 작성한 메일보다 가치가 없다는 뉘앙스가 느껴집니다. 그리고 작성자를 판단하는 근거는 해당 메일에 포함된 ‘delve’라는 단어입니다. 하지만 만약 해당 메일이 챗GPT가 아닌 아프리카의 영어 화자에 의해 쓰인 메일이라면 어떨까요? 해당 화자는 영어를 외국어로 사용하는 본인의 언어 습관이 AI를 학습하는 데에 반영되었다는 이유로 부당한 차별을 받게 됩니다. 이와 관련하여 비영어권 화자의 영작문이 생성 AI 툴에 의해 표절로 판별될 가능성이 더 높다는 글을 전해드린 적이 있습니다. 함께 AI 윤리 레터를 발간하는 🤖아침이 비판한 것처럼, 이러한 데이터 편향은 AI 개발 비용을 줄이기 위해 남반구의 저임금 노동자를 착취하는 문제와 더불어, 이를 근거로 남반구의 영어 화자들의 언어를 'AI 텍스트'로 저평가하는 이중착취의 문제입니다. 나아가 나이지리아를 비롯한 다양한 남반구의 국가들에 영어 화자가 많은 것이 제국주의 국가들에게 식민지화되었던 역사 때문이라는 사실도 간과해서는 안 될 것입니다. 이미 다양한 형태로 착취되고 있는 사람들이 또다시 AI를 개발하는 데 저임금 노동으로 동원되고, AI가 가져올 혜택에서는 소외되면서, 이를 근거로 이루어질 수 있는 언어문화적 차별에도 노출되어 있습니다. 이는 제국주의와 신자유주의로 이어지는 차별의 역사가 AI라는 새로운 매개를 통해 구태의연하게 반복되고 또 강화될 수도 있다는 것을 보여줍니다.  🦜 같이 보면 좋은 글 🗺️ 생성형 AI 지도  교수님, 정말 제가 직접 썼습니다..! 💬 댓글 (💂죠셉) 영어로 쓰는 게 업인 제 직장에서도 언제부턴가 ‘delve into’가 하나의 밈이 된지라 더 흥미로웠습니다. 한국어 결과물에 비슷한 경향성이 존재할지도 궁금해지고요! (🧙‍♂️텍스) 요새 인공지능 분야 논문을 읽다보면 예전과 다르게 ‘showcase’ 동사가 자주 쓰이는데 챗GPT가 자주 사용하는 단어인가란 생각이 스쳐 지나가네요!
인공지능
·
AI의 일자리 위협에 대응할 비장의 한 수
생성형AI의 발전이 빠르게 이루어지면서, 일자리 위협이 현실로 다가오고 있습니다. AI전문가 조코딩은 인터뷰에서 ‘AI가 인간의 분야를 하나 하나 점령해 나갈 것’이라고 밝혔고, 국제통화기금(IMF)는 2024년 1월 14일 ‘인공지능과 일의 미래’보고서에서 AI가 전세계적으로 사람의 일자리의 40%에 영향을 미칠 것으로 내다봤습니다. 이외에도 수많은 전문가와 기관은, 구체적 수치에는 차이가 있지만 AI가 인간의 일자리를 뺏을 것이라는 데에 동의하죠. 사람들의 기술 실업이 대규모고 일어날 것을 막기 위해 장기적으로 기본소득의 도입을 고려할 수 있겠죠. 하지만 기본소득은 정책 특성상 추가적인 연구와 사회적 합의가 필요한, 반대하는 사람이 많은 쟁점적인 제도로 도입이 쉽지 않습니다. 따라서, 저는 AI로 인한 일자리 문제에 대응할 현실적인 방법으로 ‘주 4일제’, 혹은 더 나아가면 빌 게이츠의 발언처럼 ‘주3일제’등 법정 노동 시간의 단축을 제안합니다. AI는 ‘일자리’를 빼앗는 게 아닌, ‘일’을 더 해주는 도구다. AI와 일자리에 대해 이야기할 때, 우리는 자연스럽게 ‘AI가 일을 많이 해준다 → 인간의 일자리를 뺏는다’고 생각합니다. 그리고 이렇게 생각이 드는 이유는, AI가 기업이 해야 할 일을 줄여주면 남은 일이 줄어들어 인간이 해야 할 일이 줄어들고, 인간이 해야 할 일이 줄어들면 기업에 필요한 인간이 줄어든다고 생각하기 때문입니다. 이는 원래의 근로 환경에서는 맞는 말입니다. AI로 인해 해야 할 일이 줄어들었는데, 사람을 전부 그대로 고용하는 기업은 비합리적이죠. 하지만 기업 입장에서도 사람을 해고하는 것은 그렇게 기분 좋은 일은 아닙니다. 무엇보다, 기술 발전으로 인해 사회 전방위에서 해고가 이뤄진다면 노동자들의 저항은 커질 수 밖에 없습니다. 이때 기업 입장에서 근로자들의 고용을 유지할 수 있는 방법이 있습니다. 바로 근로자들의 총 근로 시간을 낮추는 겁니다. 간단한 식으로 예를 들어 보겠습니다. 기업이 목표로 하는 일의 양이 400이라고 가정했을 때, 기존의 경우 아래와 같습니다. 사람 10명 X 주5일 X 8만큼의 일 = 400 와 같은 형태로 기업이 운영됩니다. 여기에서 기입이 목표로 하는 일의 양이 400이고 AI가 80만큼의 일을 대신한다고 가정한 뒤 주5일제에 하는 일의 양이 그대로일 때는 아래와 같습니다. (사람 8명 X 주5일 X 8만큼의 일 = 320) + (AI가 하는 일 80) = 400 즉, 2명 만큼의 실업이 발생합니다. 위 상황에서 실업이 발생하지 않는 방법은 두 가지입니다. 1) AI가 할 수 없는 일이 증가하여, 사람이 할 일이 늘어나면 됩니다. 위에서는 AI가 할 수 없는 일이 80 증가하면 되겠죠. 하지만 AI가 할 수 있는 일이 늘어나는 흐름을 볼 때 일반적으로 발생하기 어려운 상황입니다. 2) 사람이 일하는 날짜나 시간을 줄입니다. 똑같이 식으로 나타내보면 아래와 같습니다. (사람 10명 X 주4일 X 8만큼의 일 = 320) + (AI가 하는 일 80) = 400또는(사람 10명 X 주5일 X 6.4만큼의 일 = 320) + (AI가 하는 일 80) = 400 이렇게 하면, 사람을 해고하지 않아도 됩니다. AI가 하는 일이 늘어난다면, 이에 맞추어 노동 일수를 주3일제로 줄이거나, 날마다 법정노동시간을 줄이면 어느 정도 균형을 맞출 수 있습니다. 다만, 기업 입장에서도 주4일제를 자발적으로 실행하는 것보다 AI를 써서 더 적은 돈을 쓰고 사람을 해고하는 게 더 이익인 경우가 많습니다. 따라서, 주4일제 등의 노동 시간 단축을 정부가 법으로 강제하지 않으면 제대로 실행되기 어렵습니다. 또한, 근로 시간을 단축시키는건 어디까지나 기술실업을 ‘지연’시키는 것이지, 고용을 늘리는 방법은 아닙니다. 기술 발전에 맞추어 진행해야 할, 고용 증가를 위한 정책은 따로 진행되어야 합니다. 마지막으로, 위에 작성한 내용의 경우, AI의 도입 비용에 대한 언급이 전혀 없습니다. 즉, 기업이 AI를 도입함에 따라 드는 비용을 충당하려면 사람의 월급에서 깎거나 근로 시간을 단축하더라도, 인력 감축도 병행해야 하는 상황이 발생할 수 있습니다. 그럼에도 근로 시간 단축을 하지 않는 것보다는 단축하는 것이 기업 입장에서 고용을 유지할 가능성이 더 높다는 사실은 바뀌지 않습니다. 기술 발전과 주4일제에 대한 논의 그렇다면 주4일제를 비롯하여 노동 시간 단축은 만능일까요? 아쉽게도 그렇지는 않습니다. 관련하여, 기존에 기술 발전과 노동 시간에 대해 다룬 연구들을 살펴봤습니다. 과학기술정책연구원(STEPI)의 보고서에 소개된 이규철의 연구에 따르면, 1993년 독일은 생산성은 높이고 그에 따른 비용은 줄이는 산업합리화가 일어났다고 합니다. 기술 발전에 따라 자연스럽게 나타난 이 현상으로 독일의 자동차 회사 폭스바겐은 노동자 감축을 추진했지만 노조의 반대에 부딪쳐 노동자들과 협상을 하게 됐고, 이 과정에서 주4일제를 시행하여 고용은 유지되었지만, 동시에 어느 정도 소득 감소를 추진했다고 합니다. 프랑스의 사례를 살펴볼까요. 임지영 교수의 연구에 따르면, 코로나 팬데믹 이후 프랑스에서도 주4일제 도입을 고려하고 있다고 합니다. 프랑스는 1998년과 2000년 두 차례에 걸쳐 노동시간을 주35시간으로 축소하였고, 이는 임금노동자의 고용 안정을 보장했다고 합니다. 하지만 기업들은 이에 맞춰 불완전 고용조건을 확대 적용하였고, 정부는 이를 해결하지 못하고 눈감아주며 결과적으로 불완전고용률 증가와 실업률 증가가 일어났다고 합니다. 이런 실패의 경험에도 불구하고, 미래의 노동 사회의 대안으로 프랑스에서는 주4일제 도입을 재논의하고 있는 것이죠. 이외에도, 주4일제에 대해 집중적으로 다룬 김은별 연구자와 이승윤 교수의 논문에서는 **주4일제의 도입 배경 중 하나로 ‘실업 및 저성장 문제 해결’**을 꼽았습니다. 대량 실업을 구조적으로 막음과 동시에, 노동자들이 새로운 기술을 교육받을 수 있는 시간을 제공해 준다는 점에서 주4일제 도입의 필요성을 주장하는 학자들이 있다고 합니다. 같은 연구에서는 다양한 사례를 연구한 결과, 주4일제가 기업의 생산성을 낮출 가능성은 적으면서도 노동자의 일과 삶의 균형을 보장한다고 밝히며 주4일제 도입에 대한 긍정적 효과를 주장하기도 했습니다. 앞서 살펴본 주4일제 연구들에서 공통적으로 알 수 있는 부분은, 충분한 논의 없이 주4일제를 도입하면 불완전고용 증가, 임금 감소 등의 부작용이 나타날 수 있다는 겁니다. 하지만 주4.5일제를 도입하는 방안이나, 노동자들이 필요로 하면 주4일제를 도입할 수 있게 하여 기업에 따라 선택적으로 유연하게 근로시간을 조정하게 할 수 있는 방안 등. AI로 인해 발생할 실업에 대비할 수 있는 근로시간 단축 정책은 다양하게 고려할 수 있다는 것도 확인했습니다. 따라서, 주4일제 도입의 한계와 단점을 지적하기보다 어떤 방식의 근로시간 단축 정책을 실행하여 AI발전으로 인해 가속화될 실업 증가를 막을지 논의가 필요한 시점입니다. 저는 기술 발전이 인류에게 많은 편의를 가져다준다고 믿고 있습니다. 컴퓨터와 스마트폰의 발전을 함께 겪으며 자란 세대로서 덕분에 공부도 더 편하게 하고, 지도도 더 편하게 보고, 게임도 더 재밌게 하고, 최근 AI로 정말 많은 업무시간 단축까지 이뤘거든요. 이왕 기술이 많이 발전해서 우리가 일을 많이 할 필요가 없다면, 다같이 일은 덜 하고, 더 많이 쉬면서 돈도 벌 수 있으면 좋지 않을까 생각합니다. 주4일제와 같은 사회제도에 대한 논의가 더 많이, 더 빠르게 이루어져 사람이 AI 발전의 장점은 누리고 단점은 최소화할 수 있게 되길 바랍니다.
인공지능
·
2
·