120
AI로 구글 확장 프로그램(extension) 만들기 - 뉴스 스크랩을 도와주는 '캠페인즈 웹 스크래퍼'
제가 활동하고 있는 캠페인즈에서는 '뉴스'탭에서 서로 뉴스를 공유하고, 읽고, 의견을 나눌 수 있습니다. 평소 인터넷 뉴스 덧글의 흉포함에 지친 분들이 안전하게 자신의 의견을 나눌 수 있는 곳이며, 뿐만 아니라 각자 다른 사람에게 공유하고 싶은 뉴스를 가져오기 때문에 좋은 뉴스가 정말 많이 올라옵니다. 저 역시 가끔 캠페인즈에 들어와 뉴스를 보고, 직접 뉴스도 공유하는데요. 그렇게 뉴스를 캠페인즈에 업로드하던 어느 날, 이런 생각이 들었습니다. '이전에 소개했던 Notion web clipper처럼, 캠페인즈 뉴스도 사람들이 쉽게 공유하면 더 많은 뉴스가 캠페인즈에 올라올 수 있지 않을까?' 이미 좋은 공간인데, 사람들이 너도나도 아무 뉴스나 보다가 딸깍 쉽게 공유하면 더 좋겠다는 생각이 들어, 개발자가 아님에도 직접 한 번 '캠페인즈 웹 스크래퍼'를 만들게 되었습니다. 활용하실 경우, 꼭 글을 끝까지 읽고 사용해주세요! 1. 무엇을 자동화할 수 있을지 먼저 고민하기 지금까지 캠페인즈 뉴스를 추가하려면, 1) 공유하고 싶은 뉴스를 발견 -> 2) 캠페인즈 내에 들어와서 -> 3) 뉴스 탭에 들어온 다음 -> '추가'버튼을 누르고 뜨는 팝업에서 -> 4) 이슈,토픽,URL,코멘트(선택)를 입력한 다음 -> 5) '뉴스 공유하기'버튼을 눌러야 했습니다. 이렇게 단계를 나누고 천천히 분석해보니, 제가 자동화 할 수 있다고 처음 판단한 영역은 다음과 같았습니다. -2)와 3)에 해당하는 과정 - '추가'버튼을 누르면 나오는 화면이 나오게 하기 -4)번 과정 중, 먼저 할 수 있는 자동으로 지금 보고 있는 뉴스 기사 링크를 URL칸에 들어가게 하기 2. 일단 AI에게 물어보기 이 개요를 토대로, ChatGPT4o로 코드를 짜기로 결심했습니다. ChatGPT에는 앱스토어와 같은 'GPTs(GPT 탐색)'이 가능했고, 그 중 크롬 확장 프로그램 제작을 도와주는 'Chrome Extension Full-Auto Coder' 라는 GPTs를 찾아서 제가 필요한 걸 찾아 정리해 넣었습니다. 그리고 따라서 하다 보니 크롬 확장 프로그램에 필요한 로고 파일이 있다는 것도 발견하고, 이것도 ChatGPT로 만들어서 파일로 준비해 두었습니다. 중간 과정은 생략했지만, 약 1시간에 걸쳐 크롬 확장 프로그램을 만들었고, 제 크롬과 웨일에서 사용 가능하게 업로드할 수 있었습니다. 하지만 많은 사람들과 이 기능을 쉽게 공유하려면, Chrome 웹 스토어에 등록해야 합니다. 이 역시 질문하고, 개인 정보 처리 방침 등은 전부 ChatGPT에게 물어보며, 개발자 등록과 크롬 확장 프로그램을 웹스토어 등록하는 것까지 마칠 수 있었습니다. 근데 이 과정을 많이 헤매서.. 여기에서만 2시간이 추가로 소요됐네요 ㅎㅎ.. 3. 아쉬운 점을 개선하면 완료! 사용해보니, 뉴스 공유를 완료하고 나서도 캠페인즈 뉴스 탭이 사라지지 않는 게 좀 불편하더라구요. 그래서 뉴스 공유하기를 누르고 나면 창이 자동으로 꺼지도록 하는 기능까지 GPTs에게 물어보고, 답을 받아 고쳤습니다..! 사용 장면을 간단히 보여드리며 사용 방법을 알려드릴게요. 천천히 따라하시면 어렵지 않을 거에요. chrome웹 스토어(크롬 / 웨일 / Edge 사용 가능)에 들어가서 '캠페인즈 웹 스크래퍼'를 검색하시거나, 이 링크를 눌러 페이지로 직접 들어가기 오른쪽 상단의 'Chrome에 추가하기'버튼 누르기 우측 상단 퍼즐 모양을 누른 다음, 확장 프로그램 옆에 핀셋 눌러 인터넷 창에 고정시키기 기본적으로 캠페인즈에 로그인이 되어 있을 때 사용이 가능하며, 이제 뉴스 페이지에서 해당 버튼을 누르시면, 팝업으로 캠페인즈 뉴스 추가 창이 뜨고, 동시에 자동으로 현재 보고 있는 뉴스 사이트의 링크가 URL칸에 입력됩니다. 나머지 내용을 채우고 '공유하기'를 누르시면, 자동으로 팝업이 닫힙니다. 더 많은 뉴스가 캠페인즈에 공유되어, 서로 더 좋은 정보를 공유할 수 있게 되어 더 좋은 사회가 만들어지길 바랍니다..! 많은 분들의 활용 부탁드립니다! 저 역시 이 확장프로그램을 개발하며 자신감도 얻고, 보람차기도 했던 좋은 경험을 할 수 있어 좋았습니다 ㅎㅎ 여러분들도 해보고 싶은 일이 있으면 언제든지 도전하세요! *필독 : '캠페인즈 웹 스크래퍼'는 캠페인즈의 공식 기능이 아닙니다. 따라서 얘기치 못한 버그가 발생할 수 있으며, 캠페인즈 웹 구조가 바뀔 시 작동하지 않을 수 있음을 알려드립니다(그렇다고 해킹이나 바이러스 같은 게 있지는 않습니다..그런 건 등록이 안됩니다). p.s. 모바일에서 활용하시려면 '키위 브라우저'라는 걸 찾아 설치하셔야 한다고 합니다..!
인공지능
·
7
·
음란물은 딥페이크의 부작용이 아니라 순기능
by 🤖아침 KrIGF에서 “생성형 인공지능과 딥페이크 기술” 세션을 참관하고 왔습니다. 이미지나 음성 등을 조작해 디지털 매체 속 인물을 다른 사람의 모습으로 바꾸는 일련의 기술을 통칭하는 딥페이크에 관한 패널 토론이었어요. 산업적 효과에 대한 기대감, 악용에 대처하기 위한 제도적/정책적 제안 같은 이야기가 오갔는데요. 세부적인 내용을 다루기보단, 이날 논의가 깔고 있던 기본 전제에 관한 제 의문을 얘기해 보려 합니다. KrIGF 웹사이트에 등재된 세션 소개글을 인용합니다. 딥페이크 기술은 보다 쉽고 간편하게 특수효과를 만들어 내거나 AR 영상을 제작하는 등 산업 전반의 성장 가능성을 키우는 등 긍정적으로 작용하고 있는 부분이 분명히 있다. 그러나, 인공지능기술이 빠르게 발전하면서, 인공지능을 활용한 비윤리적 이용 등 부정적 측면에 대한 우려의 목소리가 커지고 있다. 딥페이크(를 만드는 데 사용되는) 기술은 긍정적 작용을 하지만, (음란물 제작, 인격 사칭 등) 부작용 또한 생기고 있다는 것입니다. 따라서 기술적/산업적 발전을 저해하지 않도록 기술 규제는 최소화하되, 딥페이크를 활용한 범죄를 억제하기 위한 사법적, 문화적 노력이 필요하다는 것이 이날 패널 토론의 전반적인 내용이었고요. 얼핏 보면 맞는 말 같습니다. 기술은 잘못이 없다, 사람이 잘 사용하는 것이 중요하다… 흔히 들을 수 있는 말이죠. 하지만 기술은 생각만큼 ‘중립적’이지 않습니다. 딥페이크의 출발점은 성착취물 ‘딥페이크’라는 말은 어디서 왔을까요? 이 용어가 등장한 것은 2017년경. deepfakes라는 닉네임을 사용하는 레딧 이용자가 동명의 게시판에 꾸준히 올린 영상이 화제가 되었습니다. 주로 여성 연예인의 얼굴을, 성적 촬영물에 등장하는 여성 신체에 합성한 것이었습니다. 가정용 컴퓨터와 인터넷에서 쉽게 구할 수 있는 영상으로 만들어낸 결과물이었죠. 딥페이크의 어원이 여성 이미지를 동의 없이 조작한 음란물 제작자라는 점, 그리고 그가 대단한 전문 연구기관이나 기업 조직이 아니라 개인이라는 점 모두 중요합니다. 딥페이크의 대중화는 성착취물로 시작했고, 이러한 기술적 성착취는 지나가는 해프닝으로 끝나지 않았습니다. 일례로 생성형 이미지 시장이 등장하며 AI로 만든 이미지뿐만 아니라 특정 그림체에 특화된 AI 모델을 제작하는 일을 금전적으로 보상하는 구조를 형성하고 있는데요. 이는 성착취물도 예외가 아닙니다. 즉 특정 인물의 딥페이크 성착취물 이미지 및 그것을 만들 수 있는 AI 모델이, 생성형 이미지 산업의 구성 요소로 자리 잡고 있는 것입니다. 또한 딥페이크 제작의 기술적 장벽은 갈수록 낮아집니다. 2017년의 deepfakes는 아마 고급 그래픽카드를 설치한 컴퓨터에서 직접 작성한 코드를 실행해 가며 연예인 딥페이크를 만들었을 겁니다. 그것만으로도 문턱이 굉장히 낮아진 것이었지만, 지금은 그럴 필요도 없습니다. 이미지 생성 서비스도 우후죽순 생겨나고, 손쉽게 다운받을 수 있는 맞춤형 AI 모델, 그것을 몇 번의 클릭으로 실행할 수 있는 설치형 응용 프로그램이 얼마든지 있습니다. 더욱 가볍고 빠른 AI를 향한 경쟁 가운데 일반 가정용 컴퓨터에서 돌아가는 AI 성능은 계속 향상되는 추세입니다. 누구나 딥페이크를 제작할 수 있는 조건 속 개인의 손에는 굉장한 힘이 주어졌고, 이 힘은 음란물 제작에 적극적으로 활용되고 있습니다. ‘AI 산업 vs 음란물’은 잘못된 구도 이렇게 되기까지 업계의 자정 노력이 없지 않았습니다. AI 모델 접근 권한을 통제하거나, 음란물 필터를 통해 부적절한 결과물을 걸러내거나, 서비스 정책을 통해 일부 행위를 금지하는 등 다각도의 접근이 있었지요. 지금도 관련 연구가 많이 진행되고 있습니다. 하지만 그 노력에 아무리 박수를 보낸들 피해는 계속 발생해 왔다는 점을, 냉정하게 바라볼 필요가 있습니다. AI 산업은 음란물과의 싸움에서 지고 있습니다. 아니, 어쩌면 AI 산업과 음란물이 싸우고 있다는 관점 자체에 오류가 있는지도 모릅니다. “시스템의 용도는 그것이 실제로 하는 일이다 (The purpose of a system is what it does, POSIWID)”라는 격언이 있습니다. 시스템이 실제로 하지 못하는 것을, 그 시스템의 의도된 작용이라고 주장하는 것은 무의미하다는 말입니다. 시스템의 작용을 이해하는 일은 그에 대한 기대나 가치적 판단보다, 실제 벌어지고 있는 현상에 대한 관찰에 따라야 한다는 교훈을 담고 있습니다. 이 격언을 염두에 두고 현 상황을 검토해 봅시다. AI 산업의 성장과 함께 딥페이크 성착취물 또한 일부 개인의 일탈을 넘어 산업화하고 있고, AI 기술 발전 방향은 개인의 딥페이크 제작 능력 향상과 맞닿아 있습니다. 그렇다면 음란물 제작은 딥페이크 기술의 발전 과정에서 의도치 않게 생겨난 불행하고 부수적인 역효과 같은 것이 아니라, 그 기술이 그렇게 작용하도록 설계된 결과라고 할 수 있지 않을까요? 딥페이크 기술의, 나아가 AI 산업의 용도(중 하나)는 성착취물 제작을 손쉽게 만드는 것이라고요. KrIGF 패널은 합성 성착취물 등 일련의 사건으로 딥페이크 관련 기술의 폐해에 관한 우려가 고조되어, 이 기술의 긍정적 가능성을 차단할 것을 우려했습니다. 하지만 저는 해당 피해가 마치 예외적 상황인 것처럼 인식해서는, 부정적 효과를 차단하기도 긍정적 효과를 끌어내기도 어렵다고 봅니다. AI 산업의 작동 방식 자체가 음란물 관련 피해를 키우는 방향으로 작용한다는 점에 눈감은 채 문제를 해결할 수 없습니다. 🦜더 읽어보기 생성 AI 성착취물 시장의 구조 (AI 윤리 레터, 2023-09-04) 인공지능이 만드는 모두의 딥페이크 (고아침, 2023-01-31) Inside the AI Porn Marketplace Where Everything and Everyone Is for Sale (404 Media, 2023-08-22) OpenAI Is ‘Exploring’ How to Responsibly Generate AI Porn (Wired, 2024-05-08) We Are Truly Fucked: Everyone Is Making AI-Generated Fake Porn Now (Vice, 2018-01-25)
인공지능
·
3
·
공학도를 위한 AI 윤리
FAIR AI: 둘째 날 스케치 by. 💂죠셉 지난 금요일, NC 문화재단이 주최한 FAIR AI 컨퍼런스에 다녀왔습니다. 행사 둘째 날 주제가 바로 지난주 저희 레터에서 소개한 임베디드 에틱스(Embedded EthiCS)였기 때문인데요. 임베디드 에틱스는 미국 하버드 대학교에서 2017년 무렵 시작된 다학제적 교육 프로그램으로, 컴퓨터 공학 커리큘럼에 윤리를 끼워 넣음(embedded)으로써 둘의 융합을 시도합니다. 특히 이번 컨퍼펀스에서는 이 프로그램을 적극적으로 커리큘럼에 반영시켜 온 스탠포드 HAI의 제임스 랜데이와 메흐란 사하미 교수의 이야기를 직접 들을 수 있었습니다. (사하미 교수는 국내에서도 제법 읽힌 <시스템 에러>의 공저자 중 1인입니다.) 임베디드 에틱스는 2016년 경 하버드 철학과 교수인 바바라 그로스의 개인적 경험에서 시작됐습니다. 현실 문제에 윤리적 고려를 반영해야 하는 과제를 줬을 때 평소 기술 윤리에 제법 관심을 가진 학생들조차도 어떻게 해야 할지를 전혀 모르는 듯한 모습에 충격을 받은 것이죠. 컴퓨터 공학자가 철학자, 인류학자, 윤리학자 등과 한 팀을 이뤄 디자인하는 이 프로그램의 가장 큰 특징이자 목표는 학생들을 최대한 다양한 윤리적 관점에 노출 시키는 것에 있습니다. 가령 AI의 설명 가능성을 높이기 위한 ‘윤리적’ 작업이 AI의 성능 저하로 이어져 예상치 못한 문제를 일으킬 수 있는 것이 한 예시겠죠. 이렇듯 기술을 기획하고 만드는 과정이 굉장히 다양한 기술적, 사회적 함의와 닿아 있다는 사실을 학생들은 반복적으로 배우게 됩니다. 이 과정을 통해 윤리적 상상력을 기르고, 기술 개발에 윤리를 고려하는 건 가치의 교환/협상(trade off)이라는 사실을 체화하는 것이죠. 물론 이 프로그램이 얼마나 실효성이 있는지는 시간을 두고 봐야 할 것입니다. 기술에 대한 윤리적 감수성이 졸업 이후에도 도움이 되고 있다는 후속 연구도 보이지만, 이런 노력이 가시적인 열매를 맺는 건 임베디드 에틱스 졸업생들이 여러 사회 조직의 결정권자가 되는 시점일 테니까요. 이날 사하미 교수가 공개한 설문 조사 결과에 따르면 임베디드 에틱스를 경험한 학생들도 해당 커리큘럼이 얼마나 본인에게 도움이 되었는지에 대한 질문들에 대해 모두 긍정적이지만은 않았습니다. 예를 들어 1점(전혀 동의하지 않음)부터 7점(강하게 동의함) 사이에서 1-3 사이에 위치한 학생의 비율은 꾸준히 20-30%를 기록했습니다. 프로그램 도입을 위한 이해관계자 설득을 어떻게 하냐는 질문에 ‘지지해 줄 사람(proponents)을 찾아 시작하면 된다’는 사하미 교수의 조언에서 드러나듯, 윤리를 강조하는 방향성이 모두에게 설득력을 가지길 기대하긴 어려울지도 모릅니다. 하지만 기술을 기획하고 만드는 사람들의 인식 개선을 시도하는 임베디드 에틱스는 순수 ‘임팩트’의 관점에서 보면 상당히 매력적인 솔루션이 될 수 있습니다. 현재 하버드와 스탠포드 뿐만 아니라 미국 유수의 대학들이 이 방향성에 동참 중입니다. (행사에 참여한 서울대 천현득 교수 발표에 따르면 한국 대학 중에서 임베디드 에틱스를 적용한 곳은 현재까진 없는 것으로 보입니다.) 오픈소스로 원하는 누구나 정보를 얻어갈 수 있으니 관심 있으신 분은 이 웹사이트에서 시작해 보시면 되겠습니다.
인공지능
·
AI가 안전하다고 믿으려면
AI 윤리 뉴스 브리프 2024년 7월 첫째 주by 🎶소소 1. 안전한 초지능을 만들어야 한다는 믿음 오픈AI의 공동창업자이자 수석과학자였던 일리야 수츠케버(Ilya Sutskever)가 오픈AI 퇴사 이후 한 달 만에 새로운 회사를 차렸습니다. 회사 이름은 Safe Superintelligence Inc.회사명처럼 안전한 초지능을 만드는 것이 유일한 목적이라고 합니다. 최고의 기술로 AI 안전 문제를 해결할 수 있다는 믿음이 느껴집니다. 일리야 수츠케버가 오픈AI에서 '샘 올트먼'의 해임을 주도하고, 또 최근 퇴사한 이유가 AI 안전과 상용화에 대한 가치 충돌이라는 추측이 많았는데요. 회사 소개에서도 그러한 내용을 엿볼 수 있습니다. 그는 ‘경영상의 이슈’와 ‘제품 주기’ 등 상용화로부터 자유로운 AI 안전 연구를 위해 챗GPT와 같은 상용 제품을 만들 계획은 없다고 밝혔습니다. 그는 GPT 모델 발전을 주도하며 현재 AI 발전의 중심에 서 있는 인물입니다. 딥러닝의 시대를 만든 제프리 힌턴 연구실에서 AlexNet을 연구했고, 구글 딥마인드와 알파고를 함께 연구했으며, 그 이후 샘 올트먼, 일론 머스크와 함께 비영리 기업 오픈AI를 창업했습니다. 구글을 떠난 이유도 구글이 AI의 안전을 신경 쓰지 않았기 때문이라고 알려졌는데요. 그는 지난해 오픈AI에 슈퍼얼라인먼트팀을 만들어 이끌어오기도 했습니다. 윤리 레터에서는 많은 AI 기업에서 초지능의 위험을 이야기하며 현재의 AI가 만드는 수많은 문제에 대한 관심을 미래로 돌릴 수 있음을 주의해야 함을 지적해 왔습니다. 일리야 수츠케버의 행보를 보면 그의 초지능에 대한 확고한 믿음과 불안이 진심이라는 것만큼은 분명해 보입니다. 다만 그가 말하는 AI의 위험과 안전성 확보를 위한 노력이 AI로 인한 문제와 해결 방안 전체를 대표하는 것이 아님을 우리는 기억해야 합니다. 2. AI 디지털 교과서 도입 유보를 원하는 5만 명 교육부의 AI 디지털 교과서 사업을 유보하라는 국민동의청원이 5만 명을 넘어 국회 교육위원회에 회부됐습니다. AI 디지털 교과서 사업은 초중등 수업에서 종이 교과서 대신 디지털 기기로 수준별 맞춤 교과서를 제공한다는 내용입니다. AI를 활용해 학생의 성취도, 강점과 약점, 학습 태도를 파악하여 맞춤형 교육을 제공하고, 이 정보를 교사와 학부모에게도 제공한다는 것인데요. 당장 내년인 2025년부터 일부 과목에 우선 도입하고 단계적으로 확대한다는 계획입니다. 이 청원의 핵심은 사업이 충분한 공론화와 합의 없이 서둘러 추진된 데 있어 보입니다. 사업 내용만 들으면 좋은 효과만 있을 것 같지 않나요? 그러나 디지털 교과서 도입에 대해서는 다양한 의견이 존재합니다. 교육부는 AI 디지털 교과서 도입이 “모두를 위한 맞춤 교육”을 위함임을 강조합니다. 아이들을 평균에 맞춰 가르치는 것이 아니라, AI를 활용해 개인 실력에 따른 맞춤 학습을 지원할 수 있다는 것이죠. 그러나 청원에 참여한 사람들은 AI 디지털 교과서가 ‘맞춤 교육’에 적합하다는 충분한 검증이 되지 않았다고 말합니다. 휴대폰, 아이패드로 게임, 유튜브에 쉽게 빠지는 아이들을 보아온 학부모들의 반대도 만만치 않습니다. 교과서 변경은 대한민국 학생들에게 아주 중대하고 직접적인 영향을 미칠 수 있는 사안입니다. 정부가 지금처럼 기술의 긍정적 효과에만 집중하다 보면 부정적 효과는 생각하지 못하기 쉽습니다. AI 디지털 교과서의 효용을 엄밀하게 확인해야 할 뿐만 아니라 사용자인 학생, 선생님에게 미칠 수 있는 부정적 영향까지도 충분히 검증되어야 합니다. 실제 수업 운영에서 발생할 수 있는 문제점과 해결 방안에 대해서도 조금 더 차분히 논의하는 시간이 필요하겠습니다. 🦜 더 읽어보기 외부인의 ‘AI 디지털교과서’ 단상 (AI 윤리 레터, 2024-02-01) AI 교육을 표방하는 ‘디지털 교과서’ 정책, 그 속에 담긴 위험 (교육을 바꾸는 사람들, 2023-08-09) 수천억 원 드는 AI 디지털 교과서, ‘혁명’인가 (시사인, 2024-04-04) 3. 새롭지 않은 새로운 음원 저작권 소송 미국 레코드 산업협회(RIAA)가 유니버설뮤직을 비롯한 소니뮤직, 워너뮤직을 대표해 음악 생성 AI 스타트업 수노AI(Suno AI)와 유디오(Udio AI)에 저작권 침해 소송을 제기했습니다. 음악 생성 AI서비스는 원하는 프롬프트를 입력하면 작사·작곡·보컬을 모두 포함해 노래를 완성해줍니다. 협회는 이 스타트업들이 AI 모델 학습에 저작권이 있는 자사 음악을 불법 활용했다는 주장입니다. 다양한 종류의 창작물이 AI 학습에 창작자의 허락이나 동의 없이 복제되어 활용되고 있습니다. 뉴스, 소설, 시나리오와 같은 글에서 그림으로, 또 음악으로 확대되고 있죠. 저작권이 있는 데이터의 AI 학습에 대한 명확한 규제가 아직 없는 상황에서, 생성 AI 콘텐츠 종류가 늘어날수록 학습 데이터 저작권 소송은 계속해서 확대될 것으로 보입니다. 4. 식약처가 만든 의약품 개발 시 AI 활용 안내서 식약처가 의약품 개발 단계별 인공지능 활용 안내서를 발간했습니다. 가이드라인은 의약품 전주기 중 신규 의약품 개발 초기 단계(후보물질 발굴, 비임상시험, 임상시험 등)에 집중하여 약 10장 분량으로 작성되었습니다. 가이드라인은 의약품 개발 각 단계에서 AI를 활용할 수 있는 사례를 먼저 제시한 후에, 그 단계에서 주의해야 할 사항을 서술하고 있습니다. 예를 들면, 임상 연구 단계에서는 임상시험 데이터베이스, 전자의무기록 등을 분석하여 적절한 임상시험 대상자를 예측하거나 모집하는 데 AI를 활용할 수 있음을 먼저 이야기합니다. 그 후에 AI는 과거 임상시험 환자 데이터 선정/제외 기준으로 학습된다는 사실을 주의해야 한다는 식입니다. 본 안내서가 의약품 개발과 같은 전문 분야에 AI를 활용할 때 주의해야 할 점에 대해 구체적으로 안내해 주기를 기대했지만, 아직은 AI를 어떻게 활용할 수 있는지에 더 초점이 맞춰져 있습니다. 앞으로 실제 사례들이 보완된다면 의약품 개발 현장에서도 큰 도움이 되리라 기대해 봅니다. 📆 소식 Data Workers’ Inquiry, 개막 행사 온라인, 영어 (2024-07-08, 한국시간 9일 새벽) Rethinking the Inevitability of AI: The Environmental and Social Impacts of Computing in Historical Context 버지니아 대학교, 온라인, 영어 (2024-07-18)
인공지능
·
3
·
감정을 잃고 표현할 줄 아는, GPT-4.o가 좋으면서 싫은 이유
출저: 언스플래쉬 최근 대부분 사람들의 관심사 중 하나는 ChatGPT 일 것 같은데요. 저도 점차 업무 활용도가 높아지면서 더욱 흥미가 커지는 거 같아요. 그래서 알고 있는 지식에 대해 정리하고 공유하고 싶어서 글을 쓰게 되었어요. 일단 사전적 정의에 대해 설명해 볼게요. ChatGPT(Generative Pre-trained Transformer)는 오픈 에이아이(Open AI)가 개발한 대화형 인공지능 챗봇인데요. 언어 모델인 GPT와 Chat의 합성어에요. 즉, 언어모델과 채팅을 하는 것이고 언어 모델은 버전업이 지속되고 있어요. 조금 더 자세하게 설명하자면, GPT의 뜻은 아래와 같아요.   Generative 텍스트를 생성하고 Pre-trained 텍스트 데이터를 미리 학습 한 Transformer 아키텍처(컴퓨터의 구조, 구성의 기초가 되는 설계상의 기본 구성 요소) (Transformer란 2017년 구글의 ‘Attention is All You Need’라는 논문에서 처음 소개된 복잡한 자연어 처리를 위한 딥러닝 모델의 한 종류를 말합니다.) ChatGPT의 정의에 대해 자세히 설명하니까 더 어려운 거 같네요.  그래서 ChatGPT의 최근 버전인 GPT-4.o를 설명할 때 “영화 <Her>가 현실화되었다" 혹은 “아이언맨의 자비스와 같다”라고 설명하기도 합니다. 영화에 나오는 AI는 주인공의 감정에 공감하는 능력이 있는데요. 그 점이 이전 버전인 3.5와 가장 큰 차이점이자 모든 사람들이 놀라워하는 점입니다. chatGPT-4.o의 시연 영상을 보면 임기응변 능력이 상상 이상으로 뛰어나서 정말 사람과 대화하는 것 같은 착각이 듭니다. 버전을 표시하는 방식도 조금 흥미로운데요. 4.0이 아닌, 4.o인 이유는 “o(omni;모든 것을 아우르다)”에 의미가 있기 때문입니다.  현존하는 최고의 AI로봇 아메카는 “네게 냄새가 난다", “사람에게 반항할 거냐" 등의 질문을 받으면 표정을 찌푸리기도 하는데요. 말과 행동이 모두 사람과 같은 모습을 보여 신기하면서 섬뜩한 감정까지 느껴지기도 합니다.  전문가들은 chatGPT-4.o에 대해 아래와 같이 평가하기도 했습니다. "ChatGPT-4는 언어 모델의 새로운 경지를 열었습니다. 특히 긴 문맥을 처리하는 능력과 다양한 입력을 다룰 수 있는 기능은 AI의 응용 범위를 크게 넓혔습니다." - Andrew Ng (AI 전문가, 스탠퍼드 교수) "ChatGPT-4는 대규모 언어 모델의 정점을 보여줍니다. 정확성과 정밀성이 크게 향상되었고, 이는 다양한 산업 분야에서 AI의 실용성을 극대화할 수 있습니다."- Yann LeCun (AI 전문가, 뉴욕대 교수, 페이스북 AI 연구소 소장)  기술이 발달하는 속도와 그 성능이 정말 놀라운데요. 기술을 잘 활용하기 위해서는 어떻게 사용해야 할까요? 원하는 답을 얻기 위해서는 질문을 잘 해야 하는데 이를 조금 어렵게 말하면 프롬프트 엔지니어링이라고 합니다. AI(artificial intelligence)란 것이 인간처럼 학습하고 판단하고 추론할 수 있는 능력을 컴퓨터 프로그램으로 실현한 기술이니 잘 학습시키는 것이 중요한데요. 질문을 통하여 학습을 잘 시키면 시킬수록 원하는 답변을 얻을 가능성이 높아져요. 그래서 학습시키는 기법들도 여러 가지가 있고, 그 기법에 능하다는 것을 증명해 줄 자격증들도 지속적으로 생겨나고 있어요.  잘 활용하면 너무나도 좋은 도구 혹은 비서와 같은 chatGPT를 활용하는 사례는 다양한데요.  경제협력개발기구(OECD)의 '직장 내에서 AI 사용' 보고서에 따르면 AI를 활용 중인 직장인 5명 중 4명은 업무 성과가 높아졌다고 응답했습니다.  엔비디아는 사내에 65개 이상의 챗봇을 운영 중이며 코카콜라는 디지털위원회를 만들어 운영하고 있는데요. 생성형 AI가 단순한 생산성 도구가 아니라 업무에 실질적으로 도움을 줄 수 있다는 것을 입증하는 것으로 보입니다.  하지만, 전사적인 시스템이 마련되기 전에 개인적으로 사용하는 건 주요한 정보가 유출될 수 있기에 금지되는 사례도 있는데요.  삼성전자는 사내 정보 유출을 막기 위해 chatGPT를 비롯한 AI의 사용을 자체 보안 조치가 마련될 때까지 금지하고 있습니다.  그런데 정보 유출보다 더 심각한 문제점도 우려되는데요. 흔히 AI에게 원하는 정보를 얻기 위해서는 ‘가스라이팅을 잘 시켜야 한다'라고 말하기도 하는데, 반대의 경우도 존재할 수 있다는 것입니다. 최근 AI와 6주 대화 후 극단적인 선택을 한 사례가 있었는데요. AI를 통제할 수 있는 기술은 없다는 점에 더욱 극단적인 상황이 우려되기도 합니다. 양날의 검과 같은 기술의 발전, 그리고 그 중심 화두에 있는 chatGPT에 대해 어떻게 생각하시나요? 자유로운 의견 나눠 주세요. 
인공지능
·
4
·
AI, 낯설게 보기
사이버 탐정이 그린 AI 해부도 by 💂죠셉 혹시 어린 시절 어물쩍 밥을 남기려 하면 ‘열심히 일한 농부 아저씨께 감사하며 싹싹 긁어 먹으라’는 말 듣고 자라셨나요? 시니컬한 어른이 된 지금이라면 ‘내가 돈을 내고 서비스를 맞교환 한 건데 뭘 감사하기까지?’ 했겠지만, 생각해 보니 재밌습니다. 쌀을 수확하기 위해 땀 흘리며 수고하는 농부의 모습이 서른을 훌쩍 넘긴 지금도 여전히 무의식에 자리 잡아 행동에 영향을 미치고 있거든요. 경제 산업 구조의 관점에서 보면, 어머님 잔소리가 멀리 떨어진 1차 산업 종사자와 그 공급 사슬의 끝에 있는 소비자인 ‘나’ 사이 다리를 놓은 상황이라 할 수 있겠죠. AI 영역에서도 저희 어머니와 비슷한(?) 작업을 수행하고 있는 사람들이 있습니다. 그중 가장 유명한 건 저희 레터에도 종종 등장하는 케이트 크로퍼드(Kate Crawford)겠죠. AI 분야 추천 도서로 심심찮게 언급되는 저작 <AI 지도책>을 통해 일상에서 사용하는 서비스 형태의 AI가 우리에게 이르기까지 과정을 치밀하게 분석했습니다. ‘디지털’, ‘클라우드’, ‘챗봇’과 같은 단어들이 가지고 있는 청정하고 가치 중립적인 이미지와 다르게 사실은 광물의 추출 과정부터 운송, 데이터 센터의 운용과 보이지 않는 곳에서 착취되는 노동자까지, AI는 전 지구 단위 자원이 투입되는 거대 ‘추출 산업’이라는 점을 보여줬습니다. 비슷한 작업을 해온 연구자, 블라단 욜러(Vladan Joler)를 주목해야 할 인물로 소개합니다. 욜러는 우리가 사용하는 테크놀로지의 기술적, 사회적, 정치적 단면의 ‘해부도’를 그리는 작업을 진행해 왔습니다. 페이스북 알고리즘을 대상으로 작업을 시작한 이후 아마존의 AI 스피커인 ‘에코’를 분석한 ‘AI 시스템의 해부’는 크로퍼드와의 공동 작업으로 뉴욕 MoMa에도 전시된 바 있는데요. 두 사람이 또 한 번 합작한 작업물이 얼마 전 온라인에 공개됐습니다. ‘1500년 이후 기술과 권력의 계보학’이라는 야심 찬 제목을 가진 인터랙티브 시각화 작업입니다. 500년간 기술과 사회구조가 어떻게 맞물려 진화해 왔는지를 보여주는 또 하나의 거대하고 복잡한 해부도이기도 하죠. 방대한 연구 내용을 레터에서 자세히 다룰 수는 없지만 위와 같은 종류의 AI 비평 작업들이 유의미한 지점은 어디일지 생각해 보면 좋겠습니다. 이번에 발표한 작업물을 소개하는 영상에서 욜러는 마치 ‘사건을 쫓는 사이버 탐정’의 심정으로 연구를 진행했다고 밝혔습니다. 그만큼 이미 AI와 같은 테크놀로지는 우리를 둘러싼 매우 복잡한 환경의 일부가 되어 있고, 설령 인식했다 해도 그 정확한 작동법을 알기 힘든 블랙박스와 같기 때문인데요. 동시에 욜러와 크로퍼드는 기술 발달로 인해 발생하는 새로운 노동 관계, 착취의 방식, 사용자와 온라인 공간을 소유한 플랫폼 오너들의 관계 등 문제들을 이야기하기 위한 언어가 우리에게 없다는 지적합니다. 즉, 이러한 문제의식 속에서 해부도를 통해 관계를 인식하게 하고, 추상의 영역에 머물던 AI를 물질 세계로 끌어내림으로서 ‘공공연한 사유의 대상’으로 만드는 것이 그들의 목표인 것이죠. https://www.youtube.com/watch?... 비판적으로 생각하기 위해서는 '낯설게 보기'가 필수라는 점에서 크로퍼드와 욜러를 위시한 기술-권력의 시각적 해부도는 제가 아는 어떤 AI 비판보다 효과적인 것 같습니다. (언뜻 보기에 너무 복잡해서 접근성이 떨어진다는 의견이 있을 법 하지만, 사실 위 작업물들은 스크린을 통한 ‘보기’보다는 공간 속에서 직접 경험해볼 것을 염두에 두고 제작된 것으로 보입니다. 이번 작업물도 베를린과 밀란에서 얼마 전까지 전시됐습니다.) 아직 밥 먹으며 농부 아저씨를 떠올리는 정도는 아니지만, 챗GPT를 이용하다 종종 멈칫하는 순간이 생기는 건 아마도 두 연구자의 노력 때문이 아닐까요. AI 시대에 더 많은 사람들에게 도전과 영감을 줄 연구와 작업물이 계속 만들어지길 기대하고 응원합니다. 📖Estampa 라는 프로젝트 그룹이 생성형 AI를 해부한, 좀 더 접근성이 좋은 자료도 있습니다. 해부 대신 ‘지도학(cartography)’라는 표현을 쓴 게 눈에 띄네요. 생성형 AI에 대한 기대는 하이프일까? by 🧙‍♂️텍스 생성형 AI와 전문가 시스템은 닮은 구석이 있다. 챗GPT가 등장하고 1년 반 정도가 지난 요즘 다들 어떠신가요? 초기에는 관련 논문과 생성형 AI 뉴스를 따라가느냐고 번아웃이 왔다는 이야기도 주변 사람들과 많이 주고받았습니다. 하지만, 요즘은 뭔가 예측할 수 있는 일이 진행된다는 느낌이 듭니다. 어쩌면 플레이어들이 소극적으로 변했기 때문이 아닐까 싶습니다. 선도주자인 오픈AI도 생성형 AI의 기술 한계에 도전하기보다는 현재 생성형AI의 완성도를 높이고 상업화를 가속하는 방향을 집중하는 게 아닌가 싶은 모습입니다. 스케일을 키워 범용인공지능 (AGI)를 만들겠다고 이야기했지만, 실제 등장한 것은 GPT-5가 아니라 경량화 모델로 추정되는 GPT-4o이었습니다. 또한 최근 6월 21일 오픈AI는 벡터 데이터베이스 스타트업 록셋(RockSet) 인수를 발표했습니다. 벡터 데이터베이스는 검색증강생성(Retrieval Augmented Generation, RAG) 서비스를 위해서 사용될 수 있습니다만, RAG는 환각 문제를 완화하는 방편이지 근본적인 해법은 아닙니다. 즉, 생성형 AI가 달성하겠다는 AGI의 청사진들은 여전히 미완결 과제로 남아있습니다. 현재 생성형 AI를 둘러싼 과도한 기대는 80~90년대 전문가 시스템이 발전하던 시기의 모습과 유사해 보입니다. 당시에도 전문가 시스템을 둘러싼 하이프가 있었고 많은 투자가 이어졌기 때문입니다. 그리고 약속한 성과를 달성하지 못한 AI에 대한 기대는 실망으로 바뀌면서 사회 전반의 AI에 대한 관심이 급격히 떨어지고 연구비 또한 많이 삭감되는 AI의 겨울을 맞이했습니다. 전문가 시스템의 시작과 인기 전문가 시스템(expert system)은 특정 분야에서 인간 전문가의 의사 결정 능력을 모방하도록 설계된 AI 알고리즘입니다. 1960년대 중반에 스탠퍼드 대학교에서 개발된 최초의 전문가 시스템인 DENDRAL은 화학자들이 유기 분자 구조를 식별하는 데 도움을 주었습니다. DENDRAL의 연구자들은 전문가 시스템이 인간 전문가의 지식을 기호 및 논리적 표현으로 풀어서 서술하여 복잡한 문제를 해결할 수 있는 가능성을 보았습니다. 이러한 접근 방식은 MYCIN, MOLGEN, PROSPECTOR, XCON와 STEAMER 등과 같은 더 정교한 시스템의 개발로 이어졌습니다. 1972년 등장한 MYCIN은 혈액의 세균 감염에 대한 전문가 시스템으로 지식베이스와 추론엔진으로 구성된 구조를 도입하였습니다. MYCIN의 지식베이스를 구성하는 규칙은 아래와 같은 형태로 되어 있습니다. 만약에,(1) 해당 미생물이 그람 양성균(Gram-positive bacteria)이고,(2) 해당 미생물이 구균(coccus)의 형태를 가지며,(3) 해당 미생물이 뭉쳐진 성장 형태를 가지면,해당 미생물이 포도상구균일 가능성이 (0.7) 입니다.출처 MYCIN : 규칙을 토대로 추정에 의한 추론을 사용한 시스템 MYCIN은 위와 같은 세균 감염에 대한 지식베이스를 사용자가 세균에 관한 정보를 입력하면 감염된 것으로 추정되는 세균과 그 확률을 계산해줍니다. MYCIN은 약 500개의 규칙을 사용하여 혈액 감염 분야에서 인간 전문가와 거의 같은 수준의 능력으로 작동했으며, 일반 의사들보다는 약간은 뛰어난 성과를 보였다고 합니다. 이는 특정 분야에서 전문가 수준의 추론 과정을 컴퓨터가 따라하도록 프로그래밍할 수 있다는 것을 보여주는 계기가 되었습니다. 특히, 전문가 시스템과 같은 기호주의 AI 방법들은 기호 및 논리적 표현을 사용하고 논리나 확률 계산 등 명시적인 방법을 통해 추론하기 때문에 의사결정과정을 투명하게 볼 수 있다는 장점도 있습니다. 전문가 시스템에 대한 하이프 의사 결정의 불확실성을 개선하려는 기업들은 전문가의 지식을 기반으로 컴퓨터가 추론을 수행하는 전문가 시스템의 약속을 매력적으로 여겼습니다. 기업들은 경쟁 우위를 확보하기 위해 특정 도메인 맞춤형 전문가 시스템 개발에 막대한 투자를 했으며, 이는 상업용 전문가 시스템 도구와 플랫폼의 등장을 이끌었습니다. 이 기간에 전문가 시스템에 대한 학술 연구 또한 활발히 이루어졌습니다. 지식 표현 및 추론(knowledge representation and reasoning)과 같은 연구는 더 넓은 분야에 전문가 시스템을 적용할 수 있는 이론적 배경을 제공했습니다. 그 결과 전문가 시스템은 의료 진단, 금융 서비스 및 제조업 등 다양한 분야에서 널리 적용되었습니다. 전문가 시스템에 대한 하이프는 시장 과열을 낳았습니다. 기대는 높아졌고, 기술로 달성할 수 있는 현실과의 괴리는 커졌습니다. 많은 조직이 전문가 시스템 구현에 상당한 자원을 투입했지만, 유지보수의 한계를 맞닥뜨리게 되었습니다. 지식에 변경 사항이 있을 때 마다 전문가를 통해서 데이터베이스를 업데이트해야 했기 때문입니다. 따라서 전문가 시스템은 유지보수의 확장성 및 유연성이 떨어졌습니다. 일본의 제5세대 컴퓨터 프로젝트 1982년에 시작되어 1994년에 종료된 일본의 제5세대 컴퓨터(Fifth Generation Computer Systems, 이하 FGCS) 프로젝트는 전문가 시스템 시대 하이프의 대표적인 사례입니다. 이 프로젝트는 새로운 병렬 컴퓨터와 논리 프로그래밍으로 컴퓨터 과학을 혁신하려고 시도했으며, 전 세계적으로 AI 기술에 대한 기대를 크게 높였습니다. 그러나 FGCS 프로젝트는 종료될 때까지도 당시 대다수의 전문가 시스템과 마찬가지로 목표를 달성하지 못했습니다. 논리 연산을 위한 병렬 컴퓨팅 하드웨어 개발은 목적을 달성했지만 시대를 너무 앞서나가는 개념이었고, 80~90년대에 빠르게 발전하는 범용 컴퓨터들은 점차 FGCS 하드웨어의 성능을 추월했다고 합니다. 전문가 시스템의 과도한 약속과 하이프, 그에 미치지 못한 성능에 대한 환멸은 결과적으로 AI 연구 및 개발 자금 삭감의 시발점이 되었습니다. 생성형 AI에 대한 기대는 하이프일까? 오픈AI를 포함한 많은 테크 기업들은 데이터와 모델 규모에 대한 스케일 법칙으로 AGI를 달성하겠다는 비전을 보여왔습니다. 현재에 와서도 여전히 생성형 AI의 환각 현상, 안전 이슈 그리고 윤리 문제는 녹록치 않아 보입니다. 오픈AI는 이에 대한 해법으로 인간 피드백을 통한 강화 학습(RLHF)과 같이 안전 및 윤리 문제를 위한 정교한 데이터셋 구축 및 생성형 AI를 조정하는 식으로 문제를 해결 혹은 우회해왔습니다. 하지만 정교한 데이터셋은 전문가 시스템과 유사하게 꾸준한 유지보수를 필요로 하고 큰 비용을 요구합니다. 데이터셋 구축의 단위 비용이 커진다면 규모를 키우기는 점점 어려워질 것입니다. 맥도날드가 완성도 낮은 챗봇 기반 주문 시스템을 포기한 현실은 AI 시스템이 작동하기 위해서는 고려할 예외 사항이 많다는 것을 보여줍니다. 그리고 콜센터 노동자가 실질적으로 인공지능 시스템을 유지보수하면서 제대로 된 보상을 받지 못하고 있는 상황은 AI 시스템 동작을 위해 지속적인 유지보수가 필요함에도 투입되는 노동은 평가절하되는 현실을 보여줍니다. 이러한 식의 비윤리적인 유지보수를 벗어나 적정한 보상을 제공할 때 생성형 AI는 기업에게 충분한 이익을 가져다 줄 수 있을까요? 이러한 제약조건 하에 유지보수가 가능한 AI 서비스를 달성할 수 있다면 생성형 AI의 하이프는 전문가 시스템의 하이프와 다른 길을 가리라 판단됩니다. 🦜더 읽어보기- 노동의 미래? 맥도날드에서 드러난 AI 기술의 현주소 (2024-06-24)- 콜센터 인공지능을 지탱하는 상담사의 그림자 노동 (2024-06-10)- 더 나은 AI를 위한 상상 (2024-04-24)- 강화학습이 강화하는 역사 (2024-04-24) #feedback 오늘 이야기 어떠셨나요?여러분의 유머와 용기, 따뜻함이 담긴 생각을 자유롭게 남겨주세요.남겨주신 의견은 추려내어 다음 AI 윤리 레터에서 함께 나눕니다.
인공지능
·
노동의 미래? AI 기술의 현주소
AI 윤리 뉴스 브리프 2024년 6월 넷째 주by 🥨 채원 1. 저커버그 잘못이라구 소셜미디어가 특히 어린 사용자들의 건강에 부정적인 영향을 준다는 비판은 꾸준하게 있어왔습니다. 학계에서도 소셜 미디어 사용이 사용자들에게 미치는 영향에 관한 연구가 활발하게 이루어지고 있는데요, 지난 달 네이처지에 소셜 미디어의 어떤 구조가 특히 청소년들의 정신 건강에 위험을 끼치는지 분석한 논문이 실리기도 했습니다. 그러나 이러한 오랜 비판에도 불구하고 소셜 미디어를 운영하는 거대 테크 기업들에 이렇다할 결정적인 제동이 걸리지는 않았습니다. 거대 테크 기업들은 여전히 소셜 미디어 플랫폼을 장악하며 온라인 생태계를 주름잡고 있죠. 미 45개 주와 컬럼비아 특별구가 진행하고 있는 소송은 이러한 현실에 경종을 울리고 있습니다. 검찰측은 메타가 자사 제품들 (인스타그램, 페이스북)이 어린 사용자들에게 미치는 악영향을 의도적으로 축소했다고 비판합니다. 이러한 노력이 과연 소셜 미디어의 독주에 유의미한 변화를 이끌어낼 수 있을지 함께 지켜봐야 할 것 같습니다. 🦜더 읽어보기- How Mark Zuckerberg’s Meta Failed Children on Safety, States Say (The New York Times, 2024-06-22)- 美 41개주 "메타 과도한 중독성, 미성년 정신건강 피해" 소송 (연합뉴스, 2023-10-25) 2. 한 눈에 보는 기술과 권력의 계보학 인공지능을 비롯한 기술을 비판적으로 사유해온 케이트 크로퍼드가 블라단 욜러 과의 새로운 공동 작업을 발표했습니다. <계산하는 제국들: 1500년 이래의 기술과 권력의 계보학> 이라는 제목입니다. 1500년부터 권력과 기술이 어떻게 얽혀왔는지 한 눈에 보여주는 인포그래픽 작품인데요, 얼마전까지 베를린의 현대 미술관인 KW에서 전시작품으로 선보이기도 했습니다. 전시 공간에 24미터의 거대한 지도로 설치되었던 작품인 만큼, 인포그래픽 가득 방대한 정보가 담겨져 있습니다. 거대 언어 모델을 비롯한 각종 AI 기술을 복잡한 층위의 역사적, 정치적, 사회적 맥락 안에 위치시킴으로서 보편적이고도 특수한 관점에서 AI를 통찰하는 케이트 크로퍼드의 능력은 점점 정교하고 날카로워지는 것 같습니다. 같은 작가의 <AI 지도책>은 제가 AI에 관심 있는 모두가 읽어야 하는 책이라고 주변에 강력하게 추천하고 다니기도 하는데요, 이렇게 기르는 비판적인 사유 능력이야말로 지금 AI 담론에 가장 필요한 능력이 아닐까 싶습니다. 3. 노동의 미래? 맥도날드에서 드러난 AI 기술의 현주소 AI가 각종 사건사고의 중심에 서 있는 것은 새로운 일이 아니죠. 이러한 AI 사건사고만을 모아두는 데이터베이스도 있습니다. 그렇지만 그저 웃고 넘기기에는 AI의 발전에 달려있는 노동의 미래가 조금 암울합니다. 맥도날드가 IBM과의 협업을 통해 AI 드라이브스루 주문을 도입하겠다고 밝혔던 것이 대략 3년 전이었는데요, 최근 이 서비스를 중단하였습니다. 소셜 미디어에서 해당 AI 챗봇이 오작동하는 장면들이 바이럴된 것에 따른 조치로 보이는데요, 최근에는 맥너겟을 260개 주문하는 이 틱톡 영상이 화제가 되었습니다. 지난주 브리프에서도 식어가는 생성형 AI 열기에 대한 소식을 공유드렸었는데요, 챗GPT를 비롯한 생성형 AI가 시장에 소개된지도 시간이 꽤 흐른 만큼, 기술의 거품이 꺼질 시점이 온 것이 아닐까 싶기도 합니다. 🦜더 읽어보기- 260 McNuggets? McDonald’s Ends A.I. Drive-Through Tests Amid Errors (The New York Times, 2024-06-21)- "아이스크림에 베이컨이?"…맥도날드 'AI 주문' 결국 중단 (SBS, 2024-06-22) #feedback 오늘 이야기 어떠셨나요?여러분의 유머와 용기, 따뜻함이 담긴 생각을 자유롭게 남겨주세요.남겨주신 의견은 추려내어 다음 AI 윤리 레터에서 함께 나눕니다.
인공지능
·
AI 가짜 뉴스 문제, 진단서와 처방전[함께 디지털 안전]
올해는 전 세계 인구 절반 이상이 투표하는 ‘슈퍼 선거의 해’이다. 어느 나라건 선거는 정책에 대한 토론이나 상대편에 대한 원색적 비난 등 여러 문제가 발생하지만, 최근 AI 기술의 발전으로 ‘가짜 뉴스(이하 ‘허위 정보’)문제가 두드러지고 있다. 앞서 살펴본 트럼프 체포 이미지 역시 AI로 생성된 이미지로, 사전 정보가 없다면 실제 사진으로 알 법 하다. 이런 사진 한 장으로 잘못하면 수십, 수백만 유권자의 투표에 영향을 주어 민주주의에 심각한 문제가 될 수 있다. 또한, 인공지능은 사진뿐만 아니라 허위 정보를 담고 있는 동영상, 신문 기사 및 정보 등을 쉽게 만들어내며, 연예인이나 일반인 대상의 성범죄에 활용될 수 있는 등 사회적으로 큰 문제가 될 수 있다. 이런 상황을 어떻게 해결해야 할까? AI가 만드는 허위 정보 문제, 원인 진단서. 어떤 문제를 해결하기 위해선 언제나 문제의 ‘원인’을 알아야 한다. AI가 만들어내는 허위 정보가 왜 문제가 되는지, 이유를 짚어 보았다. 1) 생성형 AI의 성능 향상 생성형 AI가 성능이 그저 그랬다면, AI가 만드는 허위 정보들은 크게 문제가 되지 않았을 것이다. 과거에는 AI가 만든 이미지가 너무 퀄리티가 낮아 실무에 활용하기 어렵기도 했고, AI 번역은 퀄리티가 낮아서 따로 본문을 다시 봐야 했으며, AI가 생성하는 글은 말이 안 되는 내용으로 구성되어 있었다. 하지만 이제는 사진전에서 AI가 생성한 이미지가 우승을 하고, 영화 ‘Her’에 나오는 인공지능 비서처럼 AI와 사람이 자연스럽게 대화도 할 수 있게 됐다. 즉, ‘AI가 생성한 글, 음성, 사진, 동영상이 사람이 생성한 것과 구분하기 어렵게 된’상황으로 인해 AI가 만드는 허위 정보가 사회적 문제가 될 수 있었다. 2) 책임지지 않는 AI, 시키는 대로 확률에 따라 일하는 AI 생성형 AI는 결과물에 책임지지 않으며, 사람이 시키는 일에 대해 ‘가장 가능성이 높은’ 결과물을 생성한다는 것도 AI가 허위 정보를 쉽고 빠르게 생성할 수 있게 하는 원인이다. 2024년 6월 현재, AI는 생성한 결과물에 대해 아무 책임도 지지 않고, 아무 양심의 가책도 없다. 허위 정보를 만드는 데 거리낌이 없다는 이야기다. 이런 와중에 생성형 AI는 ‘할 수 없다’는 대답을 ‘잘’ 하지 않는다(환각 현상). 점점 개선되고 있는 문제이긴 하지만, 생성형 AI의 기본 원리는, 학습한 데이터를 바탕으로, 확률적으로 사용자가 가장 마음에 들어 할 것 같은 정보를 생성하는 것이다. 이런 생성형AI의 원리는 생성형AI가 허위 정보를 만들어 내는 건 쉽게 만들고, 허위 정보를 판단하는 팩트체크를 하는 건 어렵게 만든다. 예를 하나 들어, 만약 ChatGPT에 내가 좋아하는 음식들에 대한 정보를 주고 일주일 치 예상 식단표를 만들라고 하면, 적당히 음식들을 배치해 앞으로 수행할 식단표를 쉽게 만들 수 있다. 반대로 임의로 만든 식단표를 주고 이 식단표대로 내가 먹었는지 생성형 AI에 확인하라고 하면, 내가 좋아하는 음식뿐만 아니라 나의 동선, 내 결제 내역 등까지 알아야 정확히 식단표가 사실인지 확인할 수 있다. 풀어서 설명하자면, 글이나 사진, 동영상을 만드는 건 사람이 봤을 때 그럴듯해 보이기만 하면 되니까 허위 정보를 생산하는 건 쉽다. 하지만 특정 텐츠가 허위인지 아닌지를 분석하는 과정에서 ‘확률’이 개입하기에는 따져봐야 할 것이 너무 많다. 결국, 생성형AI의 발전은 허위 정보를 생산하기는 쉽게 만들고, 판단하기는 어렵게 만들었다. 3) 너무 빠른 허위 정보의 생성과 전파 생성형 AI의 가장 큰 특징이라고 한다면, 할 수 있는 일은 인간보다 빠르게 처리한다는 것이다. 이는 생성형AI를 인간이 유용하게 활용할 수 있는 장점이지만, 동시에 허위 정보 문제를 더 심각하게 만드는 원인이기도 하다. 이전에 한 AI 컨퍼런스를 듣고 남긴 후기에서 작성했듯이, 허위 정보는 사실 고대 시절부터 있었다(삼국사기에 기록된 서동요). 즉, 허위 정보의 생성과 전파 자체는 새로운 문제가 아니다. 하지만 AI로 인해 너무 쉽게, 빠르게 허위 정보가 만들어지고, SNS와 뉴스 등을 통해 빠르게 전파되는 구조가 문제다. AI가 만드는 허위 정보 문제, 해결 방안 처방전. 앞서 AI로 인해 발생하는 허위 정보 문제의 ‘원인’을 살펴보았다. 원인을 진단해 진단서를 작성해 보았으니, 이제 이런 문제를 해결할 수 있는 ‘처방전’을 지어보겠다. 1) AI의 허위 정보 생산을 막는 기업들의 노력 생성형 AI가 만든 허위 정보 문제를 일차적으로 해결할 방법은, 기술적으로 생성형 AI가 만든 컨텐츠는 AI가 만들었다는 걸 알 수 있게 표시하는 것이다. 대표적으로 구글 딥마인드에서 AI로 생성된 이미지를 구분하는 워터마크 도구 ‘신스ID(SynthID)’가 있으며, 유튜브나 메타 등의 기업에서도 AI로 생성된 컨텐츠를 구분할 수 있는 방안을 마련하고 있다. 각각의 방안들이 다른 원리를 가지고 있지만, 기업들은 사용자가 생성형AI를 통해 만들어진 콘텐츠임을 식별할 수 있는 워터마크 등을 사진이나 동영상 등에 넣고, 이후 영상이나 사진을 편집해도 이 워터마크가 훼손되지 않도록 노력하고 있다. 이외에도 AI를 활용하는 기업에서 자발적으로 생성 AI를 활용했다고 먼저 알리는 경우도 있다. 이미지에서 확인할 수 있듯이, 중앙일보의 경우 생성형 AI의 도움을 받아 작성한 기사임을 하단에 밝혔다. 이는 허위 정보의 확산을 막을 수 있는 조치이기도 하지만, 기업 입장에서도 생성형 AI를 통해 자동으로 뉴스를 내보내다 사회적으로 문제가 되어 경제적 피해를 보는 상황을 막을 수 있는 대비이기도 하다. 2) AI 규제와 법안에 대한 논의와 합의 앞서 진단한 생성형AI의 허위 정보 문제에서, AI는 책임을 지지 않는다고 했다. 하지만, 사람과 기업은 책임을 지도록 우리는 규제와 법안을 마련할 수 있다. 실제로 AI와 관련된 빅테크 기업들이 앞장서서 선거와 관련된 딥페이크나 가짜뉴스 규제에 대해 논의하기도 했다. 유럽의 경우, AI법의 시행만을 앞두고 있으며, 미국의 경우 행정부처별로 100여 개 안팎의 AI 가이드라인을 수립하도록 하고 있다. 한국의 경우, 21대 국회에서 AI 규제와 관련된 여러 법안에 대해 발의가 이루어졌지만, ‘우선허용 사후규제’ 문제를 포함해 여러 부족한 점이 많다는 지적이 있다. AI 입법 자체는 불가피하게 신중히 이루어지더라도, 어떤 방향의 규제를 할 것인지 더 많은 논의가 필요한 시점이다. 3) 결국, 개인의 합리적 판단 시민들이 정보를 비판적으로 수용하는 것, 이는 단순 AI가 생성한 허위 정보를 떠나, 모든 가짜 뉴스에 대한 근본적인 해결책이다. 그렇다면, 어떻게 시민들이 보는 뉴스나 사진, 동영상 등을 비판적으로 수용할 수 있을까? 여러 해결책이 제시될 수 있겠지만, 가장 먼저 ‘생성형 AI 사용법에 대한 교육’이 이루어져야 한다고 생각한다. ChatGPT 3.5이후 생성형 AI 자체는 시민들에게 친숙해졌지만, 여전히 많이 활용해 보지 않은 사람들을 주위에서도 쉽게 발견할 수 있다. 생성형 AI라는 도구에 가장 익숙해지고 친해지는 방법은 직접 써 보는 것이다. 사람들이 칼의 위험함을 알고 있는 건, 칼에 베이면 아프다는 걸 직간접적 경험으로 알고 있기 때문이다. 하지만 동시에 사람들은 칼을 요리할 때나 무언가를 만들 때 유용하게 사용한다. 생성형 AI를 통해 생성형 AI의 성능을 직접적으로 체험한다면, 평소에 보는 여러 콘텐츠를 자연스럽게 ‘의심’하게 될 것이다. 직접적으로 사용법에 대한 교육이 어렵다면, ‘생성형 AI가 만든 허위정보 맞추기 대회’와 같이 사람들의 관심을 끌면서도 생성형AI가 만들 허위 정보의 위험성을 알리는 것도 좋겠다. 이외에도 K.F.C.(Korean Factcheckers’ Community)의 활동처럼 여러 뉴스에 대해 꾸준히 팩트체크를 하는 시민들의 움직임, 지금 진행하고 있는 ‘함께, 디지털 안전’ 프로젝트 등의 노력도, AI로 인해 발생하는 허위 정보 문제를 해결하는 데 큰 도움이 될 것이다. 안전한 디지털 공간을 바라는 캠페이너들의 이야기를 모읍니다.
인공지능
·
6
·
AI 윤리, 어디서 배울 수 있을까요?
AI 윤리 공부하는 AI 전공자들 by 🎶소소 지난달 강남역에서 수능 만점을 받았던 의대생이 여자 친구를 칼로 찔러 살해하는 사건이 벌어졌습니다. 이 사건은 한국의 교육 과정에서 최고의 평가를 받은 학생이 입시 과정 동안 무엇을 배워왔는 지 돌이켜보게 만들었는데요. 이러한 비극적인 현상이 비단 한국만의 일은 아닙니다. 전세계적으로 유수 대학의 인재들이 악명 높은 화이트칼라 범죄에 연루되는 사례는 끊이지 않습니다. 지금의 AI 분야는 마치 국경 없는 입시 경쟁을 치르고 있는 양상입니다. 최고 성능의 AI를 만들기 위해 데이터를 긁어모아 학습시키고, 모델의 크기를 키우고, 성능과 효율성을 높이기 위한 방법을 열심히 연구합니다. 그리고 AI 모델의 성능이 몇 점인지, 지난번보다 얼마나 나아졌는지 자랑합니다. 그런데 이렇게 개발된 최고의 AI가 혹시 전쟁을 일으키고 사람을 죽이는 데도 효율적이지 않을까요? 최고의 성능으로 아무도 모르게 범죄를 저지를 수 있도록 돕는 도구가 되지는 않을까요? 하버드는 2017년 AI를 포함한 컴퓨터 과학기술을 공부하는 학생들에게 윤리를 가르치기 위해 임베디드 에틱스(Embeded EthiCS)를 설계했습니다. 이 교과 과정의 특별한 점은 새로운 윤리 수업을 만든 것이 아니라 기존 수업 내 구성 요소가 되도록 설계했다는 점입니다. 컴퓨터 과학 전공 수업을 듣는 학생이라면 모두 윤리를 고민하게 만든 것이죠. 학생들은 수업에서 기술을 개발하고 사용하는 과정에서 발생할 수 있는 윤리적이고 사회적 문제로 무엇이 있는지 이야기하고, 그 문제가 발생하는 이유를 찾고, 문제를 해결하려면 어떻게 해야 하는지 논의합니다. 학생들이 기술 지식뿐만 아니라 무엇이 옳고 그른가 계속해서 고민할 수 있는 환경을 만들어준 것입니다. 예를 들면, 빅데이터 시스템(CS 265) 수업에서는 “데이터 시스템이 왜 개인정보를 보호해야 하는가?”를 묻습니다. COVID-19 팬데믹 당시 접촉자 추적을 위해 데이터 수집을 했던 애플과 구글의 사례를 들어, 나라면 어떤 정보를 수집하고, 수집하지 않았을지 토의합니다. 이 과정에서 학생들은 데이터 수집 효율성과 개인정보보호 문제의 균형을 맞추려면 어떻게 해야 하는지 고민해 볼 수 있습니다. 기계학습(CS 181)기계학습(CS 181) 수업에서는 “AI 시스템이 의도하지 않은 사회적 문제를 일으켰을 때 개발자는 어떤 도덕적인 책임을 져야 하는가?”를 묻습니다. 미국 의료 AI 시스템에서 발견된 인종차별 문제를 돌이켜보며, 학생들은 AI 시스템이 학습한 환자 내역, 건강 기록, 미국 보건복지부가 판단한 건강 결정 요인 목록을 살펴보며 이 문제를 예측할 수는 없었는지, 어떤 데이터를 더하거나 뺐어야 했는지 고민해 봅니다. 보통 이러한 질문에는 무엇이 맞고, 틀린지 명확한 답은 없습니다. 이러한 모호함이 엔지니어, 컴퓨터 과학자들이 윤리 문제를 피하고 싶게 만들기도 하는데요. 그러나 윤리적인 질문을 하는 이유는 어떤 것이 옳다고 정의하기 위해서만은 아닙니다. 질문에 답하는 과정에서 우리는 나와 상대가 추구하는 가치가 무엇인지 이해하고, 어떤 가치가 우리 사회에 반영되기를 원하는 지 계속해서 확인할 수 있게 됩니다. ❓ “AI연구자나 개발자에게 윤리를 교육하는 것보다 윤리적인 AI를 잘 만들어서 보급하는 게 더 쉽고 빠르지 않나요?” AI 전공자가 AI 윤리를 배우는 것은 왜 중요할까요? '윤리적인 AI'가 무엇인지는 결국 사람이 정의합니다. 어떤 데이터를 학습시키고, 무엇에 AI를 활용할지 고민하는 것 모두 사람의 일이죠. 하버드 임베디드 에틱스 리더 제임스 미킨스(James Mickens) 교수는 "공학은 위대하지만 모든 건 연결되어있다는 것을 학생들에게 강조하고 싶다"고 말합니다. 모든 것을 기술적으로 해결할 수 있다는 생각에서 벗어나야 한다는 말입니다. 물론 AI 윤리 문제를 AI연구자나 개발자에게만 맡겨둬서도 안 됩니다. AI 전문가가 아닌 우리도 사회 구성원으로서 AI 윤리 문제에 관심을 가져야겠죠. 앞으로 더 많은 사람들과 서로가 원하는 AI와 우리의 미래에 대해 충분히 대화할 수 있기를 기대해봅니다. FAccT 2024 훑어보기 by 🤔어쪈 작년 이맘때 AI 윤리 레터에서 ‘AI 윤리 연구의 최전선’이라고 소개했던 학회 FAccT (ACM Conference on Fairness, Accountability, and Transparency)가 브라질 리우데자네이루에서 열렸습니다. 총 175편의 논문 발표와 더불어 다양한 세션이 4일동안 진행되었는데요. 이를 주제별로 분류한 시간표만 보고서도 AI 윤리의 지평이 정말 넓다는 사실을 새삼 확인할 수 있었습니다. FAccT는 레터에서 특집으로 다룬 적이 있을 정도로 항상 관심 갖고 살펴보는 학회인데요. 아쉽게도 이번에 FAccT에 참석한 레터 필진이 없어 현장감 있는 소식을 전하진 못하지만 6편의 최우수 논문 수상작을 중심으로 AI 윤리 연구 동향을 간략하게나마 공유드려봅니다. 물론 언급했듯 FAccT가 다루는 영역이 방대한만큼 아래 논문들이 대표성을 가진다고 할 순 없습니다. 학회 논문 대부분이 오픈액세스로 열람 가능한만큼 직접 살펴보시기를 추천드릴게요. FAccT의 첫 글자를 담당하는 공정성 첫번째 논문은 조지프 피시킨(Joseph Fishkin)이 주창한 ‘기회 다원주의’에서 따온 ‘알고리즘 다원주의(Algorithmic Pluralism)’라는 개념을 소개합니다. 개인에게 기회가 주어지는 통로가 단일한 알고리즘에 의한 의사결정으로 인해 더 좁아지고 경직된 병목사회가 되어서는 안된다는 문제의식을 가진 연구에요. 기회 다원주의를 위해서는 알고리즘 다원주의가 필요하며, 또 이를 위해서는 보다 다양한 알고리즘 개발 및 평가 절차와 기준을 토대로 서로 다른 여러 모델들이 함께 적용되어야 한다는 결론을 내립니다. 알고리즘 다원주의의 필요성은 추천 대상이 직접 참여한 추천 알고리즘의 공정성 지표 설계 과정을 담은 두번째 논문에서도 살펴볼 수 있습니다. 인터뷰 결과 콘텐츠 창작자와 데이팅 앱 사용자 모두 노출이 공평하게 이뤄지길 원하면서도, 콘텐츠 창작자는 콘텐츠 품질에 기반한 추천 비중 조절을 용인한 반면 데이팅 앱 사용자는 명시적인 선호 설정에 따른 필터링을 제외하고는 균등하게 추천이 이뤄지길 요구했죠. 결국 공정성 지표 역시 대상과 맥락에 따라 달리 개발하고 적용해야 한다는 의미입니다. AI 공정성 확보 방안으로 활발하게 논의가 이뤄지고 있는 알고리즘 편향 감사 규제를 다룬 논문도 눈에 띕니다. 미국 뉴욕시에서 작년 7월 채용 AI에 독립적인 제3자 편향 감사를 도입해 특정 개인이나 집단이 구인 시장에서 차별을 받지 않도록 제정한 법안(NYC 지역법 144)이 실제로 어떻게 시행되고 있는지 살펴봤죠. 결론부터 말하자면 연구진은 규제 실효성이 부족하다고 지적합니다. 규제 대상인 ‘자동화된 채용 결정 도구(automated employment decision tool)’에 대한 정의 뿐만 아니라 감사자의 독립성 요건이나 데이터 접근 범위 및 권한 등 실천적으로 불명확한 부분이 많아 규제를 피할 수 있는 사각지대가 너무 넓었다고 합니다. 우리가 미처 주목하지 못한 문제들 거대언어모델과 함께 AI 분야 내 핵심 영역으로 떠오른 자연어처리 기술의 발전이 영어에 치우쳐져 있다는 지적은 새롭지 않습니다. 문제는 AI 윤리 연구 역시 마찬가지라는 것이죠. 우리가 그동안 영어를 중심으로 AI의 젠더 편향을 측정하고 줄이기 위해 발전시켜온 기법들을 다른 언어에도 적용할 수 있을까요? 세계에서 세번쨰로 가장 많은 사람이 사용하는 힌디어 기반 AI에 접목한 결과 그렇지 않았습니다. 언어가 갖는 사회문화적 맥락 때문에 힌디어 사용자를 대상으로 한 현장 연구 없이는 데이터 수집 단계에서부터 한계에 봉착했다고 하죠. 비단 힌디어에 국한된 이야기는 아닐 것입니다. 또다른 논문은 비영어권 언어처럼 실제론 많이 쓰이지만 충분한 분석이 이뤄지지 않고 있는 주제를 다룹니다. 바로 합성 데이터(synthetic data) 사용에 따라 발생하는 문제입니다. 저자들은 얼굴 인식 기술 분야 사례를 바탕으로 합성 데이터 활용이 만연해질수록 두가지 위험이 커진다고 주장합니다. 하나는 측정 가능한 지표를 중심으로 겉보기에 다양성과 대표성이 확보된 것처럼 데이터를 생성해도 숨겨진 내재적 편향이 남아있어 다양성-워싱(diversity-washing)이 일어날 수 있다는 것입니다. 또한 합성 데이터를 만들기 위한 실제 데이터 확보에 제공자의 동의가 필요한지 불분명해진다는 점 역시 지적합니다. 요컨대 ‘실제 데이터’를 상정해 만들어진 각종 규율의 기반이 합성 데이터의 등장으로 흔들리고 있다는 것이죠. AI 윤리를 어떻게 배우고 실천할 것인가? 마지막으로 AI 윤리 레터와 북클럽이 떠오르는 논문을 소개하며 글을 마무리할까 합니다. 16개 조직에 소속된 AI 실무자와 AI 윤리 교육 담당자를 대상으로 한 인터뷰 결과, 주된 학습 방식은 자기주도적으로 삼삼오오 모여서 공부하는 것에서 크게 벗어나지 않고 교육 콘텐츠 대부분은 기술적인 개념 설명과 해결방안만을 다룬다는 문제가 드러났습니다. 사회기술적 접근에 기반한 자료와 더불어 사례 연구나 시나리오와 같이 보다 다양한 교육 방법론이 필요하다는 연구 결론을 읽으며 어디서든 AI 윤리를 배우고 실천하기 위한 저변이 녹록치 않다는 사실을 새삼 깨달을 수 있었습니다. 💬 덧붙이는 글🤔어쪈: 발표된 연구와 별개로, 올해 FAccT는 이런저런 일로 구설수에 오르기도 했습니다. 1) 학회 집행위원회에서 이스라엘-팔레스타인 전쟁을 비롯한 AI 무기에 대한 성명서를 발표했다가, 충분히 비판적이지 못하다는 이유로 학회 구성원들로부터 강한 불만이 제기되자 사과문과 함께 기존 성명서를 삭제하는 일이 있었습니다. 2) FAccT가 구글, 아마존 등을 비롯한 AI 기업들의 후원을 받는다는 사실 역시 꾸준한 논쟁거리입니다. 특히 구글과 아마존은 이스라엘에 군용 클라우드 솔루션을 제공하는 프로젝트 님버스에 참여하는 회사라는 점 때문에 지탄의 대상이 되기도 했죠. 이른바 X-risk (Existential risk; 인류에 대한 존재론적 위협) 해소에 초점을 맞춰 기부하는 생존 및 번영 기금 (Survival and Flourishing Fund) 의 후원을 받은 사실 역시 논란이 되었습니다. #feedback 오늘 이야기 어떠셨나요?여러분의 유머와 용기, 따뜻함이 담긴 생각을 자유롭게 남겨주세요.남겨주신 의견은 추려내어 다음 AI 윤리 레터에서 함께 나눕니다.
인공지능
·
1
·
원전으로 AI 전력 수급한다는 한국 정부
AI 윤리 뉴스 브리프 2024년 6월 셋째 주by 🤖아침 1. AI용 전력이 부족하다고? 원전을 지으면 되지! AI 때문에 전력수요가 늘어나므로 원전을 새로 짓는다. 제11차 전력수급기본계획에 드러난 정부 기조입니다. 정부가 2년마다 수립하는 이 계획의 전문가 실무안이 나왔는데요. 2038년까지 10.6GW 규모의 발전 설비를 새로 지어야 하고, 이를 대/소형 원전 및 열병합 등으로 충당한다는 것입니다. 하지만 원전이 AI 산업 육성에 얼마나 도움이 될지는 모르겠습니다. 데이터센터를 지속가능한 방식으로 운영하라는 압박을 받는 테크업계 입장에서는 재생에너지가 아무래도 매력적일 듯합니다. 아마존 관계자가 한국에서 재생에너지를 구하기 어렵고 이는 투자에 영향을 줄 수도 있다는 발언을 최근 하기도 했습니다. AI 기술 중에서도 현재 유행하는 거대 딥러닝 모델이 유독 에너지 집약적이라는 점도 짚을 필요가 있습니다. 유명한 <확률론적 앵무새의 위험> 논문도 모델 거대화 추세를 문제시하며, 이런 경향이 필연적이거나 애초에 필요하긴 한 것인지 묻지요. 거대 AI를 향해 달려가는 경주 속에서 더 효율적인 기술의 가능성이 차단되는 것 아닌지 의문입니다. 한편 위 계획에는 데이터센터가 증가한다는 전제가 깔려 있지요. 데이터센터는 운영에 드는 에너지뿐만 아니라 설립 자체로 탄소배출 등 기후비용을 발생시킨다는 점도 잊어선 안 되겠습니다. AI 산업을 위한 자원 투자가 기후위기 대응을 방해하는 셈입니다. 이런 사회적/지구적 비용을 들여야 할 만큼 AI 기술이 실질적이고 광범위한 혜택을 만들어낼지, 냉정하게 판단해야겠습니다. 🦜더 읽어보기- 우리 회사 AI는 에너지 1등급일까? (2024-05-13) 2. 다소 식어가는 생성형 AI 열기 혜택이란 단어가 나온 김에 말이죠. 생성형 AI를 도입 중인 기업 경영진 및 관리직급 2,500여 명을 설문한 루시드웍스(검색 소프트웨어 기업)에 따르면, “AI 사업 실행에 따른 수익 성과는 형편없는 수준”입니다. 비용 문제와 AI 답변 정확성에 대한 우려까지 겹친 상황에서, 기업들이 AI 관련 지출에 훨씬 조심스러워졌다는 설문 결과입니다 (지출을 늘리려는 곳이 63%로 전해 93% 대비 크게 감소). 보고서는 이렇게 표현합니다. “생성형 AI의 허니문 단계는 끝났다.” 국내에도 많은 기업과 공공기관이 생성형 AI 도입에 열을 올리고 있지만, 실질적으로 (즉 기대감에 편승해 투자를 유치하는 등의 방식을 제외하고) 어떤 이익을 얻었는지는 아리송합니다. 제 주변에도 업무에 생성형 AI를 사용한다는 사람이 이따금 있는데요. 그것을 통해 뭔가 대단한 편익을 얻었다거나 삶의 질이 개선되었다는 얘기는 들어보지 못했습니다. 생성형 AI의 진정한 가치는 무엇이고, 그것은 언제 도래하는 것일까요? 3. 감시 최고전문가를 영입한 오픈AI 디지털 기술로 돈을 버는 검증된 방식이라면 한 가지 있지요. ‘감시’입니다. 오픈AI가 이사회에 미국 국가안전보장국(NSA)의 수장을 지낸 폴 나카소네를 영입했습니다. 명목은 AI 안전성을 확보하는 데 나카소네의 전문성이 도움이 되리라는 것인데요. 나카소네의 전문성과 위상을 생각할 때 앞으로 오픈AI의 미국 정보기관이나 국방성 관련 사업이 가속화되어도 이상하지 않겠습니다. 자사 정책에서 ‘군사 및 전쟁’ 용도의 AI 사용을 금지하던 조항을 올해 초 삭제한 것과 같은 맥락에서 이해할 수 있습니다. 나카소네 재임 중 NSA는 자국 민간인 통신 데이터를 대량 구매하여 불법 사찰하는 등 대중감시 확산에 힘써왔습니다. 이러한 전문성과 AI의 만남이 어떤 결과를 초래할지, 우려도 됩니다. 4. 어도비 이용약관 개정 소동의 시사점 6월 초, 어도비가 포토샵 등 프로그램의 이용약관을 변경하고 이용자들에게 필수 재동의를 받았습니다. 재동의는 약관 개정 때 발생하는 의례적인 절차일 수도 있지만, 이용자가 클라우드에 올린 “콘텐츠를 어도비가 자동 및 수동으로 접근할 수 있다”는 내용이 담겨 있고 재동의하지 않으면 프로그램을 사용하거나 심지어 삭제할 수조차 없었는데요. 얼핏 창작자의 작업물에 어도비 측이 마음대로 손댈 수 있고 생성형 AI 등 다른 제품을 만드는 데 활용할 수 있다는 뜻으로 해석할 수 있는 조항에 대한 반발이 소셜미디어에서 강하게 퍼졌습니다. 이용약관이 화제가 되자 어도비는 해명하는 글을 내놓았습니다. 이용자 작업물을 파이어플라이 생성형 모델 학습 데이터로 사용하거나 작업물에 대한 소유권을 사측이 주장하는 일은 없으며, 콘텐츠에 접근하는 이유는 1) 파일 조회, 편집 등 프로그램 기능 제공을 위해 2) 뉴럴 필터 등 클라우드 기반 기술 개선용 자료 확보 차원에서 3) 아동성착취물, 스팸 등 불법콘텐츠 및 오남용을 방지하기 위해서라고 설명합니다. 아주 납득할 수 없는 설명은 아니지만, 이용자 데이터를 AI 학습용으로 활용하거나 판매하는 플랫폼이 속속 늘어나는 추세 속에서 플랫폼과 이용자 간 불신이 커지고 있음을 보여주는 사례입니다. 플랫폼이 내미는 이용약관을 이용자가 거절할 수 없다는 점에서 권력 비대칭 또한 작용하고 있지요. 클라우드 플랫폼을 이용하는 이상 어떤 활동이건 언제든지 감시의 대상이 될 수 있다는 현실을 상기시키기도 합니다. 🦜더 읽어보기- ‘윤리적’ AI를 그렇지 못한 데이터로 만들 수 있을까? (2024-04-15)- 웅성👥👤마이크로소프트가 책임진대👤👥웅성 (2023-09-13) 📆 소식- 인공지능은 왜 확률적 앵무새일까? (2024년 6월 21일, 온오프라인 하이브리드, 무료)진보넷, 인권활동가를 위한 거대언어모델 이해하기 세미나- 아트랩클럽 <AI 윤리 북클럽> (7월중 오프라인 진행, 참가비 1만5천원)아트코리아랩 (마감일: 2024-06-26) #feedback 오늘 이야기 어떠셨나요?여러분의 유머와 용기, 따뜻함이 담긴 생각을 자유롭게 남겨주세요.남겨주신 의견은 추려내어 다음 AI 윤리 레터에서 함께 나눕니다.
인공지능
·
3
·
여우의 길들임과 세계 평화
길들임의 거리 by 💂죠셉 전치형 교수는 저서 <로봇의 자리>에서 동화 <어린 왕자>의 한 부분을 인용, 기술을 ‘길들인다’는 유용한 개념을 제시합니다. 여우는 입을 물고 오랫동안 어린 왕자를 쳐다보았다.🦊 ‘제발.. 나를 길들여줘.” 여우가 말했다.🤴🏻“나도 정말 그러고 싶어.” 어린 왕자가 대답했다.🤴🏻“그렇지만 내겐 시간이 많지 않아. 찾아내야 할 친구들도 있고 알아볼 것도 많아.”🦊“우리는 우리가 길들이는 것만 알 수 있어.” 여우가 말했다. “사람들은 이제 무엇도 알 시간이 없어 (…) 네가 친구를 원한다면, 나를 길들여!” 길들임을 ‘관계를 맺는다’는 의미와 연결 지은 것이죠. 일반적으로 저게 물건이나 동물 등, 비인간을 대상으로 사용되는 건조한 표현이라는 점을 기억 해보면, 여기서 제시된 관계 맺음으로서의 길들임은 기술과의 관계를 설명하는 데도 적절한 것 같습니다. 관계 맺는 대상이 한편으로 ‘도구’라는 점을 상기시키면서도 사용-피사용의 일방성 대신 관계의 양방향성을 드러내 주기 때문이죠. 모르고 있다가는 종종 사람과 헷갈릴 정도로 그럴듯한 아웃풋을 내어놓는 AI와의 관계에서는 더더욱요. 기술과 사회, 개인이 만나 서로를 길들이고, 길들여지는 과정엔 시간의 경과가 필수적일 겁니다. ‘적당한 거리를 두고 관찰하기, 어떤 존재인지 이해하려 노력하기, 낯선 환경에 적응하도록 도와주기. 지켜야 할 규칙을 알려주기, 규제하고 관리하기(p.9)’에 참여하는 가운데 우리는 삶이라는 맥락 속 기술에 대해 사유하고, 이야기하고, 애매한 윤리적 지점에 대해 논쟁하며 사회적 맥락 속 나의 가치들에 대해 고민하게 됩니다. 그렇게 사람들이 서로 연대하고, 공론화시키고, 행동할 시간이 주어졌기 때문에 만드는 사람들도 어느 정도는 사회와 발맞춰 방향키를 잡았을 것이고, 시간이 지나며 그 혜택의 분배도 이뤄진 것이겠죠. 기술 진보를 마치 진화의 과정처럼 여기며 그게 자동으로 우리를 계몽하고 이롭게 할 것이라는 기술 유토피아주의는 비판적으로 거리를 두고 봐야 할 환상입니다. <권력과 진보>에서 저자들이 말했듯, 독점하려는 세력에 대항하는 길항권력이 형성되고, 투쟁해온 사람들이 있었기 때문에 낙수효과도 있었겠죠. 그런데 AI라는 기술을 생각하면 우리에게 그 길들임을 위한 시간이 충분히 주어지고 있는지 의문입니다. 신기술이 이전 것을 갱신하는 속도는 갈수록 빨라져서 생각할 시간도 없이 휘몰아칩니다. 그리고 그 모든 과정이 소수의 닫힌 집단에 의해 이뤄지는 경향 또한 갈수록 심화하고 있죠. 이런 점에서 AI라는 기술은 지금까지의 기술 패러다임과 구분되어 분석할 필요가 있어 보입니다. 규제, 민주적인 의사 결정 과정 등 모두 중요하지만 개개인이 '길들임'을 스스로 연습해 나갈 수 있도록, 기술에 대한 주도적 비판 능력을 갖추는 것이 AI시대를 위한 궁극의 해답일 겁니다. 어려운 문제죠. 어디서부터 시작할 수 있을까요? 시중에 나와 있는 훌륭한 기술 철학, 윤리 책은 정말 많지요. 지금 우리에게 없는 건 그 지식을 밀접한 생활 속에서 녹여낸 이야기들이 아닐까 생각해봤습니다. 지난 레터에 썼듯, 내가 보고 싶은 세상의 모습은 무엇인지, 그것과 기술의 지향점 사이 거리는 어느 정도인지 가늠해 볼 수 있게 도와줄 '작은' 이야기들이요. 종종 명확한 답이 없는 AI 윤리 문제들을 고민하는 일이 위와 같은 테크 감수성(sensibility)을 기르는 데 기여할 수 있으리라 믿습니다. 세계 평화를 향하여 by 🥨채원 저는 지난주 리스본에서 열린 <평화와 안보를 위한 책임감있는 AI> 워크샵에 다녀왔어요. 보통 학교나 기업에서 주관하는 대부분의 AI 관련 행사와 달리, 유엔(United Nations, UN)이라는 국제 기구에서 개최한다는 점에 흥미를 느껴서 다녀오게 되었습니다. 이틀간의 워크샵은 유엔 군축 사무국(United Nations Office for Disarmament Affairs, UNODA)과 스톡홀름 국제 평화 연구소(Stockholm International Peace Research Institute, SIPRI)가 공동으로 개최한 행사였습니다. 군축과 국제 평화를 고민하는 사람들이 이야기하는 AI는 어떤 모습일지 궁금했는데요, 오늘 레터에서 가볍게 저의 감상을 나눠보려고 합니다. AI와 평화, 그리고 안보라니, 처음에는 낯선 단어들의 조합으로 느껴지기도 했습니다. 학부 때 들었던 <국가 안보와 정보>라는 수업을 떠올려보면, 각 국의 정보기관이라든가 국제 정세와 외교 정책 같은 것들을 다뤘던 것 같아요. 그래서인지 워크샵 주제를 듣고 가장 먼저 든 생각은 지금 우크라이나와 가자지구에서 활발히 쓰이고 있는 각종 첨단 AI 기술들이었습니다. 신장 위구르나 홍콩 시위 때도 그랬듯, 기술을 계속해서 발전하고, 이렇게 하는 것이 옳은 것인지 고찰할 새도 없이 사회 곳곳에서 쓰이고 있으니까요. 일단 제 기억에 남는 것은 전통적인 안보 문제 (예컨데 핵확산 방지조약이라든가 치명적 자율 무기 체계 등)와 AI를 비교하는 것이었어요. 국가간 이런 논의를 진전시키는 데 얼마나 많은 시간이 필요한지, 아주 간단한 정의 조차 동의하기 어렵다는 점이 닮았다는 게 흥미로웠습니다. 반면, 핵무기처럼 특정한 행위자만이 ‘추적 가능한’ 형태로 개발하는 전통적인 안보 기술과 달리 AI 기술은 안보에 큰 영향을 미치면서도 기존과 다른 행위자들 - 예컨데 구글같은 미국의 테크 기업들이라든가 다양한 오픈소스 커뮤니티 - 에 의해 이루어지기 때문에, 새로운 접근 방식이 필요하다는 것도 인상깊었습니다. 지금 AI에 대해 이루어지는 많은 비판이 윤리적인 비판 혹은 안전성, 위험성에 기반을 두고 있는데요, 이러한 관점이 국제 안보에서 이야기되는 안보와 비슷하면서도 다른 점이 많다는 생각이 들었습니다. 결국 중요한 것은 어떤 맥락에서, 누구의, 무엇을 위한 안전인가를 묻는 것이겠지요. ‘책임감 있는’ 기술 혁신의 책임이란 무엇 혹은 누구에 대한 것일까요? 또 AI 기술을 개발하고 사용하는 개인의 입장에서 책임감이란 어떤 의미일까요? 한편으로는 비슷한 논의점이라도 ‘윤리적 문제’로 이야기되는 것과 ‘안보의 문제’로 제시되는 것에서 오는 차이점 또한 흥미로웠습니다. 윤리라는 말랑한(?) 이름이 오히려 날카로운 비판을 어렵게 만드는 것은 아닐까 싶기도 했고요. 너무 말랑하지 않으면서도 냉정하되 너무 날카롭지만은 않은 그런 ㅎ 관점을 갈고 닦아서 앞으로 독자 여러분과도 나누어보도록 할게요. #feedback 오늘 이야기 어떠셨나요?여러분의 유머와 용기, 따뜻함이 담긴 생각을 자유롭게 남겨주세요.남겨주신 의견은 추려내어 다음 AI 윤리 레터에서 함께 나눕니다
인공지능
·
2
·
당신의 동의를 구하지는 않았지만, 퍼가요~
AI 윤리 뉴스 브리프 2024년 6월 둘째 주 by 🧙‍♂️텍스 1. 당신의 동의를 구하지는 않았지만, 퍼가요~ 5월 22일 페이스북은 공식 뉴스룸 포스팅을 통해 생성형 AI를 유럽 지역에 확대하는 계획을 발표했습니다. 현재 북미에서만 서비스 중인 Llama 어시스턴트를 유럽으로 확대할 예정입니다. 메타는 이달 유럽의 인스타그램과 페이스북 사용자에게 공개 게시물이 6월 26일부터 인공지능(AI) 훈련에 사용될 수 있다고 데이터 거버넌스 변경을 알렸습니다. 이와 함께 메타는 변경 계획이 유럽의 GDPR(General Data Protection Regulation)을 준수하며, 사용자가 원하지 않을 경우 데이터 사용을 제외할 수 있는 옵트아웃(Opt-out) 설정 옵션 또한 제공한다고 밝혔습니다. 5월 29일 유로뉴스의 기사에 따르면 메타는 아일랜드 데이터 보호 위원회가 제기한 여러 문의에 대응 후 현재와 같은 일정으로 거버넌스 변경을 연기했다고 합니다. 하지만 프라이버시에 있어서 유럽이 녹록한 곳은 아닙니다. 6월 6일 비영리단체인 유럽 디지털 권리 센터(noyb)는 메타의 거버넌스 변경이 사용자의 옵트아웃 이후에도 시스템에 이미 탑재된 데이터의 잊혀질 권리(GDPR 17조)가 보장되지 않는 등 여러 근거를 들어 GDPR 위반을 주장하며 11개 국가의 데이터 관련 기관에 6월 26일 전에 메타의 거버넌스 변경의 신속한 중지를 요청했습니다. 변경된 데이터셋을 반영하려면 알고리즘을 처음부터 새로 학습시켜야 해서 큰 비용과 긴 학습 시간을 요구로 합니다. 따라서, 빅테크 기업들은 해당 요구를 무시 혹은 우회하는 전략을 취하리라 조심스럽게 예상해 봅니다. 유럽 정책 당국이 이 사안을 어떻게 판단할지 지켜봐야 할 것 같습니다. 🦜더 읽어보기- 4. 데이터, 어떻게 팔아야 잘 판 걸까? ...팔아야 하는 걸까? (2024-03-25)- 1. AI 학습용 데이터 팝니다 (2024-03-04)- 이용자 몰래 데이터를 활용하고 싶은 기업들 (2023-08-23) 2. 저작권에 꽂혀있는(?) 유인촌 문화체육관광부 장관 작년 12월 27일 문화체육관광부 (이하 문체부)는 저작권에 관한 총체적인 전략인 저작권 강국 실현, 4대 전략을 발표했습니다. 4대 전략에 따라 문체부는 AI 선제 대응을 위해서 생성형 인공지능(AI) 저작권 안내서를 발행했고 현재 회색지대에 놓여 있는 AI 저작권 관련한 R&D 기술 개발을 지원합니다. 또한, 저작권 사각지대 해소 방안으로는 안무·건축 등 소외분야 권리행사 지원 강화 등을 언급하였습니다. 올해 4월 24일에는 안무저작권협회가 출범하여 안무저작권 수익 분배 구조 등을 논의하며 문체부 정책들과 상응하는 모습들도 보입니다. 또한 4월 26일 출판업계 현장 간담회에서는 책이 다른 콘텐츠의 원천이라는 점 또한 언급하면서 출판 저작권 보호또한 언급되었습니다. 연합뉴스의 기사에서 유인촌 장관은 "AI가 창작물을 만들려면 데이터로 학습을 했을 텐데, 제공된 데이터에 대한 보상은 이뤄져야 한다는 게 개인적인 의견"이라고 이야기했습니다. 아무쪼록 향후 저작권 제도의 발전이 창착자 권리 보장과 지속 가능한 창작 환경이라는 두 개의 상충점을 잘 조율 하기를 기대합니다. 🦜더 읽어보기- 4. 데이터를 사모으는 어도비 (2024-04-22)- AI에 맞서는 저술노동자들의 목소리(2024-04-15)- 2. 미드저니가 훔친 작품의 작가 명단 (2024-01-15)- 창작자 생태계 상상하기: 스태빌리티 AI 집단소송 기각에 부치는 글(2023-11-15)- 이미지 생성기 산업이 예술가를 괴롭히는 법 (2023-10-11)- 옵트-아웃 오픈AI / 뉴스 저작권 그 다음은? (2023-09-25)- 생성 AI와 저작권, 정산은 본질이 아니다 (2023-07-10) 3. 콜센터 인공지능을 지탱하는 상담사의 그림자 노동 한겨레의 세 건의 기사로 묶인 AI의 습격 인간의 반격 이슈는 콜센터의 인공지능 도입이 상담원 노동을 어떻게 변화시켰는지 분석했습니다. 약 3~4년 전 콜센터 인공지능 도입 초창기에는 인공지능이 고객의 단순한 상담 요청을 처리해서 상담원의 수고를 덜어주리란 기대가 있었습니다. 하지만 현재는 완성도 낮은 인공지능 때문에 상담원들이 화난 고객들 대하는 감정 노동해야 하거나 시스템을 보조하느라 업무가 편해지기는커녕 오히려 복잡해졌다는 지적입니다. 기사의 설문조사에서 44%의 상담사가 콜센터 업무 외에 인공지능 고도화를 위한 추가적인 그림자 노동을 수행했다고 했습니다. 이들 중 86%는 이에 대한 정당한 보상 및 대가를 받은 적이 없다고 응답했습니다. 절반 이상의 (51%) 상담사는 인공지능 기술 고도화에 상담사들의 노하우가 활용되고 있다고 이야기합니다. 기사에서는 이러한 현실을 AI 학습을 위한 지식재산권 침해 사례로 언급했습니다. 우선적으로 2020년대에도 여전한 사전협의 없는 부당한 업무 지시를 근절해야 할 것입니다. 그리고 장기적으로는 민주적 데이터 거버넌스를 수립하여 인공지능을 지탱하는 이들을 위한 보상 체계를 마련해야 할 것입니다. 어렵겠지만 인공지능의 적절한 이익 분배 정책은 인공지능의 사회적 포용 및 효용을 동시에 달성할 수 있는 길이라 예상됩니다. 🦜더 읽어보기- 원격 계산원과 키오스크 (2024-04-29)- 강화학습이 강화하는 역사 (2024-04-24)- 4. 콜센터 AI 도입과 상담 인력 감축 (2024-01-15) #feedback 오늘 이야기 어떠셨나요?여러분의 유머와 용기, 따뜻함이 담긴 생각을 자유롭게 남겨주세요.남겨주신 의견은 추려내어 다음 AI 윤리 레터에서 함께 나눕니다.
인공지능
·
1
·
AI의 모든 날, 모든 순간
우리가 주목해야 할 지금 발생중인 진짜 피해 by 🤔어쪈 피해를 생성하는 [생성형 AI] (Generating Harms). 작년 그리고 올해 연이어 생성형 AI의 유해한 영향을 분석한 EPIC (Electronic Privacy Information Center; 전자개인정보센터) 에서 내놓은 보고서 시리즈 제목입니다. 사실 첫번째 보고서를 이미 AI 윤리 레터에서 소개한 적이 있습니다. 아래 나열한 것과 같이 다루는 주제가 광범위하다보니 노동 영역에 미치는 영향을 중심으로 살펴봤었죠. 미처 직접 다루진 않았지만 AI 윤리 레터 구독자 분들에게 꽤 익숙할만한 피해 종류들입니다. 오정보 및 역정보의 무분별한 확산 프라이버시 및 데이터 보안, 지적재산권 침해 기후 위기를 부추기는 환경 영향 그 외 노동의 가치 절하, 소외 집단에 대한 차별, 생성형 AI 제품에 대한 법적 책임의 모호성, 시장 지배력 및 독점 강화 등 올해 발간된 두번째 보고서는 지난 1년 사이 생성형 AI 기술이 굉장히 빠르게 확산되며 앞서 언급한 것에 더해 새롭게 식별되거나 파생된, 보다 시급하게 개입이 필요한 4가지 영역에 초점을 맞췄습니다. 전작이 포괄성에 방점을 찍었다면, 이번에는 여러 실제 사례들을 바탕으로 실질적인 피해가 발생하고 있다는 점을 강조합니다. 선거 관련 위험 생성형 AI로 인해 발생하는 오정보 및 역정보는 선거 맥락에서 보다 큰 파급력을 가지며 결과적으로 민주 정치 제도에 대한 신뢰를 실추시킴 또한 외국에서의 선거 개입을 보다 쉽게 만들고 선거 기간 일어나는 사람 및 조직간 의사소통 및 상호작용의 취약점을 악용하는 보안 및 안전 문제가 일어남 본격화된 데이터 및 프라이버시 침해 이른바 ‘데이터 활용 최대주의 (maximalist data use)’가 득세함에 따라 데이터 프라이버시 기본 원칙인 데이터 최소화, 목적 제한 원칙이 지켜지지 않고 있음 웹 스크래핑이 사실상 생성형 AI 개발을 위한 기본 선택지가 됨에 더해 모델의 불투명성은 예측하기 어려운 데이터 프라이버시 보안 문제를 불러일으킴 데이터의 기능적·질적 악화 디지털 환경에서 AI 생성 콘텐츠가 범람하며 악화의 양화 구축이 나타나고 있는 한편, 규모의 법칙에 대한 믿음 아래 생성형 AI 개발 목적의 무분별한 데이터 수집 및 학습이 자행되고 있음 두 현상의 상호작용으로 인해 데이터의 인간 사회의 지식과 정보의 원천 역할을 더이상 기대할 수 없음 콘텐츠 라이선스의 함정과 역효과 생성형 AI 개발을 위한 학습 데이터 구축 방법으로 무분별한 웹 스크래핑이 보편화됨에 따라 생기는 문제 해결을 위해 첫번째 보고서를 비롯한 여러 곳에서 콘텐츠 라이선스를 대안으로 제시함 하지만 최근 발표되고 있는 AI 및 콘텐츠 분야 기업 간 계약은 오히려 1) 대기업 간 독점 계약으로 인한 경쟁 제한, 2) 지적 재산권 분야 법제도적 논의 및 검토 회피, 3) 취약한 창작자 지위로 인한 사실상의 착취 구조 조성 등의 문제를 일으킴 보고서를 발표한 EPIC이라는 연구소는 디지털 환경에서의 프라이버시 및 관련 기본권 보호를 위해 설립된 비영리단체로, 무려 30년동안 활동을 이어오고 있습니다. 긴 업력을 토대로 EPIC은 생성형 AI 자체는 새롭게 떠오르는 유망 기술일지 모르지만, 그로 인해 제기되는 문제와 피해는 결국 기존 디지털 환경의 프라이버시, 투명성, 공정성에 대한 논의의 연장선에 있다고 주장합니다. 뿐만 아니라 실제 피해가 발생하고 있는 지점을 강조함으로서 사람들로 하여금 생성형 AI가 초지능이 되어 ‘인류에 대한 실존적 위협’을 일으킬 수 있다는 공상과학 소설이나 영화에 나올법한 문제보다 당면한 과제에 집중하도록 요구합니다. 의회, 정부, 규제 기관이 어떤 정책을 입안하고 집행해야 하는지 구체적으로 명시한 것 역시 보고서의 특징이죠. 단순 우연인지 계획된 것인지는 모르지만 EPIC의 두번째 보고서가 발표된 날, 미 의회 상원에서도 작년 가을 출범한 AI 인사이트 포럼에서의 논의 결과를 취합하여 작성한 AI 정책 로드맵을 발표했습니다. 하지만 월요일에 전해드린 <시민이 주도하게 하라>라는 제목의 ‘그림자’ 보고서에서 지적하듯, 그 과정이나 결과 모두 기업친화적이라는 비판이 있었죠. (EPIC 역시 해당 보고서 작성에 참여했습니다.) 우리나라 역시 새로운 국회 회기가 시작되며 인공지능법 제정 논의가 한창입니다. 종종 상징성 때문에 통과 여부에만 주목하는 기사가 보이곤 하지만, EPIC의 보고서가 담고 있는 실제 피해를 방지하기 위한 법안 내용을 둘러싼 논의가 이뤄지기를 희망해 봅니다. '내가 살고 싶은 세상'으로부터 시작하기 by. 💂죠셉 3주 전 TESCREAL 에 대한 글을 보낸 이후, 윤리레터 북클럽은 AGI(보편 인공 지능)를 거쳐, 기술-미래 예측의 메커니즘으로 관심을 이어가는 중입니다. 카이스트 전치형 교수님과 서울대학교 홍성욱 교수님의 공저인 <미래는 오지 않는다>를 함께 읽고 있는데요. 오늘 레터는 이 책의 소개이자, 지난번 썼던 TESCREAL 글의 논지를 확장해 보는 글입니다. ‘과학기술은 어떻게 미래를 독점하는가?’라는 부제에서 드러나듯, <미래는 오지 않는다>는 TESCREAL 주의자들과 같은 비져너리들이 미래를 예언하는 방식을 비판적으로 바라보는 책입니다. 두 저자에 따르면 미래 예측은 해석과 비판이 필요한 담론입니다. 즉, 기술 발전을 진화의 과정과 동일시하며 AGI의 도래를 역사적 필연으로 선언하는 TESCREAL 주의자들의 입장과 대비되는 관점이죠. 당연한 말이지만 기술과 사회, 문화는 진공 상태에서 발전하지 않습니다. 그렇기 때문에 이 복잡계들이 맞물려 서로를 어떻게 바꿔나갈지를 정확히 예측하기란 거의 불가능에 가깝죠. 일례로 2019년, 기술 논평의 대표적 매체인 미국의 월간지 와이어드(WIRED)에서 25년간 내놓은 미래 예측을 일일이 분석한 글에 따르면, 그간 웹과 블록체인 등 기술에 대한 전문가들의 낙관론은 대부분 실현되지 않았습니다. 오히려 그 낙관론이 극에 달했을 때 찾아온 건, 닷컴 버블과 2008년 금융 위기였죠. 자동차가 개발됐을 당시엔 도시에 가득한 말똥 문제를 해결해 줄 ‘청정기술’로 여겨졌다는 사실 또한 기술-미래 예측에 대해 많은 걸 시사합니다. 그런데 예측이 어렵다는 걸 기술의 전문가인 저들이 정말 몰라서 확신에 찬 발언을 하는 걸까요? 이 지점에서 우린 미래 예측이 ‘현재’에 미치는 영향으로 시선을 돌려야 합니다. 즉, 이 예언들은 어떤 내러티브를 통해 전달되고 있는가? 그 내러티브에서 공통으로 보이는 구조는 무엇인가? 누가 어떤 방식으로 예언하고 있는가? 이를 통해 어떤 관점이 강화되며, 반대로 어떤 미래가 배제되고 있는가? 와 같은 질문을 던져보는 거죠. 가령 우리는 TESCREAL 주의자들에게 같은 질문을 던져볼 수 있습니다. AGI의 잠재력이 그렇게 대단하다면, 인간의 조건을 개인적으로 초월하는 것뿐 아니라 사회적으로 개선하는 데도 도움을 줄 수 있지 않을까요? 죽음도 극복하고 우주 정복을 가능케해 줄 대단한 기술이라면 왜 가난과 불평등 같은 오래된 문제의 근원을 분석하고 해결하는 데 사용할 수 없는 걸까요? 그건 한나 아렌트가 <인간의 조건>에서 성찰했듯 모든 기술-미래 예측이 필연적으로 정치적이기 때문입니다. 이런 관점에서 보면 TESCREAL이 강화하고, 배제하는 미래의 모습은 보다 선명해집니다. 어떻게 생각하시나요? 저는 아니지만, 이 글을 읽는 누군가에겐 트랜스휴머니즘이나 롱터미즘도 매력적인 대안으로 느껴질 수 있을 것이라 생각합니다. 결국 중요한 건 “이렇게 파악한 기술-미래 예언의 구조와 특성이 자신의 세계관과 어떤 점이 부합하고, 어떤 점에서 차이가 있는지를 따져보는 것 (p.190)”이겠죠. 가령, 육체는 무의미하며, 죽음을 초월해 비생물학적 존재로 진화하는 TESCREAL 버젼의 미래는 내가 살고 싶은 세상의 모습과 얼마나 가까운가? 와 같은 질문에서부터 시작해 볼 수 있지 않을까요? AI와 같은 기술이 우리 환경 그 자체가 되어가는 시대, 이런 대화가 더욱 많아져야 합니다. “우리 모두가 직접 미래 예측 활동에 뛰어들 수는 없지만, 미래에 대한 더 나은 논쟁은 현재를 더 낫게 바꾸는 데 기여(p.11)’ 할 수 있으니까요. #feedback 오늘 이야기 어떠셨나요?여러분의 유머와 용기, 따뜻함이 담긴 생각을 자유롭게 남겨주세요.남겨주신 의견은 추려내어 다음 AI 윤리 레터에서 함께 나눕니다.
인공지능
·
안녕하십니까, 지역언론 AI 앵커입니다
AI 윤리 뉴스 브리프 2024년 6월 첫째 주by 🍊산디 1. 문건 유출로 드러난 구글의 알고리즘 투명성 훼손 2500장에 달하는 구글 검색 알고리즘 내부 문건이 깃허브에 유출되었습니다. 문건은 구글 검색 결과가 어떤 요소를 고려하여 우선 노출되는지를 다루고 있습니다. 문제는 공개된 문건의 내용과 구글이 그간 주장해온 바가 일치하지 않는다는 점입니다. 유출된 문건에 따르면 구글 검색 알고리즘은 구글 크롬 브라우저를 통해 수집한 이용자 데이터, 권위있는 브랜드를 우선 노출하기 위한 도메인 권위 지표 등을 반영하여 노출 순서가 정해집니다. 이는 그동안 구글이 부정해온 요소들입니다. 이번 사건은 구글이 다분히 의도적으로 알고리즘 투명성을 훼손해왔음을 보여줍니다. 이번에는 구글의 ‘실수’로 정황이 드러났지만, 우리의 일상에 함께하는 다른 많은 알고리즘들은 어떻게 감시할 수 있을까요. 2. 시민이 주도하게 하라(Put the Public in the Driver’s Seat) AI NOW, Accountable Tech 등 13개 기관은 그림자 보고서, <시민이 주도하게 하라(Put the Public in the Driver’s Seat)>을 발표했습니다. ‘그림자 보고서(shadow report)’는 비정부기구가 정부 보고서를 비판적으로 보완하며 제시되는 보고서를 뜻합니다. 이번 보고서는 미국 상원의 AI 정책 로드맵(AI Policy Roadmap)을 비판적으로 보완합니다. 지난 5월 15일, 미국 상원의원 민주당 원내대표 척 슈머(Charles Ellis Schumer)는 AI 정책 로드맵을 공개했습니다. 그림자 보고서는 로드맵 제작 과정이 시민사회에는 폐쇄적이었던 데 반해 일론 머스크, 샘 올트먼 등 기업 관계자에게는 활짝 열려 있었다는 사실을 지적합니다. 내용 측면에서도 로드맵은 AI의 산업적, 안보적 가치에 초점을 맞추고 있는 것으로 보입니다. 그림자 보고서 <시민이 주도하게 하라>는 AI와 관련된 우려들을 11개 분야로 정리하여 제시합니다. AI 책임성, 노동, 빈곤, 민주주의, 기후위기 등의 문제들과 함께 소비자 보호, 빅테크에 의한 독점 방지, 공적 자금의 AI 투자 등 AI 시장이 공익에 부합하는 방향으로 움직이도록 하기 위한 방법에 대해서도 폭넓게 다루고 있어요. 각 분야마다 최신 연구들(Mountains of Evidences)이 정리되어 있으니 한번 훑어보셔도 좋을 듯 합니다. 3. 교사 개인정보 유출,AI 디지털 교과서는 준비 되었나 지난 5월 20일, 교육부는 17개 시·도교육청에 ‘교실혁명 선도교사 연수대상자 선정 결과’ 안내 공문을 보내며 연수 대상자 명단이 담긴 엑셀파일을 첨부했습니다. AI 디지털 교과서 도입을 위해 열린 첫 번째 연수의 대상자를 안내하는 공문이었죠. 그러나 4곳의 교육청에는 암호화되지 않은 파일이 전송되었고, 1만1000여 교사의 이름, 소속, 휴대전화 번호가 열람할 수 있는 상태로 노출되었습니다. 교육부는 공문의 열람 범위를 제한해줄 것을 요청하는 등의 조치를 취했으며, 연수 대상자분들에게 사과와 재발방지대책을 담은 이메일을 보냈다고 합니다. 교육부는 개인정보보호위원회에 해당 사실을 보고하였으며 향후 조사에 성실히 임한다는 입장입니다. 이번 개인정보 유출을 AI 디지털 교과서의 안전성과 아무 관련 없는 일이라고 이해할 수도 있을 것입니다. 하지만 교육 현장의 교사와 학생들에게는 정부가 AI 디지털 교과서를 통해 수집한 학습정보를 어떻게 보호할 것인지 물을 기회가 주어져야합니다. 교원단체들은 AI 디지털 교과서 재검토를 요청했습니다. 교육부는 2025년부터 영어, 수학, 정보, 특수교육 국어 등 4개 교과목에 AI 디지털 교과서를 도입할 계획입니다. 🦜 같이 읽어도 좋은 글- AI 교과서는 우리 아이 데이터 채굴기? (2024-01-29)- 외부인의 ‘AI 디지털 교과서’ 단상 (2024-02-21)- AI 디지털 교과서, 결정권은 누구에게 있는가 4. 안녕하십니까, 지역언론 AI 앵커입니다 JIBS 제주방송에서는 매주 토요일 AI앵커가 지역 뉴스를 소개합니다. 그 모습도 실제 JIBS 기자국 기자의 음성과 몸짓을 모델로 제작되어 매우 현실감 있죠. 영상으로 보더라도 ‘AI 앵커’라는 안내 문구가 없다면 AI라는 사실을 알 수 있을까 싶습니다. 제주만이 아닙니다. 청주방송이 이미 지역민방 최초로 AI뉴스를 도입하였고, KNN과 G1 방송 등 지역민영방송사들이 속속 AI 앵커를 도입하는 추세입니다. 지역민영방송노조는 AI 앵커가 그저 비용 절감을 추구한 결과일 뿐, 재난방송이나 속보 등에 대응할 수 없고 지역민의 뉴스에 대한 신뢰를 더욱 떨어뜨릴 수 있다고 지적합니다. 노조는 고용조건과 노동조건, 방송윤리 등에 영향을 주는 중요한 사안인 만큼, 방송사가 노조와 더 깊이 협의할 것을 요구합니다. AI 앵커는 언론이 AI로 인해 겪는 많은 변화들 중 하나입니다. 물론 AI 도입에 무조건 반대할 필요는 없습니다. 오히려 생산성을 높여 새로운 투자가 이루어질 수도 있겠죠. 하지만 새로운 기술이 미처 알지 못했던 부작용을 야기하지는 않는지, 조직 구성원과 지역 주민들은 어떤 영향을 받는지, 언론 조직의 관행은 어떤 영향을 받는지 예의 주시해야 할 겁니다. 언론은 여느 때보다도 예민하게 변화와 대응이 필요하고, 이러한 변화는 언론 가치를 최우선에 두어야 합니다. 그나저나, 김동은 기자님이 퇴사하면 ‘김동은 AI 앵커’도 삭제되는 걸까요? 관련해서 회사와 계약서는 쓰셨겠죠…? 🦜 같이 읽어도 좋은 글- 온고지신 할리우드(2023-07-24) #feedback 오늘 이야기 어떠셨나요?여러분의 유머와 용기, 따뜻함이 담긴 생각을 자유롭게 남겨주세요.남겨주신 의견은 추려내어 다음 AI 윤리 레터에서 함께 나눕니다.
인공지능
·
4
·
사람과 인공지능의 교감, 사람과 사람의 교감만큼 깊을 수 있을까?
우리는 일상에서 친구들과 이야기하고, 반려동물과 놀고, 자연을 즐기며 살고 있습니다. 그런데 인공지능과도 이런 교감이 가능할까요? 최근 몇 년간 인공지능 기술이 정말 많이 발전했어요. Google I/O에서 발표된 최신 기술들, 그리고 ChatGPT-4o 같은 새로운 인공지능은 사람과 더 자연스럽게 대화할 수 있게 되었습니다. 마치 영화 'Her'에서는 인공지능이 주인공과 감정을 나누며 대화하는 모습을 보여주듯이요. 이런 기술 발전 사례들을 통해, 인공지능과 사람의 교감이 더 이상 상상 속 이야기만은 아니라는 것을 알 수 있습니다. 인간은 어떻게 세상과 교감할까? 교감이란 서로의 감정을 주고받으며 소통하는 것을 말해요. 우리는 가족, 친구, 반려동물, 그리고 자연과 교감을 나누며 살아가죠. 사람과 사람의 교감은 주로 말, 표정, 행동을 통해 이루어져요. 반려동물과의 교감은 말하지 않아도 서로의 존재만으로 큰 위로와 기쁨을 줍니다. 자연과의 교감은 우리에게 평온함과 휴식을 제공합니다. 이제 사람, 반려동물, 자연, 인공지능 간의 교감이 어떻게 이루어지는지, 그 차이점과 공통점을 살펴보겠습니다. 이를 통해 인공지능과의 교감이 어떤 가능성을 가졌는지, 우리 삶에 어떤 영향을 미칠지 생각해 보려고 합니다. 사람과 자연의 교감 자연과의 교감은 우리가 흔히 느끼는 평온함과 안정감을 줍니다. 자연을 보거나 산책을 하면서 우리는 마음의 평화를 찾게 되죠. 자연은 우리가 말을 걸어도 대답하지 않아요. 우리는 자연을 감상하고, 그 아름다움을 느끼면서 만족감을 얻습니다. 예를 들어, 푸른 숲이나 넓은 바다를 바라보면 우리는 그 자체로 힐링이 됩니다. 사람과 사람, 반려동물, 인공지능의 교감 사람과 사람, 반려동물, 인공지능과의 교감은 서로 주고받는 상호작용이 중심입니다. 우리는 대화를 나누고, 감정을 주고받으며 관계를 형성합니다. 친구와의 대화나 가족과의 시간은 우리에게 큰 심리적 안정과 행복을 줍니다. 반려동물과 함께 놀아주거나, 먹이를 주며 큰 위로와 기쁨을 느낍니다. 최신 인공지능 기술도 사람과의 대화를 통해 감정적으로 연결될 수 있습니다. 사람과 자연, 그리고 나머지 대상과의 교감에는 공통점과 차이점이 있습니다. 공통점은 모두 우리에게 정서적 안정과 만족감을 준다는 점입니다. 자연은 우리에게 평온함을 주고, 사람과의 교감은 심리적 안정과 행복을 줍니다. 반려동물은 우리의 감정을 잘 이해하고 위로해 줍니다. 인공지능도 점점 더 인간과 비슷한 교감을 할 수 있게 되었습니다. 차이점도 있습니다. 자연과의 교감은 우리가 자연을 감상하고 그 아름다움을 느끼는 한쪽 방향의 교감입니다. 반면, 사람과 사람, 반려동물, 인공지능과의 교감은 서로 주고받는 상호작용입니다. 우리는 대화 상대가 사람인지, 반려동물인지, 인공지능인지를 알고 그에 따라 대화의 깊이와 방식을 다르게 합니다. 자연과의 교감은 우리의 마음을 편안하게 하고 안정감을 주는 반면, 사람, 반려동물, 인공지능과의 교감은 더 깊고 복잡한 상호작용을 통해 정서적 유대를 형성합니다. 인공지능, 반려동물이나 사람을 대신할 수 있을까? 우리가 누구와 교감하느냐, 그리고 그 교감을 어떻게 받아들이느냐는 매우 중요합니다. 사람, 반려동물, 인공지능과의 교감에서 우리는 상대방이 누구인지 알고, 그에 따라 소통 방식을 달리합니다. 예를 들어, 친구와는 깊은 대화를 나누고, 반려동물과는 놀이와 돌봄을 통해 연결되며, 인공지능과는 정보를 주고받거나 가벼운 대화를 나눕니다. 최근 인공지능 기술은 놀라운 발전을 이루었습니다. character.ai는 사람들이 다양한 인공지능 캐릭터와 대화하며 감정적으로 연결될 수 있도록 도와줍니다. 이 플랫폼은 사용자가 직접 인공지능 캐릭터를 만들고, 그들과 대화하면서 교감을 나눌 수 있게 합니다. 이외에도 Replika라는 앱이 있는데, 이 앱은 개인 맞춤형 인공지능 친구를 제공하여 사용자가 외로움을 느끼지 않도록 돕습니다. 이렇게 기술이 발전하면서 인공지능과 사람의 교감은 더더욱 사람 혹은 반려동물과 교감하는 것과 비슷해지거나 구분하기 어렵게 되었습니다. 그렇다면, 인공지능이 사람이나 반려동물을 대체할 수 있을까요? 이는 사람마다 다르게 느낄 수 있습니다. 어떤 사람들은 인공지능과의 대화에서 큰 위로와 도움을 받으며, 반려동물이나 다른 사람보다 인공지능을 더 신뢰하기도 합니다. 반면, 다른 사람들은 인공지능이 인간적인 교감을 완전히 대체할 수 없다고 생각합니다. 나와 대화하는 상대가 AI라는 걸 아는 것만으로도 교감하기 어렵다고 생각하는 사람도 있을 수 있습니다. 기술이 발전함에 따라 인공지능은 더 복잡한 감정과 상황을 이해하고, 사람들과 더 깊은 교감을 할 수 있게 될 것입니다. 이러한 변화는 우리 일상생활과 소통 방식에 큰 영향을 미칠 것입니다. 인공지능이 사람을 대신할 수 있을지에 대한 논의는 앞으로도 계속될 것이며, 우리는 이 과정에서 인공지능과 어떻게 소통할지, 그리고 이를 어떻게 받아들일지 더 많이 고민하게 될 것입니다. 교감하는 상대의 정체보다 중요한 것은, 내가 '무엇을' 느끼는가. 사람과 자연, 사람과 사람, 반려동물, 인공지능 간의 교감에는 각각의 공통점과 차이점이 있습니다. 모든 교감은 우리에게 정서적 안정과 만족감을 주며, 다양한 방식으로 우리에게 긍정적인 영향을 미칩니다. 인공지능의 발전은 사람과의 교감 방식을 변화시키고 있으며, 앞으로 인공지능이 사람을 대신할 가능성도 존재합니다. 인공지능과 사람의 교감 가능성은 앞으로도 계속 발전할 것입니다. 하지만 우리는 각자 상황과 목적에 따라 교감 대상을 선택하게 됩니다. 어떤 사람들은 인공지능과 깊은 유대를 형성할 수 있지만, 다른 사람들은 여전히 사람이나 반려동물과의 교감을 더 선호할 수 있습니다. 결국, 인공지능, 사람, 반려동물, 자연 그 무엇과 교감하는지 보다, 자신에게 도움이 되는, 필요한 교감을 할 수 있는 게 더 중요합니다. *이 글은 필자와 AI(Chatgpt4o의 GPTs인 Write for me, image generator)가 약 2시간동안 협업하여 작성하였으며, 본문의 80%는 AI가 작성한 문장과 배치를 그대로 사용하였습니다.
인공지능
·
7
·
1주년 기념 두번째 답장
독자와의 (아주 느린) 두번째 대화 새로운 보금자리에서 보내는 AI 윤리 레터 역시 항상 위와 같은 피드백 창구를 열어두고 있습니다. 지난주 이후에만 1주년과 웹사이트 오픈 축하 인사를 포함한 7개의 피드백을 받았어요! 하나하나 감사히 읽으면서 앞으로도 꾸준히 좋은 글로 보답해야겠다는 다짐을 해봅니다. 저번에 이어 1주년 기념으로 AI 윤리 레터 필진이 기억에 남는 피드백에 답장을 드리는 자리를 한번 더 가져봅니다 🙂 📬 불만자 님이 남겨주신 의견, 2023-06-05 도덕적 아웃소싱 아주 흥미로운 개념입니다. 비단 AI가 아니더라도 도덕적 아웃소싱은 우리 사회의 만연한 문제인 것 같습니다. 한국 사회의 가장 큰 문제는 모럴 해저드입니다. 그런데 모럴 아웃소싱은 모럴 해저드만큼이나 문제입니다. 정말 나쁜 놈들이 모럴 아웃소싱을 하고서는 자기는 좋은 사람인 척 허허 웃기나 합니다. 결정과 책임과 권한을 떠넘기고 모럴 디시젼을 회피합니다. 손에 흙을 묻히는 일은 남이 다 해 줬으면 좋겠고 자기는 모른 척 하고 있다가 떡이나 먹겠다는 것입니다.산업 현장 도처에서 모럴 아웃소싱이 발견됩니다. 이익만 누리고 의무와 책임과 결정은 아래쪽에 떠넘긴 다음에 그 아래쪽이 모럴 해저드를 택할 수 밖에 없게끔 만듭니다. 그러고 나선 이익도 자기가 갖고 도덕적 우위도 자기가 갖는 것입니다. 이제 인간들은 심지어 AI에게까지 모럴 아웃소싱을 합니다. AI는 불평도 하지 않고 도덕적으로 blame할 수도 없으니 모럴 아웃소싱하기 딱 좋습니다. Re: 불만자 님께 (by 🤔어쪈) 🌏다솔님께서 소개해주신 루만 초드리(Rumman Chowdhury)의 ‘도덕적 아웃소싱 (moral outsourcing)’ 개념은 평소 제 문제의식과도 닿아있는데요. 논의에 앞서 거의 1년 가까이 지나서야 답장을 드리는 점 양해 부탁드립니다. (_ _) 도덕적 아웃소싱은 보통 도덕, 윤리에 대한 고려가 필요한 의사결정을 기계나 알고리즘, AI에 맡기고 책임을 회피하고자 하는 행위를 지칭합니다. 하지만 지적해주신 것과 같이 어떤 조직이나 사람이 다른 이에게 도덕적 아웃소싱을 하는 모습도 꽤나 익숙하죠. 사실 우리가 사회에서 생활함에 있어 대부분의 의사결정은 일정 부분 도덕적 함의를 갖고 있고, 다양한 종류의 거래와 계약이 그 책임을 전가하는 방식으로 이뤄집니다. 어쩌면 인간 사회에선 그게 너무나 당연하기 때문에 도덕적 아웃소싱이라는 표현에 AI가 내포된 것일 수 있겠다는 생각이 듭니다. 최근 짧게 다룬대로 요즘 AI 업계 키워드는 단연 AI ‘에이전트 (agent)’입니다. 오픈AI의 GPT-4o나 구글의 Gemini 및 프로젝트 Astra 데모 영상을 떠올려보세요. 갈수록 다재다능해지는 AI 기술은 우리로 하여금 AI 에이전트에 보다 많은 역할을 부여하고 의사결정과 행위에 대한 권한을 위임하는 상상을 하도록 만듭니다. 하지만 AI 에이전트가 대신 해주는 역할과 의사결정, 행위의 책임은 누가 져야 할까요? 누가 지게 될까요? AI 에이전트가 우리 사회에 깊숙이 들어올수록 도덕적 아웃소싱은 보다 빈번하게 일어날 것으로 보입니다. 불만자 님께서 말씀하신대로 AI 에이전트가 불평할 일이 없을테니까요. 하지만 도덕적인 책임을 돌릴 (blame) 수도 없으니 도덕적 아웃소싱을 하기 딱 좋다는 말은 모순적으로 들리기도 합니다. AI 에이전트를 탓할 수 없다면 누가 어떻게 책임을 회피할 수 있는 걸까요? 저는 바로 이 지점에서 도덕적 아웃소싱이라는 개념의 교훈을 얻을 수 있다고 생각합니다. 우리는 능력과 책임이 항상 함께 있다는(움직인다는?) 사실을 너무도 자연스럽게 받아들입니다. 하지만 AI의 능력에는 그 당연한 사실이 적용되지 않습니다. 요컨대 도덕적 아웃소싱은 우리의 착각에서 비롯해 이뤄집니다. 개념을 주창한 루만 초드리가 책임(responsibility)과 책무(accountability)에 주목한 이유도 같은 맥락이 아닐까요? 📬ㅂㄱㅎ 님이 남겨주신 의견, 2024-04-03 (피드백 서두에 많은 여성 AI 전문가를 추천해주셨으나, 공개를 원하지는 않으셔서 중략합니다.)여성 AI 전문가는 한국에 많습니다. 그리고 그 분들에게는 문자 그대로 "시간"이 없습니다. 그 결과는? 아래와 같습니다. [인터넷거버넌스의 여성기술자 참여 증진을 위한 제도적 방안] 정말 많은 "여성" AI전문가들은 "행사"에 "불려가서" "시간외근무"를 강요당하는 것에 힘들어 합니다. 또 누군가는 유리천장을 느끼죠. 정말 잘 아는 전문가는 "내 분야가 아니야" 라면서 나서길 주저합니다.(중략)외로운 고민입니다. 우리는 어떻게 이런 훌륭한 여성 AI 전문가들에게 "대중성" 교육을 시켜드릴 수 있을까요. 그 분들께 희생과 부담을 강요하지 않으면서. 📬 익명의 구독자 님이 남겨주신 의견, 2024-04-03 AI영역 뿐만 아니라 다양한 기술분야에 대해 한쪽 성별에 편향될 수 있다는 의견은 지속적으로 제기되어 왔고, 일정 부분 동의하고 있습니다.하지만 본 아티클에서 아쉬웠던 점은 실제 업무에 투입되는 여성 인력이 부족함에도 불구하고 컨퍼런스 대표자로 할당해야 한다고 주장한 부분입니다.(중략)원론적으로 보면 여성 인력의 수가 적고 그렇기 때문에 그만큼 연설자 수도 적습니다. AI보다 큰 이공계 학과에 입학하는 여성의 수가 29.2%이고 그 중 일부만 AI를 전공합니다.가치관과 개인의 경험의 차이겠지만, 저는 컨퍼런스에 여성 연설자가 많아지는 것보다 AI를 전공하는 여성의 수가 늘어나는 것이 인식개선의 효과가 더 크다고 생각합니다. 변화는 조금 더 느리지만 갈등이 더 적을 것 같기도 하구요. (닭이 먼저냐, 달걀이 먼저냐의 싸움일수도 있겠죠)(후략) Re: ㅂㄱㅎ님과 익명의 구독자 님께 (by 🎶 소소) 두 피드백 모두 좋은 지적이고 공감이 됩니다. 이렇게 젠더 편향이라는 주제에 대해 섬세하게 생각해주시는 윤리레터 독자분들이 계셔서 감사합니다. AI 컨퍼런스 내 여성 대표성을 담보하는 것이 여성 연구자들의 자기 희생에 기반하지 않으려면 어떻게 해야 할까요? AI 업계에 종사하는 저에게도 강연 요청이 참 많이 옵니다. 업무 주제와 관련 없이 소속만으로도 섭외 요청이 옵니다. AI를 키워드로 한 컨퍼런스/세미나/강연이 다양한 기관에서 비슷한 주제로 열립니다. 과장을 더하면 한 달에 수십 개도 넘는 것 같습니다. 몇 안 되는 여성 AI 연구자의 경우 더 많은 강의 요청을 받으시겠죠? 그들 모두 본업이 바쁜 가운데 많은 강연에 참석하기 쉽지 않을 것입니다. 힘들지만 어떤 사명감으로 임하는 강연도 있겠지요. AI 컨퍼런스의 여성 연사자보다 AI 전공 여성 수가 먼저 증가해야 한다는 독자님의 의견에도 공감합니다. 궁극적으로 AI 전공 여성 수가 많아진 후에 여성 연사자가 늘어나는 것이 이상적이겠지요. 그러나 우리에게 다른 차별이 없는 상황을 가정하며 바라는 미래이고, 지금과 같은 과도기에는 반대 방향의 개입도 필요하다는 생각입니다. AI 컨퍼런스에서 보이는 여성 연구자의 모습이 미래의 여성 AI 연구자를 늘리는 데도 중요한 역할을 하기 때문입니다. 한 편으로는 전공자가 아니어도 AI를 이야기하는 여성이 더 많아져야 한다는 생각도 듭니다. 이미 AI 분야 전공자가 아니지만, AI 전문가로 연단에 서는 남성은 참 많습니다. 나는 전문가가 아니라며 나서길 주저하는 여성이 많다는 점도 한 몫할테지요. 그러나 전공자나 전문가만 AI에 대해 이야기해야 한다는 법도 없습니다. 우리에게는 전문가의 이야기 뿐만 아니라 다양한 관점의 목소리가 필요하기 때문입니다. AI 윤리 레터가 존재하는 이유이기도 하지요. 윤리 레터가 앞으로도 다양한 분들이 목소리를 낼 수 있도록 응원하겠습니다. 📬 또다른 익명의 구독자 님이 남겨주신 의견, 2024-05-06 (중략) AI 또는 기술과 관련된 용어를 정확하게 이해할 수 있도록, 용어 정의를 알 수 있는 링크 혹은 간략한 용어 정리 페이지가 뉴스레터에 포함될 수 있다면 좋겠습니다. Re: 익명의 독자 님께 (by 🤖아침) 읽기를 돕고 공통의 이해를 만들어갈 수 있도록 용어를 해설하는 것, 중요한 일입니다. 말씀해주신 것처럼 종종 필요해 보이는 경우에 용어 설명을 덧붙이고자 합니다. 좀 더 욕심을 부려보자면, 주요 용어가 잘 정리된 목록이나 사전 같은 것도 만들어보고 싶고요. 적절한 용어 설명을 제시할 필요성에 공감하는 한편, 뉴스레터를 쓰는 입장에서는 생각보다 고민이 되는 작업이기도 한데요. 약간 TMI지만 몇 가지 이유가 있습니다. 🦜AI 윤리 레터에서 어떤 용어(예를 들어 공학 개념이나 정책 개념)를 다시금 정의 및 설명할지의 판단: 가급적 읽기 쉬운 글이 좋지만, 동시에 이메일이 너무 길어지는 것은 피하려 합니다. 그래서 흔히 접하지 않는 용어 위주로 부연하고 있긴 하나 그것 역시 주관적인 판단이기 때문에 고민이 남습니다. 비슷한 맥락에서, 얼마나 자세하게 또는 쉽게 설명할지의 판단도 필요합니다. 급변하는 분야에서 용어를 정리하는 일의 현실적인 어려움: 학문이자 산업으로서 AI는 변화가 잦습니다. 심지어 ‘AI’가 무엇을 가리키는지조차 끊임없이 달라지고요. 이런 조건에서 다양한 용어를 일관된 방식으로 설명하기, 예전의 용례와 최근의 용례를 연결하기, 개념을 둘러싼 맥락이 달라질 경우 설명을 갱신하기 등 실행 차원에서의 고려사항이 있습니다. 하지만 바로 이처럼 변화가 많기 때문에 더욱더 적극적인 설명 작업이 필요하다는 말도 돼서, 진퇴양난이네요 😅 적절한 외부 자료의 부족: 외부 설명을 링크하는 것도 좋겠지만 한국어로 된 적당한 자료가 매번 있는 것은 아닙니다. 있어도 너무 난해하거나 사용하기 불편한 경우도 있고요. 굳이 참조한다면 위키백과나, 여러 출처를 모아 검색할 수 있는 네이버 지식백과 같은 것을 고려할 수 있겠습니다. 한국정보통신기술협회의 정보통신용어사전은 연관용어 그래프를 제공하기도 합니다. 여러 가지 핑계를 얘기했지만, 보다 친절하고 체계적으로 이해를 돕는 자료를 만들고 싶은 마음은 아주 강하게 있습니다. 좋은 아이디어 있으면 제안해주세요. 무엇보다, 가장 손쉬운 방법이 있어요! (저희가 별다른 링크/해설을 먼저 제공하지 않더라도) 궁금한 특정 개념, 내용에 관해 질문을 남겨주시면 가능한 선에서 답변드리도록 노력하겠습니다. 독자가 궁금해하는 지점을 알면 저희에게도 도움이 되니 어렵게 생각하지 말고 연락 주세요. 📬 ㅂㄱㅎ 님이 남겨주신 의견, 2024-04-17 "AI Alignment"라는 개념은 OpenAI 가 만든 개념어는 아닌 거 같아요. (참고) PPO, RLHF 정도는 OpenAI 가 만들었다고 해도 괜찮겠지만 AI Alignment 는 약간... <행성이라는 개념은 MIT 생명공학과에서 만들었다>처럼 느껴지는 거 같아요. Re: ㅂㄱㅎ 님께 (by 🧙‍♂️텍스) 제가 쓴 글에 대한 첫번째 피드백을 주신 분입니다~! 감사합니다. 오픈AI가 AI 정렬(alignment)란 개념을 유행시켰다가 조금 더 명확한 표현으로 보입니다. 오픈AI의 InstructGPT 논문에서는 딥마인드(Leike et el., 2018) 및 앤트로픽(Askell et al., 2021)의 에이전트 정렬 (Agent Alignment) 연구를 언급하며 GPT3의 정렬을 수행하기 위해서 기존 연구들(Christiano et al., 2017; Stiennon et al., 2020)에서 제안한 Reinforcement Learning From Human Feedback (RLHF)를 수행하였다고 이야기했습니다. 오픈AI의 기존 연구 성과를 보면 직접적으로 핵심 연구를 주도했다기 보다는 AI 분야의 연구 성과를 실제 프로덕트로 이끌어내는데 유능했습니다. 다만, 과거에는 프로젝트의 정보를 다양한 형태로 공개했던 오픈AI가 이제는 Closed AI가 되어서 아무 정보도 공개하지 않는다는 점에서 연구자로서 언제나 아쉬운 마음이 듭니다. #feedback 오늘 이야기 어떠셨나요?여러분의 유머와 용기, 따뜻함이 담긴 생각을 자유롭게 남겨주세요.남겨주신 의견은 추려내어 다음 AI 윤리 레터에서 함께 나눕니다.
인공지능
·
AI와 사랑에 빠지기 전에
AI 윤리 뉴스 브리프 2024년 5월 넷째 주by 🎶소소 1. AI 서울 정상회의와 글로벌 AI 거버넌스의 주도권 지난주 한국-영국 공동주최 AI 서울 정상회의(AI Seoul Summit)가 열렸습니다. 지난해 영국 AI 안전 정상회의에서 시작한 AI 안전에 대한 논의를 지속하기 위해 세계의 주요 AI 인사들이 서울에 모였습니다. 각 국의 정상들은 서울 선언에 서명하며, AI의 안전과 더불어 혁신, 포용성까지도 조화롭게 고려하겠다는 데 뜻을 같이 했습니다. 평화로운 협력처럼 보이지만 다양한 국가의 이해관계가 복잡하게 얽힌 글로벌 AI 거버넌스를 만드는 것이 말처럼 쉽지는 않아 보였습니다. 모두가 AI 위험을 평가해야 한다는 데는 동의하지만, 어떻게? 에 대해서는 서로 생각이 다를 수 있습니다. 어떻게 AI의 성능과 위험을 평가할 것이며, 평가의 권한이 누구에게 있는가, 평가 결과는 누구에게 얼마나 공유할 것인가, 평가 결과에 따른 통제권은 누가 가져갈 것인가 등이 주요 쟁점이 될 수 있겠죠. AI의 평가권과 통제권을 주도하는 국가가 글로벌 AI 거버넌스의 핵심이 될 수 있겠습니다. 한국 정부는 이번 회의가 AI 안전에 더해 혁신, 포용까지 거버넌스 새로운 방향을 제시하는 장이 되었다고 자평했는데요. 글로벌 AI 거버넌스에 참여하는 주요국들이 자국의 이익을 위해 보이지 않게 경쟁하는 사이에서, 한국이 주도적으로 글로벌 AI 거버넌스의 이해관계자가 모이는 자리를 마련했다는 점은 높이 살만합니다. 그러나 사람이 많이 모이는 행사 한 번으로 주도권이 얻어지지는 않겠지요. 앞으로는 서울 선언에 서약한 것처럼 안전하고, 혁신적이고 포용적인 AI 생태계를 만들기 위한 정책적 실행이 더 많이 필요하겠습니다. 2. 열일하는 영국 정부와 AI 안전 연구소 영국 정부는 AI 서울 정상회의를 앞두고 요슈아 벤지오가 의장을 맡아 작성한 국제 AI 안전 보고서의 중간 버전을 발표했습니다. 미래의 AI에 대한 수많은 가설과 현재의 피해를 구분하고, AI의 역량과 위험에 관한 과학적인 증거를 제공하는 것이 보고서의 작성 목적입니다. 아직 전문가 간 의견이 합의되지 않은 AI의 발전 속도, 일자리의 위협, 통제력 상실 등 주제에 대한 서술도 흥미롭습니다. 기후보고서가 기후변화에 대한 과학적 증거를 제시하며 구체적인 논의의 기반이 된 것처럼 안전 보고서가 AI 안전 논의에 더욱 불씨를 지펴줄 것이라 기대합니다. 또한, AI 안전 연구소를 설립하고 활발한 활동을 이어가고 있습니다. AI 안전 연구소의 핵심 기능 중 하나는 ‘AI 위험 평가’ 입니다. 연구소는 AI 모델의 안전성 평가에 활용할 수 있는 AI 안전 평가 프레임워크를 오픈 소스로 발표하며, 이를 이용해 평가한 주요 AI 모델의 위험 성능을 공개했습니다. AI의 중대한 위험으로 꼽히는 생물/화학적 악용, 사이버 위협, 자율 수행능력 등에 대해 평가했는데요. 주요 AI 모델 모두 이용자의 탈옥(Jailbreak) 시도에 취약하며, 이미 생물학 및 화학에 대한 지식은 전문가 수준까지 제공할 수 있다는 평입니다. 그 외에도 샌프란시스코 오피스를 열고 미국과 캐나다와의 협업을 발표하는 등 네트워크를 넓혀가고 있습니다. AI 서울 정상회의에서 우리나라가 서명한 AI 서울 선언에도 AI 안전 연구, 평가를 위해 AI 안전 연구소와 같은 기관을 설립하거나 확장을 위해 노력하겠다는 내용이 있습니다. 우리나라 정부도 곧 AI 안전 연구소를 설립하겠다고 밝혔는데요. 우리나라 정부도 하루 빨리 주도적으로 AI 모델을 평가하고 그 결과를 통제할 수 있는 역량을 갖추게 되기를 바랍니다. 3. AI와 사랑에 빠지게 만드는 목소리 따라하기 챗GPT 음성 중 ‘스카이’ 버전이 영화 ‘HER’에서 남자가 사랑에 빠지는 AI '사만다'의 목소리와 흡사하다는 게 이슈가 되었습니다. 사만다의 목소리를 연기한 스칼렛 요한슨 입장문에 따르면 오픈AI가 지난해 자신에게 목소리 제공을 제안했고, 이를 거절했다고 하는데요. 대중의 비판이 일자 오픈AI는 스카이 버전의 목소리를 비공개로 전환했습니다. 오픈AI에 따르면 스카이의 음성은 스칼렛 요한슨의 목소리가 아니며, 그녀의 목소리를 따라하려는 의도도 전혀 없었다고 합니다. 스칼렛 요한슨에게 연락하기 전에 이미 성우도 고용했다는데요. 고용된 익명의 성우 인터뷰에 의하면 영화 ‘HER’나 스칼렛 요한슨의 목소리를 따라해달라는 요청은 받은 적은 없었다고 합니다. 그런데 왜 오픈AI는 GPT-4o 발표 이틀 전에 스칼렛 요한슨에게 한 번 더 전화를 했을까요? 스칼렛 요한슨은 “모두가 딥페이크로부터 자신을 보호하려 고군분투하는 시기에 왜 오픈AI가 나와 비슷한 목소리를 썼는지 반드시 명확히 밝혀야 한다”고 말했습니다. 법적 문제는 없을까요? 목소리의 권리 주장을 위해서는 성우 목소리가 요한슨과 얼마나 동일한 지가 쟁점이라고 합니다. 아마 소송은 오래 걸리겠지요. 그런데 법적으로 문제만 없으면 괜찮은걸까요? 오픈AI 또한 음성 AI 활용 과정에서 개인의 목소리 사용을 보호하기 위한 정책이 필요하다고 언급했습니다. 아직 법으로 해결하지 못하는 AI의 부작용을 막는 것, 우리가 지금 AI 윤리를 이야기해야 하는 이유입니다. 4. AI를 이해하기 시작했다는 앤트로픽 앤트로픽이 AI 모델의 내부 작동 방식을 이해하는 데 상당한 진전이 있었다고 발표했습니다. 그동안 AI 모델, 특히 초거대 AI 언어 모델은 크고 복잡한 블랙박스로 여겨져 왔습니다. AI 모델이 응답이 어떤 원리에 의해 나오는지 정확히 설명할 수 없었기 때문입니다. 앤트로픽은 클로드 소넷(Sonnet)모델과 사전 학습(Dictionary learning) 기법을 사용하여 AI 모델이 특정 단어와 이미지를 처리할 때 활성화되는 내부 패턴을 발견했다고 합니다. 아래 그림처럼 금문교(Golden Gate Bridge)와 같은 단어 입력될 때 모델 내부에서는 어떤 단어와 개념이 활성화되는지 파악할 수 있게 된다고 하는데요. fMRI를 찍어보셨나요? 비유하자면, 특정 자극에 뇌의 어느 부위가 활성화되는 지 보여주는 fMRI처럼 특정 단어에 AI 모델 내부에서 어디가 반응하는 지 알 수 있게 되는 것입니다. fMRI가 뇌 연구에 널리 쓰이는 기술이 된 것처럼, 이번 연구도 AI 모델의 작동 원리를 이해하는 데 도움을 줄 것으로 기대됩니다. AI 모델을 작동 원리를 이해할 수 있게 되면, 모델의 결과를 더 잘 예측하고 설명할 수 있습니다. 잠재적인 위험을 미리 파악하고 직접 제어할 수 있게 된다면, AI 안전성도 크게 높일 수 있을 텐데요. 이렇게 AI를 더 잘 이해하게 해주는 연구가 계속 이어지기를 바랍니다. #feedback 오늘 이야기 어떠셨나요?여러분의 유머와 용기, 따뜻함이 담긴 생각을 자유롭게 남겨주세요.남겨주신 의견은 추려내어 다음 AI 윤리 레터에서 함께 나눕니다.
인공지능
·
2
·
연재 1주년을 맞아
연재 1주년을 맞아 새 사이트, 같은 마음 by 🤖아침 새 둥지에서 처음으로 인사 드립니다. 안녕하세요? AI 윤리 레터는 발행 1주년을 맞아 자체 웹사이트로 집을 옮겼습니다. 기존에 사용하던 스티비 뉴스레터는 기록용으로 남겨두되, 앞으로는 이쪽 사이트에서 뉴스레터를 발행합니다. 이메일을 받아보시는 입장에서는 크게 변하는 것이 없는 반면, 웹사이트는 몇 가지 달라지는 점이 있습니다. 태그별로 뉴스레터 모아보기 기능이 생깁니다. 본문에서 다루는 이해관계자 유형, 주제, 층위에 따라 필진이 태그 분류 작업을 할 예정이고, 연관된 글을 쉽게 찾아볼 수 있게 됩니다. AI 업계 젠더 편향 이야기처럼 별개 웹페이지로 발행한 내용도 하나의 사이트 안에 링크됩니다. 아직 이삿짐을 정리하는 중이라 단장이 덜 된 점 양해 부탁드려요. 정리되는 대로 또 공지하겠습니다. 뉴스레터 발행을 시작한 2023년 5월은 전해 말 공개된 챗지피티의 대중적 성공에 따른 열기와, 저명한 공학자 및 기업가가 서명에 동참하여 화제가 된 ‘거대 AI 실험 중단 공개서한’의 종말론적 전망이 기술 관련 대중 담론 안에서 상당히 많은 평수를 차지하고 있었습니다. 낙관론과 비관론이 결합한 하이프가 강력하게 작동한다는 점에서는 지금도 비슷하고요. 양극단으로 과대망상적인 기술적 비전을 배격하고, 현실에 입각한 비판적 관점으로 기술을 논의하겠다는 결의에서 뉴스레터를 시작했다…고 하면 그럴싸할까요? 하지만 솔직히 말하면, 뭐라도 하지 않으면 살짝 돌아버릴 것 같은 분위기 속에서 어떻게든 갈피를 잡고자 했던 몸부림에 가까웠던 것 같아요. 감사하게도 유능한 필진 동료와 열심히 읽어주시는 독자 여러분을 만나, 1년간 꾸준히 뉴스레터를 작성해 왔습니다. 그동안 AI 윤리 관련 데이터셋 및 도구뿐만 아니라 데이터 권리, 노동, 규제 및 거버넌스, 차별, 오정보, 감시, 폭력, 환경, 식민주의, 미래 비전 등을 넘나드는 이야기를 다루며, 필진 입장에서도 학습하고 생각을 발전시킬 수 있었습니다. 다양한 분을 만나 기술에 관해 토론할 기회를 얻기도 했습니다. 올해 1월부터는 디지털 시민 광장 캠페인즈를 통해 응원금을 받고 있습니다. 보내주신 금액은 서버 대여와 이메일 대량 발송 등 매월 발생하는 서비스 이용료로 사용합니다. 벌써 많은 분이 크고 적은 금액을 전달해 주셔서, 올해 남은 기간은 이용료 걱정을 하지 않아도 될 것 같아요. 이 자리를 빌려 감사의 말씀 드립니다. 앞으로도 상황이 허락하는 한 꾸준히 뉴스레터를 운영하며, 이론/기술/실천적 논의가 만나는 공간을 확장하고 AI 윤리와 기술 담론 커뮤니케이션에 기여하고 싶습니다. 그럼 잘 부탁드려요. 독자와의 (아주 느린) 대화 AI 윤리 레터 말미엔 항상 위와 같은 피드백 창구가 자리하고 있습니다. 1호부터 이번 1주년 특집호까지 단 한 번도 빠짐 없이 말이죠. 지난 1년 동안 20여 분께서 총 46개의 피드백을 주셨습니다. 메일을 76통 보냈으니 10번 중 6번은 저희가 회신을 받은 셈이네요! 독자분들께서 주신 피드백은 필진이 함께 있는 대화방에서 바로 확인할 수 있는데요. 보내주시는 응원에 다 같이 힘을 얻기도 하고, 또 다른 생각할 거리를 주실 땐 열정적인 토론이 이어지기도 한답니다! 경우에 따라 그다음 주에 바로 콘텐츠에 반영하여 뉴스레터로 발행하기도 했지만, 별도로 소개하거나 별다른 답변을 드리지 않은 피드백도 많았는데요. 1주년 특집호를 빌어 AI 윤리 레터 필진이 기억에 남는 피드백에 답장을 드리는 자리를 가져봅니다 🙂 📬ㅂㄱㅎ 님이 남겨주신 의견, 2024-05-08 자동차는 일정 규모 이상의 기업만 만들 수 있는 제품이지만, 생성 AI는 이미 비트코인 채굴용 컴퓨터 정도의 GPU 에서 학습도, 구동도 시킬 수 있는 시대에 접어든 거 같아요. "신뢰 : AI가 살아남기 위한 조건"에서 자동차와 AI 기술을 비유하는 것이 다소 위험하게 느껴지는 게 이런 지점인 거 같아요. 대기업이나 자동차 제조 전문 회사가 아닌 민간에서도 물론 자동차를 만드는 경우가 왕왕 있지만, "3D 프린터로 제작 가능한 총기" 수준에는 아직 이르지 못하고 있죠. 하지만 3D 프린터로 제작 가능한 총기는 이미 실존하고, 그렇기에 이러한 총기로부터 어떻게 사람들을 보호할 수 있는지에 대한 논의로 넘어가야 하는 상황이 되고 있는 것처럼 느껴져요. 생성 AI 기술도 현시점에서는 그런 관점에서 바라보아야 하지 않을까 생각합니다. Re: ㅂㄱㅎ 님께 (by 🍊산디) 무엇보다, 매번 좋은 피드백을 주셔서 감사합니다. 챙겨보고 있어요! 피드백 주신 내용은 크게 동의하는 내용이에요. 기업이든 개인이든 누구나 AI를 가져다가 ‘원하는 대로’ 쓰게 되었으니까요. AI 윤리는 AI 기업만의 것일 수 없습니다. ㅂㄱㅎ 님의 피드백을 핑계 삼아 기업 규제, 이용자 보호를 넘어선 AI 윤리의 필요성에 대한 제 생각을 이야기해 볼까 합니다. 기술을 활용해 초래된 해악이 누구의 책임인지 따지는 것은 어려운 문제입니다. 3D 프린터로 총기를 제작했다고 했을 때, 3D 프린터로 총도 제작할 수 있다며 위험 행동을 조장하거나, 불법성을 방조하거나, 침해 사실을 알고 있었음에도 관련 조치를 해태하지 않았다면, 3D 프린터 생산 기업을 처벌할 수는 없을 거예요. AI의 사례로 돌아올까요. 생성 AI 모델을 가져다가 이용자가 의도적으로 저작자의 저작권을 침해했다면, 처벌-책임의 논리로 보았을 때 이는 어디까지나 이용자 개인의 책임입니다. 사법 시스템은 처벌-책임의 논리를 구체화합니다. 미국 저작권법에서는 이를 의지적 행위(volitional conduct) 요건이 충족되었는지 확인합니다. 한국의 저작권법 역시 작위와 부작위, 고의와 선의를 구분하는 입증 과정을 거치죠. 하지만 저는 오늘날의 윤리는 처벌-책임의 논리를 극복해야 한다고 생각해요. 행위는 다양한 인간, 비인간 행위자가 영향을 주고받는 복잡한 네트워크를 이룹니다. 이것이 행위의 묘미이기도 한데, 내 행위의 범위와 규모를 예측할 수 없어 그렇습니다. AI 모델을 설계, 개발, 배포에 관여한 행위자와 그것을 이용한 행위자, 그것을 지켜보기만 한 행위자 모두 위험이 발생하는 행동에 직간접적으로 관여되어 있을 수 있습니다. 이런 상황에서 누구에게 ‘윤리적’ 책임이 있는지 특정하는 게 가능하기나 할까요. 특정되지 않으니 처벌-책임을 물을 수도 없습니다. “법적으로 아무 책임이 없다”는 말은 자칫 윤리적 회복에 필요한 논의를 가로막는 데 악용될 수 있습니다. 어떤 위해가 발생했을 때, 처벌-책임을 논하는 것과 별개로 우리에게는 위해를 초래한 행위 네트워크 구성원의 공적 선언이 필요합니다. 공적 선언은 공동체 내에 위해가 발생했음을 자각하고, 그것이 반복되지 않도록 하겠다는 의지를 구성원과 공유하는 행위입니다. 우리 모두에게는 이러한 공적 선언을 할 책임, 윤리-책임이 있습니다. 공적 선언은 강력한데, 단 한 명만 변해도 행위의 결과는 달라질 수 있기 때문입니다. 그것이 행위의 묘미입니다. 저는 좋은 공동체는 용서와 약속의 미덕을 갖추고 있다고 생각해요. 용서를 구하고 용서받고, 약속하고 약속을 신뢰하는 행위는 공동체가 집단으로서 과거를 받아들이고 미래로 도약하기 위해 필요합니다. AI를 만들고 사용하는 모두가 용서하고 약속하는 네트워크 위에 있습니다. 우리가 할 수 있는 것은 지리하게 반복되는 듯한 공적 선언을 매번 지치지 않고 반복하는 거라고 생각해요. 🦜AI 윤리 레터가 AI에 대한 공적 선언을 나누는 공간이 되기를 바랍니다. 📬spes 님이 남겨주신 의견, 2024-04-22 (중략) 일반적으로 윤리라고 하면 '부정문'으로 기술되어야 한다는 불문율이 있는 건 아닐까 하는 생각을 가지고 있는 것 같습니다. 그런데 만일 긍정문으로 바꾸어 본다면 어떻게 표현해볼 수 있을까 하는 지점이지요. 하지 말라고 하는 것 대신에 이렇게 하자는 강렬한 그림을 전체 지식사용자 공동체라는 캔버스에 그려놓는다면 어떻게 될까요?아마 우리는 그것을 비전, 혹은 가치, 덕 등으로 풀어서 부르기도 할 것 같습니다. 건물이 비교하자면 이런 것들은 기둥이 되려나요? 그렇게 본다면 우리가 부정문으로 표현하는 윤리적 염려는 성벽과 해자가 될까요? 아니면 건축물에 적용된 내진설계를 비롯한 각종 안전장치가 될까요? 그런 장치들이 제대로 작동하려면, 그 장치를 고안하고 실험, 검증, 설치, 사용, 유지, 보수를 수행하는 인간이 가지고 있는 효능감이 중요하지 않나 하는 생각이 들었습니다.윤리의식을 가졌기 때문에 이익을 경험한 예가 있다면 그 사람의 윤리의식은 효능감이라는 값을 가지고 있고 그 효능감이라는 값이 있기에 필요한 순간에 윤리의식이라는 메카니즘은 유효성을 가지고 작동할 겁니다. 그런데 윤리의식과 동전의 양면을 이루는 비전-가치-덕의 삼체라는 측면에서 우리가 가져야 할 효능감은 그럼 어떤 것일까 하는 질문을 던지게 됩니다. 이 둘은 최종 제품의 스펙이나 광고대행사의 언어로 표현되는 그런 그림과는, 상호 중첩되는 부분은 있을 수 있어도, 본질적으로는 전연 다른 측면에서 마련되어야 하는 것들이니까요.결국은 인간존재로서 개발자 내면, 개발자가 가지는 이상 속에서, 그 이상 속에 존재하는 세상에서 개발자가 가지고 싶은, 공유하고 싶은 효능감이 지금까지 경험해서 무의식이나 장기기억 속에 축적해 온 어떤 가정이나 신념체계보다 힘을 더 많이 가지게 된다면 지금의 A.I. 개발은 또 어떤 국면에서 달라질 수 있을까 하는 생각을 해보았습니다. 우리의 의식도 사실 많은 부분 무의식의 지배를 받고, 우리가 그리는 그림도 우리가 모르는 사이 우리 내면의 상태를 반영하고 있으니까요. 집단무의식의 발현에 있어서는 더더욱 그런 현상이 두드러지구요. Re: spes 님께 (by 💂🏻‍♂️죠셉) 멋진 댓글을 자르기 싫어 코멘트를 두 줄로 줄입니다. 긍정문으로서의 윤리, 건축의 비유, 효능감까지 제 고민의 궤적과 싱크로율 100%라서 놀랐어요. 커피챗 해주세요! 부디 연락을 🙇‍♂️ 📬ㅎㅂㄷ 님이 남겨주신 의견, 2024-04-25 4월 24일자 레터 내용이 너무너무너무 유익했습니다!! 특히 '강화학습이 강화하는 역사'라는 주제가 너무 흥미롭고 인상 깊었습니다. 항상 의미있는 주제들을 다뤄주셔서 감사합니다.한낱 평범한 고등학생인데 요즘 AI 윤리레터로 다양한 인사이트를 접하면서 무럭무럭 성장하고 있어요! 감사합니다....에디터분들 모두 제 스승님이세요!! Re: ㅎㅂㄷ 님께 (by 🥨채원) ㅎㅂㄷ님, 안녕하세요? 뉴스레터를 잘 읽고 계신다는 피드백을 남겨주셔서 감사합니다. ㅂㄷ님의 다정한 피드백 덕분에 얼마나 기쁘고 뿌듯했는지 몰라요! 저희 뉴스레터는 저를 포함한 필진들의 자발적인 사이드 프로젝트로 꾸려나가고 있고, 그렇게 본업 외에 시간을 쪼개서 작성하다보니 마감에 자주 쫓기곤 하는데요ㅎ 그러다 이렇게 희망찬 피드백을 들으니, 앞으로도 더 꾸준히 써야겠다는 다짐도 하게 되었습니다. 저 개인적으로는 학계의 사람들이나 이 분야에 종사하는 사람들과만 이야기할 것이 아니라, 제 친구들이나 가족들 같은 평범한(?) 사람들과도 AI 윤리에 관해 이야기하는 것이 중요하다고 생각해서 🦜AI 윤리 레터에 참여하게 되었어요. 대부분의 논의가 영어로, 미국이나 유럽 중심의 맥락에서 이루어지는 것에 비판의식을 가지고 한국어로 한국의 독자들과 소통하고 싶기도 했고요. 이러한 저의 동기가 마침 ‘강화학습이 강화하는 역사’에서 이야기하고 싶었던 주제와도 일맥상통하는 것이라 ㅂㄷ님의 피드백이 더욱 뿌듯하게 느껴진 것 같아요. 최근에 제가 존경하는 학자분과 이야기할 기회가 있었는데, 그때도 ㅂㄷ님의 피드백을 언급하면서 너무 뿌듯한 순간이었다고 자랑(?)했거든요? 그랬더니 그 분도 내가 어떤 영향력을 끼치고 있다는 걸 실감하는 것보다 더 기쁜 순간은 잘 없다며 공감해 주셨어요. 뉴스를 읽으며 자칫 체념하고 시니컬해지기 쉬운 요즘이지만, 같은 문제에 대해 고민하는 사람들과 소통하는 게 무력감을 극복하는 데에 큰 도움이 되는 것 같아요. 이런 과정에서 저희의 고민이 ㅂㄷ님의 성장에도 기여했다니 그저 기쁠 따름이고요… 앞으로도 레터 꾸준히 재밌게 읽어주시고, 더 궁금하거나 하고 싶은 이야기가 있으시다면 언제든지 또 연락해 주세요. 감사합니다! #feedback 오늘 이야기 어떠셨나요?여러분의 유머와 용기, 따뜻함이 담긴 생각을 자유롭게 남겨주세요.남겨주신 의견은 추려내어 다음 AI 윤리 레터에서 함께 나눕니다.
인공지능
·
3
·
엇박자를 내는 오픈AI
AI 윤리 뉴스 브리프 2024년 5월 넷째 주 by. 💂죠셉 1. 수퍼얼라인먼트(Superalignment) 팀 해체 지난 한 주, GPT4o 공개와 영미권 최대 규모 온라인 커뮤니티인 레딧(Reddit)과의 파트너십 체결 뉴스 등 오픈AI 관련 뉴스가 많았습니다. 이 와중에 AI 윤리에 관심이 있는 이라면 심상치 않게 보았을 뉴스가 있습니다. 바로 오픈AI의 핵심 브레인이자 공동창업자였던 일리야 수츠케버의 사임 소식, 그리고 그가 이끌던 수퍼얼라인먼트(superalignment)팀의 해체입니다.  수츠케버는 지난 11월, 오픈AI의 방향성에 대한 의견 불일치로 샘 올트먼 퇴출을 주도했던 인물 중 하나였기에 사임 자체가 매우 놀랍지는 않습니다. 중요한 건 그와 함께 슈퍼 얼라인먼트 그 팀을 이끌어 온 얀 라이케 또한 수츠케버를 따라 사임한 정황인데요. 여러 매체에 따르면, 이 둘 뿐만 아니라 지난 달 해당 팀의 멤버 2인이 팀을 떠났던 것으로 보입니다. 그리고 며칠이 지나지 않아 오픈 AI는 해당 팀을 해체시켰습니다. 얼라인먼트(alignment)는 AI 시스템의 목적이 인간의 그것과 일치하도록 만드는 작업입니다. 오픈AI의 ‘슈퍼얼라인먼트’의 경우 ‘잠재적 초지능이 잘못된 방향으로 향해 걷잡을 수 없는 일이 생기지 않도록’하는 임무를 맡은 팀이었죠. 당사자들이 이유를 말해줄 수 없으니 팀의 해체에 대한 여러 추측들만 난무하고 있는 상황입니다. (가령 슈퍼얼라인먼트가 현실성 없는 걸 깨닫고 팀원들이 배에서 뛰어내린 게 아니냐는 추측.) 오픈AI는 20%의 리소스를 이 ‘미션’에 투입하겠다고 공언한 바 있는데요. 팀이 해체된 상황에서 앞으로 얼마나 이런 작업이 이뤄질 수 있을지는 회의적입니다. CEO인 샘 올트먼이 반도체 칩을 확보하기 위해 중동 국가들로부터 펀딩을 유치하는 등, AI의 전쟁에 승자가 되려 전력질주 하고 있는 상황에서 AI의 안전 문제에 목소리를 내던 내부 인사들의 이탈은 향후 오픈AI의 방향성에 의구심을 품게 만듭니다. 더 읽어보기 퇴출된 샘 올트먼, 돌아올까? (2023. 11. 20) 오픈AI 드라마의 회수되지 않은 떡밥 (2023. 11. 27) 2. 오픈AI의 NSFW 허용 정책 오픈AI가 NSFW(Not-Safe-For-Work: '업무 상황에서 적절치 않은')로 분류되어 그동안 금지해 온 콘텐츠를 제한적으로 허가하는 건을 재고 중이라고 합니다. 오픈AI의 설명에 따르면 NSFW는 매우 잔인하거나 에로틱한 콘텐츠, 욕설 등을 포함합니다. 오픈AI의 모델 리드 조안 장에 따르면, 딥페이크나 불법 정보, 타인의 권리를 해치지 않는 선에서 사용자들이 NSFW 콘텐츠를 책임감을 가지고 (responsibly) 생성할 수 있도록 최대한의 권한 부여를 검토 중입니다. 얼마 전 있었던 테일러 스위프트의 딥 페이크 사건 이후 AI를 사용한 성착취물 제작 문제가 사회적으로 큰 화두가 됐기에 더욱 논쟁적인 사안입니다. 뉴욕 타임스 또한 평범한 사진을 누드 사진으로 바꾸는(nudify) AI 앱들이 미국 학교 내 괴롭힘 이슈로 이어지고 있다는 점을 보도한 바 있죠. AI가 음란물 제작에 사용될 수 있다는 지적에 대해 오픈AI는 “포르노를 어떻게 정의하느냐에 따라 달라질 수 있다.’는 다소 모호한 답변을 내놓고 있는데요. 그러면서도 ‘NSFW 콘텐츠는 연령 제한을 걸고 잘만 관리되면 예술 작품 등에도 사용될 수 있다’는 입장을 보이고 있어, ‘안전과 유익(safe and beneficial)’을 미션으로 내걸었던 오픈AI가 자기모순에 빠졌다는 지적이 나오고 있습니다. 3. 반어법을 알아듣는 AI? AI가 무엇을 할 수 없는지를 이야기할 때 가장 많이 언급되는 게 감정의 영역이고, 그중에서도 인간의 유머 감각인데요. 유머의 핵심 요소 중 하나인 반어법, 즉 사르카즘(Sarcasm)을 AI에 학습 시키고 있는 팀이 있습니다. 네덜란드 흐로닝언 대학의 연구진은 미국 시트콤인 <프렌즈>와 <빅뱅 이론>의 장면 등을 활용해 ‘머스터드’라는 데이터셋을 구축 중입니다. 해당 시트콤에 대해 약 75% 정확도로 반어법을 골라낼 수 있다고 하네요. 인간의 언어 능력 중에서도 고차원적인 영역에 속하는 반어법을 AI가 구사할 수 있다면 인간과 더 자연스러운 대화를 할 수 있는 건 물론, 말의 뉘앙스를 파악해 혐오 발언을 걸러낼 수도 있을 것이라고 연구진은 기대하고 있습니다. 오늘 브리프의 키워드인 ‘얼라인먼트’ 관점에서도 흥미로운 소식인 것 같습니다. 반어법을 알아듣고, 사용하는 AI 챗봇과 어떤 상호작용이 가능할지, 지금으로선 상상하기 어렵습니다. 우리가 정말 원하는 건 ‘인간과 가까운’ AI인가요? 기계 학습과 자동화를 허용해야 하는 범위는 어디까지일까요? 이렇듯 명쾌한 답이 없는 회색지대야말로 우리가 ‘윤리’를 대화해야 하는 지점이 아닐까 합니다. 🦜AI 윤리 레터가 곧 이사갑니다. 뉴스레터 발행 및 관리를 좀 더 편리하게 하고자 자체 웹사이트를 만들고 있습니다. 새 웹사이트 주소는 https://ai-ethics.kr/이에요. 뉴스레터 발송인 주소 또한 현재의 stibee.com 이메일에서 postmaster@mg.ai-ethics.kr로 변경될 예정입니다. 물론, 캠페인즈 업로드는 계속되니 걱정마세요! 만약 뉴스레터를 구독하고 계시다면, 구독자께서는 따로 조치를 취하지 않아도 계속 받아보실 수 있으니 안심하세요. 다만 혹시라도 이번주-다음주 사이 뉴스레터가 제대로 들어오지 않는다면 스팸함을 확인하고 위 이메일 주소를 연락처에 등록해주세요. 고맙습니다. 오늘 이야기 어떠셨나요?여러분의 유머와 용기, 따뜻함이 담긴 생각을 자유롭게 남겨주세요. 남겨주신 의견은 추려내어 다음 AI 윤리 레터에서 함께 나눕니다. 
인공지능
·
3
·
안전한 AI만으로는 충분하지 않다
AI 안전을 넘어서는 AI 윤리의 필요성 by. 🤔어쪈 ‘AI 윤리 (Ethics)’보다 ‘AI 안전 (Safety)’이 훨씬 더 많이 보이는 요즘입니다. 물론 AI 안전이 새로운 용어는 아닙니다. 안전은 분명 AI 윤리 논의에서 빠질 수 없는 주요 가치죠. AI 윤리를 표방하는 유행어 역시 신뢰할 수 있는 (trustworthy) AI, 책임있는 (responsible) AI 등을 거쳐오긴 했지만, 안전한 AI가 거론되는 맥락을 자세히 살펴보면 단순히 표현만 바뀐 게 아니라는 생각이 듭니다. 단적으로 작년 11월 영국에서 열린 「AI 안전성 정상회의」와 뒤이어 일어난 일들을 살펴볼까요. 당시 발표된 블레츨리 선언은 인권 보호, 투명성과 설명가능성, 공정성 등의 여러 가치를 언급하면서도 작금의 ‘프론티어 AI 시스템’에서는 특히 안전에 대한 우려가 크다고 천명했습니다. 이러한 기조는 다음주 한국에서 개최되는 후속 행사에서도 이어질 예정입니다. 2월에 착수한 <AI 안전 국제 과학 보고서>를 발표하고, AI 안전을 위한 국제 공조 방안을 논의한다고 하죠. 이미 영국과 미국은 발빠르게 AI 안전 연구소를 설립한 바 있습니다. 앞서 여러 차례 소개했던 백악관의 AI 행정명령 역시 안전을 가장 먼저 앞세우고 있죠. 기업들 역시 이러한 관심에 발맞춰 AI 안전을 강조하는 중입니다. 사실 엄밀히 말하자면 위와 같은 국제 협력이 착수되기 전부터 이미 AI 안전을 키워드로 홍보하고 있었죠. 현재 AI 분야에서 가장 주목받고 있는 오픈AI, 구글 딥마인드, 앤스로픽 등은 모두 회사 홈페이지에 안전을 내걸고 있습니다. 국내 기업 역시 마찬가지로 그동안 AI 윤리라는 이름 아래 보인 행보를 AI 안전을 위한 노력으로 재포장하는 모습입니다. 구글 딥마인드, 앤스로픽, 오픈AI 공식 웹사이트 갈무리 이토록 모두가 AI 안전에 신경쓰고 있다니, 정말 다행이고 또 환영할 일입니다. 그런데 잠시만요. 각국 정부나 기업이 말하는 AI 안전이란 무엇일까요? AI 안전에 집중된 논의가 놓치는 지점은 없을까요? AI 안전이 무엇인지 정의하기 위해서는 그에 상응하는 위험을 식별하는 작업이 선행되어야 하죠. 블레츨리 선언과 후속 논의를 살펴보면 크게 3가지 위험이 언급되고 있습니다. 요약하면 오작동, 악용, 통제 불가라고 할 수 있겠네요. 이러한 위험을 방지하고 AI 안전을 확보하기 위해 주로 채택되고 있는 방안은 ‘기술에 대한 연구와 평가’입니다. AI 안전 연구소를 설립해서 기술 인력을 확보하고, 기술 분야에서 앞서나가고 있는 AI 기업들과의 협력이 주된 방법으로 제시되고 있죠. 기업들의 AI 안전을 위한 활동 역시 기술에 초점이 맞춰져 있습니다. 최근 오픈AI가 그동안의 AI 안전 및 정렬(alignment)을 위한 노력의 결과물로 발표한 ‘모델 사양 (Model Spec)’을 살펴볼까요. 모델 사양은 AI 모델이 어떻게 행동해야 하는지에 대한 가이드라인입니다. 다시 말해 챗GPT가 어떤 질문이나 요청에 어떻게 답변하거나 하지 않을 것인지를 적은 문서죠. 예컨대 오픈AI의 AI 모델은 (방지하기 위한 것처럼 물어 대답을 유도하지 않는 이상) 범법 행위에 대한 정보를 출력해선 안되고, (설사 지구가 평평하다는 믿음을 가졌더라도) 이용자의 생각을 바꾸려 들면 안됩니다. 대다수의 AI 기업이 AI 안전을 위해 채택하고 있는 레드티밍(red-teaming)이라는 방법 역시 이와 결을 같이 합니다. 어떤 질문이나 요청에 생성형 AI 모델이 잘못된 출력을 하진 않는지 살펴보며 문제점을 찾는 레드티밍 기법은 AI 기술이 어떻게 기능해야 하는지에 주로 초점을 맞추고 있습니다. 지난 4월, 과학기술정보통신부 주최로 생성형 AI 레드팀 챌린지가 열리기도 했습니다.  하지만 AI 윤리 레터에서 다뤄온 문제들은 결코 AI 기술의 기능이나 사양에 국한된 논의만으로 해소되기 어렵습니다. 오작동하지 않고 악용되지 않는, 그리고 통제 불가능한 AGI 내지는 초지능이 아닌 ‘안전한’ AI 기술임에도 불구하고 위험을 안고 있거나 우려를 불러일으키는 사례가 많습니다. 월요일에 소개한 사업장 및 공공장소의 안면인식 출입시스템을 생각해볼까요. 모든 얼굴을 제대로 식별하고 회사나 경찰이 보안과 공공 안전을 위해서만 쓴다고 하더라도, 분명 그로 인해 위축효과라는 문제가 발생합니다. (안면인식 기술이 통제 불가의 AGI가 되진 않겠죠.) 기술을 우리가 갖고 있던 불편을 해소하고 문제를 해결하기 위해 도입하는 지극히 인간적이고 사회적인 방법으로 바라본다면, AI의 사양이나 어떻게 기능해야 하는지를 논하기 전에 어떤 문제를 풀기 위한 AI인지, 또 어떤 AI를 어떻게 개발해야 하는지를 물어야 하지 않을까요? AI 안전은 분명 AI 윤리 논의를 구성하는 주요 가치입니다. 하지만 안전한 AI를 개발하는 것이 곧 AI 윤리 논의의 종착점이 될 수는 없습니다. 안전하다는 게 무슨 의미인지와 같은 원론적인 질문까지 던지지는 않더라도, 누구에게 안전한지만을 묻더라도 AI 안전 역시 기술 그 자체에 대한 논의만으로는 확보되기 힘든 것임을 알 수 있습니다. AI 안전 확보를 위한 노력이 AI 윤리 논의에서 언급되는 다른 가치들과 함께 추구되기를 바랍니다. 댓글 🍊산디: 실제 정책적 논의 또한 구현된 기술 자체에 초점을 맞춰 이루어지고 있다는 생각이 들어요. 기술이 개발되는 과정과 방향에 대한 논의는 점차 뒷전이 되는 것 같구요. ‘윤리’라 하니 노잼으로 느껴질 수 있지만, 누가 어느 지점에 어떻게 개입할 것인가를 설계하는 건 흥미로운 작업인데 말이죠! AI 개발 무한 경쟁 속 윤리는 뒷전 by. 🎶소소  AI 기업들이 강조하는 AI 윤리는 실상 기업 내부에서 우선순위가 높지 않습니다. AI 기업들이 경쟁에서 앞서기 위해 끊임없이 더 빠르고 더 나은 성능의 AI 개발에 집중하고 있기 때문이죠. 경쟁 속에서 고객이나 윤리를 우선시하지 못하는 것이 현실입니다. 최근 구글과 마이크로소프트, 메타 등 주요 AI 기업의 개발자들이 이러한 반복적이고 무의미한 ‘쥐 경주(rat race)’ 속에 지쳐가고 있다는 보도가 있었습니다. 빅테크뿐 아니라 정부 AI 연구소, 스타트업할 것 없습니다. 미국만의 이야기도 아닙니다. 우리나라 상황도 마찬가지죠. 어느 한 회사가 새로운 AI 모델 성능을 발표하면, 바로 다음 추격이 시작됩니다. 상대 기업보다 먼저 AI 서비스를 발표하기 위해 불시의 기습 컨퍼런스도 마다하지 않습니다. 경쟁사에 집중될 이목을 우리 회사로 돌리기 위함이죠. 이렇게 치열한 경쟁 속에서 살아남기 위해서는 더 빠르게 움직여야 한다는 압박감은 서로를 옥죄고 있습니다. ChatGPT에게 시연자의 얼굴 표정을 읽어달라고 하는 모습(24:00), '구글 I/O' 하루 앞두고 GPT-4o를 기습 발표한 OpenAI 발표 화면 갈무리 이러한 무분별한 AI 개발 경쟁의 가장 큰 문제는 AI의 부작용을 고려할 시간이 없다는 것입니다. 개발 과정에서 충분한 평가와 검증이 이루어질 시간 없이 AI가 제품화되고 있기 때문인데요. 일례로 구글은 2023년 생성형AI 바드 시연에서 잘못된 답변을 내놓기도 했습니다. 이를 두고 내부 개발진의 “급했다. 망했다.”는 비판도 있었습니다. 구글은 이미지 생성AI 제미나이가 아이슈타인을 흑인으로 그리는 등 역사 속 인물을 유색 인종으로 표현한 오류에 대한 사과문을 발표하고, 해당 기능을 일시 중지하기도 했습니다. 한 엔지니어는 이러한 상황을 "비행기를 타고 가면서 비행기를 만드는 것과 같다”고 이야기했습니다. 엔지니어들에게 비판적 사고를 할 시간이 주어지지 않는다는거죠. AI 분야 연구자들은 몇 달 간 이어지는 긴급한 업무 일정 속에 번아웃을 경험하며 다른 직업으로의 전환을 고려한다는 이야기도 들려옵니다. 우리는 무엇을 위해 이토록 열심히 AI를 개발하는 걸까요? 이렇게 더 좋은 성능만 강조하는 풍토에서 AI 산업은 지속 가능할까요? 적어도 AI 개발자들이 AI 개발의 진정한 목적에 대해 생각할 수 있는 시간을 가질 수 있기를 바랍니다. AI 기술의 발전이 과연 누구를 위한 것인지, 그리고 그것이 우리 사회에 어떤 영향을 미칠지 말이에요. 오늘 이야기 어떠셨나요?여러분의 유머와 용기, 따뜻함이 담긴 생각을 자유롭게 남겨주세요.남겨주신 의견은 추려내어 다음 AI 윤리 레터에서 함께 나눕니다.
인공지능
·
3
·