인공지능

안전한 AI만으로는 충분하지 않다
AI 안전을 넘어서는 AI 윤리의 필요성 by. 🤔어쪈 ‘AI 윤리 (Ethics)’보다 ‘AI 안전 (Safety)’이 훨씬 더 많이 보이는 요즘입니다. 물론 AI 안전이 새로운 용어는 아닙니다. 안전은 분명 AI 윤리 논의에서 빠질 수 없는 주요 가치죠. AI 윤리를 표방하는 유행어 역시 신뢰할 수 있는 (trustworthy) AI, 책임있는 (responsible) AI 등을 거쳐오긴 했지만, 안전한 AI가 거론되는 맥락을 자세히 살펴보면 단순히 표현만 바뀐 게 아니라는 생각이 듭니다. 단적으로 작년 11월 영국에서 열린 「AI 안전성 정상회의」와 뒤이어 일어난 일들을 살펴볼까요. 당시 발표된 블레츨리 선언은 인권 보호, 투명성과 설명가능성, 공정성 등의 여러 가치를 언급하면서도 작금의 ‘프론티어 AI 시스템’에서는 특히 안전에 대한 우려가 크다고 천명했습니다. 이러한 기조는 다음주 한국에서 개최되는 후속 행사에서도 이어질 예정입니다. 2월에 착수한 <AI 안전 국제 과학 보고서>를 발표하고, AI 안전을 위한 국제 공조 방안을 논의한다고 하죠. 이미 영국과 미국은 발빠르게 AI 안전 연구소를 설립한 바 있습니다. 앞서 여러 차례 소개했던 백악관의 AI 행정명령 역시 안전을 가장 먼저 앞세우고 있죠. 기업들 역시 이러한 관심에 발맞춰 AI 안전을 강조하는 중입니다. 사실 엄밀히 말하자면 위와 같은 국제 협력이 착수되기 전부터 이미 AI 안전을 키워드로 홍보하고 있었죠. 현재 AI 분야에서 가장 주목받고 있는 오픈AI, 구글 딥마인드, 앤스로픽 등은 모두 회사 홈페이지에 안전을 내걸고 있습니다. 국내 기업 역시 마찬가지로 그동안 AI 윤리라는 이름 아래 보인 행보를 AI 안전을 위한 노력으로 재포장하는 모습입니다. 구글 딥마인드, 앤스로픽, 오픈AI 공식 웹사이트 갈무리 이토록 모두가 AI 안전에 신경쓰고 있다니, 정말 다행이고 또 환영할 일입니다. 그런데 잠시만요. 각국 정부나 기업이 말하는 AI 안전이란 무엇일까요? AI 안전에 집중된 논의가 놓치는 지점은 없을까요? AI 안전이 무엇인지 정의하기 위해서는 그에 상응하는 위험을 식별하는 작업이 선행되어야 하죠. 블레츨리 선언과 후속 논의를 살펴보면 크게 3가지 위험이 언급되고 있습니다. 요약하면 오작동, 악용, 통제 불가라고 할 수 있겠네요. 이러한 위험을 방지하고 AI 안전을 확보하기 위해 주로 채택되고 있는 방안은 ‘기술에 대한 연구와 평가’입니다. AI 안전 연구소를 설립해서 기술 인력을 확보하고, 기술 분야에서 앞서나가고 있는 AI 기업들과의 협력이 주된 방법으로 제시되고 있죠. 기업들의 AI 안전을 위한 활동 역시 기술에 초점이 맞춰져 있습니다. 최근 오픈AI가 그동안의 AI 안전 및 정렬(alignment)을 위한 노력의 결과물로 발표한 ‘모델 사양 (Model Spec)’을 살펴볼까요. 모델 사양은 AI 모델이 어떻게 행동해야 하는지에 대한 가이드라인입니다. 다시 말해 챗GPT가 어떤 질문이나 요청에 어떻게 답변하거나 하지 않을 것인지를 적은 문서죠. 예컨대 오픈AI의 AI 모델은 (방지하기 위한 것처럼 물어 대답을 유도하지 않는 이상) 범법 행위에 대한 정보를 출력해선 안되고, (설사 지구가 평평하다는 믿음을 가졌더라도) 이용자의 생각을 바꾸려 들면 안됩니다. 대다수의 AI 기업이 AI 안전을 위해 채택하고 있는 레드티밍(red-teaming)이라는 방법 역시 이와 결을 같이 합니다. 어떤 질문이나 요청에 생성형 AI 모델이 잘못된 출력을 하진 않는지 살펴보며 문제점을 찾는 레드티밍 기법은 AI 기술이 어떻게 기능해야 하는지에 주로 초점을 맞추고 있습니다. 지난 4월, 과학기술정보통신부 주최로 생성형 AI 레드팀 챌린지가 열리기도 했습니다.  하지만 AI 윤리 레터에서 다뤄온 문제들은 결코 AI 기술의 기능이나 사양에 국한된 논의만으로 해소되기 어렵습니다. 오작동하지 않고 악용되지 않는, 그리고 통제 불가능한 AGI 내지는 초지능이 아닌 ‘안전한’ AI 기술임에도 불구하고 위험을 안고 있거나 우려를 불러일으키는 사례가 많습니다. 월요일에 소개한 사업장 및 공공장소의 안면인식 출입시스템을 생각해볼까요. 모든 얼굴을 제대로 식별하고 회사나 경찰이 보안과 공공 안전을 위해서만 쓴다고 하더라도, 분명 그로 인해 위축효과라는 문제가 발생합니다. (안면인식 기술이 통제 불가의 AGI가 되진 않겠죠.) 기술을 우리가 갖고 있던 불편을 해소하고 문제를 해결하기 위해 도입하는 지극히 인간적이고 사회적인 방법으로 바라본다면, AI의 사양이나 어떻게 기능해야 하는지를 논하기 전에 어떤 문제를 풀기 위한 AI인지, 또 어떤 AI를 어떻게 개발해야 하는지를 물어야 하지 않을까요? AI 안전은 분명 AI 윤리 논의를 구성하는 주요 가치입니다. 하지만 안전한 AI를 개발하는 것이 곧 AI 윤리 논의의 종착점이 될 수는 없습니다. 안전하다는 게 무슨 의미인지와 같은 원론적인 질문까지 던지지는 않더라도, 누구에게 안전한지만을 묻더라도 AI 안전 역시 기술 그 자체에 대한 논의만으로는 확보되기 힘든 것임을 알 수 있습니다. AI 안전 확보를 위한 노력이 AI 윤리 논의에서 언급되는 다른 가치들과 함께 추구되기를 바랍니다. 댓글 🍊산디: 실제 정책적 논의 또한 구현된 기술 자체에 초점을 맞춰 이루어지고 있다는 생각이 들어요. 기술이 개발되는 과정과 방향에 대한 논의는 점차 뒷전이 되는 것 같구요. ‘윤리’라 하니 노잼으로 느껴질 수 있지만, 누가 어느 지점에 어떻게 개입할 것인가를 설계하는 건 흥미로운 작업인데 말이죠! AI 개발 무한 경쟁 속 윤리는 뒷전 by. 🎶소소  AI 기업들이 강조하는 AI 윤리는 실상 기업 내부에서 우선순위가 높지 않습니다. AI 기업들이 경쟁에서 앞서기 위해 끊임없이 더 빠르고 더 나은 성능의 AI 개발에 집중하고 있기 때문이죠. 경쟁 속에서 고객이나 윤리를 우선시하지 못하는 것이 현실입니다. 최근 구글과 마이크로소프트, 메타 등 주요 AI 기업의 개발자들이 이러한 반복적이고 무의미한 ‘쥐 경주(rat race)’ 속에 지쳐가고 있다는 보도가 있었습니다. 빅테크뿐 아니라 정부 AI 연구소, 스타트업할 것 없습니다. 미국만의 이야기도 아닙니다. 우리나라 상황도 마찬가지죠. 어느 한 회사가 새로운 AI 모델 성능을 발표하면, 바로 다음 추격이 시작됩니다. 상대 기업보다 먼저 AI 서비스를 발표하기 위해 불시의 기습 컨퍼런스도 마다하지 않습니다. 경쟁사에 집중될 이목을 우리 회사로 돌리기 위함이죠. 이렇게 치열한 경쟁 속에서 살아남기 위해서는 더 빠르게 움직여야 한다는 압박감은 서로를 옥죄고 있습니다. ChatGPT에게 시연자의 얼굴 표정을 읽어달라고 하는 모습(24:00), '구글 I/O' 하루 앞두고 GPT-4o를 기습 발표한 OpenAI 발표 화면 갈무리 이러한 무분별한 AI 개발 경쟁의 가장 큰 문제는 AI의 부작용을 고려할 시간이 없다는 것입니다. 개발 과정에서 충분한 평가와 검증이 이루어질 시간 없이 AI가 제품화되고 있기 때문인데요. 일례로 구글은 2023년 생성형AI 바드 시연에서 잘못된 답변을 내놓기도 했습니다. 이를 두고 내부 개발진의 “급했다. 망했다.”는 비판도 있었습니다. 구글은 이미지 생성AI 제미나이가 아이슈타인을 흑인으로 그리는 등 역사 속 인물을 유색 인종으로 표현한 오류에 대한 사과문을 발표하고, 해당 기능을 일시 중지하기도 했습니다. 한 엔지니어는 이러한 상황을 "비행기를 타고 가면서 비행기를 만드는 것과 같다”고 이야기했습니다. 엔지니어들에게 비판적 사고를 할 시간이 주어지지 않는다는거죠. AI 분야 연구자들은 몇 달 간 이어지는 긴급한 업무 일정 속에 번아웃을 경험하며 다른 직업으로의 전환을 고려한다는 이야기도 들려옵니다. 우리는 무엇을 위해 이토록 열심히 AI를 개발하는 걸까요? 이렇게 더 좋은 성능만 강조하는 풍토에서 AI 산업은 지속 가능할까요? 적어도 AI 개발자들이 AI 개발의 진정한 목적에 대해 생각할 수 있는 시간을 가질 수 있기를 바랍니다. AI 기술의 발전이 과연 누구를 위한 것인지, 그리고 그것이 우리 사회에 어떤 영향을 미칠지 말이에요. 오늘 이야기 어떠셨나요?여러분의 유머와 용기, 따뜻함이 담긴 생각을 자유롭게 남겨주세요.남겨주신 의견은 추려내어 다음 AI 윤리 레터에서 함께 나눕니다.
인공지능
·
스택오버플로, 너마저?
AI 윤리 뉴스 브리프 2024년 5월 셋째 주 by 🤖아침 1. 스택오버플로의 태세 전환과 보복성 제재 스택오버플로가 오픈에이아이에 모델 학습용 API를 제공하기로 했습니다. 이에 반발한 이용자들이 자신이 작성한 질문·답변을 삭제·수정하자, 운영진은 해당 이용자를 차단하는 등 제재를 가했습니다. 적잖은 플랫폼이 축적한 데이터를 AI 개발용으로 판매하는 추세 속에서도, 개발자 지식 공유 커뮤니티로 큰 상징성을 갖는 스택오버플로의 이런 행보는 인터넷 생태계 변화의 중요한 사례로 남을 것입니다. 얼마 전까지도 해당 플랫폼은 생성형 AI 사용을 금지했고, ‘커뮤니티를 중심에 두겠다’고 선언했다는 점에서 이용자들의 배신감이 배가될 듯합니다. 스택오버플로 이용약관에는 이용자가 작성한 모든 콘텐츠를 플랫폼이 영원히 이용할 수 있으며 이는 철회할 수 없다는 조항이 있습니다. 이용약관을 지렛대 삼아 플랫폼이 이용자 데이터를 마음대로 활용하는 현상은 물론 새로운 일이 아닙니다. ‘남용약관’이 플랫폼 자본주의의 기본적 작동 방식이라고도 볼 수 있죠. 앞으로도 계속 보게 될 이 광경을, 일반 이용자는 그냥 받아들이는 수밖에 없을까요? 게임의 규칙을 바꾸는 게 가능할까요? 덧붙이는 글 🎶소소: 커뮤니티 정신을 강조하던 스택오버플로, 정말 실망이네요. 결국 커뮤니티를 만든 이용자들이 아니라 돈이 되는 커뮤니티만을 중요하게 생각한다는 점이 여실히 드러나네요. 더 읽어보기 데이터, 어떻게 팔아야 잘 판 걸까? ...팔아야 하는 걸까? (2024-03-25) 스택오버플로, ‘(사람) 커뮤니티가 AI의 미래다’ (2023-07-31) 2. 싱가포르 출판·문학계는 데이터 제공이 탐탁지 않다 싱가포르 출판·문인들이 출판물을 AI 데이터로 활용하려는 정부 기조에 반발하고 나섰습니다. 싱가포르 정부는 말레이어, 타밀어, 화어 등 싱가포르에서 사용하는 언어 데이터를 반영하는 자체 다국어 멀티모달 LLM*을 구축하려 하고 있습니다. 이 과정에서 문인들을 상대로 저작물을 학습 데이터로 활용하는 데 대한 의견 수렴을 했는데요. 의견 수렴 이메일에서는 해당 데이터가 ‘연구 목적’으로만 활용될 것이라고 명시하고 있으나, 이용에 대한 보상이나 저작권 보호 관련된 설명이 부족하다고 판단한 문인들이 상당수 거부 의사를 표한 것입니다. 저작권자 동의 없이 일단 모델을 구축하는 행태가 보편적인 분위기에서, 어떻게 보면 이 정도 의견 수렴도 정부 입장에서는 꽤 진취적인 행보라고 볼 수도 있습니다. 한편 결국에는 정부 마음대로 문화콘텐츠를 이용할 것이라는, 회의적인 의견도 기사에 등장하고요. 하지만 비영어권 데이터가 부족한 현실을 고려할 때, 장기적으로 출판·문인들의 신뢰와 협조를 얻는 일은 싱가포르 정부에게 생각보다 더 중요할지도 모릅니다. * 텍스트 모델을 기반으로 하되 여러 모달리티(modality)를 처리할 수 있는 AI 모델. 예를 들어 챗봇에 이미지를 주고 내용을 묘사하는 글을 출력하는 방식. 모달리티는 기호학에서 글/이미지/음악 등의 양태를 가리키는 용어인데, AI 맥락에서는 ‘데이터 형식’과 비슷한 뜻으로 이해할 수 있습니다. 3. 현대중공업 노사갈등과 미국 대학 시위의 연결고리 지난 4월, HD현대중공업이 설치한 협력업체 근로자 출입 관리용 안면인식 출입시스템을 노조가 철거하고, 사측은 노조 간부를 경찰에 고발했습니다. 사측은 보안 관리상 안면인식기가 필요하다는 입장이고, 노조는 기존 수단으로도 관리가 가능한데 안면인식은 노동자를 감시/통제하는 수단일 뿐이라며 맞서고 있습니다. 금속노조 현대중공업지부는 성명서에서 공공장소의 얼굴인식 기술이 가져오는 ‘위축 효과’를 지적합니다. 개인 추적이 용이해지면서 합법적인 집회·결사의 자유 행사를 꺼리게 된다는 것이지요. 사업장과 공공장소는 같지 않다고 말할 수도 있겠지만 위축 효과는 확실히 생겨날 것 같습니다. Photo byArthur Mazi on Unsplash 미국 각지 대학교에서는 이스라엘의 팔레스타인 학살을 반대하는 시위가 한창입니다. 대학 당국이 시위 진압을 위해 안면인식 기술을 보유한 경찰에 공권력 투입을 요청하는 상황에서, 참여자들은 신상 노출에 따른 괴롭힘을 피하고자 케피예나 마스크를 쓰곤 합니다. 감시 기술이 시민 활동에 미치는 영향을 드러내는 사례입니다. 이스라엘, 러시아, 홍콩… 지난 몇 해간 계속 보아온 현상이죠. 앞으로 현대중공업 노동 쟁의 참여자 색출에 안면인식 시스템이 활용되리라 상상하는 것도 어렵지 않습니다. 더 읽어보기 [스트레이트] 탈탈 털린 스마트폰..검찰 ‘디넷’과 빅브라더 (MBC, 2024-04-28) 4. 우리 회사 AI는 에너지 1등급일까? AI 기술의 환경영향에 관한 정량연구를 꾸준히 해오고 있는 허깅페이스 연구팀에서 “AI 모델용 에너지소비효율등급”(Energy Star Ratings for AI Models)을 마련한다고 합니다. 여러 AI 모델이 일정한 작업을 수행하는 데 소비하는 전력량을 측정하여 효율등급을 부여하고, ‘녹색 AI 리더보드’ 순위표를 운영할 예정이라고 해요. 한국의 에너지소비효율등급과 직접적인 연관은 없습니다. 데이터센터의 탄소배출, 냉각수 등 AI 기술의 막대한 환경비용을 지적하는 목소리가 커지고 있지만 모델의 환경비용 측정은 여러 이유로 쉽지 않습니다. 데이터 수집에서 모델 구축, 실사용을 아우르는 전 과정이 수많은 이해관계자와 인프라 사이에 걸쳐 있고, 기술 개발을 주도하는 기업 측에서 정보 공개를 꺼리기도 하지요. 과학적 근거는 비판에 힘을 실어줍니다. 위 연구는 하드웨어, 입력값, 설정값 등을 통제한 조건에서 AI 시스템의 작동을 비교하여 환경비용에 관한 양적 데이터를 만듭니다. 특정 용도에 최적화한 모델보다 (프롬프트를 조작해 다용도로 활용하는) 제로샷 모델이 같은 작업을 할 때도 훨씬 에너지 소모가 크다는 초기 실험 결과는, 현재 테크업계의 파운데이션 모델 구축 경쟁이 기후에 미치는 악영향에 대한 근거인 셈입니다. 궁극적으로는 끝없는 스케일 경쟁보다 효율적이고 친환경적인 기술을 중시하는 쪽으로 패러다임이 전환되기를 기대해 봅니다. 더 읽어보기 미래의 시간을 쓰는 우리 (2023-12-18) 이 주의 인물 카드: 사샤 루치오니 (2023-07-03) 오늘 이야기 어떠셨나요?여러분의 유머와 용기, 따뜻함이 담긴 생각을 자유롭게 남겨주세요.남겨주신 의견은 추려내어 다음 AI 윤리 레터에서 함께 나눕니다.
인공지능
·
1
·
업데이트된 ChatGPT-4o(옴니), 영화 'Her'의 인공지능 비서가 될까
영화 'Her'를 보면, 사람들이 주로 음성으로 AI와 의사소통을 합니다. 이 과정에서 주인공인 테어도어는 인간처럼 반응해주는 AI '사만다'와 사랑에 빠지는데요. AI가 사람처럼 자연스럽게,빠르게 응답해 준다면 AI에게 감정을 느낄 수도 있겠다 싶죠. 한국 시간으로 2024년 5월 14일 새벽, OpenAI는 음성 비서 기능을 강화한 새로운 멀티모달모델(LMM)인 'GPT-4o'를 공개했습니다(관련 기사). 여기서 o는 모든 것이라는 '옴니'를 뜻한다고 하니, 한국어로 부르면 GPT-4 옴니 라고 불러야 할 지도 모르겠네요. 언론사들이 제목으로 '보고,듣고, 말할 수 있는 AI 등장'이라고 하는 내용은 사실과 조금 다른데요. 진작에 ChatGPT-4를 포함한 여러 AI에서 음성이나 사진, 영상을 보고 말할 수 있었기 때문입니다. 하지만 이번 모델에 와서 성능이 대폭 향상된 것은 사실입니다. 아직 일반 유저에게 공개되지는 않았지만, Chatgpt-4o를 통해 실시간으로 AI와 영상통화를 할 수 있는 것은 물론이고, 카메라를 통해 보는 정보를 실시간으로 해석해줍니다. 위에 영상에서는 표정을 읽고 해석하는 것은 물론이고, AI에게 '지금 실시간으로 너의 성능에 대해 발표하고 있어'라고 하니까 '부끄러우니 멈춰주세요' 라고까지 합니다. 영상을 보시면 목소리도 진짜 부끄러워 하는 듯 보입니다.위 영상 외에 다른 시연 영상에서는 '목소리를 기계처럼 바꿔서 말해줘'라고 하자 기계처럼 말하는 등 자연스러운 기능이 많아졌으며, 실시간으로 사람이 AI의 말을 끊고 대화에 간섭할 수 있는 등 놀라운 기능이 많아졌습니다. 이런 기능에 대한 업데이트나 데스크톱 앱 출시 등을 점차 진행할 예정이라고 하네요. 실시간 음성 채팅은 아직 업데이트가 되지 않아 사용해보지 못했지만, 업데이트된 GPT-4o는 현재 사용해볼 수 있어 직접 성능을 비교하고자 몇 가지 실험을 해봤습니다. 우선, 이미지를 이전보다 얼마나 질 인식하는지 궁금했습니다. 이전에 GPT-4에서는 이미지 인식 기능, 특히 이미지 안의 한자 등을 읽는 OCR기능이 아쉬웠거든요. 직접 보시면 아시겠지만, GPT-4는 엉뚱한 대답을 한 반면, GPT-4o는 어떤 한자가 쓰였는지 정확히 읽어냈으며, 그 맥락을 사진 내의 다른 정보인 '옛날손짜장'을 읽어내면서 더 똑똑하게 유추하는 모습입니다. 그 다음으로는 웹사이트 검색 및 요약 기능을 테스트해보고자 했습니다. 이전 버젼인 ChatGPT-4도 검색은 가능했지만, 기능 측면에서 아쉬운 점이 있었거든요. 이 질문에 대한 대답 차이는 조금 길어서, 제가 각각 따로 복사해 인용하겠습니다. - ChatGPT-4  윤석열 대통령 취임 2주년 기자회견에 대한 한겨례와 중앙일보의 보도는 각기 다른 내용과 초점을 담고 있어, 이들 언론사의 편집 방향성이 어떻게 다른지를 잘 보여줍니다.한겨례는 채상병 특검법과 김건희 여사와 관련된 논란 등에 대한 대통령의 책임과 투명성을 강조하는 보도를 했습니다. 이 보도는 정치적, 대중적 요구에 대해 윤 대통령이 사과하고 구체적인 조치를 취할 것을 촉구하는 내용을 중점적으로 다루면서, 민감한 사안들에 대한 대통령의 대응을 비판적으로 조명했습니다. 투명하고 반응적인 거버넌스 필요성을 강조하는 태도를 보였습니다.반면, 중앙일보는 지난 2년 간 윤 대통령의 성과와 미래 계획에 초점을 맞추어 긍정적인 보도를 했습니다. 경제 정책, 시장 경제 안정화, 규제 장벽 감소, 그리고 특히 판매 외교 강화와 한미 안보 및 경제 동맹과 같은 국제 외교의 진전을 강조하며, 행정의 방향을 긍정적으로 전망하였습니다.이렇게 한겨례와 중앙일보의 다른 초점은 현재 윤석열 대통령 행정부를 어떻게 해석하고 있는지에 대한 다양한 해석을 보여줍니다. 한겨례는 정치적 및 대중적 압력에 대한 행정의 반응을 검토하고, 중앙일보는 정책 성공과 미래 지향적 전략을 축하합니다.  - ChatGPT-4o(옴니)  윤석열 정부의 취임 2주년 기자회견에 대한 한겨레와 중앙일보의 보도를 비교해보겠습니다. 두 언론사의 보도는 각기 다른 시각에서 접근하여 다양한 해석을 제공하고 있습니다. 한겨레의 보도 요약 한겨레는 윤석열 대통령의 기자회견에 대해 비판적인 시각을 유지했습니다. 주요 내용은 다음과 같습니다: 소통 방식에 대한 비판: 한겨레는 윤 대통령의 기자회견이 일방적인 소통 방식에 머무르고 있다고 지적합니다. 기자회견에서 민감한 사안에 대한 명확한 답변을 피한 점을 비판합니다 (한겨레_세상을 보는 눈) (한겨레_세상을 보는 눈). 정책 실효성에 의문: 한겨레는 정부의 주요 정책이 실질적인 문제 해결보다는 형식적인 소통에 그치고 있다고 주장합니다. 특히 경제와 사회 정책에서 나타나는 한계점을 강조합니다 (한겨레_세상을 보는 눈). 사회적 논란: 한겨레는 김건희 여사와 관련된 논란 및 기타 사회적 이슈에 대해 윤 대통령이 충분히 해명하지 않았다고 평가합니다 (한겨레_세상을 보는 눈). 중앙일보의 보도 요약 중앙일보는 윤석열 정부의 성과를 강조하며 긍정적인 평가를 내렸습니다. 주요 내용은 다음과 같습니다: 정책 성과 강조: 중앙일보는 윤석열 대통령이 지난 2년간 경제 성장과 외교 성과를 이루었다고 강조했습니다. 특히 글로벌 중추국가 외교 강화, 경제의 체질 개선, 민간주도 성장 등을 주요 성과로 언급했습니다 (중앙일보) (중앙일보) (중앙일보) (중앙일보) (중앙일보). 미래 계획 발표: 기자회견에서 윤 대통령은 저출생 대응을 위한 기획부 신설, 사회적 약자 지원 강화, 경제적 공정성 제고 등의 미래 계획을 발표했습니다. 중앙일보는 이러한 계획들이 긍정적인 영향을 미칠 것이라고 평가했습니다 (중앙일보) (중앙일보). 김건희 여사 관련 논란에 대한 사과: 중앙일보는 윤 대통령이 김건희 여사와 관련된 논란에 대해 사과한 점을 강조하며, 대통령의 진솔한 태도를 긍정적으로 평가했습니다 (중앙일보). 보도 뉘앙스 차이 한겨레는 윤석열 대통령의 기자회견을 비판적인 시각에서 다루며, 소통 방식과 정책의 실효성에 대한 의문을 제기합니다. 한겨레는 정부의 성과보다는 문제점과 한계를 부각시키며 비판적인 입장을 유지합니다.반면, 중앙일보는 윤석열 정부의 성과를 긍정적으로 평가하며, 기자회견에서 발표된 정책 성과와 미래 계획을 중심으로 보도합니다. 중앙일보는 대통령의 사과와 진솔한 태도를 강조하며 긍정적인 논조를 유지합니다.이처럼 두 언론사는 각각의 시각에서 접근하여 독자들에게 다른 관점을 제공합니다.  윤석열 취임 2주년 기자회견의 내용에 대해 잘 모르는 사람이 봐도 차이를 쉽게 느낄 정도로 ChatGPT-4와 ChatGPT-4o의 검색 및 문서 작성 성능은 큰 차이가 있습니다. 제가 느낀 차이점은 크게 세 가지 입니다. 이전과 다르게, 특정 웹사이트에 직접 들어가 검색하려는 시도를 합니다. 예를 들어 위에 질문을 받았을 때, 이전 모델인 GPT-4는 '윤석열 기자회견 한겨례'라고 검색한다면, GPT-4o는 'hani.co.kr에서 윤석열 기자회견 검색'과 같은 과정을 수행하는 게 보입니다. 물론 이 기능은 테스트해본 결과, 검색을 막아둔 웹사이트들은 진행하지 못합니다. 이전보다 더 다양한 웹사이트를 참고하려고 합니다. GPT-4의 경우 인용한 웹사이트 링크가 여러 개여도 하나의 웹사이트 내에서 여러 내용을 인용하는 경우가 많았다면, GPT-4o은 같은 중앙일보 인용이어도 최대한 다양한 기사를 인용하며 총 5가지 기사에서 정보를 인용했습니다. GPT-4에서 특정 업무를 수행할 때, 요청한 정보나 데이터가 나오는 속도가 사람이 읽는 속도보다 느린 경우가 많았는데, 지금 GPT-4o에게 일을 시키면.. 수행하고 출력하는 속도가 너무 빨라 도저히 제 읽는 속도로 따라갈 수가 없는 정도입니다. 혹시 유료버젼을 쓰고 계신 분들이라면 시도해보세요. 전혀 과장이 아님을 아실 겁니다. 바로 위에 저 내용을 조사한 후 출력하는 데 5초도 안걸렸습니다. 최근 Meta의 오픈소스인 LLaMA-3의 성능이 아주 뛰어나게 출시됐고, Antrophic사의 Claude-3의 성능이 ChatGPT-4보다 좋다는 뉴스가 나오며 OpenAI가 어떤 반격을 준비하고 있나 궁금해하던 사람이 많았을텐데, 역시 OpenAI는 대중을 실망시키지 않았습니다.성능이 정말 많이 뛰어나고, 특히 '인간적인'교감이 가능해진 만큼 AI가 'Her'에 나오는 비서처럼 유능할 수도 있고, 'Her'에 나오는 것 처럼 AI가 가진 여러 문제점 역시 더 가시화될 수도 있습니다. 이런 내용들은 추후 다른 글로 천천히 다뤄보겠습니다.
인공지능
·
5
·
세상에서 가장 유명한 윤리 딜레마
세상에서 가장 유명한 윤리 딜레마 by. 🥨 채원 이런 밈을 보신 적 있으실까요? 단연코 현 시대에 가장 널리 알려진 윤리적 딜레마가 아닐까 싶은 트롤리 딜레마(광차 문제)입니다. 트롤리의 딜레마는 영국의 철학자인 필리파 풋 (Philippa Foot)에 의해 고안된 윤리학의 사고 실험으로, 1967년에 출간된 <낙태의 문제와 이중 효과 원칙 (“The Problem of Abortion and the Doctrine of Double Effect”)>에서 처음 소개되었습니다. 낙태 문제를 탐구하기 위해 들었던 예시인 이 사고 실험은, 이후에 수많은 윤리 문제를 연구에 사용되어왔습니다. 특히 자율 주행 차량의 윤리학을 다룬 모럴 머신 실험 (The Moral Machine Experiment)에 사용되어 AI 윤리에서도 널리 논의되어 왔죠. 모럴 머신은 온라인에서 누구나 참여할 수 있는 실험으로, 자율 주행 자동차가 직면한 다양한 도덕적 딜레마를 탐구합니다. 출시된 이래 233개국 이상, 4천만 건 이상의 결정을 모으며 꾸준한 관심을 받고 있습니다. 모럴 머신 실험은 2018년 네이처지에 실린 논문을 비롯하여 다양한 학술적 성과를 이루어냈습니다. 이러한 성공과 더불어, 트롤리 딜레마의 한계도 지적되고 있습니다. 트롤리 딜레마는 조금씩 변형하여 다양한 도덕적 의사 결정을 내리는 사고 실험을 하는 데 유용하긴 하지만, 한편으로는 AI 윤리의 논의대상을 물리적이고 기계적인 문제들로 제한한다는 것입니다. 베르겐 대학교의 마리야 슬라브코빅(Marija Slavkovik)과 같은 학자는 이러한 한계는 예컨데 온라인 상 콘텐츠 검열과 같이 정해진 수의 보기가 명확하게 없는 문제에서 극명한 한계를 보인다고 비판합니다. 두 가지 결정 중에 반드시 하나를 선택해야만 하는 이분법적인 접근을 요하는 트롤리 딜레마와 달리, 콘텐츠 검열의 경우 복잡한 스케일 안에서 미묘한 차이에 기반한 다양한 선택 중 하나를 결정해야 하는 경우가 대부분입니다. 예컨대 같은 아동의 사진이라도 아동을 대상으로 하는 성착취물와 전쟁의 참사를 드러내는 사진은 명백히 다른 함의를 가진다는 거죠. 복잡한 사회적 맥락을 고려하지 않고 기계적인 이분법적 잣대를 바탕으로 내리는 의사 결정에는 근본적인 한계가 존재할 수 밖에 없습니다. AI 윤리, 기계 윤리, 데이터 윤리 등 다양한 이름으로, 새로운 기술이 사회에 미치는 영향과 거기서 파생되는 새로운 문제들이 탐구되고 있습니다. 모럴 머신 실험은 한국에서도 AI 윤리 교육에 활용되는 등 활발하게 다루어져왔습니다. 다만 AI 윤리의 문제가 모두 트롤리의 딜레마로 치환될 수 없다는 점은 명심해야 할 것입니다. 혹시나 궁금하실 분들을 위해, 지난주 베를린에서 열린 2024년 기계+행동 학회 (Machine+Behaviour Conference) 중, <기계 윤리 예시: 앞으로 나아가기 (”Machine Ethics Examples: Moving Forward”)>라는 제목으로 마리야 슬라코빅 교수가 발표한 내용은 여기에서 다시 볼 수 있습니다. 신뢰 : AI가 살아남기 위한 조건 by. 🍊산디 막스 베버는 <직업으로서의 학문>에서 공학자가 아닌 일반인이 어떻게 자동차를 신뢰할 수 있는지 이야기합니다. 그는 자동차의 작동 방식을 알지 못하더라도 “원하기만 하면 언제든 ‘배울 수 있다’고 알고 있거나 또는 그렇게 믿고”있기 때문에 자동차를 신뢰할 수 있다고 생각했습니다. 자동차는 신비한 힘이 아니라 계산 가능한, 통달할 수 있는, 탈주술화되어 있는 도구죠. 베버의 관점에서 본다면, 일반인에게 AI는 신뢰할 수 없는 기술입니다. 미지의 ‘블랙박스’로서 AI는 이해할 수 없는, 주술과 같은 영역이기 때문이죠. AI의 탈주술화를 위해 전 세계 연구자들이 연구에 박차를 가하고 있습니다. 의사결정 과정과 이유를 설명할 수 있는 AI(explainable AI), 인간 윤리를 학습한 AI를 개발하려는 노력이 이루어지고 있죠. 이러한 공학적 접근은 AI 자체가 투명하고 윤리적이어야 신뢰할 수 있다는 관점에 입각합니다. AI 자체를 개선하려는 접근은 분명 AI의 신뢰 가능성을 높이는 데 도움이 됩니다. 하지만 기술 자체의 속성만으로 신뢰 가능성이 결정되지는 않습니다. 신뢰는 사회적 실체이기 때문이죠. 기술적으로 완벽하지만 사회적으로 믿을 수 없는 기술이 있을 수 있습니다. 반대로 엉성하다 못해 복장 터지는 기술임에도 불구하고 신뢰받는 경우도 많죠. 자동차 사례로 돌아가봅시다. 저는 자동차의 작동 방식에 별 관심이 없습니다. 그럼에도 불구하고 제가 특정 자동차 모델을 구매하기로 결정했다면 이는 1) 다른 사람들도 해당 자동차 모델을 구매했고, 2) 자동차를 제조한 기업의 과거 행동과 평판에 대해 알고 있고, 3) 자동차를 규제하는 법 제도가 존재함을 알기 때문일 것입니다. 사진: Unsplash의 Jason Leung AI 역시 마찬가지입니다. 인간-AI 상호작용에서 AI를 신뢰할 수 있는지에 대한 판단은 다른 사람도 해당 AI를 사용하는지, AI 제조사를 믿을 수 있는지, AI에 대한 법 제도적 장치가 마련되어 있는지와 같은 AI를 둘러싼 사회적 맥락을 함께 고려하여 이루어집니다.  인간의 윤리를 완전히 학습했다고 주장하는 ‘궁극의 AI'가 혹시라도 가능하고, 또한 등장할 수 있다 하더라도, 그것의 신뢰 가능성은 기술력에 의해 결정되지 않습니다. 사람들은 AI 기업이 어떤 노력을 보여주었는지, 이용자들과는 어떤 관계를 맺고 있는지, 관련 법제도의 정비 수준은 어떠한지를 따져 물을 거예요. 만약 신뢰할 수 없다면, ‘궁극의 AI’는 역사에서 사라질 겁니다.  이용자의 신뢰를 얻을 수 있는 AI가 인류와 함께 살아 남을 것입니다. 이것이 기업과 정부가 AI 윤리를 적극적으로 이야기해야 하는 이유입니다.   오늘 이야기 어떠셨나요? 여러분의 유머와 용기, 따뜻함이 담긴 생각을 자유롭게 남겨주세요. 남겨주신 의견은 추려내어 다음 AI 윤리 레터에서 함께 나눕니다. 
인공지능
·
2
·