토론

인간과 인공지능 행위자의 적절한 관계

2024.05.07

192
1
인공지능 윤리를 고민하는 직장인, 프리랜서, 대학원생이 꾸려가는 뉴스레터입니다.

AI 윤리 뉴스 브리프

2024년 5월 둘째 주

by 🤔어쪈


1. AI가 읽는 AI가 쓴 자소서

  • 어떤 내용의 글이든 막힘없이 휘뚜루마뚜루 써내는 생성형 AI 기술이 알게 모르게 깊이 침투한 곳이 있습니다. 바로 채용 시장입니다. 구직자 입장에서 구인 공고에 맞춰 수없이 많은 지원서를 써야 하는 번거로움을 줄여주니 마다할 리 없지요. 덕분에 기업들은 지원자 수가 훨씬 증가했다고 합니다.
  • 이는 사람을 구하는 회사 입장에서 꼭 좋은 일만은 아닙니다. 서류 심사 대상이 많아진 만큼 검토 업무가 늘어났고, 심지어 지원서에 적은 내용을 면접에서 확인할 수 없는 경우도 종종 발생하고 있습니다. 때문에 생성형 AI로 작성한 서류를 탐지하기 위한 AI를 도입하는 중이죠.
  • 한 국내 기업은 작년 하반기 자사 AI 서류평가 솔루션으로 분석한 약 27만 건의 자기소개서 중 11% 이상이 ‘챗GPT를 표절했다고’ 주장합니다. 95%의 정확도를 자랑하지만 22%의 오탐지율은 분명 낮은 수치가 아닐텐데요. 특히 오탐지된 지원서를 기업이 그대로 불합격 처리할 경우, 지원자 입장에서는 공들여 쓴 서류가 단지 AI가 썼다고 의심된다는 이유만으로 탈락하는 상황이 발생할 수 있습니다. 생산성을 높인다는 명목으로 도입한 AI지만 생산성 증대는 커녕 애먼 피해자만 속출하는 것은 아닐까 우려됩니다.


🦜더 읽어보기



2. (미국이 뽑은) 생성형 AI의 12가지 그림자

출처: NIST AI RMF


  • 해당 문서에서 식별한 생성형 AI의 12개 주요 위험(허위 정보 및 유해 콘텐츠 생성, 프라이버시 및 지적재산권 침해 등)은 대부분 우리에게 익숙한 것들이지만, 첫번째로 화생방 및 핵무기 정보 제공 문제를 앞세운 것은 눈에 띱니다. 또한 NIST가 여러 종류의 위험을 어떻게 구분했는지, 또 해당 위험 완화를 위해서 어떤 조치가 필요하다고 언급하는지 미리 살펴보는 것만으로도 향후 AI 규제와 표준이 어떻게 자리잡을 지 예상해 볼 수 있을 것으로 보입니다.



3. AI 에이전트를 쓰고 싶지만, 대하고 싶진 않다면?

  • 현재 AI 업계에서 가장 뜨거운 키워드를 고르라면 단연 ‘AI 에이전트 (agent)’일 겁니다. 최근 오픈AI CEO 샘 알트만 역시 최근 인터뷰에서 완성도 높은 AI 에이전트가 킬러 앱이 될 것이라고 언급했듯, 많은 기업이 생성형 AI 기술을 앞세워 AI 에이전트 개발에 여념이 없습니다. 하지만 소셜미디어의 봇 계정, 게임의 NPC (비플레이어 캐릭터), 고객센터의 ARS (자동응답시스템) 를 떠올려보면 AI 에이전트는 사실 새로운 것이 아닙니다.
  • AI 에이전트는 지능형 또는 생성형 ‘행위자’로 직역되기도 하는데, 이는 곧 사람이 할법한 말과 행동을 대신할 수 있다는 의미를 함축합니다. 많은 AI 회사가 ‘당신이 [더 중요한 일]에 집중할 수 있도록 [특정 행위]는 AI에게 맡기세요’라고 속삭이고, AI 에이전트의 사용자에게 이는 분명 솔깃한 제안입니다. 하지만 기업도 사용자도 놓치기 쉬운 부분은 그 [특정 행위]가 AI 에이전트를 직접 마주할 다른 사람들에게는 [더 중요한 일]일 수 있다는 사실입니다.


🦜더 읽어보기



4. 더 이상 실존하지 않는 인류의 실존 위협 연구소

  • 우리에겐 <슈퍼인텔리전스 (Superintelligence)>라는 책 저자로 유명한 닉 보스트롬(Nick Bostrom)이 이끌던 옥스포드 인류미래연구소 (Future of Humanity Institute, 이하 FHI) 가 문을 닫았습니다. 19년간 명맥을 이어온 것에 비해 다소 조용한 마지막이었습니다. 기존 홈페이지는 종료 안내와 검색창만 남긴 채 사라졌고, 조촐한 아카이빙 웹사이트만 남았습니다.

출처: 옥스포드 인류미래연구소 홈페이지 갈무리


  • FHI는 철학과 소속이었지만 특정 학문 분과보다는 비슷한 사상, 특히 효과적 이타주의 (effective altruism) 나 장기주의 (longtermism) 에 기반한 연구소였습니다. 연구소장 닉 보스트롬의 초지능 담론을 비롯한 인류에 대한 실존적/파국적 위험 (existential-catastrophic risk) 이나 인간증강 (human enhancement) 과 같은 주제를 비교적 일찍이 다뤄왔고, 특히 실리콘밸리의 주목과 후원 아래 초지능 내지는 AGI (인공일반지능) 의 위험 담론을 주도해왔습니다.
  • 때문에 FHI에서 태동한 사상은 현재의 AI 안전과 AI 거버넌스라는 이름으로 AI 윤리 논의에 적잖은 영향을 미치고 있습니다. 하지만 AI 윤리 레터에서도 초기부터 지적해왔듯, 그 추종자들이 당장의 AI 기술이 가진 문제점 대신 먼 미래에 대한 사고실험에만 관심과 자원을 쏟도록 유도하고 있어 주의해야 합니다. FHI의 유산에 대해 비판적인 평가가 필요한 이유입니다.

🦜소식

  • 그.래.서! 이번 5월 21일(화)부터 AI 윤리 북클럽은 <AGI 담론 비판>을 주제로 시즌 2를 진행합니다. AI 윤리 레터를 통해 종종 읽은 글과 논의한 내용을 전해볼게요!



feedback

오늘 이야기 어떠셨나요?

여러분의 유머와 용기, 따뜻함이 담긴 생각을 자유롭게 남겨주세요.

남겨주신 의견은 추려내어 다음 AI 윤리 레터에서 함께 나눕니다. 

공유하기

이슈

인공지능

구독자 265명

취업 시 자기소개서를 챗GPT에게 써달라고 하는 경우가 많군요..! 과연 이것도 자기소개라고 볼 수 있을지… 과연 자기소개는 무엇인가… 머리가 복잡해집니다😵
“한 국내 기업은 작년 하반기 자사 AI 서류평가 솔루션으로 분석한 약 27만 건의 자기소개서 중 11% 이상이 ‘챗GPT를 표절했다고’ 주장합니다.”

연관 토픽 : #AI