토론

아마존, '이 요청은 처리할 수 없습니다' 상품 등장

2024.01.23

880
3
인공지능 윤리를 고민하는 직장인, 프리랜서, 대학원생이 꾸려가는 뉴스레터입니다.

2024년 1월 넷째 주 AI 윤리 뉴스 브리프

by.🌎다솔


1. 내 일자리 뺏어가는 AI? (링크)

  • 전 세계적으로 AI의 급속한 발전으로 인해 해고가 증가하고 있으며, 이러한 현상이 기술 분야에 국한되지 않고 다른 산업 분야로도 확산하고 있습니다. AI의 사용이 늘어났기 때문에 사람들은 일자리를 잃고 있는 것일까요? 아니면 모든 책임을 AI에 돌리려는 기업의 이기적인 태도일까요?
  • 구글은 지난해 전체 직원의 약 6%에 해당하는 12,000명을 해고했으며, 올해 초에도 추가 인원 감축을 실시했습니다. 또한, 미국 금융그룹 시티는 기술 분야 지출 증가와 자동화로 인한 업무 효율성 개선을 이유로 향후 3년간 20,000명을 해고할 계획임을 발표했습니다.
  • AI 도입으로 일터가 원활하게 돌아가기 위해서 직원의 연결 노동이 필요해지고 있으나, 이런 노동은 종종 가치를 인정받지 못합니다. 또한, 플랫폼 노동과 관련된 법적 지위나 노동조건 규제의 부재와 같은 오래된 문제들도 주목해야 합니다. 이러한 문제들은 기술로 해결될 수 없으며 정책적 접근이 필요합니다.

🦜함께 읽어도 좋을 지난 소식


2. 아마존에 '이 요청은 처리할 수 없습니다.'라는 제품 등장 (링크)

  • 아마존은 대형 언어 모델을 사용하여 제품명이나 설명을 생성하는 것을 금지하지 않으며, 작년 9월에는 아마존 판매자들이 제품 설명과 제목을 만들 수 있도록 하는 자체 생성 AI 도구를 출시했습니다.
  • 몇몇 아마존 제품에는 AI가 생성한 것으로 보이는 오류 메시지인 '이 요청은 처리할 수 없습니다.'가 포함되어 있으며, 이는 아마존 상에 스팸성 제품 목록을 올리면서 기본적인 편집조차 하지 않고 있다는 것을 보여줍니다.
  • 아마존 외에도 X, Threads, 링크드인 등에서 AI가 생성한 것으로 보이는 글을 쉽게 찾아볼 수 있습니다. 이러한 AI 생성 콘텐츠의 홍수는 아마존 전자책 마켓플레이스에 이르기까지 모든 플랫폼에 영향을 미치고 있으며, 이 문제는 더 악화할 것으로 보입니다.

'이 요청은 처리할 수 없습니다'라고 적힌 아마존 제품명. 출처: 아마존


3. 모르면 모른다고 답하는 AI (링크)

  • 구글 연구진은 LLM(대규모 언어모델) 답변의 정확도를 확률로 나타내는 신뢰도 점수를 출력하는 어스파이어를 개발했습니다. 
  • 어스파이어는 LLM이 생성한 답변이 올바른지 평가하도록 학습시킵니다. 어스파이어를 사용하면 LLM이 해당 답변에 대한 신뢰도 점수와 함께 답변을 출력할 수 있습니다.
  • 구글 연구진은 "어스파이어는 추측보다 정직을 장려함으로써, AI 상호 작용을 더 신뢰할 수 있게 만드는 것이 목표"라고 밝혔는데요. 무조건 AI에 의존하기보다 사람이 정확한 정보를 구분할 수 있는 능력이 더욱 중요해질 것 같습니다. 

🦜댓글

  • 🤔어쪈: 구글의 연구 소개 블로그 글을 살펴보니, 어스파이어는 기존 대규모 언어모델(LLM)이 생성한 답변을 자체 평가하도록 만든 연구를 참고해 정확도 평가 작업을 위한 추가 튜닝을 거친 것으로 보입니다. 하지만 결국 LLM의 평가에 의존하는 기법이기 때문에 한계 역시 분명할 것 같아요.


4. 군사 및 전쟁 용도로 AI를 사용할 수 있을까요? (링크)

  • 오픈AI는 기존의 군사용 AI 제공 금지 정책에서 '군사 및 전쟁' 용도로 AI 사용을 금지하는 내용을 제거했습니다. 다만 AI를 무기 개발, 재산 피해, 인명 피해 등에 사용하는 것은 여전히 금지하고 있습니다.
  • 오픈AI는 미국 국방부와 협력하여 오픈소스 사이버보안 소프트웨어 개발에 참여하고 있습니다. 또한, 전역 군인 자살 방지 방법에 대해서도 미국 국방부와 초기 논의를 시작했습니다.
  • 오픈AI는 생성 AI가 정치적 정보 왜곡에 사용되지 않도록 선거 보안 작업에 속도를 높이고 있습니다. 앞으로 오픈AI 기술의 발전이 사회적, 정치적으로 어떤 영향을 미치게 될까요?


5. AI로 생성한 얼굴 사진 구분 가능한가요? (링크)

  • 여러분은 AI로 생성한 얼굴 사진과 실제 얼굴 사진을 구분하실 수 있나요? 다음 링크에 접속하시면 테스트하실 수 있습니다.
  • 특히 백인 얼굴에 대해 AI로 생성한 얼굴 사진이 실제 사람의 얼굴 사진보다 더 실물 같게 인식되는 현상이 나타났습니다. 주로 백인 이미지를 AI 학습 데이터로 사용하기 때문에 발생하는 것으로 보입니다.
  • 호주국립대학교의 에이미 다웰 박사의 연구에서는 AI로 생성된 얼굴과 실제 얼굴을 구분할 때 참가자들의 자신감이 높을수록 실수할 가능성이 높다는 점도 밝혀졌습니다. 
  • 기술 발달로 인한 이러한 혼란에 대처하기 위해서는 인터넷상의 판단 시 지나친 자신감에 의존하기보다는 신중한 접근이 필요합니다. 자기 자신에게 엄격한 태도가 가장 안전한 방법이 될 수 있습니다.

 AI로 생성한 얼굴과 실제 얼굴 사진 구분 테스트 결과. 출처: 더뉴욕타임즈


6. 네이버 AI 혐오 Q&A (링크)

  • 네이버의 AI 서비스가 민주노총에 대해 사실과 다른 내용을 노출했고, 전장연(전국장애인차별철폐연대)에 대한 검색 결과에서도 혐오 표현을 포함한 정보를 노출했습니다.
  • 민주노총 관계자 A 씨가 네이버에 허위 사실과 명예훼손 표현의 시정을 요구했으나, 네이버는 ‘AI라서 결과를 수정할 수 없다’는 식의 입장을 보였습니다. 
  • 진보네트워크센터의 희우 활동가는 네이버의 사전 시정 부재를 지적하며, 네이버가 AI 생성 결과에 대한 책임을 져야 한다고 주장했습니다. 네이버는 언론 취재 이후에 민주노총과 전장연 관련 Q&A 섹션을 삭제하고, 이에 대한 자체 검토와 개선을 약속했습니다.
  • 희우 활동가는 네이버의 조치가 임시방편이며, IT 기업들이 시스템을 개선하는데 책임감을 가져야 한다고 지적했습니다. AI 편견과 오류를 반영하는 문제에 대해 국내외에서 규제 도입 필요성이 제기되고 있으며, EU는 디지털서비스법(DSA)을 통해 알고리즘 투명성에 대한 책무를 규제하고 있습니다.

언론 취재 뒤 현재는 삭제된 네이버 검색 결과 AI Q&A. 출처: 미디어오늘


🦜캘린더




오늘 이야기 어떠셨나요? 여러분의 유머와 용기, 따뜻함이 담긴 생각을 자유롭게 남겨주세요.
남겨주신 의견은 추려내어 다음 AI 윤리 레터에서 함께 나눕니다.

공유하기

이슈

인공지능

구독자 265명

네이버.. 역시 우려했던 일이 벌어지는군요. 그런데 인공지능이 만든 결과라 수정할 수 없다는 태도도 역시나 우려했지만, 당당하게 답변을 하는군요. 무분별한 인공지능 도입이 가져올 혐오 확산, 이에 대한 사업자의 책임 회피.. 늘 봐왔던 광경이지만 정말 여러가지로 염려됩니다.

네이버가 AI를 통해 표출한 민주노총과 전장연 관련 정보가 충격적이네요. 플랫폼 운영을 AI에게 맡기면 안되는 이유를 몸소 보여주는 것 같네요. 그리고 얼마나 혐오가 많았으면 AI가 이렇게 학습했을까 하는 생각이 들어 슬프기도 합니다.
헉 저도 ai로 만든 사람 얼굴 구분하기 왕창 틀렸습니다. 자신감이 높을수록 틀릴 가능성이 높다니 찔리네요. 신중하게 살아가겠습니다...
연관 토픽 : #AI