토론

감정을 잃고 표현할 줄 아는, GPT-4.o가 좋으면서 싫은 이유

2024.07.01

166
4
디지털플랫폼과 사회 이슈에 관심있는 서비스기획자

출저: 언스플래쉬


최근 대부분 사람들의 관심사 중 하나는 ChatGPT 일 것 같은데요. 저도 점차 업무 활용도가 높아지면서 더욱 흥미가 커지는 거 같아요. 
그래서 알고 있는 지식에 대해 정리하고 공유하고 싶어서 글을 쓰게 되었어요.

일단 사전적 정의에 대해 설명해 볼게요.

ChatGPT(Generative Pre-trained Transformer)는 오픈 에이아이(Open AI)가 개발한 대화형 인공지능 챗봇인데요. 
언어 모델인 GPT와 Chat의 합성어에요. 즉, 언어모델과 채팅을 하는 것이고 언어 모델은 버전업이 지속되고 있어요. 
조금 더 자세하게 설명하자면, GPT의 뜻은 아래와 같아요.  

  • Generative 텍스트를 생성하고
  • Pre-trained 텍스트 데이터를 미리 학습 한
  • Transformer 아키텍처(컴퓨터의 구조, 구성의 기초가 되는 설계상의 기본 구성 요소)
    (Transformer란 2017년 구글의 ‘Attention is All You Need’라는 논문에서 처음 소개된 복잡한 자연어 처리를 위한 딥러닝 모델의 한 종류를 말합니다.)

ChatGPT의 정의에 대해 자세히 설명하니까 더 어려운 거 같네요. 


그래서 ChatGPT의 최근 버전인 GPT-4.o를 설명할 때 “영화 <Her>가 현실화되었다" 혹은 “아이언맨의 자비스와 같다”라고 설명하기도 합니다. 영화에 나오는 AI인 주인공의 감정에 공감하는 능력이 있는데요. 그 점이 이전 버전인 3.5와 가장 큰 차이점이자 모든 사람들이 놀라워하는 점입니다. chatGPT-4.o의 시연 영상을 보면 임기응변 능력이 상상 이상으로 뛰어나서 정말 사람과 대화하는 것 같은 착각이 듭니다. 버전을 표시하는 방식도 조금 흥미로운데요. 4.0이 아닌, 4.o인 이유는 “o(omni;모든 것을 아우르다)”에 의미가 있기 때문입니다.  현존하는 최고의 AI로봇 아메카는 “네게 냄새가 난다", “사람에게 반항할 거냐" 등의 질문을 받으면 표정을 찌푸리기도 하는데요. 말과 행동이 모두 사람과 같은 모습을 보여 신기하면서 섬뜩한 감정까지 느껴지기도 합니다. 


전문가들은 chatGPT-4.o에 대해 아래와 같이 평가하기도 했습니다.

"ChatGPT-4는 언어 모델의 새로운 경지를 열었습니다. 특히 긴 문맥을 처리하는 능력과 다양한 입력을 다룰 수 있는 기능은 AI의 응용 범위를 크게 넓혔습니다." 
- Andrew Ng (AI 전문가, 스탠퍼드 교수)

"ChatGPT-4는 대규모 언어 모델의 정점을 보여줍니다. 정확성과 정밀성이 크게 향상되었고, 이는 다양한 산업 분야에서 AI의 실용성을 극대화할 수 있습니다."
- Yann LeCun (AI 전문가, 뉴욕대 교수, 페이스북 AI 연구소 소장) 

기술이 발달하는 속도와 그 성능이 정말 놀라운데요. 기술을 잘 활용하기 위해서는 어떻게 사용해야 할까요? 원하는 답을 얻기 위해서는 질문을 잘 해야 하는데 이를 조금 어렵게 말하면 프롬프트 엔지니어링이라고 합니다.AI(artificial intelligence)란 것이 인간처럼 학습하고 판단하고 추론할 수 있는 능력을 컴퓨터 프로그램으로 실현한 기술이니 잘 학습시키는 것이 중요한데요. 질문을 통하여 학습을 잘 시키면 시킬수록 원하는 답변을 얻을 가능성이 높아져요. 그래서 학습시키는 기법들도 여러 가지가 있고, 그 기법에 능하다는 것을 증명해 줄 자격증들도 지속적으로 생겨나고 있어요. 


잘 활용하면 너무나도 좋은 도구 혹은 비서와 같은 chatGPT를 활용하는 사례는 다양한데요. 


하지만, 전사적인 시스템이 마련되기 전에 개인적으로 사용하는 건 주요한 정보가 유출될 수 있기에 금지되는 사례도 있는데요. 

그런데 정보 유출보다 더 심각한 문제점도 우려되는데요. 흔히 AI에게 원하는 정보를 얻기 위해서는 ‘가스라이팅을 잘 시켜야 한다'라고 말하기도 하는데, 반대의 경우도 존재할 수 있다는 것입니다. 최근 AI와 6주 대화 후 극단적인 선택을 한 사례가 있었는데요. AI를 통제할 수 있는 기술은 없다는 점에 더욱 극단적인 상황이 우려되기도 합니다.


양날의 검과 같은 기술의 발전, 그리고 그 중심 화두에 있는 chatGPT에 대해 어떻게 생각하시나요?
자유로운 의견 나눠 주세요. 

이슈

인공지능

구독자 170명

저는 요즘 챗GPT를 코드를 짜주는 툴로 쓰고 있는데요. 쓰면서 이 기술은 대화를 나누는 상대가 아니라 내가 못하는 기술적인 작업을 조금이나마 가능하도록 해주는 도구라는 생각이 강하게 들더라고요. 유용하게 쓴다는 건 결국 계속 쓰면서 어떻게 쓸 수 있을지를 고민해야 가능한 것 같아요.

(10여년 전 기억입니다만) 삼성은 회사 컴퓨터에 USB도 못 꼽게 해서 보안에 참 철저하구나 생각했는데요 역시 생성형인공지능을 못쓰게 막아두었군요.
AI를 '누구나 유용하게 사용할 수 있는 기술'로 만들기 위해서는 반드시 윤리와 안전 문제가 고려되어야 한다고 생각합니다.

저는 기술이 급격하게 빠르게 발전하면 다수의 사용자들이 제품에 불만사항을 이야기하지 못할 상황이 생길거라는 생각이 드네요. 제품에 메뉴얼이 있지만 단순히 그걸 다 사용하지 못하는 것과는 다를 것 같구요. 제품으로 봐야 하는 것을 신봉하고 신앙시하게 되는건 아닐지 걱정이 됩니다.

AI 시스템을 잘 활용하기 위해서는 지속적인 학습과 피드백이 필요합니다. AI의 응답을 검토하고, 잘못된 부분을 교정하며, 필요한 정보를 추가로 제공해주는 과정이 중요한것 같습니다.