본문 바로가기
AI

ChatGPT: Chat? G? P? T? 무슨 뜻이야?

by 용감한 사만다 2023. 2. 26.

 

 

딥마인드(DeepMind Technologies Limited)라는 곳에서 만든 알파고가 이세돌 9단을 바둑에서 이겼잖아요.

그게 뉴럴 네트워크 방식으로 만든 차세대 인공지능이었어요.

그러니까 지금 ChatGPT는 그 계열로 가고 있는 겁니다.

 

 

ChatGPT

 

 

 

 

저번 포스팅에서의 강아지사진으로 돌아가서 말하자면

예전에는 사람이 특징을 다 넣었어요.

그러나 새 방식은 그 구분하는 것까지를 인공지능에 다 넣어 맡깁니다.

그러니까 강아지 사진은 10만 장을 주고 10만 장의 사진들의 차이점을 네가 다 잡아내라는 식으로 인간이 전문가처럼 특징을 잡아서 교육을 시켰는데, 그게 아니고 데이터를 왕창 주고 네가 공통점을 찾아라 한다는 거예요.

사진이 보통 15만 장 정도 필요하다고 하는데요. 15만 장을 넣고 이 사진들에 다른 특징들을 다잡아내라!

그 잡아낸 하나하나를 매개변수라고 불러요.

그러니까 매개변수가 1억 개, 10억 개 이렇게 되는 건데요. 이게 엄청 잘 맞추는 거예요.

천만 개라고 쳐요. 천만 개의 매개변수 하나하나에 대해서 가중치를 주는 거예요. 그러니까 1부터 1000만이 있으면 이런 변수는 0.00001 이 변수는 0.000025 뭐 이런 식으로 점수를 쭉 주고 계속 전체 연산을 해보는 겁니다 이 천만 개의 변수들에 대해서 각각 가중치를 기가 막히게 맞추더라.

근데 문제는 맞히기는 기가 막히게 잘 맞추는데 왜 잘 맞추는지는 알 수가 없어요 ChatGPT가 어쨌든 잠재된 패턴들을 잘 찾아내는 방식이라는 것을 알게 됐어요.

우리가 다섯 살만 돼도 고양이하고 강아지를 구분하잖아요. 말로 설명은 못하지만 그 설명할 수 없는 어떤 숨어있는 패턴을 ChatGPT가 잘 찾아내더라까지 알아낸 거예요.

그래서 이런 차세대 인공지능에 대해서는 과학적인 발명이라기보다 과학적 발견에 가깝다고 설명하는 사람들도 있어요. 인간이 사고하는 패턴대로 컴퓨터가 움직이도록 했더니 컴퓨터가 열심히 학습을 해서 인간이 학습하듯이 학습한 거예요. 그래서 이제 일부에서는 ChatGPT가 사람의 언어가 작동하는 어떤 방식을 들여다본 게 아닌가 이렇게 이야기한 사람들도 있어요.

그게 딥 러닝이라고 하는 방식이고 그 방식을 활용한 게 그중에서 가장 앞서 있는 모델 중에 하나가 ChatGPT에요.

 

 

1.ChatGPT의 Chat은 대화형이란 뜻이에요.

 

대화형이란 게 두 가지 의미인데 입력을 대화형으로 자연스럽게 또 하나는 우리가 대화를 하려면 단기 기억을 갖고 있어야 돼요.

 

예를 들면

너 어제 뭐 했어? 영화관에서 영화 봤어? 그거 재밌어?라고 할 때 그거라고 하는 게 앞에 영화관에 가서 영화를 봤다는 걸 기억을 해야 그거라고 할 수 있잖아요. 그거 주연배우 누구였어? 누구다 그러면 그 친구 참 연기 잘하지?라고 했을 때도 이미 극장에서 영화를 봤다 그 영화의 주인공이 누구였다는 걸 다 갖고 있어야 대화할 수 있잖아요. 이런 단기기억을 갖고 있다는 뜻도 있어요.

 

 

 

영화관

 

 

2.ChatGPT의 G는 Generative '생성하는, 만드는' 인공지능이다라는 거예요.

 

ChatGPT가 그림을 학습하면 그림을 그리고, 동영상을 학습하면 동영상을 만들고, 글을 학습하면 글을 쓰는데 ChatGPT는 글을 만드는 Generative라는 겁니다.

 

3.ChatGPT의 P는 Pre-trained '사전 학습한'

이런 뜻인데 뭘 학습을 했냐면 Large Language Model (LLM)이라고 거대한 언어 모델을 학습을 했다는 건데 어느 정도로 거대한가 하면 3000억 개의 단어와 5조 개의 문서를 학습해 인간이 만든 거의 모든 문서를 다 봤다고 할 수도 있어요. 그리고 거대한 모델을 사전 학습했다는 뜻도 있고 그다음에 다른 것을 학습을 시킬 때는 Few shot learning이라고 해서 그 분야에 관한 모든 데이터들을 안 줘도 조금만 줘도 얘가 학습을 한다 그런 의미도 있어요. 언어를 학습했을 뿐인데 어떤 전문 분야에 대한 것도 몇 개의 데이터만 주면 마치 잘 알고 있는 것처럼 그럴듯한 답을 내놓는다고 볼 수 있다는 거죠.

 

4.ChatGPT의 T는 Transformer

딥러닝이 하나의 모델인데 지금 가장 인기가 있는 모델이에요.

이 단어의 다음 단어가 뭐가 올지를 확률로 예측을 하는 거예요. 5조 개의 문서에 학습을 했으니 단어의 다음에 어떤 단어가 배치될 거다. 그래서 1초에 312조 번의 연산을 하는 컴퓨터가 뒤에 붙어 있으니까 그런 말도 안 되는 계산을 할 수가 있는 거예요. 그런데 그냥 하는 게 아니고 Attention이라는 모델을 쓰는데 얘는 이 문장에서 핵심 단어가 뭔지를 파악을 해서 그걸 기억하고 있어요.

 

예를 들면

'내가 어제 길가에 카페에 앉아서 하품을 하고 있는데 저쪽에서 연예인이 오고 있는 거야'라고 말을 했다고 하면

이 문장에서 핵심이 뭐예요? 하품은 아니잖아요. 길가 카페도 아니고, 연예인을 내가 만났다는 게 핵심이겠죠.

그러면 이 문장들은 뭐가 올까 를 추론을 하게 되면 상당히 멋지게 뽑을 수가 있겠죠.

대화가 가능하려면 그 문장에서 중요한 단어가 뭔가를 알아내야 하니까 그렇게 해서 멋진 말을 할 수 있는 거죠.

단기기억을 갖고 있고 뒤에 문장들을 계속 기억하면서 추론을 해 나가요.

그러니까 대화형인데 굉장히 거대한 언어 모델로 사전 학습을 했고 뭔가 근사한 말을 뱉어내죠.

 

 

 

귀여운 아기강아지 두리

 

 

제가 강아지 사진을 예로 들었는데 ChatGPT는 1750억 개의 매개변수를 갖고 있습니다.

놀랍게도 한번 연산할 때 1750억 개의 매개변수의 가중치를 다 바꾸면서 계산을 해요. A100이 1초에 312조 번 연산한다고 했는데 그걸 1만 대를 붙였습니다. 뭔가 우리가 상상할 수 있는 그 범위를 넘어섰어요.

그리고 RLHF(Reinforcement Learning from Human Feedback)라고 해서 인간의 피드백을 가지고 강화 학습을 했는데 이게 뭐냐면 사람이 작성한 굉장히 좋은 텍스트들을 한 5만 개 정도를 가지고 학습을 시켜요.

그다음에 내놓는 답을 보고 사람들이 평가를 합니다. 점수를 매겨요. 그럼 다시 학습을 하는 겁니다.

 

예전에 마이크로소프트가 내놨던 인공지능 인종차별적인 발언들을 해서 오픈했다가 금방 문 닫고 그랬잖아요. 그런데 ChatGPT는 인간의 피드백을 가지고 강화 학습을 한 결과라 그런 부분을 꽤 피해 나갑니다. 굉장히 예의 바르고 친절한 방식으로요. 그러니까 ChatGPT랑 대화랑 기분이 좋아요. A100 만대를 계속 돌리는 것만 해도 엄청난 일인데 지금까지 거의 3.7조 원 정도를 이해하고 학습하는데 썼다고 뉴욕타임스가 보도를 했어요. 어쨌든 돈이 엄청나게 들어갑니다.

 

다음 편에 계속- 슝~

 

 

[출처] 김어준의 다스뵈이다

 '250회 수익창출 당했다, ChatGPT 1부, 역풍과 육포' :수정

댓글