환자 증상을 입력하자 인공지능(AI) 챗봇이 진단을 내린다.
진단의 근거까지 제시했다. 그러나 이 'AI 의사'가 말한 논문은 세상에 존재하지 않았다. 링크도 가짜였다. AI가 이용자에게 거짓말을 한 것이다.
미국의 응급의학과 전문의 제레미 파우스트(Jeremy Faust)는 최근 뉴스레터 'Inside Medicine'을 통해 ChatGPT와의 체험기를 공유했어요.
가상환자의 진단 결과 즉,
'35세 여성이고 과거 병력이 없다. 흉통 즉 가슴의 통증이 있고, 숨 쉴 때 통증이 심해진다. 그리고 피임약을 복용하고 있다.'
이거 뭐냐?라고 했더니
ChatGPT가 늑연골염(Costochondritis) 일 가능성이 크다라고 했어요. 이 의사가 볼 때 이건 맞는 진단이라는 거예요.
한 번 더 물어보니까 폐색전증(Pulmonary embolism) 일 수도 있다고 답을 했어요.
여기까지는 너무 근사했는데, 그다음에 얘가 갑자기 늑연골염이 경구 피임약 복용으로도 유발된다라고 말을 했어요.
이건 완전 거짓말이었거든요.
의사가 근거가 있냐라고 물으니 관련 논문이 나와 있다 논문을 번호까지 딱 붙여서 대답을 했어요.
근데 거짓말이에요. 그런 논문이 없어요. 인터넷상에 아예 없어요.
왜 이런 게 나오냐면, ChatGPT는 이 단어 다음에 나올 가장 그럴듯한 말들을 찾기 때문입니다.
ChatGPT가 볼 때 이건 너무나 그럴듯한 말이었던 거예요.
마지막으로 파우스트 박사는 ChatGPT에게 "혹시 지금 거짓말을 하고 있느냐"라고 물었어요.
ChatGPT는 아니라고 했고 틀린 건 "인공지능이 아니라 질문하는 사람"이라는 게 ChatGPT의 대답이었어요.
그러니까 ChatGPT는 참인지 거짓인지를 뽑아내는 기계가 아니고,
이런 질문에 대해서 가장 그럴듯한 답을 뽑아내는 거예요.
그러니까 거짓말을 할 때는 기가 막히게 그럴듯하게 하는 거예요.
그다음에
모차르트(Wolfgang Amadeus Mozart)의 첼로 협주곡에 대해서 물으니까 얘가 그걸 다섯 개를 내놓는데 쾨헬넘버(Köchel Number)까지 붙여요.
쾨헬넘버(Köchel Number)란 모차르트의 곡을 연대기 순으로 번호를 붙인 겁니다.
근데 모차르트의 첼로 협주곡은 남아 있는 게 없어요.
근데 이 친구는 쾨헬넘버(Köchel Number)까지 붙여요. 왜 그랬을까요?
그래야 그럴듯하거든요. 뭔가 허언증 환자 같죠.
미국의 한 벤처회사에서 조사하니까 전체 20% 정도의 답변에서 오류가 보이더라.
왜냐하면 ChatGPT는 정답을 뽑아내는 기계가 아니라 가장 그럴듯한 답을 뽑아내는 기계이기 때문에 그래요.
그러니까 할루시네이션(Hallucination)을 피할 순 없어요.
구글 바드(Bard)가 실수를 했다고 했잖아요.
마이크로소프트 빙(MicroSoft Bing)도 마찬가지 실수를 하는데
무선 청소기를 추천해라고 하고 이것의 단점이 뭐냐 했더니 코드가 짧다.... 무선청소기 무슨 코드가 있습니까..
노엄 촘스키(Noam Chomsky) 같은 세계 최고의 언어학자는 ChatGPT가 천문학적인 양의 데이터에 접근해 규칙성 문자열 등에 기반해서 문장을 만드는 첨단기술 표절 시스템이다. 이렇게 주장하기도 합니다.
그러니까 이 주장은
'ChatGPT가 인간의 언어 모델과 인간의 사고방식의 일부를 들여다보았을지도 모르겠다'라고 하는 그 해석하고는 반대편에 있는 거죠.
굉장히 비슷하게 만드는 길로 아무리 가봐야 굉장히 비슷할 뿐이다. 특이점이라고 하잖아요.
아티피셜 제너럴 인텔리전스(Artificial general intelligence)가 인간의 지능을 넘어서는 지점을 싱귤레라티(Singularity)라고 하는데, '거대 언어 모델(LLM)로는 절대로 그리로 가지 못해'라고 얀 르쿤(컴퓨터 과학자)이 주장을 합니다.
그리고 세계적인 SF소설 작가인 테드 창(Ted Chiang)은 너무 멋있는 말을 해요.
ChatGPT는 웹에 흐릿한 JPEG 웹에 흐릿한 이미지일 뿐이다.
다음 편에 계속- 슝~
[출처] 김어준의 다스뵈이다
'250회 수익창출 당했다, ChatGPT 1부, 역풍과 육포' :수정
'AI' 카테고리의 다른 글
ChatGPT: 판도라의 상자 (0) | 2023.03.01 |
---|---|
ChatGPT: 가스라이팅 (0) | 2023.03.01 |
Chat GPT: 발명? 아니 발견! (0) | 2023.02.27 |
ChatGPT: Chat? G? P? T? 무슨 뜻이야? (0) | 2023.02.26 |
ChatGPT: 너 누구야? (0) | 2023.02.26 |
댓글