×
뎁스노트
인공지능
ChatGPT는 흐릿하다

 


 

ChatGPT는 흐릿하다

 

 

2023년은 AI의 해라고 해도 과언이 아닐 것입니다. ChatGPT 가 쏘아올린 AI의 놀라운 성과를 지켜보면서 기존의 기술과 비즈니스 영역에 AI를 접목하려는 엄청한 시도와 투자가 이루어지고 있죠.

OpenAI의 ChatGPT는 불과 2개월만에 월 1억명의 사용자를 달성했다. (최근 메타의 '스레드'가 5일만에 가입자 1억명을 돌파하는 기록으로 ChatGPT의 기록이 무색하게 되기는 했지만)

대형 언어 모델 (LLM)을 활용한 수많은 사례들이 쏟아지면서 AI의 엄청난 능력에 놀라와하면서도 반면 여전히 제한된 한계점도 드러나고 있습니다. 어떤 형태로든 패턴이 존재하는 분야에서는 GPT (Generative Pre-Trained Transformer)는 엄청난 위력을 발휘할 수 있습니다. 하지만 명백하고 확실한 사실을 다루는 분야에서는 오히려 한계와 문제가 지적되기도 하죠. 일명 할루시네이션 (Hallucination) 이라고 불리는 증상입니다. 명박한 거짓말을 아주 태연스럽게 진실인 것처럼 대답하는 문제이죠. ChatGPT는 참인지 거짓인지를 판별하는 문제에 취약하다고 알려져 있습니다. 트랜스포머 모델이라는 것이 아주 그럴듯한 대답을 잘 짜깁기해서 내놓는 방식이라서 그렇습니다.

할루시네이션의 원뜻은 '환각'을 의미한다. ChatGPT가 약을 했다는 의미였을까? 

 

ChatGPT의 한계와 가능성에 대한 흥미로운 에세이가 있어서 간단히 소개해 드리려고 합니다. SF 작가 테드 창 (Ted Chiang)이 2023년 2월에 <뉴요커 New Yorker>에 실은 칼럼인데요, 제목은 'ChatGPT는 웹의 흐릿한 JPEG이다' 입니다.

<뉴요커> 에 실린 테드 창의 칼럼 표지 ( 원본 보기)

참고로 테드 창 (Ted Chiang)은 제가 가장 좋아하는 SF 작가입니다. 2004년에 국내 출시한 <당신 인생의 이야기>와 2019년 출간된 <숨> 이렇게 두 편의 중단편집 밖에는 없지만 현존하는 가장 위대한 SF 작가라는 명성을 얻고 있습니다. 테드 창의 <당신 인생의 이야기> 속의 <네 인생의 이야기 Story of Your Life> 는 드니 빌뇌브 감독의 <컨택트 Arrival, 2017>로 영화화되어 호평을 받기도 했죠. 정말 대단한 작가입니다. 꼭 한번 읽어보시길 권합니다.

 

테드 창의 칼럼의 내용을 재각색해서 정리해 드립니다. (원본 보기)

 

2013년에 독일의 건설회사 직원들이 제록스 복사기를 통해 출력된 설계도에서 이상한 점을 발견했어요. 각 방의 치수가 잘못 표기되어 있었던 거죠. 대체 어디서 문제가 발생했는지 확인하다가 제록스 복사기의 디지털 전환 방식의 알고리즘에서 바로 그 원인을 발견했습니다. 복사기가 원본의 이미지를 과도하게 압축하고 복원하는 과정에서 설계도 내의 다른 숫자들을 이용해서 수정 변경해 버렸다는 사실이죠. 잘 보이지 않는 영역을 그냥 흐릿하게 처리하면 될 것을 복사기가 사람이 읽을 수 있는 숫자로 생성(Generation)해서 마치 이것이 정확한 값처럼 보이게 만들었다는 게 문제였습니다.

2013년 제록스의 복사기는 과도하게 압축하고 복원하는 과정에서 숫자의 정보를 왜곡했다. 

제록스 사의 복사기의 문제는 OpenAI의 ChatGPT과 같은 유사한 프로그램에 대해 시사하는 바가 있다고 생각합니다. 압축이라는 과정은 무손실 압축과 손실 압축으로 나눠지게 되는데, 효율을 위해서는 통상 손실 압축 방법을 쓰게 됩니다. 사진이나 오디오, 비디오와 같이 절대적인 정확도가 필요하지 않은 정보에서 광범위하게 사용되고 있죠. 당연히 압축율이 높으면 복원된 정보의 해상도는 떨어지게 됩니다. 이런 압축 방식에서 보편적으로 사용하는 방식은 보간법 (interpolation) 입니다. 손실된 정보를 주변의 정보를 이용한 평균으로 유추해서 계산해 넣는 방식입니다. 그래서 압축률이 높으면 JPEG 이미지는 흐리게(Blurry) 보일 수 밖에 없는 거죠.

왼쪽의 영상이 과하게 압축되어 이미지가 흐릿하게 보인다. (참고로, 이 여자 이미지는 영상 압축 관련된 논문의 레퍼런스처럼 쓰이고 있다. 누굴까? )

 

ChatGPT가 정보를 처리하는 방식은 이와 유사합니다. 웹에서 찾은 정보를 다른 유사한 단어를 사용하여 다시 포장하는 ChatGPT는 흐린 JPEG 로 생각할 수 있습니다. 정확한 내용이 아니라 있을 법한 근사치의 정보입니다. 하지만 이런 근사치의 정보가 텍스트 형식으로 제시되기 때문에 ChatGPT는 뛰어난 답변을 하는 것처럼 보이며, 흐린 JPEG 이미지를 보고 있지만 (명쾌한 문법을 통해) 마치 명확하게 보이는 것처럼 속이고 있는거죠. 이것이 바로 할루시네이션의 원리 입니다.

 

 

이러한 대형 언어 모델 (LLM)은 전통적인 검색 엔진을 대체할 수 있을까요?

웹의 정보를 최대한 압축하여 표현할 수 있는 ChatGPT의 성능을 생각한다면 놀랍기도 하지만 반면 중요한 부분들이 완전히 조작되었을 가능성을 배제할 수 없습니다. 그 결과에 얼마만큼의 진실인 정보가 포함되어 있고, 또 얼마만큼의 흐림(Blurry)이 포함되어 있을지 구분할 수 있는 방법이 반드시 제시되어야 할 것입니다.

 

 

대형 언어모델을 이용하여 웹콘텐츠를 생성하는 것은 좋을까요?

많은 콘텐츠 업체들이 AI를 이용하여 새로운 창작물들을 쏟아 내고 있습니다. AI가 이러한 웹 정보들을 이용하여 계속해서 학습을 진행해 나간다면 어떻게 될까요? 복사를 계속해서 반복해서 진행하는 것은 (손실 압축 방식을 이용해서) 정보의 퀄리티가 점점 낮아진다는 의미일 것입니다. AI 기업은 학습 데이터의 선별 과정과 정책 그리고 출력의 품질에 대한 신뢰를 어떻게 계속 향상시켜나갈 것인지의 고민을 계속해 나가야만 하고 개선할 것입니다.

 

 

대형 언어 모델이 원작의 작품성을 도와줄 수 있을까요?

Xerox 아트, 또는 사본 아트라는 장르의 예술이 있습니다. 기존 작품을 재해석하여 새롭게 창조하면서 원래의 작품을 더욱 흥미롭게 만들 수 있습니다. 이런 재해석의 흐림(Blurry)은 대형 언어 모델이 창작에 기여하는 긍정적인 것으로 생각할 수 있습니다.

 

대형 언어 모델과 JEPG 압축에 대한 비교는 AI가 어떤 문제와 기회를 가지고 있는지 이해하는데 도움을 줄 수 있습니다. 기술의 한계와 가능성을 이해하고, 인공 지능 시스템이 생성한 내용을 비판적으로 검토하고, 특히 문제가 되는 경우엔 원본 정보와 비교하며 판단하는 것이 앞으로 더욱 중요해질 것입니다.

 

AI는 정말 흥미로운 분야입니다. 기술이 인문과 엮여 완전히 새로운 도메인을 창출하기 때문이죠. 아마도 점점 더 흥미로워질 겁니다.

 

촌장 드림

댓글 0