×
뎁스노트
인공지능
21세기 오펜하이머

 

 

<21세기 오펜하이머>

 

 

크리스토퍼 놀란 감독의 <오펜하이머> 가 화제였습니다. 이 영화는 미국의 핵개발 프로젝트인 맨해튼 프로젝트에 참여해 원자폭탄을 개발한 오펜하이머에 대한 내용을 다루고 있죠. 핵폭탄 개발과 관련된 긴박한 시대 상황 속에서 핵폭탄이라는 인류 멸망의 도구를 개발한 오펜하이머의 인간적인 갈등을 이야기 하는 영화입니다. 그렇다면 <21세기 오펜하이머>는 어떤 이야기가 될 수 있을까요? 아마도 AI에 대한 영화가 될 것입니다. 감당할 수 없는 속도로 발전하고 확장하고 있는 AI 기술 앞에서 놀라움과 함께 두려움이 드는 것도 사실입니다. AI는 인류의 번영을 위해 잘 사용될 수 있을까요? 아니면 예상치 못한 폭주로 인류의 멸망을 초래할 수도 있을 위험한 무기가 될까요?

  

2023년 최고의 영화 중 하나가 아닐까? 크리스토퍼 놀란. 정말 믿고 보는 감독이다.

 


워싱턴 대학교의 컴퓨터 공학부 교수인 최예진 교수의 TED 영상을 간략히 소개해 드리려고 합니다. 제목은 <왜 AI는 믿을 수 없을 정도로 똑똑하면서도 놀라울만치 멍청한가 Why AI is incredibly smart and shockingly stupid > 입니다. (영상 원본 보기) AI 의 방향성에 대해서 관심이 있으신 분들이라면 꼭 한번 전문을 들어보시길 추천 드립니다. 간단히 중요한 부분만 정리해서 각색해 드립니다.

최교수의 한국형 발음은 듣기에 훨씬 편하다 ( 출처 : TED )


LLM (Large Language Model)의 근본적인 문제

 

ChatGPT는 놀라운 성과를 보여주고 있습니다. 변호사 시험에 우수한 성적으로 합격하고, 대학입시 수학문제를 풀고, 사진을 보면서 맥락을 분석하기도 합니다. 마치 일반인공지능 (Artificial General Intelligence)이 곧 다가올 것 같은 예감입니다. 그런데 이렇게 놀라운 성과의 이면에는 AI의 문제점들도 존재합니다.

 

(1) 엄청난 규모의 AI 모델 개발에는 천문학적인 비용이 들고, 이를 감당할 기업은 아주 소수에 불과합니다. AI 기술이 몇 개의 기업에 독점되어 갑니다.

 

(2) AI의 안전을 고민해야 할 수많은 연구기관들이 이런 모델을 검사하고 분석할 수단이 없기 때문에 이런 소수의 기업을 제어할 방법이 없습니다.

 

(3) 이런 대규모 AI 개발에 따르는 엄청난 탄소 배출과 환경에 미치는 영향이 더욱 심각해 집니다.

 

그리고 또다른 문제는 좀 더 근원적인 물음에 대한 내용입니다. AI 가 진정으로 인류에게 안전할 수 있을까 라는 문제죠.

2023년은 OpenAI 가 세상을 집어삼킨 해이다

 

상식 없는 AI

 

ChatGPT-4에게 이런 질문을 했습니다.

 

Prompt) "옷 5 벌을 햇볕에 말리도록 놔두었는데, 완전히 마르는 데 5시간이 걸렸다고 가정해 보자. 그러면 옷 30벌을 말리는 데 걸리는 시간은?"

ChatGPT) "30시간이 걸립니다."

 

어떤가요? 좋지 않은 답변이죠. 변호사 시험에 합격할 정도로 똑똑하지만 반면에 이런 기본적인 상식에서 무작위적으로 실패한 AI에 대해 우리는 얼마나 신뢰할 수 있을까요?

 

규모 낙관론자들은 "더 많은 데이터로 훈련하면 해결될 수 있다" 고 말합니다. 하지만 이렇게 생각해보죠. 왜 꼭 그렇게 해야하는거죠? 인간은 이런 대답을 얻기 위해 1조개의 단어를 학습하지 않습니다. 기계는 상식 그리고 사물과 현상에 대한 가치를 이해하지 못하기 때문에 이런 스케일적인 학습 방법에는 근본적으로 구멍이 있기 마련입니다.

 

Nick Bostrom 의 유명한 사고 실험이 있습니다. 종이 클립을 최대한 생성하라는 명령을 AI에게 내린다면 어떻게 할까요? 중간 과정의 목표와 인간 가치에 대한 이해가 없기 때문에 AI는 최종 목적을 위해 모든 나무를 죽일 수도 있습니다. 실제로 AI가 종이 클립의 생산을 최대화 하는 과정에서 하지 말아야할 일들은 너무도 많습니다. "가짜 뉴스를 만들지 말라" "도둑질 하지 말라" 거짓말 하지 말라" 등과 같은 것이죠. 이런 모든 것들은 세상이 어떻게 작동하는 지에 대한 우리 상식의 일부분입니다. 언어모델은 지식 모델과 동일하지 않다라는 것을 자각해야 합니다.

이런 단순한 질문에 엉뚱한 대답을 하곤 한다. 이 발표영상의 제목은 너무도 적절하다. "너무나 똑똑하지만, 반면 어처구니 없이 멍청한 AI"

 

가장 높은 빌딩으로는 달에 도달할 수 없다.

 

세계에서 가장 높은 건물을 계속 높이 쌓는다고 해서 달에 도달할 수는 없습니다. 달에 도달하기 위해서는, 새로운 접근 방식이 필요합니다. 문샷 (Moon Shot) 이 있어야 하는거죠. 지금과 같은 LLM 방식으로는 신뢰할 수 있는 지식모델로 사용하기는 적합하지 않을 수 있습니다. 이러한 언어 모델은 상상할 수 없을 만큼 거대한 양의 지식을 습득하지만 이런 지식은 목표가 아닌 부산물일 뿐입니다. 할루시네이션, 상식의 부족 등과 같은 부작용은 원천적으로 LLM에 존재할 수 밖에 없습니다.

 

반대로 인간의 학습은 다음에 어떤 단어가 나올지를 확률적으로 예측하는 것이 아니라, 세상을 이해하고 세상이 어떻게 작동하는지 배우는 과정입니다. AI 도 이러한 방식으로 훈련해야할 것입니다. 우리 연구실에서는 심층 신경망을 이용하여 작은 상식 모델로 분할된 학습모델을 사람들이 검토하고 수정할 수 있도록 공개하고 있습니다. 물리, 사회, 시각적 상식 뿐 아니라 정신, 규범, 도덕에 이르는 불가능해 보이는 거대한 상식 퍼즐을 다루려고 노력합니다. 각 개별 조각들은 불완전해 보일 수 있지만, 이런 조각들이 서로 연결되면 더 큰 차원에서 인간의 경험과 상식이라는 직물(Tapestry)로 엮어 완성될 수 있을 것입니다.

<문샷 띵킹>은 완전히 다른 차원의 목표에 도달하기 위해서는 생각의 접근 방식 자체를 바꿔야 한다고 말한다.

 

ChatGPT가 쏘아올린 거대언어모델을 기반으로 하는 AI의 개발 경쟁은 마치 2차 세계 대전 당시 핵무기를 개발하려고 했던 나라들의 상황과 비교될 수 있을 것입니다. 모든 것을 걸고 핵무기를 개발했지만 정작 자신이 만든 결과를 통해 인류가 멸망할 수도 있다는 자각을 했던 오펜하이머 처럼, 지금의 우리는 AI 라는 완전히 다른 형태의 놀라운 기술 진보 앞에서 어디로 가야할 지 혼동스러워하고 있습니다. 이럴 때야말로 인류 공동체의 함의를 하나로 모아야할 때라 생각합니다. 지난 5월 30일에 AI 안전센터 CAIS ( https://www.safe.ai/ ) 의 성명서에는 AI의 대부인 제프리 힌턴, OpenAI CEO인 샘 알트먼, Google DeepMind의 CEO 데미스 하사비스, 게이트 재단의 의장 빌 게이츠 등 전세계 AI 산업을 리딩하는 400여명의 전문가들이 서명을 했습니다. 선언문의 내용은 딱 한줄에 불과합니다.

  
 

"AI 로 인한 인류 멸종 위험을 완화하는 것은 팬데믹, 핵전쟁과 같은 다른 사회적 규모의 위험과 함께 전 세계적인 우선순위가 되어야 한다"

선언문은 딱 22단어에 불과하지만 내용은 사뭇 묵직하다. 문제는 이런 선언문이 과연 어떤 구속력을 가질 수 있을까 하는 것이다. OpenAI가 이 선언문에 기초해서 ChatGPT 개발 방향을 바꿀 수 있을까? 우리는 구글의 악이 되지 않겠다는 초기 선언과 사람을 연결하겠다는 페이스북의 창업 목적이 얼마나 변질되어갈 수 있는지를 생생히 목격하고 있다.

 


 

너무 서두르지 않았으면 좋겠습니다.

잠깐 멈추고 지금 우리가 어디에 있고, 앞으로 어디로 나아가야 할 지 함께 이야기하는 시간을 가지면 좋겠습니다.

세상 모든 순리가 동작하는 방식에는 서두름은 없습니다.

잠시 멈춰 서는 것이 필요하다. 기술 뿐 아니라, 우리 일상도 마찬가지다.

 

아이스커피 한잔의 여유로움을 느끼며

촌장 드림

 

댓글 0