최신 데이터 동향 및 향후 전망

오픈AI사태 요약과 배경 그리고 Q*

정데만 2023. 11. 24. 15:14
728x90

샘 알트먼이 복귀하면서 일련의 사태는 5일만에 종료되었으나 이사회가 전면 교체되면서, 알트먼의 경영 방식에 더욱 속도가 붙게 되었다. 핵개발에 버금가는 과학계 최고 이슈 챗GPT 공개, 그리고 오픈AI사태까지 1년에 걸쳐 방영된 판타스틱한 현실 드라마에는 도대체 어떤 이면이 있었을까?

 

오픈AI사태 요약

  • 11.17일 : 이사회에서 일리야 수츠케버(수석 과학자) 주도로 샘 알트먼 CEO 해고 통보
  • 11.18일 : 이사회 의장 그렉 브룩먼 및 수석 연구원 3명 사표 제출
  • 11.19일 : 샘 알트먼 이사회와 복귀 협상 무산
  • 11.20일 : MS에서 샘 알트먼과 그렉 브룩먼 신설 AI팀에 합류한다고 발표,
    오픈AI직원 770명 중 700여 명이 복귀 청원,
    일리야 수츠케버를 포함한 505명이 MS로 이동 발표
  • 11.21일 : 샘 알트먼 복귀,
    이사회 멤버 교체(전 세일즈포스 CEO와 전 재무장관 이사회 합류)

 

사태의 핵심 일리야 수츠케버에 대하여

이번 사태에서 일리야 수츠케버는 해고를 주도했음에도 불구하고 3일 만에 사과하고 복귀까지 청원하면서 사람들을 어리둥절하게 만드는 행동을 보였다. 그는 누구일까? 

 

올해 3월 이스라엘 텔아비브에서 진행된 토크콘서트 중 샘 알트먼(왼쪽)과 일리야 수츠케버(오른쪽) (출처 : 로이터)

 

일리야 수츠케버는 대중들에게 많이 알려지지는 않았으나, 딥러닝계의 선구자 제프리 힌튼의 제자이자 AI 4대 석학 앤드류 응 교수밑에서 포닥(박사 후 연구과정)을 했으며, 힌튼교수와 AlexNet을 공동으로 설계하고 구글에서 텐서플로우와 알파고 출시를 진두지휘하였던 인물이다.

 

이후 2015년 오픈AI 설립 시 수석과학자로 영입되었으며 챗GPT설계까지 주도하면서 자신의 천재성을 지속적으로 증명하고 있다. 혹자는 일리야 1명이 오픈AI의 나머지 연구원들보다 더 똑똑하다는 평가까지 하고 있다.

 

그렇다면, 딥러닝부터 알파고, 그리고 챗GPT까지 AI의 발전에 항상 최전선에 있었던 천재가 갑자기 오픈AI의 행보에 발목을 잡은 이유는 뭘까?

 

사람들은 그가 연초 AI 안전성에 대해 이의를 제기하며 구글을 떠났던 힌튼 교수에게 영향을 받고, 평상 시에도 AGI안전성에 대해 꾸준히 이의를 제시해 왔기 때문에 이러한 행동을 벌였을 거라고 추측하고 있다.

 

특히, 이사회 회의 직전 연구원들이 새로운 AI를 개발했다는 편지를 보낸 것이 이번 사태의 원인이라는 루머도 돌고 있다.

 

Q*(큐 스타)에 대한 루머

명확한 입장 표명이 없어 추측성기사가 난무하고 있지만, 대부분 안정성에 대해 꾸준히 내부 갈등이 있었다는 것에 대해서 알고 있었기 때문에 Q*에 대한 루머는 지속적으로 확산되고 있다.

 

현재까지 알려진 바로는 Q*가 기존 데이터로 수학문제를 풀어냈다고 하는데 챗GPT도 수학문제를 푸는 마당에 왜 이게 문제가 되는지 의아할 수는 있지만, 인간의 통제하에 데이터를 학습하여 문제를 푸는 것과 스스로 데이터를 학습하여 문제를 해결하는 것에는 중대한 차이점이 있다.

 

잘못된 데이터로 학습하는 바람에 엉뚱한 대답을 지껄였던 챗봇은 있었지만, 이는 그냥 데이터 품질의 문제일뿐 어느 정도 통제가 가능했으며, 이러한 시행착오의 결과물이 현재의 챗GPT이다.

 

챗GPT도 아직은 불안한 기술이긴 하지만, 적어도 얼라이먼트 기술을 통해 통제 가능하다는 것은 확인되었으나 Q*는 스스로 학습하기 때문에 이러한 통제조차 벗어나는 학습을 감행할 수도 있다. 수학문제를 풀어내듯이 가장 효율적인 답변을 찾아내기 위해 각종 통제를 손쉽게 풀어낼 가능성이 높고, 기술이 확산되는 순간 악용의 여지도 있는 것이다.

 

하지만, 그럼에도 불구하고 Q*는 스스로 학습한다는 측면에서 현재의 약 인공지능(Weak AI)를 벗어나 범용 인공지능(AGI)으로 발전하는 가장 큰 실마리를 제공하고 있다.

 

왜 이러한 사태가 발생할 수 있었을까?

Q*에 대한 더 자세한 내용이 궁금하지만 알고리즘은 물론이거니와 학습방법까지 현재 알려진 것은 아무것도 없다. Q라는 이름에서 모델 없이 학습하는 방식인 Q-Learning일 가능성이 유력하지만, 필자의 추측에 불과하다.

 

좀 더 많은 내용이 공개되면 다시 포스트를 작성하기로 하고, 다른 한가지 의문점인 "왜 이런 결정이 가능했을까?"에 대해서 풀어보고자 한다.

 

2020년 MIT테크놀로지 리뷰에는 이 모든 사태가 발생하기 전 어쩌면 모든 사건의 발단이었을지도 모를 2019년 3월 오픈AI의 영리 부문 설립(같은 해 2월 일론 머스크 사임)에 대해 자세하게 기재되어 있다.(관련 링크)

 

좌측부터, 다니엘라 아모데이(전 오픈AI, 2021 퇴사), 잭 클라크(전 오픈AI, 2021 퇴사), 다리오 아모데이(전 오픈AI, 2021 퇴사), 제프 우(기술팀 직원), 그렉 브록먼, 알렉 레드포드(기술언어팀 책임자), 크리스틴 페인(기술팀 직원), 일리야 수츠케버, 크리스 버너(인프라팀 책임자) (출처 MIT Technology Review)

 

 

당시 기자는 오픈AI가 보안이 철저하여 1층 회의실에만 머무르며 인터뷰를 진행했다고 한다. 특히 이번 사건의 핵심인물은 일리아 수츠케버와 그렉 브룩먼에 대해 소개하며 아래와 같은 내용이 언급되어 있다.

 

AGI에 도달하는 데 필요한 것과 관련해서 지배적인 기술 이론 두 개가 있다.

하나는 필요한 모든 기술이 이미 존재하기 때문에 그것을 확장하고 조립하는 방법을 알아내는 것이 중요하다.
두 번째는 완전히 새로운 패러다임이 필요하며, 현재 지배적인 AI 기술인 딥러닝(deep learning)으로는 충분하지 않다.

 

2019년 영리 부문 설립의 배경에는 이와 같은 고민의 끝에 회사가 더 이상 비영리단체로써 AGI개발을 이어갈 수 없다는 판단이 있었다. 특히 그렉 브룩먼은 “이 분야에서 살아남기 위해서는 이러한 기하급수적인 증가에 필적하거나 이를 뛰어넘을 수 있는 자본이 필요하다”라고 토로했다고 한다.

 

이 과정에서 과학자로서 더 나은 기술을 찾으려던 수츠케버와 엔지니어로써 한계를 체감했던 브룩먼, 그리고 사업가로서 자본을 유치하려고 했던 알트먼의 갈등은 어쩌면 필연적이었을지도 모른다.

 

그렉 브록만과 일리야 수츠케버(2019.3월, 출처 : 그렉 브록만 블로그)

 

결국 일리야 수츠케버가 자신의 행동을 후회하고 샘 알트먼이 돌아오면서, 오픈AI는 이제 기술보단 사업에 치중하는 알트먼의 뜻대로 운영될 가능성이 높다.

 

완벽하게 영리를 추구하는 MS로 넘어가지 않은 것은 다행이라고 해야 할지 모르겠지만, 브레이크가 없어진 오픈AI가 천재의 목줄을 죄고 앞으로 어떠한 발명품을 만들어낼지 아찔한 느낌이 드는 건 어쩔 수 없다. 


 

728x90