쉽게 쓴 데이터·AI 지식/AI

AI 추가 학습의 종류와 리소스(Fine-Tuning, Prefix tuning, LoRa)

정데만 2023. 6. 21. 09:37
728x90
 

 

수 많은 선 앞에 서있는 남자

 

초거대AI의 파라미터

 

GPT와 같은 초거대 AI는 데이터를 학습하면서 AI를 구성하는 최소 단위의 모델 "퍼셉트론"의 계산 결과를 연결해주는 엄청난 양의 파라미터를 가지고 있다.

 

인간의 뇌는 뉴런이 처리한 정보를 시냅스가 전달하고 집적된 신호를 바탕으로 판단을 내리는 데, AI 또한 퍼셉트론(인공 뉴런)이 정보를 처리하면 파라미터(시냅스 역할)가 이를 전달하여 최종 예측을 진행한다.

 

인간이 성장할 수록 시냅스를 늘려나가듯이 초거대 AI도 데이터와 처리량이 많아지면서 파라미터를 지속 확대해 왔는데, GPT 4를 기준으로는 전작에 비해 6배에 달하는 1조 개까지 도달하였다.

 

다만, 기존 AI의 파라미터에 비해 많을 뿐 인간의 시냅스(성인 기준 100조 개)에 비하면 아직 부족하다는 의견도 있으며, AI의 성능을 올리는 데 현재로써는 파리미터를 늘리는 방법 말고는 뽀족한 수단이 없으니 하드웨어가 허락하는 한 앞으로도 계속 증가할 가능성이 높다.

 


 

AI 학습 리소스

 

문제는 인간도 새로운 지식이나 경험을 습득하면서 시냅스를 고쳐나가는 고통을 겪듯이 초거대AI는 파라미터가 많아짐에 따라 데이터를 학습할 때마다 기존 파라미터를 조정하는 작업에 엄청난 리소스가 소요된다는 것이다.

 

물론, GPT(Generative Pre-trained Transformer)를 비롯한 초거대 AI는 이름에 이미 나와있듯이 사전학습된 모델에 추가 데이터만 학습함으로써 리소스를 줄이고 있지만, 이미 개인이나 스타트업에서는 추가 학습에 필요한 인프라도 감당하기 어려우며 대기업에서도 클라우드를 활용하여 상시 투입되는 비용을 최소화 하고 있다.

 

언어모델의 경우 일반적인 답변에서 프롬프트가 어느정도 학습을 대체할 수는 있지만, 전문 영역에서는 결국 추가 데이터를 통해서 단어에 대한 의미를 고쳐야 하며, 이미지나 동영상은 추가 데이터에 대한 학습이 꼭 필요하다.

 


AI 추가 학습 방법

 

현재 나와 있는 추가 학습 방법을 리소스 관점에서 비교해보면 다음과 같다. 초기 AI 추가학습에는 Fine-tuning이 대부분이었고 여전히 가장 널리 활용되지만, 앞서 말했던 리소스로 인하여 현재는 LoRA학습방식이 꾸준히 검토되고 있다.

 

① Fine-tuning(파인 튜닝) : 리소스 上

가장 일반적인 추가 학습 방법으로 기존의 파라미터는 유지하고 최종(출력 직전) 파라미터만 조정하는 방식이다. 언어모델의 경우 목적(요약, 번역 등)에 따라 파라미터 일부를 동결하는 것도 가능하지만, 전반적으로 학습시간이 오래걸리는 편이다.

 

② Prefix tuning(프리픽스 튜닝) : 리소스 下

모든 파라미터를 동결하고 모델의 앞부분(입력)에서 데이터를 조정(추가)하는 방식으로 학습한다. 학습시간이 빠르고 일부 문제에 대해서는 효율적이지만, Fine-tuning에 비해 성능이 좋지 않을 수 있다.

 

③ LoRA(로라) : 리소스 中

Low Rank Adaptation의 약자로 Fine-tuning과 Prefix tuning의 장점을 결합한 방식이며, 최근 많이 활용되고 있다. 성능과 리소스 모두 확보할 수 있지만 학습 방법을 구현하기 어려운 편이다.

 


728x90