초거대AI 2

AI 추가 학습의 종류와 리소스(Fine-Tuning, Prefix tuning, LoRa)

초거대AI의 파라미터 GPT와 같은 초거대 AI는 데이터를 학습하면서 AI를 구성하는 최소 단위의 모델 "퍼셉트론"의 계산 결과를 연결해주는 엄청난 양의 파라미터를 가지고 있다. 인간의 뇌는 뉴런이 처리한 정보를 시냅스가 전달하고 집적된 신호를 바탕으로 판단을 내리는 데, AI 또한 퍼셉트론(인공 뉴런)이 정보를 처리하면 파라미터(시냅스 역할)가 이를 전달하여 최종 예측을 진행한다. 인간이 성장할 수록 시냅스를 늘려나가듯이 초거대 AI도 데이터와 처리량이 많아지면서 파라미터를 지속 확대해 왔는데, GPT 4를 기준으로는 전작에 비해 6배에 달하는 1조 개까지 도달하였다. 다만, 기존 AI의 파라미터에 비해 많을 뿐 인간의 시냅스(성인 기준 100조 개)에 비하면 아직 부족하다는 의견도 있으며, AI의 성..

초거대 AI 등장과 파라미터에 의한 주도권 변화

AI 파라미터와 초거대AI AI 파라미터(Parameter)는 딥러닝에서 알고리즘을 구성하는 최소단위의 모델이 다른 층의 모델에 전달하는 매개 변수를 말한다. 딥러닝은 파라미터의 개수가 많을수록 데이터 한꺼번에 입력받아 복합적으로 처리할 수 있다. 자연어를 생성하는 언어모델(Language Model)은 문장을 구성하는 단어의 의미와 맥락 등 다양한 데이터를 사용하며, 파라미터 개수가 클수록 문장 생성에 필요한 확률 계산을 더 잘 할 수 있다. GPT-3는 레이어 96개에 각 18억개로 총 1750억개의 파라미터를 가지고 있으며, GPT-4의 파라미터는 공개되지 않았지만, 1조개 이상으로 추정되고 있다. 빅테크기업들은 언어모델을 비롯하여 이미지, 음성AI 등에 사용되는 파라미터 개수를 늘리기 시작하였으며..

반응형