라마 2 (Llama 2)는 페이스북 모기업인 Meta(메타)에서 개발한 대규모 언어 모델인 LLM입니다.
메타 라마 2 (Meta Llama 2)는 3가지 종류의 모델로 구분됩니다. 대규모 언어 모델인 LLM은 매개변수 즉 파라미터 개수가 많을수록 초거대 언어 모델인 샘이죠.
그럼 Meta Llama 2는 어떤 AI이며 메챗GPT와 다른 점은 무엇인지 정리해 보도록 하겠습니다.
라마 2는 메타의 AI로 대규모 언어 모델(LLM)입니다. Meta Llama 2는 상업적으로 이용하거나 연구용으로 이용할 경우 모두 무료로 사용할 수 있는 오픈소스로 제공됩니다.
라마 2는 상업용, 연구용을 포함하여 창작자, 기업, 연구원, 개인 모두가 이용할 수 있으며 마이크로소프트 사와는 파트너십을 체결했습니다.
라마 2는 3가지 종류의 모델로 구분됩니다. 70억 개의 매개변수를 가진 Llama-2-7B, 130억 개의 매개변수를 적용한 Llama-2-13B, 700억 개의 매개변수를 적용한 Llama-2-70B 이렇게 3가지 모델입니다.
라마 2는 2조 개의 토큰에 대해 학습되었습니다. 이는 기존 모델인 Meta Llama 1에 비해 40% 이상 학습되었으며 콘텍스트 길이가 2배나 되는 것입니다.
여기서 토큰이란 텍스트 데이터에서 의미를 가지는 최소한의 단위를 말합니다. 즉 AI를 학습시키는 과정에서 의미를 가지는 텍스트 데이터 블록이라고 할 수 있죠.
메타 라마2가 챗GPT와 다른 점은 매개변수의 차이입니다. Meta Llama 2는 70억, 130억 700억 개의 매개변수 모델로 구분되는데 챗GPT 중 GPT-4의 경우는 1750억 개의 매개변수로 이보다 훨씬 많습니다.
거대 언어 모델인 LLM는 매개변수가 많으면 많을수록 AI의 학습량이 상당히 많고 결과 데이터의 양 또한 상당합니다.
반면에 AI의 학습 속도 및 운용 소요 시간이 오래 걸립니다. 더불어 AI 개발 및 운용 비용도 상당히 많이 들기 때문에 중소기업과 같은 곳에서는 접근하기 어렵죠.
하지만 매개변수의 양이 높은 LLM이라고 해서 AI의 성능이 높다고는 할 수 없습니다.
AI 학습 시 매개변수를 줄이는 대신 질적인 데이터로 학습을 시키면 AI의 성능을 높일 수 있다는 것입니다. 이를 미세조정 방식이라고 하는데 다른 말로 파인 튜닝이라고 합니다.
이런 부분을 감안하여 Meta Llama 2는 매개변수를 경량화하고 3가지 AI 모델로 구분하여 공개한 것입니다.
예를 들어 챗GPT가 데이터를 학습하는데 수개월이 걸린다면 Meta Llama 2의 70억 개 매개변수 모델이 학습하는 데는 3~4시간 정도 걸립니다.
물론 비용에도 차이가 있습니다.
또한 Meta Llama 2가 챗GPT와 다른 부분은 상업용이든 개인이든 무료 오픈소스를 개방했다는 점입니다. 챗GPT의 경우 상업용 등 기업에는 유상으로 AI 소스를 제공합니다.
결론적으로 정리하면,
라마 2는 메타의 AI 대규모 언어 모델(LLM)이며 기업, 연구소, 단체, 개인 모두에게 AI 오픈 소스를 무료로 제공합니다.
경량화 LLM로 70억 개 매개변수 모델, 130억 개 매개변수 모델, 700억 개 매개변수 모델로 구분됩니다.
라마 2가 챗GPT와 다른 점은 매개변수의 차이와 오픈 소스 공개 여부입니다.
라마 2는 챗GPT에 비해 매개변수의 수가 적은데 비해 경량화했다는 점입니다. 또한 상업용 또는 연구용, 개인 모두에게 무료로 AI 소스를 제공한다는 것입니다.