메타 로고 /사진=디디다 컴퍼니 제공
메타 로고 /사진=디디다 컴퍼니 제공

챗GPT(ChatGPT)로 시작된 인공지능(AI) 개발 경쟁이 삼파전 양상을 보이고 있습니다. 마이크로소프트(MS)와 구글뿐만 아니라 페이스북, 인스타그램을 운영하는 메타까지 참전한 것입니다.

현지시간 24일 마크 저커버그 메타 최고경영자(CEO)는 페이스북을 통해 "새로운 최첨단 AI 초거대 언어모델인 '라마(LLaMA)'를 출시하겠다"며 "라마는 AI 연구자들의 업무 진출을 돕기 위해 설계됐다"고 말했습니다. 메타도 이날 자사 AI 블로그에 라마를 공개했습니다. 메타는 "빠르게 변화하는 AI 분야의 민주화에 기여할 것"이라며 라마의 소스코드를 깃허브에 업데이트했습니다. 

메타는 라마에 자사 근본AI연구팀(FARI)의 초거대 언어모델 'LLM'을 교육시켰습니다. 용량이 작아 다양한 서비스에 효율적으로 적용할 수 있고, 미세 조정이 가능한 것이 특징입니다. 라마의 파라미터(매개 변수) 규모는 70억개와 130억개, 330억개, 650억개 등 총 4가지입니다. 파라미터는 AI가 연산 과정에 고려하는 다양한 변수로, 많을수록 성능이 뛰어나지만 비용이 늘어납니다.

라마의 파라미터 규모는 1750억개의 오픈AI(OpenAI)의 GPT-3.0, 700억개의 구글 딥마인드 친칠라보다 작습니다. 메타는 성능의 한계를 데이터 학습 강화와 미세 조정 등을 통해 극복했습니다. 메타는 "파라미터가 130억개인 라마는 벤치마크에서 GPT-3보다 성능이 우수했고, 650억개의 경우 5400억개의 파라미터를 갖춘 구글 언어모델 팜(PaLM)과 경쟁할 만했다"고 말했습니다.

라마는 규모가 작아 사용이 용이하지만 전문적인 용도로만 사용될 것으로 예상됩니다. 메타는 "라마의 오용을 방지하기 위해 AI 연구 등 비상업적인 용도로만 활용될 수 있도록 하겠다"고 밝혔습니다. 저커버그 CEO도 "LLM은 수학 정리를 풀거나 단백질 구조를 예측하는 등 더 복잡한 작업에서 많은 가능성을 보였다"며 "연구원들의 연구 진전을 돕기 위해 고안됐다"고 설명했습니다.

한편 메타는 "라마 역시 할루시네이션(환각) 등 위험을 해결하기 위해 더 많은 연구가 필요하다"고 밝혔습니다. 할루시네이션 현상은 AI가 틀린 답변을 정답처럼 말하는 것을 의미합니다. 과연 라마가 충분히 개발됐을 때 챗GPT만큼의 파급력을 보일지 궁금합니다.

자료=미디어뱀부
정리=김현기 기자 khk@techm.kr

관련기사