AI 전문 ‘업스테이지’, 소형언어모델 ‘솔라 프로’ 프리뷰 버전 출시
2024년 09월 11일

업스테이지가 개발한 자체 사전학습 거대언어모델(LLM) ‘솔라(Solar)’가 더욱 강력해져서 돌아온다.

업스테이지가 올 11월 출시 예정인 자사의 차세대 LLM ‘솔라 프로(Solar Pro)’의 초기 테스트용 모델인 ‘솔라 프로 프리뷰(Solar Pro Preview)’ 버전을 오픈소스 및 무료 API를 통해 전면 공개한다고 11일 밝혔다.

솔라 프로는 솔라 LLM 시리즈의 상위 모델로, 올 11월 공식 출시를 앞두고 있다. 업스테이지는 현재 개발 중인 모델을 미리 테스트해 볼 수 있는 프리뷰 버전을 오픈소스로 공개하는 한편, API 호출 비용까지 무상 지원할 예정이다. 프리뷰 버전은 영어만 지원하며, 입력 토큰 수도 4,096자로 제한된다.

솔라 프로는 220억(22B) 매개변수를 갖춰 기존 ‘솔라 미니’(107억) 대비 두 배 이상 커지고 성능도 대폭 향상됐지만, DUS(깊이 확장 스케일) 기술 등 자체 LLM 모델링 방법론을 더욱 고도화한 결과 여전히 단 1개의 GPU에서 구동이 가능한 수준으로 경량화에 성공했다. 최근 GPU 가격 급등과 수급난으로 골머리를 앓는 기업용 AI 시장의 판도를 크게 바꿀 것으로 기대를 모은다.

또한, 솔라 프로는 인문학 뿐만 아니라 과학·기술·공학·수학(STEM) 종합 지식을 평가하는 ‘MMLU Pro’, 지시 이행 능력을 평가하는 ‘IFEval’ 등 최신 LLM 벤치마크(성능 평가) 지표에서 솔라 미니보다 평균 51% 이상 대폭 향상됐다. 최신 지표인 MMLU Pro는 LLM 답변의 정확도를 사지선다로 평가하던 기존 방식에서 선택지를 10개까지 늘려 정답률을 낮추고, 학부생 수준 이상의 추론을 요구해 고난도로 정평이 높다.

특히, 이는 마이크로소프트의 ‘파이(Phi)-3 미디엄(Medium)’, 메타 ‘라마(Llama) 3.1 8B’, 미스트랄AI-엔비디아 ‘네모(NeMo) 12B’, 구글 ‘젬마(Gemma) 2 27B’ 등 유사 사이즈의 빅테크 모델 성능을 모두 뛰어넘은 수치다. 또한, 매개변수가 3배 이상 큰 ‘라마 3.1 70B’ 등 다중 GPU를 요구하는 모델과 유사한 수준이다. 이로써 업스테이지는 자체 기술력으로 소형언어모델(sLLM) 영역에서 또 한 번 독보적인 격차를 만든 것이다.

특정 분야에 대한 전문성과 정확한 답변이 요구되는 기업용 AI 시장에서, MMLU Pro, IFEval 등 최신 벤치마크 고득점은 LLM의 실제 문제해결 능력을 가늠할 수 있는 중요한 척도로 작용한다. 즉, 솔라 프로는 인간 평균치를 상회하는 방대한 지식과 추론 능력을 기반으로 ▲ 문서 및 보고서 작성 ▲ 데이터 분석 및 관리 ▲ 프로젝트 관리 등 업무 영역 전반에서 고성능 AI를 구현할 수 있는 수준에 도달한 셈이다.

업스테이지 김성훈 대표는 “자체 기술로 개발한 세계 최고 수준의 LLM 솔라를 통해 글로벌 AI 시장에 도전장을 내민 업스테이지가 더욱 강력한 차기 모델을 야심 차게 준비하고 있다”라며 “최소의 인프라 비용으로 업계 최강의 성능을 자랑하는 솔라 프로를 프리뷰 버전을 통해 많이 테스트해보기를 바란다”라고 밝혔다.

보도자료 제공: 업스테이지(upstage.ai)

0 0 votes
Article Rating
beSUCCESS is a professional media company with a particular focus on startups and tech industry | beSUCCESS는 국내 기업의 해외 진출을 지원하는 미디어 회사로, 실리콘밸리를 포함한 전세계 테크 트렌드와 스타트업 뉴스, 기업가 정신 등 국내 스타트업의 인사이트 확대를 위해 필요한 외신 정보를 직·간접적으로 제공할 뿐만 아니라, 한국의 스타트업 생태계와 출시 소식 등 주요 뉴스를 영문으로 세계 각국에 제공해 한국 스타트업의 글로벌 성공을 지원하는 '연결'의 역할을 합니다.
Subscribe
Notify of
guest
0 Comments
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x
()
x