바이브컴퍼니, sLLM 다음 버전 '바이브GeM 2' 공개 한국어 작업 성능 실험 결과 GPT 3.5보다 우수
이우찬 기자공개 2024-05-14 09:15:23
이 기사는 2024년 05월 14일 09시14분 thebell에 표출된 기사입니다
바이브컴퍼니가 자체 sLLM(초거대언어모델) 바이브GeM의 다음 버전인 생성형 AI 파운데이션 모델 '바이브GeM 2'를 오픈소스로 공개했다고 14일 밝혔다.바이브GeM 2는 총 2.5조개의 토큰을 사전 학습한 파라미터 14B(140억 개)모델이다. 기존 모델 대비 한층 업그레이드된 성능을 드러냈다. 기존 모델에서 △코딩 △번역 △멀티턴(Multi-turn) 대화까지 추가로 지원되는 것이 특징이다. 또 이전보다 적은 메모리를 사용해 더욱 더 빠른 생성이 가능해졌다.
특히 한국어 작업 성능 미세조정(Fine-tuning) 실험 결과에서 GPT 3.5보다 높은 성능을 보이는 것으로 나타났다.
바이브는 AI 응용 시 가장 많이 활용되는 △Open-book QA(오픈북 질의응답) △Closed-book QA(클로즈드북 질의응답) △Doc. Summarization(문서 요약) △Title Generation(제목 생성) 등 4가지 주요 작업(Task)을 기준으로 테스트를 진행한 결과, 메타의 라마2, 구글의 젬마, 업스테이지의 솔라 등 기존 오픈소스로 공개된 sLLM 중 가장 뛰어난 성능을 보였다. 해당 테스트는 각 베이스 모델에 동일한 데이터를 기반으로 미세조정을 실시한 후 작업 별로 100개의 테스트 샘플에 대해 생성된 답변을 GPT 4를 통해 평가했다.

바이브는 바이브GeM 2의 다른 이름으로 선보인 '라미온(Llamion)'을 'Open-Ko LLM 리더보드'에도 오픈소스로 공개하며 높은 성능을 인정받았다.
Open-Ko LLM 리더보드는 한국지능정보사회진흥원과 허깅페이스가 함께 운영 중인 한국형 LLM 평가 플랫폼이다. 몇 가지 항목을 기준으로 한국어 LLM 모델 평가가 가능하다. 특히 그중에서도 생성형 AI 기술과 밀접한 상관관계가 있는 것으로 간주되는 'Ko-MMLU(대규모 다중작업 언어이해력)' 부분에서는 바이브GeM 2가 압도적인 1위를 차지했다.
바이브GeM은 바이브가 20년 이상 축적한 NLP(자연어처리) 기술을 토대로 지난해 공개한 자체 sLLM이다. 이를 기반으로 한 다양한 AI 기반 솔루션 및 서비스들을 출시하고 초거대 AI 공급사업자로도 선정돼 국민권익위원회, 조달청, 관세청, 고용노동부, 충남도청 등 많은 공공기관에 성공적인 PoC(기술검증)를 진행한 바 있다.
또 바이브는 최근 과학기술정보통신부로부터 생성형 AI 선도인재양성 사업의 주관 기관으로 선정되며 AI 인재 양성에도 앞장서고 있다. 이번 바이브GeM 2 공개로 한국의 생성 AI 경쟁력을 강화하고 관련 생태계를 조성하는 데 크게 기여할 전망이다.
바이브의 김성언 대표는 "sLLM을 도입하고자 하는 기업 또는 기관들에게 바이브GeM 2는 최고의 선택이 될 것"이라며 "올해 안에 더 고도화된 바이브GeM 2.5와 바이브GeM 3을 시장에 선보이고 지속적으로 서비스와 솔루션에 반영해 나갈 것"이라고 말했다.
< 저작권자 ⓒ 자본시장 미디어 'thebell', 무단 전재, 재배포 및 AI학습 이용 금지 >
관련기사
best clicks
최신뉴스 in 전체기사
-
- KT의 이유있는 '쓴소리'
- HDC랩스, 그룹 내 시너지 덕에 '턴어라운드' 기대감
- '수성 아이유쉘' CR리츠, 대주단 '엑시트' vs 시공사 '대손'
- 신한리츠운용, 알파·서부티엔디리츠 투자 콘셉트 확정
- 롯데건설, '마곡 르웨스트' 재분양 속도 낸다
- [건설리포트]GS건설, 하반기 수익성 제고 '정조준'
- [CAPEX 톺아보기]㈜신세계, 현금창출력 초과한 투자 집행…'성장' 방점
- 트럼프 주니어 만난 문주현 회장 "첫 만남은 탐색전"
- [제약바이오 R&D 인사이더스]비보존 후속 자신감 원천, "R&D 전주기 아우르는 시스템"
- 유동성 바닥난 아이톡시, '영구 CB'로 신작 확보