
주인공은 지난해 설립된 신생 스타트업인 트릴리온랩스다. 네이버 연구원 출신이 이끄는 토종 스타트업으로 이처럼 스타트업이 AI의 원천 모델을 직접 개발해 전격 공개한 것은 이례적인 사례다.
신재민 트릴리온랩스 대표(사진)는 최근 매일경제신문과 영상 인터뷰에서 "한국 시장에 필요한 AI를 만드는 것이 진정한 소버린 AI"라며 "좋은 AI를 뿌려야 산업도 활성화되고 기업들도 더 적극적으로 쓰게 될 것"이라고 모델을 공개한 배경을 밝혔다.
트릴리온랩스가 지난달 오픈소스로 공개한 모델은 미리보기 버전에 해당하는 '트릴리온 7B 프리뷰'다. 신 대표는 지난달 열린 엔비디아의 연례 개발자 콘퍼런스인 'GTC 2025'에 참석해 해당 모델을 소개하는 세션을 직접 진행하기도 했다.
트릴리온랩스가 공개한 주요 벤치마크 평가 결과에 따르면, 국내 대표 모델 중 하나로 꼽히는 LG AI연구원의 '엑사원 3.5 7.8B'와 유사한 수준의 성능을 기록했다. 업계에서는 "그동안 국내에서 LLM을 개발하는 스타트업이 거의 없었다"며 이 같은 고성능 오픈소스 모델 등장에 긍정적인 평가가 나오기도 했다.
트릴리온랩스는 설립 1년이 채 되지 않은 스타트업이지만 한국을 넘어 전 세계에서 AI 모델을 가장 잘 만드는 기업을 꿈꾸는 곳이다. 홍콩과기대 컴퓨터공학과를 나온 신 대표는 2016년 알파고 등장을 기점으로 본격적으로 AI의 길을 걷기 시작했다.
아마존의 AI 비서인 알렉사 팀의 인턴을 거쳐 병역 특례로 뤼이드에서 LLM을 연구한 뒤 2022년 네이버에 합류했다. 그리고 2022년 하반기 챗GPT가 세상에 모습을 드러내면서 네이버에도 LLM 팀이 생겼고, 신 대표도 창립 멤버로 네이버의 하이퍼클로바X 모델 개발에 참여했다.
네이버를 나와 스타트업을 창업한 배경에 대해 묻자 신 대표는 "세상은 너무 빠르게 변하고 있고, 메타와 같은 곳은 거의 3개월마다 새로운 모델을 선보이고 있다"며 "더 잘하고, 더 빠르게 AI를 개발하기 위해 창업을 결정했다"고 말했다.
다만 천문학적인 비용이 필요한 것으로 여겨지는 원천 모델 분야에서 스타트업의 경쟁력에는 항상 의문이 따라붙는다. 신 대표는 약 10년간 LLM을 연구해온 만큼, 학습을 효율화하는 알고리즘부터 학습 과정에서의 데이터 효율화 등을 통해 제한된 비용에서도 이를 구현했다.
모델 학습 과정에서 모든 언어를 학습시키지 않고 한국어를 중심으로 영어, 중국어, 일본어 등 4개의 언어를 활용한 것도 전략적인 선택이다.
신 대표는 "당연히 비용적으로 제약이 있지만, 그래야 더 창의적인 솔루션이 나온다고 생각한다. 공학은 제약 조건 속에서 제일 좋은 방법을 찾는 것"이라고 밝혔다.
트릴리온랩스에 따르면 지난달 공개한 '트릴리온 7B 프리뷰' 모델의 경우 10명도 안 되는 팀으로 2~3달 만에 개발됐다. 비용 또한 5억원 미만에 불과했다.
트릴리온랩스는 프리뷰 모델보다 크기가 최대 10배까지 큰 모델도 개발하고 있으며, 지금은 텍스트만 이해할 수 있지만 사진도 이해하는 멀티 모달 능력을 붙일 예정이다.
지난해 스트롱벤처스, 카카오벤처스, 미국 굿워터캐피털 등으로부터 57억원의 시드 투자를 유치한 트릴리온랩스는 추가 투자 유치도 계획 중이며, 엔비디아와도 투자를 논의하고 있는 것으로 알려졌다.
[정호준 기자]
[ⓒ 매일경제 & mk.co.kr, 무단 전재, 재배포 및 AI학습 이용 금지]