Subscribe to Our Newsletter

Success! Now Check Your Email

To complete Subscribe, click the confirmation link in your inbox. If it doesn’t arrive within 3 minutes, check your spam folder.

Ok, Thanks
AI 업계, '작은 것이 아름답다'… 소형 모델로 눈길 돌린다
사진. /SNS 타임즈

AI 업계, '작은 것이 아름답다'… 소형 모델로 눈길 돌린다

비용 절감·특화 성능에 주목… 메타·MS·구글도 '미니' 경쟁 가세

Jason Jung profile image
by Jason Jung

[SNS 타임즈- LA] 해외 AI 전문 조사 기업 딥뷰(The Deep View)는 최근 뉴스레터를 통해 인공지능 업계가 대형 언어 모델에서 소형 모델로 관심을 옮기고 있다고 보도했다.

그동안 AI 개발 경쟁은 더 많은 매개변수, 더 높은 성능을 향해 달려왔지만, 이제는 '작고 효율적인' 모델이 새로운 트렌드로 자리잡고 있다는 분석이다.

특화 작업에선 대형 모델 능가

대형 언어 모델은 수조 개의 매개변수를 기반으로 범용적인 지능을 갖추고 있지만, 모든 분야에 능통하다는 것은 특정 분야의 전문가가 아니라는 의미이기도 하다. 반면 수백만에서 수십억 개의 매개변수를 가진 소형 모델은 특정 작업에서 대형 모델보다 우수한 성능을 발휘할 수 있다는 것이다.

실제로 IBM이 최근 11월 공개한 연구 결과에 따르면, 금융 관련 작업을 수행할 때 소형 언어 모델이 대형 모델에 비해 집중력을 유지하는 데 더 뛰어난 것으로 나타났다.

소형 모델은 같은 작업을 반복할 때마다 동일한 결과를 내놓는 일관성을 보여주며, 실제 업무 현장에서는 대형 모델보다 안정적으로 작동할 수 있다는 점을 입증했다.

비용 절감이 최대 강점

램지 이론 그룹(Ramsey Theory Group)의 댄 허바첵(Dan Herbatschek) 최고경영자는 딥뷰와의 인터뷰에서 "이러한 모델이 인기를 끄는 가장 큰 이유는 비용"이라고 강조했다.

소형 모델은 구축과 운영 비용이 모두 저렴하며, 적은 수의 GPU만 필요하거나 CPU 또는 모바일 하드웨어로도 작동이 가능하다. 허바첵 CEO는 "이는 제한된 AI 예산에 적합하다"고 설명했다.

벨다(Velda)의 창업자 추안 치우(Chuan Qiu)는 소형 모델이 보안성이 높고 자원 소모가 적어 AI 에이전트나 컴퓨팅 성능이 제한된 엣지 환경에 배치하기 용이하다고 언급했다. 그는 "실시간 처리와 개인정보 보호가 이러한 사례에서 매우 중요하다"고 덧붙였다.

빅테크·스타트업 모두 '미니' 대열 합류

메타, 마이크로소프트(MS), 구글, 오픈AI 등 주요 빅테크 기업들은 모두 자체 소형 모델을 선보이며 이 시장에 뛰어들었다.

투자자들 역시 이 분야에 큰 관심을 보이고 있다.

경량화되고 특화된 모델을 개발하는 미스트랄AI(Mistral AI), 리퀴드AI(Liquid AI), 사카나(Sakana) 같은 기업들은 대규모 투자를 유치하며 유니콘 기업 반열에 올랐다.

특히 사카나는 지난 월요일 1억3500만 달러(약 1780억원) 규모의 시리즈B 투자 유치를 마무리했다.

AI 개발의 패러다임이 '더 크게'에서 '더 효율적으로'로 전환되면서, 소형 모델 시장은 당분간 성장세를 이어갈 것으로 전망된다.

- Copyright, SNS 타임즈 www.snstimes.kr

Jason Jung profile image
by Jason Jung

Subscribe to New Posts

Lorem ultrices malesuada sapien amet pulvinar quis. Feugiat etiam ullamcorper pharetra vitae nibh enim vel.

Success! Now Check Your Email

To complete Subscribe, click the confirmation link in your inbox. If it doesn’t arrive within 3 minutes, check your spam folder.

Ok, Thanks

Read More