알리바바, 자체 개발 LLM ‘큐원’ 오픈소스로 공개

큐원-72B와 큐원-1.8B, 모델스코프와 허깅페이스에 공개
오디오 처리할 수 있는 큐원-오디오, 큐원-오디오-챗 추가 제공

 

[더테크=조재호 기자] 알리바바가 자체 개발한 거대언어모델 ‘동이치엔원’의 경량화 버전을 오픈소스로 공개했다.

 

알리바바 클라우드는 자체 개발한 LLM의 720억개 파라미터 버전 ‘큐원-72B’와 18억개 파라미터 버전 ‘큐원-1.8B’를 자사 AI 모델 커뮤니티 모델스코프와 협업 AI 플랫폼 허깅페이스에 오픈소스로 공개했다고 5일 밝혔다.

 

해당 모델 공개로 알리바바 클라우드는 18억, 70억, 140억 및 720억의 매개변수를 지닌 LLM을 공개했다. 아울러 오디오 이해 모델 ‘큐원-오디오(Qwen-Audio)’ 및 대화형으로 미세 조정된 버전인 ‘큐원-오디오-챗(Qwen-Audio-Chat)’도 추가로 공개했다.

 

징런 저우(Jingren Zhou) 알리바바 클라우드 CTO는 "오픈소스 생태계를 구축하는 것은 LLM 및 AI 애플리케이션 개발에 중요한 일로 알리바바 클라우드는 모든 사람이 생성형 AI 활용할 수 있도록 하는 것을 목표로 한다“며 ”자사의 최첨단 기술을 공유하고 파트너들과 함께 오픈소스 커뮤니티의 발전을 촉진해 나갈 것“이라고 밝혔다.

 

큐원-72B는 주요 오픈소스 모델보다 뛰어난 성능을 보여준다. 모델의 성능을 확인할 수 있는 벤치마크의 대규모 다중작업 언어이해(MMLU, Massive Multi-task Language Understanding)와 코드 개발 역량 테스트인 휴먼이발(HumanEval), 수학 문제를 푸는 GSM8K 등에서 고득점을 기록했다.

 

 

큐원-72B는 특정 역할이나 페르소나를 취해 맥락에 맞는 응답을 생성하는 능력인 언어 스타일(language style transfer) 부문에서 탁월한 성능을보인다. 이러한 특성은 개인화된 챗봇이나 AI 애플리케이션에서 유용하게 활용될 수 있다.

 

엣지용 모델인 큐원-1.8B는 컴퓨터 리소스가 제한된 스마트폰에서 추론 기능을 활용할 수 있다. 일반적으로 소규모 LLM 모델은 리소스 대비 효율적인 작업이 가능하고 배포가 용의하다.

 

아울러 멀티모달 기능을 위한 LLM으로 알리바바 클라우드는 오디오 이해 성능을 강화한 큐원-오디오와 큐원-오디오-챗도 오픈소스로 공개했다.

 

큐원-오디오는 사람의 음성, 자연음, 음악 등 다양한 형식의 텍스트와 오디오 데이터를 해석해 텍스트로 출력할 수 있는 기능을 지녔다. 음성 편집이나 오디오 캡션 분석, 다국어 녹취록 작성 등 30종 이상의 오디오 작업이 가능하다.

 

보다 자세한 정보는 모델스코프나 허깅페이스, 깃허브의 페이지에서 찾아볼 수 있다.

 

한편, 알리바바 클라우드는 다양한 데이터를 처리할 수 있는 멀티모달 LLM을 오픈소스로 공개해 자사 LLM 생태계 구축에 적극적이다. 올해 초 시각 정보를 이해하는 LLM인 비전 언어 모델 ‘큐원-VL(Qwen-VL)’과 ‘큐원-VL-챗(Qwen-VL-Chat)’을 공개한 바 있다.

 



배너