Cjournal
Cjournal
기업과산업  인터넷·게임·콘텐츠

카카오, 경량 멀티모달과 MoE 언어모델 오픈소스로 공개

정희경 기자 huiky@businesspost.co.kr 2025-07-24 10:57:44
확대 축소
공유하기
페이스북 공유하기 X 공유하기 네이버 공유하기 카카오톡 공유하기 유튜브 공유하기 url 공유하기 인쇄하기

카카오, 경량 멀티모달과 MoE 언어모델 오픈소스로 공개
▲ 카나나-v, 국내외 모델과 비교 도표. <카카오>
[비즈니스포스트] 카카오가 자체 개발한 경량 멀티모달 언어모델과 전문가 혼합(MoE) 구조 언어모델을 오픈소스로 공개했다.

카카오는 24일 허깅페이스를 통해 텍스트와 이미지 이해가 가능한 경량 멀티모달 모델 ‘카나나-1.5-v-3b’와 추론 효율성을 극대화한 전문가 혼합 모델 ‘카나나-1.5-15.7b-a3b’를 공개했다. 

이는 지난 5월 카나나 1.5 언어모델 4종 공개 이후 약 두 달 만이다. 카카오가 정부가 추진하는 ‘독자 AI 파운데이션 모델 프로젝트’에 참여한 가운데 토대부터 개발한(프롬 스크래치) 방식으로 독자 모델 개발역량을 다시 한 번 입증했다고 회사는 설명했다.

이날 공개된 카나나-1.5-v-3b는 이미지 정보도 처리할 수 있는 멀티모달 언어모델이다. 

이용자의 질문 의도를 정확히 이해하는 지시 이행 성능과 높은 한국어·영어 이미지 이해력을 보유했다. 특히 경량 구조임에도 GPT-4o와 견줄 만한 성능을 기록하며 한국어 벤치마크에서도 국내외 유사 사이즈의 공개모델들 사이에서 최고 점수를 받았다. 

카카오는 고성능 대형 모델의 예측 패턴을 학습에 반영하는 ‘지식 증류’ 기법 등을 통해 모델 성능을 끌어올렸다.

함께 공개된 전문가 혼합 모델은 특정 작업에 최적화된 전문가 레이어 일부만을 활성화하는 방식으로 컴퓨팅 자원을 효율적으로 활용하는 것이 특징이다. 

카카오는 기존 자사 3B 모델을 기반으로 업사이클링 기법을 적용해 15.7B 규모의 MoE 모델을 효율적으로 구축했다. 이 모델은 추론 시 약 3B 파라미터만을 사용하면서도 8B 모델 수준의 성능을 기록했다.

고성능 AI 인프라를 저비용으로 구축하고자 하는 기업과 연구자들에게 실용적인 도움을 제공할 것으로 기대된다.

카카오는 이번 공개를 통해 AI 모델의 고도화와 함께 국내 AI 생태계 강화에 기여하겠다는 방침이다. 

앞으로 멀티모달 이해, 사용자 지시 수행, 추론능력을 강화하고 하반기에는 에이전트형 AI 개발에 필수적인 추론 모델의 성과도 공개한다.

김병학 카카오 카나나 성과리더는 “이번 공개는 비용 효율성과 성능을 동시에 충족시키는 의미 있는 결과”라며 “서비스 적용과 기술 자립이라는 두 가지 목표에 모두 부합하는 모델”이라고 말했다. 정희경 기자

최신기사

LG이노텍 세계 최초 '차세대 스마트 IC 기판' 개발, 탄소 배출 50% 절감
NH투자, "LG이노텍 목표주가 상향, 기판소재 사업으로 AI 수혜 본격화"
LG상남언론재단, 이사장에 이준희 전 한국일보 사장 선임
'HBM 슈퍼사이클' 2030년까지 지속, 조사기관 "전체 D램 시장의 절반 차지"
D램·낸드플래시 내년 60%대 성장 예고, 삼성전자 SK하이닉스 '전성기' 지속
키움증권 "삼성전자 내년 HBM 매출 3배 증가, ASIC 수요로 고객 다변화"
삼성SDI 미국서 2조 규모 ESS용 LFP배터리 공급 계약, LFP 시장 진출 신호탄
비트코인 1억3700만 원대 상승, FOMC 앞두고 기준금리 인하 기대감 반영
iM증권 "하이브 4분기 수익성 개선 제한적, 내년 방탄소년단 완전체 복귀 기대"
하나증권 "미국 금리인하·생물보안법 통과 수혜, 삼성바이오 에스티팜 주목"
Cjournal

댓글 (0)

  • - 200자까지 쓰실 수 있습니다. (현재 0 byte / 최대 400byte)
  • - 저작권 등 다른 사람의 권리를 침해하거나 명예를 훼손하는 댓글은 관련 법률에 의해 제재를 받을 수 있습니다.
  • - 타인에게 불쾌감을 주는 욕설 등 비하하는 단어가 내용에 포함되거나 인신공격성 글은 관리자의 판단에 의해 삭제 합니다.