[팩플] 네이버 하이퍼클로바X, 보고 듣고 말하기도 이제 잘한다
네이버가 자체 AI(인공지능) 모델 ‘하이퍼클로바X’를 이미지·음성 처리가 가능하도록 업데이트한다. 지난해 8월 하이퍼클로바X를 출시한지 1년 만이다.
무슨 일이야
뭐가 달라져
무슨 의미야
네이버는 이번 업데이트를 통해 하이퍼클로바X를 멀티모달 LLM(거대언어모델)으로 고도화하겠다는 구상이다. 멀티모달은 텍스트뿐 아니라 이미지·영상·음성 등 다양한 데이터 양식을 처리할 수 있는 AI의 능력을 말한다.
네이버는 그간 논리적 글쓰기, 코드 작성, 번역 등의 작업에 주로 쓰였던 클로바X가 이미지 이해 능력을 기반으로 활용 범위를 넓혀갈 수 있을 것으로 기대하고 있다. 네이버 측은 “실제 대한민국 초·중·고 검정고시 총 1480개 문항을 AI 모델에 이미지 형태로 입력하고 문제를 풀게 한 결과, 클로바X가 약 84%의 정답률을 기록해 오픈AI의 GPT-4o의 78%보다 높은 정답률을 보였다”고 설명했다.
경쟁력 있을까
AI 투자로 돈을 벌 수 있을지, 이른바 ‘AI 거품론’이 확산하는 상황에서 수익화도 관건이다. 오픈AI는 GPT-4o 등 최신 모델을 제약 없이 사용하는 ‘챗GPT 플러스’ 멤버십(월 20달러)을 운영하고 있다. 구글의 제미나이 라이브는 ‘제미나이 어드밴스드’(월 19.99달러)를 구독한 이용자들만 사용할 수 있다.
하지만 네이버의 AI 비즈니스 모델은 아직 B2B(기업 간 거래)에 한정돼 있다. 최수연 네이버 대표는 지난 9일 2분기 실적 발표회에서 “(AI 서비스의) 별도의 구독료 등 수익화는 현재로서는 검토하고 있지 않다”면서 “투자 여력이 충분하다고 판단하고 있어 비용이 수반되더라도 AI 기반의 B2C 서비스를 확대하거나 실험하는 노력 역시 계속할 것”이라고 말했다.
어환희(eo.hwanhee@joongang.co.kr)
with the Korea JoongAng Daily
To write comments, please log in to one of the accounts.
Standards Board Policy (0/250자)