[더테크=조재호 기자] 마이크로소프트(MS)가 어디서든 인공지능(AI)을 활용할 수 있도록 곳곳에 코파일럿을 적용할 계획이다. 자사의 클라우드 서비스 애저(Azure)에 오픈AI의 최신 모델 GPT-4o를 탑재하고 소형 언어 모델 제품군(SLMs)인 파이-3도 발표했다. 마이크로소프트는 21일(현지시간) 미국 워싱턴주 레드몬드 캠퍼스에서 자사의 연례 개발자 회의 ‘빌드(Build) 2024’를 개최했다. 사티아 나델라 MS CEO는 기조연설을 통해 AI 기술이 클라우드부터 엣지 디바이스까지, 텍스트 프롬프트를 넘어 텍스트·이미지·동영상 등 다양한 데이터를 지원하는 멀티모달(Multi-modal) 기능을 더하고 다양한 산업군을 지원할 수 있도록 60여개의 새로운 제품과 솔루션을 공개했다. MS는 먼저 애저 AI 스튜디오에 오픈AI의 최신 AI 모델인 GPT-4o 지원을 발표했다. GPT-4o는 오픈AI가 지난 14일 발표한 멀티모달 AI 모델이다. 앞서 오픈AI는 GPT-4o를 몇 주 이내에 출시할 계획이라 밝혔는데 한 주 만에 MS의 애저 AI에서 만나볼 수 있게 됐다. 경쟁사인 구글이 15일 자사 AI인 제미나이를 서비스 전반에 적용하고 멀티모달 AI인 아
[더테크=조재호 기자] 생성형 인공지능(AI)의 선두주자 오픈AI가 신규 AI 모델을 선보였다. 사람처럼 보고 듣고 말하며 실시간 대화까지 할 수 있을 정도로 빠른 답변을 제공한다. 이번 신규 모델 공개는 경쟁사인 구글의 I/O를 하루 앞두고 진행됐는데, 멀티모달(Multi Modal)을 본격적으로 지원하는 모델이라는 점에서 큰 이슈가 될 전망이다. 오픈AI가 현지시각 13일 ‘스프링 업데이트’ 행사를 진행했다. 온라인으로 진행된 이번 행사에서는 최신 AI 모델 ‘GPT-4o’를 공개하고 시연했다. 챗GPT에 더 많은 도구와 언어를 지원한다, GPT-4o의 o는 모든 것을 뜻하는 라틴어 접두사 Omni(옴니)를 의미한다. 텍스트 기반의 대화 방식에서 한단계 더 진화했다는 의미다. GPT-4o는 사용자와 실시간으로 대화할 수 있으며 텍스트와 시각, 청각 데이터를 종합해 분석하고 처리할 수 있는 모델이다. 일반적인 텍스트로 파악하기 힘든 사용자의 말투나 억양을 파악한다거나 수학 문제를 보고 풀이하는 등의 기능을 선보였다. 오픈AI는 GPT-4o가 기존 GPT-4 Turbo 보다 빠른 답변 속도를 지녔으며 비용은 절반 수준이라고 설명했다. 지난해 11월 GPT-4