Sociology

AI 칩 스타트업 Groq, Nvidia에 도전할 목적으로 6억 4천만 달러 투자 유치

Groq은 기존 프로세서보다 더 빠르게 생성 AI 모델을 실행하기 위한 칩을 개발하는 스타트업으로, 월요일에 Blackrock이 주도하는 새로운 자금 조달 라운드에서 6억 4천만 달러를 조달했다고 밝혔다. Neuberger Berman, Type One Ventures, Cisco, KDDI 및 Samsung Catalyst Fund도 참여했다. 이 라운드를 통해 Groq의 총 자금 조달 금액은 10억 달러 이상이 되며, 회사 가치는 28억 달러로 산정된다. 해당 라운드에서는 미디어가 보도한 바와 같이 초기에 2억 5천만 달러로 계획되었던 더 낮은 (25억 달러) 회사 가치에서 6억 4천만 달러로 더 높아진 것이다. 지난 2021년 4월 Tiger Global Management 및 D1 Capital Partners가 주도한 라운드에서 이전 가치(약 10억 달러)의 두배 이상이다. 또한 Groq는 오늘 Meta의 수석 AI 과학자인 앙 르쿤(Yann LeCun)이 기술 자문위원으로 활동하고 인텔의 파운드리 사업 책임자이자 HP의 전 CIO인 Stuart Pann이 칩 업에 참여할 것이라고 발표했다. LeCun의 임명은 Meta가 자체 AI 칩에 투자하는 것을 감안할 때 약간 예상치 못한 일지만, 분명히 치열한 시장에서 Groq에 강력한 동맹을 제공한다. 2016년 스텔스 모드에서 나온 Groq은 LPU(언어 처리 유닛) 추론 엔진이라는 것을 만들고 있다고 한다. 회사는 자사의 LPU가 기존 generative AI 모델을 실행했을 때 OpenAI의 ChatGPT 및 GPT-1과 같은 아키텍처에서 10배의 속도와 1/10의 에너지로 동작할 수 있다고 주장한다. Groq CEO인 Jonathan Ross의 명성은 구글의 특수 AI 가속기 칩으로 훈련 및 모델 실행에 사용되는 tensorflow 처리 유닛(TPU)을 개발하는 데 도움을 준 것이다. Ross는 약 10년 전 Google의 본사인 Alphabet의 X 실험실에서 사업가이자 엔지니어였던 Douglas Wightman과 협력하여 Groq를 설립했다. Groq은 GroqCloud라는 LPU 기반 개발자 플랫폼을 제공하며, Meta의 Llama 3.1 패밀리, Google의 Gemma, OpenAI의 Whisper 및 Mistral의 Mixtral과 같이 'open' 모델뿐만 아니라 고객이 클라우드 인스턴스에서 칩을 사용할 수 있도록 하는 API도 제공한다. (Groq은 작년에 론칭한 AI 챗봇을 위한 AI 기반 채팅봇인 GroqChat을 호스팅하기도 한다.) 7월 현재, GroqCloud는 35만 6000명 이상의 개발자가 있으며, 라운드에서 획득한 자금의 일부를 확대 및 새로운 모델 및 기능을 추가하는 데 사용할 것이라고 Groq는 밝혔다. Groq COO인 Stuart Pann은 TechCrunch에 이렇게 말했다. '이 중 많은 개발자들이 대규모 기업에 속해 있습니다. 저희 추정에 따르면 포춘지 100개 중 75% 이상이 있습니다.' 생성 AI 붐이 지속되는 가운데, Groq는 경쟁이 치열한 AI 칩 스타트업 및 Nvidia로부터 점차적인 경쟁에 직면하고 있다. Nvidia는 생성 AI 모델을 훈련 및 배포하는 데 사용되는 AI 칩 시장의 약 70%에서 95%를 지배하고 있으며, 기업의 우위를 유지하기 위해 적극적인 조치를 취하고 있다. Nvidia는 역사적으로 다른 해수에서는 매년 새 AI 칩 아키텍처를 발표하기로 약속하고 있다. AI 하드웨어를 포함하여 클라우드 컴퓨팅 회사 및 기타 기업들에게 맞춤형 칩을 디자인하는 데 초점을 맞춘 새로운 비즈니스 부문을 설립하고 있다고 한다. Nvidia 이외에도 Groq는 클라우드에서 AI 워크로드를 위해 맞춤형 칩을 제공하거나 곧 제공할 아마존, 구글 및 마이크로소프트 등과 경쟁하고 있다. 아마존은 Trainium, Inferentia 및 Graviton 프로세서를 AWS를 통해 제공하고 있으며, Google Cloud 고객은 앞서 언급한 TPU 및 시간이 지남에 따라 Axion 칩을 사용할 수 있으며, 최근에 마이크로소프트는 AI 워크로드용 Azure 인스턴스를 미리보기로 도입했으며, 며칠 후 Maia 100 AI 가속기 인스턴스를 도입할 예정이라고 한다. Groq는 AI 칩 시장 분석가들에 따르면 다음 5년간 약 4000억 달러의 연간 매출에 달할 수있는 AI 칩 시장에서 Arm, Intel, AMD 및 점점 증가하는 여러 스타트업 라이벌들과도 경쟁하고 있다. 특히 클라우드 공급 업체들이 생성 AI에 대한 수용량 수요를 충족시키기 위해 재래의 자본 지출이 급증함에 따라 Arm과 AMD는 AI 칩 사업을 풀어가고 있다. D-Matrix는 지난 해 말에 추론 컴퓨트 플랫폼으로 소개하고 있는 것을 상용화하기 위해 1억 1천만 달러를 조달했다. 6월에는 Transformer라는 오늘날의 주요 생성 AI 모델 아키텍처를 가속하는 데 특별히 설계된 프로세서를 위해 1억 2천만 달러를 획득한 Etched가 스텔스 모드에서 부상했다. 소프트뱅크의 마사요시 손(Masayoshi Son)이 Nvidia와 경쟁할 칩 벤처를 개설하기 위해 1천억 달러를 모금하겠다고 보도되었다. 또한 OpenAI는 AI 칩 제작 이니셔티브를 시작하기 위해 투자사들과 협상 중이라고 한다. 자신의 영역을 규정하기 위해 Groq는 기업 및 정부 연계에 큰 투자를 하고 있다. 3월에는 비즈니스 지향 AI 솔루션 다수와 함께 다양한 사업용 AI 솔루션을 제공하는 Palo Alto 소재의 기업 Definitive Intelligence를 인수하여 Groq Systems라는 새로운 비즈니스 부문을 형성했다. Groq Systems의 업무 범위는 Groq 프로세서를 기존 데이터 센터에 추가하거나 Groq 프로세서를 사용하여 새로운 데이터 센터를 구축하고자 하는 미국 정부 기관 및 주권 국가 등 조직에 대한 서비스이다. 더 최근에 Groq는 정부 IT 계약업체인 Carahsoft와 협력하여 Carahsoft의 리셀러 파트너를 통해 공공부문 클라이언트에 솔루션을 판매하도록 하였으며, 노르웨이 데이터 센터의 Earth Wind & Power 사를 통해 10만 개의 LPU를 설치할 예정임을 알리는 의사 편지가 있다. 또한 Groq는 중동의 Aramco Digital와 협력하여 중동의 미래 데이터 센터에 LPU를 설치할 계획이다. 캘리포니아 산업 소재 Mountain View의 Groq는 고객 관계를 구축하는 한편 자사 칩의 다음 세대로 나아가고 있다. 지난 8월에 회사는 전반적인 성능 및 효율성 향상을 제공할 것으로 예상되는 4나노미터 LPU를 제조할 반도체 기업 Global Foundries와 계약을 맺었다고 발표하였다. Groq는 그 해 1분기 마지막까지 10만 8천개 이상의 LPU를 배치할 계획이라고 밝혔다.

Related Articles

Back to top button Back to top button