“
Andrew Feldman, cofundador y CEO de Cerebras Systems, habla en la conferencia Collision en Toronto el 20 de junio de 2024.
Ramsey Cardy | Sportsfile | Collision | Getty Images
La startup de chips de inteligencia artificial Cerebras Systems presentó el lunes su prospecto para una oferta pública inicial, con planes de cotizar bajo el símbolo de ticker “CBRS” en el Nasdaq.
Cerebras compite con Nvidia, cuyas unidades de procesamiento gráfico son la elección de la industria para entrenar y ejecutar modelos de IA. Cerebras dice en su sitio web que su chip WSE-3 viene con más núcleos y memoria que el popular H100 de Nvidia. También es un chip físicamente más grande. Además de vender chips, Cerebras ofrece servicios basados en la nube que dependen de sus propios clústeres de computación.
Cerebras tuvo una pérdida neta de $66.6 millones en los primeros seis meses de 2024 con $136.4 millones en ventas, según el documento. Para los primeros seis meses de 2023, la empresa tuvo una pérdida neta de $77.8 millones y $8.7 millones en ventas.
Para el año completo de 2023, Cerebras reportó una pérdida neta de $127.2 millones en ingresos de $78.7 millones.
La empresa reportó una pérdida neta de $50.9 millones en ingresos de $69.8 millones en el segundo trimestre, en comparación con una pérdida de $26.2 millones y $5.7 millones en ingresos en el mismo período del año anterior.
Los gastos operativos han aumentado este año en parte debido a los mayores costos de personal para respaldar el crecimiento de los ingresos, dijo la empresa.
Los chips de IA son un mercado creciente y saturado. Los proveedores de la nube Amazon, Google y Microsoft han desarrollado sus propios chips de IA. La empresa dijo que Group 42, una empresa de IA con sede en los Emiratos Árabes Unidos que cuenta con Microsoft como inversor, representó el 83% de los ingresos de Cerebras el año pasado.
El chip WSE-3 de Cerebras es un ejemplo de nuevos silicios de startups diseñados para ejecutar y entrenar inteligencia artificial.
Cerebras Systems
Además de Nvidia, Cerebras menciona a AMD, Intel, Microsoft y Google como competidores, “así como circuitos integrados específicos de aplicación desarrollados internamente y una variedad de empresas privadas”.
Taiwan Semiconductor Manufacturing Company fabrica los chips de Cerebras. Cerebrus advirtió a los inversores que cualquier posible interrupción en la cadena de suministro podría perjudicar a la empresa.
Cerebras fue fundada en 2016 y tiene su sede en Sunnyvale, California. Andrew Feldman, cofundador y CEO de la startup, vendió la startup de servidores SeaMicro a AMD por $355 millones en 2012.
La empresa dijo en 2021 que fue valorada en más de $4 mil millones en una ronda de financiación de $250 millones. En mayo, G42 se comprometió a comprar $1.43 mil millones en pedidos de Cerebras antes de marzo de 2025, según el documento. G42 posee actualmente menos del 5% de las acciones de Clase A de Cerebras, y la firma tiene la opción de comprar más dependiendo de cuánto producto de Cerebras compre.
El mercado de OPI tecnológicas ha sido generalmente escaso en 2024, ya que las tasas de interés más altas han llevado a los inversores hacia activos rentables. La aplicación de redes sociales Reddit salió a bolsa en la Bolsa de Nueva York en marzo, y la empresa de software de gestión de datos Rubrik siguió en abril. A principios de este mes, la Reserva Federal dio luz verde a su primera subida de tasas desde 2020, lo que provocó ganancias en el índice Nasdaq Composite, centrado en tecnología.
Ni Morgan Stanley ni Goldman Sachs, los dos principales bancos de inversión tecnológica, están en el acuerdo. Citigroup y Barclays lideran la oferta.
El mayor inversor en Cerebras es la firma de capital de riesgo Foundation Capital, seguida por Benchmark y Eclipse Ventures. Alpha Wave, Coatue y Altimeter poseen al menos el 5% también, según el documento. Otros inversores incluyen al CEO de OpenAI, Sam Altman y al cofundador de Sun Microsystems, Andy Bechtolsheim. El único individuo que posee el 5% o más es Feldman.
VER: CEO de Cerebras: Nuestra oferta de inferencia es 20 veces más rápida que la de Nvidia y a una fracción del precio
“