Mochis NoticiasNegocios y FinanzasCerebras Systems desafía el dominio de Nvidia en el mercado de GPU de IA con chips revolucionarios
Mochis NoticiasNegocios y FinanzasCerebras Systems desafía el dominio de Nvidia en el mercado de GPU de IA con chips revolucionarios
Negocios y Finanzas

Cerebras Systems desafía el dominio de Nvidia en el mercado de GPU de IA con chips revolucionarios

Cerebras Systems desafía el dominio de Nvidia en el mercado de GPU de IA con chips revolucionarios

La startup estadounidense Cerebras Systems se está posicionando como un competidor formidable de Nvidia en el mercado de GPU de IA al aprovechar sus innovadores chips Wafer Scale Engine. Estos procesadores del tamaño de un iPad, desarrollados por Cerebras, tienen como objetivo acelerar las cargas de trabajo de IA y al mismo tiempo reducir significativamente los costos.

El martes, Cerebras presentó un nuevo servicio llamado «Cerebras Inference». Esta oferta permite a los clientes utilizar sus chips patentados para sus programas de IA, y la startup afirma que su tecnología puede ejecutar tareas generativas de IA hasta 20 veces más rápido y a una quinta parte del costo de las GPU estándar de la industria de Nvidia, como la H100.

Cerebras Inference se centra en mejorar la capacidad de la IA para generar nuevos datos, como predecir palabras posteriores en un texto. La compañía afirma audazmente que su plataforma es «la solución de inferencia de IA más rápida del mundo». Para respaldar esta afirmación, Cerebras está utilizando sus chips Wafer Scale Engine para ejecutar Llama 3.1 de Meta, un gran modelo de lenguaje de código abierto, con resultados notables. La compañía informa que Llama 3.1 puede dar respuestas prácticamente sin demora, gracias al rendimiento de los chips.

Cerebras destaca que sus chips pueden ejecutar la versión del parámetro 8 mil millones Llama 3.1 a una velocidad de 1.800 tokens por segundo, lo que se traduce en la capacidad de generar un artículo de 1.300 palabras en tan solo un segundo. Para la versión de parámetros más potente de 70 mil millones, los chips pueden producir 450 tokens por segundo. Estos puntos de referencia, según Cerebras, superan el rendimiento de token por segundo de los proveedores de nube de IA como Amazon AWS, Microsoft Azure y Groq.

En términos de costes, Cerebras Inference es muy competitivo. El servicio se ofrece a una fracción del precio de las alternativas basadas en GPU, con precios de pago por uso que comienzan en sólo 10 centavos por millón de tokens para el modelo Llama 3.1 8B y 60 centavos para el modelo 70B. Esto contrasta marcadamente con el precio de OpenAI, que oscila entre 2,50 y 15 dólares por millón de tokens.

Los chips Wafer Scale Engine de Cerebras son fabricados por TSMC de Taiwán, el mismo fabricante de chips contratado responsable de las GPU AI de Nvidia. En marzo, Cerebras presentó su chip de tercera generación, el WSE-3, que cuenta con la impresionante cifra de 4 billones de transistores y 900.000 núcleos de IA, lo que fortalece aún más su potencial para revolucionar el mercado de hardware de IA.

Source link

Hi, I’m Miguel Pantoja

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *