Mochis NoticiasNegocios y FinanzasSAP utilizará chips de IA de AWS e integrará modelos GenAI de Amazon Bedrock
Mochis NoticiasNegocios y FinanzasSAP utilizará chips de IA de AWS e integrará modelos GenAI de Amazon Bedrock
Negocios y Finanzas

SAP utilizará chips de IA de AWS e integrará modelos GenAI de Amazon Bedrock

SAP utilizará chips de IA de AWS e integrará modelos GenAI de Amazon Bedrock

SAP utilizará chips de IA de AWS e integrará el modelo GenAI de Amazon BedrockAmazon Web Services (AWS) y SAP SE anunciaron una colaboración estratégica ampliada para mejorar las experiencias de planificación de recursos empresariales (ERP) en la nube y permitir a las empresas aprovechar la inteligencia artificial (IA) generativa para nuevas capacidades y eficiencias. Esta asociación tiene como objetivo transformar la forma en que operan las empresas integrando la IA generativa en sus procesos centrales.

SAP planea utilizar los chips especializados de AWS para capacitar e implementar sus futuras ofertas de IA empresarial. Los chips en cuestión son AWS Trainium y AWS Inferentia, que están diseñados específicamente para cargas de trabajo de inteligencia artificial (IA) y aprendizaje automático (ML). Este movimiento es parte de una colaboración estratégica más amplia entre AWS y SAP para integrar la IA generativa en las experiencias de planificación de recursos empresariales (ERP) en la nube de SAP.

Capacitación en AWS y Inferencia de AWS son chips personalizados diseñados por Amazon Web Services (AWS) para tareas específicas de aprendizaje automático (ML). AWS Trainium está optimizado para el entrenamiento profundo (DL) de modelos grandes, incluidos los modelos Al generativos.

Cada acelerador Trainium incluye dos NeuronCoes de segunda generación y 32 GB de memoria de alto ancho de banda, lo que ofrece hasta 190 TFLOPS de potencia informática FP16/BF16, ideal para tareas de capacitación en el procesamiento de lenguaje natural, visión por computadora y sistemas de recomendación. Mientras que los aceleradores Inferentia2 cuentan con 32 GB de HBM por acelerador, lo que aumenta notablemente la capacidad de memoria y el ancho de banda.

Al aprovechar el potente hardware de AWS, SAP pretende mejorar el rendimiento y la eficiencia de sus aplicaciones empresariales impulsadas por IA. Esto permitirá a los clientes de SAP aprovechar las capacidades de la IA generativa para una variedad de aplicaciones, simplificar procesos e impulsar la innovación en sus operaciones.

Además, la colaboración también incluye la integración de modelos de IA generativa de Amazon Bedrock, como la familia de modelos Anthropic Claude 3 y Amazon Titan, en la infraestructura SAP AI Core. Esto proporcionará a los clientes de SAP acceso a modelos de lenguaje grande (LLM) de alto rendimiento y otros modelos básicos (FM) que se pueden personalizar con sus propios datos.

Amazon Bedrock es un servicio totalmente administrado proporcionado por Amazon Web Services (AWS) que permite a los desarrolladores crear y escalar aplicaciones Al generativas utilizando modelos básicos (FM).

El objetivo es facilitar a los clientes la adopción de la solución RISE con SAP en AWS, mejorar el rendimiento de las cargas de trabajo de SAP en la nube e integrar la IA generativa en la cartera empresarial de aplicaciones críticas para el negocio. Se espera que esta iniciativa acelere la adopción de IA generativa y modernice los procesos comerciales centrales basados ​​en soluciones SAP.

El centro de IA generativa en la infraestructura SAP AI Core brinda a los clientes acceso seguro a una amplia gama de grandes modelos de lenguaje (LLM) que se pueden integrar fácilmente en las aplicaciones comerciales de SAP. Decenas de miles de clientes utilizan Amazon Bedrock para crear y escalar fácilmente aplicaciones de IA generativa utilizando FM de empresas líderes en IA como AI21 Labs, Anthropic, Cohere, Meta, Mistral AI, Stability AI y Amazon.



Source link

Hi, I’m Miguel Pantoja

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *