Detallan el cambio impulsado por la IA hacia la computación acelerada
Los albores de la computación acelerada están en marcha, marcando una era transformadora en el mundo de la tecnología.
A medida que la inteligencia artificial y el aprendizaje automático ocupan un lugar central, las soluciones de hardware innovadoras y las nuevas arquitecturas están superando a los métodos informáticos tradicionales.
«Las computadoras tradicionales de uso general son como una navaja suiza», dijo Shehram Jamal (en la foto), director de gestión de productos para software de aplicaciones de inteligencia artificial en Nvidia Corp. «Puede hacer muchas cosas, pero ninguna muy bien. Es un enfoque único en el que se utiliza el mismo procesador para diversas tareas, desde navegación web hasta edición de vídeo. Computación acelerada, que «Por otro lado Por otro lado, es como una herramienta especializada. Está diseñada para hacer una cosa excepcionalmente bien».
Jamal habló con John Furrier de theCUBE Research en el AI Infrastructure Silicon Valley – Evento de serie ejecutivadurante una transmisión exclusivast en theCUBE, el estudio de transmisión en vivo de SiliconANGLE Media. Discutieron la evolución de la infraestructura de IA, cómo la computación acelerada está remodelando las industrias y lo que depara el futuro para los sistemas de IA empresariales.
El cambio hacia la computación acelerada en detalle
La especialización y la eficiencia impulsan las bases del hardware de la computación acelerada. La arquitectura se basa en hardware especializado, como GPU y unidades de procesamiento tensoriales. Estos procesadores destacan en el procesamiento paralelo, lo que los hace más adecuados para tareas de IA como aprendizaje automático, análisis de datos y simulaciones científicas. Según Jamal, esta arquitectura conduce a tiempos de procesamiento más rápidos, mejor eficiencia energética y menores costos, lo que hace que la computación acelerada sea esencial para las cargas de trabajo modernas de IA.
«La computación de propósito general puede abarcar una amplia gama de aplicaciones, pero puede tener dificultades con tareas de alto rendimiento debido a las capacidades limitadas de procesamiento paralelo, mientras que la computación acelerada tiene tres conceptos principales, como arquitectura heterogénea, procesamiento paralelo y eficiencia», dijo. «Combinar CPU con aceleradores especializados, como GPU y TPU, para manejar tipos específicos de cargas de trabajo de manera más eficiente es una arquitectura heterogénea en computación acelerada».
La demanda de aplicaciones impulsadas por la IA ha dejado al descubierto las limitaciones de la informática tradicional. Los sistemas de IA modernos están diseñados de manera diferente a las iteraciones anteriores y requieren configuraciones de hardware y software especializadas. Por ejemplo, aplicaciones como los vehículos autónomos, los diagnósticos médicos y los asistentes virtuales, como Siri o Alexa, dependen de las capacidades de las computadoras aceleradas para lograr un rendimiento y precisión en tiempo real, explicó Jamal.
«Básicamente, puedes hacer que las aplicaciones sean más rápidas e inteligentes con la computación acelerada», dijo. “Se puede mejorar la atención sanitaria con diagnósticos basados en IA. También puedes mejorar el entretenimiento. Y también están los dispositivos domésticos más inteligentes”.
En el contexto de los sistemas de IA, los dos procesos dominantes son el entrenamiento y la inferencia. El entrenamiento es similar a enseñar a un modelo a reconocer patrones, como animales en imágenes. Este proceso requiere grandes cantidades de datos y potencia computacional, lo que lo convierte en una tarea que requiere muchos recursos. La inferencia, por otro lado, implica el uso del modelo entrenado para identificar patrones en nuevos datos, un proceso mucho más rápido y menos intensivo desde el punto de vista computacional.
Si bien la capacitación es esencial para desarrollar modelos de IA precisos, la inferencia se convertirá en el caso de uso dominante en el futuro, según Jamal. A medida que los modelos de IA se vuelvan más eficientes a través de técnicas como el aprendizaje por transferencia, disminuirá la necesidad de un reentrenamiento exhaustivo. Sin embargo, las continuas actualizaciones y perfeccionamientos del modelo seguirán requiriendo una infraestructura de formación sólida, señaló Jamal.
«Yo diría que están entrenando la curva S para que se aplane a medida que los modelos se vuelven más eficientes y especializados y técnicas como el aprendizaje por transferencia y el aprendizaje de pocas oportunidades se vuelven más frecuentes», dijo.
Aquí está la entrevista completa en video, parte de la cobertura de SiliconANGLE y theCUBE Research sobre el AI Infrastructure Silicon Valley – Evento de serie ejecutiva:
Foto de : SiliconANGLE
Su voto a favor es importante para nosotros y nos ayuda a mantener el contenido GRATIS.
Un clic a continuación respalda nuestra misión de proporcionar contenido gratuito, profundo y relevante.
Únase a nuestra comunidad en YouTube
Únase a la comunidad de más de 15.000 expertos de #CubeAlumni, incluido el director ejecutivo de Amazon.com, Andy Jassy, el fundador y director ejecutivo de Dell Technologies, Michael Dell, el director ejecutivo de Intel, Pat Gelsinger, y muchas más luminarias y expertos.
GRACIAS