Mochis NoticiasTecnologíaMatt Garman, director ejecutivo de AWS, sobre IA generativa, código abierto y servicios de apagado
Mochis NoticiasTecnologíaMatt Garman, director ejecutivo de AWS, sobre IA generativa, código abierto y servicios de apagado
Tecnología

Matt Garman, director ejecutivo de AWS, sobre IA generativa, código abierto y servicios de apagado

Matt Garman, director ejecutivo de AWS, sobre IA generativa, código abierto y servicios de apagado

Fue toda una sorpresa cuando Adam Selipsky renunció como director ejecutivo de la unidad de computación en la nube AWS de Amazon. Lo que quizás fue igualmente sorprendente fue que Matt Garman lo reemplazó. Garman se unió a Amazon como pasante en 2005 y se convirtió en empleado de tiempo completo en 2006, trabajando en los primeros productos de AWS. Pocas personas conocen el negocio mejor que Garman, cuyo último puesto antes de convertirse en director ejecutivo fue el de vicepresidente senior de ventas, marketing y servicios globales de AWS.

Garman me dijo en una entrevista la semana pasada que aún no ha realizado ningún cambio importante en la organización. «No ha cambiado mucho en la organización. El negocio va bastante bien, por lo que no hay necesidad de hacer un gran cambio en nada en lo que estamos enfocados», afirmó. Sin embargo, señaló algunas áreas en las que cree que la empresa debe centrarse y en las que ve oportunidades para AWS.

Volver a enfatizar las startups y la innovación rápida

Una de ellas, algo sorprendente, son las startups. “Pienso en cómo hemos evolucionado como organización. … Al principio de la vida de AWS, nos concentramos mucho en cómo atraer realmente a los desarrolladores y a las nuevas empresas, y obtuvimos mucha tracción allí”, explicó. “Y luego empezamos a analizar cómo apelamos a las empresas más grandes, cómo apelamos a los gobiernos, cómo apelamos a los sectores regulados de todo el mundo. Y creo que una de las cosas que acabo de enfatizar nuevamente es que no es realmente un cambio, pero también enfatizo que no podemos perder ese enfoque en las empresas emergentes y los desarrolladores. Queremos hacer todas esas cosas”.

La otra área en la que quiere que se centre el equipo es en mantenerse al día con la vorágine de cambios que se vive actualmente en la industria.

“Realmente estaba enfatizando con el equipo lo importante que es para nosotros seguir sin depender de la ventaja que tenemos en términos del conjunto de servicios, capacidades, características y funciones que tenemos hoy, y seguir avanzando. y construir esa verdadera hoja de ruta de innovación», dijo. “Creo que la razón por la que los clientes utilizan AWS hoy en día es porque tenemos el mejor y más completo conjunto de servicios. La razón por la que la gente recurre a nosotros hoy es porque seguimos teniendo, con diferencia, la mejor seguridad y rendimiento operativo de la industria, y les ayudamos a innovar y moverse más rápido. Y tenemos que seguir impulsando esa hoja de ruta de cosas por hacer. No es realmente un cambio per se, pero es lo que probablemente más enfaticé: lo importante que es para nosotros mantener ese nivel de innovación y mantener la velocidad a la que estamos entregando».

Cuando le pregunté si pensaba que tal vez la empresa no había innovado lo suficientemente rápido en el pasado, dijo que no lo creía. “Creo que el ritmo de la innovación no hará más que acelerarse, por lo que es simplemente un énfasis en que también tenemos que acelerar nuestro ritmo de innovación. No es que estemos perdiendo el control; es simplemente ese énfasis en cuánto queremos seguir acelerando con el ritmo de la tecnología que existe».

IA generativa en AWS

Con la llegada de la IA generativa y la rapidez con la que las tecnologías están cambiando ahora, AWS también debería estar «a la vanguardia de cada una de ellas», dijo.

Poco después del lanzamiento de ChatGPT, muchos expertos preguntaron si AWS era demasiado lento para lanzar herramientas de IA generativa y dejaba una oportunidad para sus competidores como Google Cloud y Microsoft Azure. Pero Garman cree que esto fue más una percepción que una realidad. Señaló que AWS había estado ofreciendo servicios exitosos de aprendizaje automático como SageMaker, incluso antes de que la IA generativa se convirtiera en una palabra de moda. También señaló que la empresa ha adoptado un enfoque más deliberado hacia la IA generativa que quizás algunos de sus competidores.

«Estábamos analizando la IA generativa antes de que se convirtiera en algo ampliamente aceptado, pero yo diría que cuando salió ChatGPT, hubo una especie de descubrimiento de un nuevo campo, de formas en que esta tecnología podría aplicarse. Y creo que todo el mundo estaba emocionado y lleno de energía, ¿verdad? … Creo que un grupo de personas, nuestros competidores, se apresuraron a poner los chatbots por encima de todo y demostrar que estaban a la vanguardia de la IA generativa”, dijo.

Creo que un grupo de personas (nuestros competidores) se apresuraron a poner los chatbots por encima de todo y demostrar que estaban a la vanguardia de la IA generativa.

En cambio, dijo Garman, el equipo de AWS quería dar un paso atrás y observar cómo sus clientes, ya sean nuevas empresas o empresas, pueden integrar mejor esta tecnología en sus aplicaciones y utilizar los datos diferenciados para hacerlo. “Querrán una plataforma en la que realmente tengan la flexibilidad de construir y pensarán en ella como una plataforma de construcción en lugar de una aplicación que van a adaptar. Y es por eso que nos tomamos el tiempo para construir esa plataforma», dijo.

Para AWS, esa plataforma es Bedrock, donde ofrece acceso a una amplia variedad de modelos abiertos y propietarios. Dijo que hacer precisamente eso, y permitir a los usuarios combinar diferentes modelos, era un poco controvertido en ese momento. «Pero para nosotros, pensábamos que probablemente el mundo se dirigía hacia allí, y ahora es una conclusión inevitable que hacia allí se dirige el mundo», dijo. Dijo que cree que todos quieren plantillas personalizadas y obtienen sus propios datos.

La base, dijo Garman, «está creciendo como una mala hierba en este momento».

Sin embargo, un problema relacionado con la IA generativa que aún debe resolverse es el precio. «Mucho de esto implica duplicar nuestro silicio personalizado y algunos otros cambios en el modelo para hacer la inferencia que se va a incorporar en sus aplicaciones. [something] mucho más asequible”.

La próxima generación de chips Trainium personalizados de AWS, que la compañía presentó en su conferencia re:Invent a finales de 2023, se lanzará a finales de este año, dijo Garman. «Estoy muy entusiasmado de que realmente podamos cambiar esa curva de costos y comenzar a ofrecer valor real a los clientes».

Un área en la que AWS ni siquiera necesariamente ha intentado competir con algunos de los otros gigantes tecnológicos es en la construcción de sus propios grandes modelos de lenguaje. Cuando le pregunté a Garman sobre esto, señaló que todavía es algo en lo que la empresa está «muy centrada». Él cree que es importante para AWS tener modelos propios y al mismo tiempo seguir dependiendo también de modelos de terceros. Pero también quiere asegurarse de que los propios modelos de AWS puedan agregar valor único y diferenciarse, ya sea utilizando sus propios datos o «a través de otras áreas donde vemos oportunidades».

Entre esas áreas de oportunidad se encuentran los costos, pero también los agentes, sobre las cuales todos en la industria parecen ser optimistas en este momento. «Tener modelos confiables, con un nivel muy alto de corrección, salir y llamar a otras API y hacer cosas, esa es un área donde creo que se puede hacer algo de innovación», dijo Garman. Los agentes, afirma, desbloquearán mucha más utilidad que la IA generativa al automatizar procesos en nombre de sus usuarios.

Q, un chatbot impulsado por IA

En su última conferencia re:Invent, AWS también lanzó Q, su asistente generativo impulsado por IA. En este momento, existen esencialmente dos versiones de esto: Q Developer y Q Business.

Q Developer se integra con muchos de los entornos de desarrollo más populares y, entre otras cosas, ofrece finalización de código y herramientas para modernizar aplicaciones Java heredadas.

«Realmente pensamos en Q Developer como un sentido más amplio de ayudar realmente durante todo el ciclo de vida del desarrollador», dijo Garman. «Creo que muchas de las primeras herramientas para desarrolladores estaban muy centradas en la codificación, y ¿pensamos más en cómo podemos ayudar con todo lo que resulta doloroso y laborioso para los desarrolladores?»

En Amazon, los equipos utilizaron Q Developer para actualizar 30.000 aplicaciones Java, ahorrando 260 millones de dólares y 4.500 años de desarrollo en el proceso, dijo Garman.

Q Business utiliza tecnologías similares internamente, pero su enfoque está en agregar datos internos de la empresa de una amplia variedad de fuentes y hacer que se puedan buscar a través de un servicio de preguntas y respuestas como ChatGPT. La compañía está «viendo algo de tracción real allí», afirmó Garman.

Los servicios están cerrados.

Si bien Garman señaló que no ha cambiado mucho bajo su liderazgo, una cosa que sucedió recientemente en AWS es que la compañía anunció planes para cerrar algunos de sus servicios. Eso no es algo que AWS haya hecho tradicionalmente con tanta frecuencia, pero este verano anunció planes para cerrar servicios como su IDE Cloud9 basado en la web, su competidor CodeCommit GitHub, CloudSearch y otros.

«Es una especie de limpieza en la que hemos analizado un montón de estos servicios, donde, francamente, hemos lanzado un servicio mejor al que la gente debería acudir, o hemos lanzado uno que simplemente no teníamos. molestar», explicó. «Y, por cierto, hay algunos de estos que simplemente no hacemos bien y su tracción fue bastante ligera. Lo miramos y dijimos: ‘¿Sabes qué? En realidad, el ecosistema de socios tiene una mejor solución y simplemente vamos a adaptarnos a ella». No se puede invertir en todo. No se puede construir todo. No nos gusta hacer eso. Nos tomamos en serio si las empresas van a depender de nosotros para respaldar las cosas durante mucho tiempo. Y por eso tenemos mucho cuidado con eso».

AWS y el ecosistema de código abierto

Una relación que durante mucho tiempo ha sido difícil para AWS (o al menos se percibió que era difícil) es con el ecosistema de código abierto. Eso está cambiando y hace apenas unas semanas, AWS envió su código OpenSearch a la Fundación Linux y a la recién formada Fundación OpenSearch.

Nos encanta el código abierto. Pasamos al código abierto. Creo que intentamos aprovechar la comunidad de código abierto. y Sea un gran contribuyente a la comunidad de código abierto.

«Creo que nuestra visión es bastante simple», dijo Garman cuando le pregunté cómo piensa sobre la relación entre AWS y el código abierto en el futuro. “Nos encanta el código abierto. Pasamos al código abierto. Creo que intentamos aprovechar la comunidad de código abierto. y Sea un gran contribuyente a la comunidad de código abierto. Creo que ese es el objetivo del código abierto: beneficia a la comunidad, y eso es lo que nos tomamos en serio».

Señaló que AWS ha realizado importantes inversiones en código abierto y en código abierto en muchos de sus propios proyectos.

«La mayor parte de la fricción ha provenido de empresas que originalmente comenzaron proyectos de código abierto y luego decidieron no hacerlo, lo cual creo que tienen derecho a hacer. Pero, ya sabes, ese no es realmente el espíritu del código abierto. Y así, siempre que Veo gente haciendo eso, tome Elastic como ejemplo de eso y OpenSearch [AWS’s ElasticSearch fork] fue bastante popular. … Si hay Linux [Foundation] proyecto o proyecto Apache o algo en lo que podamos entrar, en lo que queremos entrar; nosotros contribuimos a ellos. Creo que hemos evolucionado y aprendido como organización cómo ser un buen administrador en esa comunidad y espero que otros lo hayan notado».

Source link

Hi, I’m Corina Guzman

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *