Mochis NoticiasTecnologíaNi siquiera el ‘padrino de la IA’ tiene idea de qué es AGI
Mochis NoticiasTecnologíaNi siquiera el ‘padrino de la IA’ tiene idea de qué es AGI
Tecnología

Ni siquiera el ‘padrino de la IA’ tiene idea de qué es AGI

Ni siquiera el ‘padrino de la IA’ tiene idea de qué es AGI

¿Está confundido acerca de la inteligencia artificial general o AGI? Es eso con lo que OpenAI está obsesionado con crear en última instancia de una manera que «beneficie a toda la humanidad». Quizás quieras tomarlos en serio, ya que acaban de recaudar 6.600 millones de dólares para acercarte a ese objetivo.

Pero si todavía te preguntas qué es AGI, no estás solo.

En una amplia discusión el jueves en la cumbre de liderazgo responsable de IA de Credo AI, Fei-Fei Li, una investigadora de renombre mundial a menudo llamada la «madrina de la IA», dijo que ni siquiera sabe qué es AGI. En otra parte, Li habló sobre su papel en el nacimiento de la IA moderna, cómo la sociedad debería protegerse contra los modelos avanzados de IA y por qué cree que su nueva startup unicornio, World Labs, lo cambiará todo.

Pero cuando se le preguntó qué pensaba sobre una «singularidad de IA», Li estaba tan perdida como el resto de nosotros.

«Provengo de una formación académica en IA y fui educado en los métodos más rigurosos, basados ​​en evidencia, así que no sé realmente qué significan todas estas palabras», dijo Li en una sala llena en San Francisco, junto a una gran ventana con vistas al puente Golden Gate. «Francamente, ni siquiera sé lo que significa AGI. Como dice la gente, lo sabes cuando lo ves, supongo que no lo has visto. La verdad es que no dedico mucho tiempo a pensar en estas palabras porque creo que hay muchas cosas más importantes que hacer…”

Si alguien sabe qué es AGI, probablemente sea Fei-Fei Li. En 2006, creó ImageNet, el primer gran conjunto de datos de evaluación comparativa y capacitación de IA del mundo que fue fundamental para catalizar nuestro actual auge de la IA. De 2017 a 2018, se desempeñó como científica jefa de IA/ML en Google Cloud. Hoy, Li dirige el Instituto de IA Centrado en el Humano (HAI) de Stanford y su startup World Labs está construyendo «grandes modelos mundiales». (Ese término es casi tan confuso como AGI, si me preguntas).

El año pasado, el director ejecutivo de OpenAI, Sam Altman, intentó definir AGI en un perfil de The New Yorker. Altman describió a AGI como el «equivalente de un ser humano promedio que puedes contratar como socio».

Evidentemente, esta definición no era lo suficientemente buena para que trabajara una empresa de 157 mil millones de dólares. Entonces OpenAI creó los cinco niveles que utiliza internamente para medir su progreso hacia AGI. El primer nivel son los chatbots (como ChatGPT), luego los razonadores (aparentemente, OpenAI o1 era este nivel), los agentes (el siguiente, supuestamente), los innovadores (IA que puede ayudar a inventar cosas) y el último nivel, organizacional (IA que puede hacer el trabajo de toda una organización).

¿Aún estás confundido? Yo también, y Li también. Bueno, todo esto parece mucho más de lo que un compañero de trabajo humano promedio puede hacer.

Al principio de la charla, Li dijo que ha estado fascinada por la idea de inteligencia desde que era una niña. Esto la llevó a estudiar IA mucho antes de que fuera rentable hacerlo. A principios de la década de 2000, Li dice que ella y algunos otros estaban silenciosamente sentando las bases para este campo.

«En 2012, mi ImageNet, junto con AlexNet y las GPU, mucha gente llama a esto el nacimiento de la IA moderna. Fue impulsada por tres ingredientes principales: big data, redes neuronales y computadoras GPU modernas. Y una vez que llegó ese momento, «Creo que la vida nunca ha sido la misma en todo el campo de la IA, así como en nuestro mundo».

Cuando se le preguntó sobre el controvertido proyecto de ley de IA de California, SB 1047, Li habló con cuidado para no provocar una controversia que el gobernador Newsom acaba de poner fin al vetar el proyecto de ley la semana pasada. (Recientemente hablamos con el autor de la SB 1047, y estaba más que ansioso por reabrir su discusión con Li).

«Algunos de ustedes tal vez sepan que he expresado mis preocupaciones sobre este proyecto de ley. [SB 1047]fue vetado, pero ahora estoy pensando profundamente y con mucha emoción en mirar hacia adelante», dijo Li. «Me sentí muy halagado u honrado de que el gobernador Newsom me invitara a participar en los próximos pasos después de la SB 1047».

El gobernador de California recientemente recurrió a Li, junto con otros expertos en IA, para formar un grupo de trabajo que ayudara al estado a desarrollar barreras de seguridad para el despliegue de la IA. Li dijo que está utilizando un enfoque basado en evidencia en este rol y que hará todo lo posible para apoyar la investigación y la financiación académica. Sin embargo, también quiere asegurarse de que California no castigue a los tecnólogos.

«Necesitamos analizar realmente el impacto potencial sobre las personas y nuestras comunidades en lugar de poner la carga sobre la tecnología misma… No tiene sentido si penalizamos a un ingeniero de automóviles – digamos Ford o GM – si un automóvil es mal uso deliberado o no. y daña a una persona. Penalizar simplemente al ingeniero de automóviles no hará que los automóviles sean más seguros. Lo que tenemos que hacer es seguir innovando para lograr medidas más seguras, pero también mejorar el marco regulatorio, ya sea cinturones de seguridad o límites de velocidad, y lo mismo ocurre con la IA».

Ese es uno de los mejores argumentos que he escuchado en contra de la SB 1047, que habría castigado a las empresas de tecnología por modelos peligrosos de IA.

Aunque Li asesora a California sobre la regulación de la IA, también dirige su startup, World Labs, en San Francisco. Es la primera vez que Li funda una startup y es una de las pocas mujeres que dirige un laboratorio de inteligencia artificial de vanguardia.

«Estamos lejos de un ecosistema de IA muy diverso», afirmó Li. «Creo que la inteligencia humana diversa conducirá a una inteligencia artificial diversa y simplemente nos brindará mejor tecnología».

En los próximos años, está entusiasmada por acercar la «inteligencia espacial» a la realidad. Lo que dice que el lenguaje, en el que se basan los grandes modelos lingüísticos actuales, probablemente tardó un millón de años en desarrollarse, mientras que la visión y la percepción probablemente tardaron 540 millones de años. Esto significa que crear modelos mundiales grandes es una tarea mucho más complicada.

«No se trata sólo de que las computadoras vean, sino que realmente entienden todo el mundo 3D, lo que yo llamo inteligencia espacial», dijo Li. «No vemos sólo para nombrar cosas… Realmente vemos para hacer cosas, navegar por el mundo, interactuar unos con otros, y cerrar esa brecha entre ver y hacer requiere conciencia espacial. Como tecnólogo, estoy muy entusiasmado con esto”.

Source link

Hi, I’m Corina Guzman

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *