Mochis NoticiasTecnologíaLos empleados de OpenAI advierten en una carta sobre las posibles amenazas existenciales de la IA para la humanidad
Mochis NoticiasTecnologíaLos empleados de OpenAI advierten en una carta sobre las posibles amenazas existenciales de la IA para la humanidad
Tecnología

Los empleados de OpenAI advierten en una carta sobre las posibles amenazas existenciales de la IA para la humanidad

Los empleados de OpenAI advierten en una carta sobre las posibles amenazas existenciales de la IA para la humanidad

Una coalición de empleados actuales y anteriores de OpenAI, la empresa matriz detrás de ChatGPT, ha emitido una advertencia sobre las amenazas existenciales que plantea la inteligencia artificial avanzada, incluido el potencial de extinción humana.

En una carta detallada publicada ayer (4 de junio), el grupo, formado por 13 empleados actuales y anteriores de empresas como OpenAI, Anthropic y DeepMind de Google, describió una serie de amenazas asociadas con la IA, a pesar de sus beneficios potenciales.

La carta dice: «Somos empleados actuales y anteriores de empresas de inteligencia artificial de vanguardia y creemos en el potencial de la tecnología de inteligencia artificial para brindar beneficios sin precedentes a la humanidad». Sin embargo, también destaca las preocupaciones: «Estos riesgos van desde un mayor aumento de las desigualdades existentes, pasando por la manipulación y la desinformación, hasta la pérdida de control de los sistemas autónomos de IA, lo que podría conducir a la extinción humana».

Neel Nanda, líder de Interpretabilidad Mecanística en DeepMind y anteriormente de AnthropicAI, estuvo entre los firmantes. «Esto NO se debe a que actualmente tenga algo de qué advertir sobre mis empleadores actuales o anteriores, o críticas específicas a sus actitudes hacia los denunciantes», escribió en X. «Pero creo que el AGI será increíblemente trascendental y, como todos los laboratorios reconocemos, puede representar una amenaza existencial. Cualquier laboratorio que busque hacer AGI debe demostrar que es digno de la confianza del público, y que los empleados tengan un derecho sólido y protegido a denunciar irregularidades es un primer paso clave».

Falta de responsabilidad y regulación de la IA

Los partidarios afirman que, si bien las empresas de IA y los gobiernos globales reconocen estos peligros, las medidas corporativas y regulatorias actuales son insuficientes para prevenirlos. «Las empresas de IA tienen fuertes incentivos financieros para evitar una supervisión efectiva, y no creemos que las estructuras de gobierno corporativo adaptadas sean suficientes para cambiar esto», argumentan.

Luego critica la transparencia de las empresas de IA, afirmando que tienen «información sustancial no pública sobre las capacidades y limitaciones de sus sistemas, la idoneidad de sus medidas de protección y los niveles de riesgo de diferentes tipos de daños». Señala la falta de obligación de estas empresas de revelar información tan crítica, señalando: «Actualmente sólo tienen obligaciones débiles de compartir parte de esta información con los gobiernos, y ninguna con la sociedad civil».

Los trabajadores expresaron una necesidad urgente de una mayor supervisión gubernamental y rendición de cuentas pública. «A menos que exista una supervisión gubernamental efectiva de estas corporaciones, los empleados actuales y anteriores se encuentran entre las pocas personas que pueden exigirles cuentas ante el público», afirmó el grupo. También mostraron las limitaciones de las protecciones existentes para los denunciantes, que no cubren completamente los riesgos no regulados que plantean las tecnologías de inteligencia artificial.

OpenAI en agua caliente

La carta abierta llega en medio de la agitación que viven las principales empresas de inteligencia artificial, en particular OpenAI, que ha estado implementando asistentes de inteligencia artificial con funciones avanzadas capaces de entablar conversaciones de voz en vivo con humanos y responder a entradas visuales como videos o problemas matemáticos escritos.

Scarlett Johansson, quien una vez interpretó a una asistente de IA en la película «Her», acusó a OpenAI de modelar uno de sus productos según su voz, a pesar de su rechazo expreso a tal propuesta. Aunque el CEO de OpenAI tuiteó la palabra «ella» durante el lanzamiento del asistente de voz, desde entonces la compañía ha negado las afirmaciones de que utiliza la voz de Johansson como modelo.

En mayo, OpenAI también disolvió un equipo especializado que se había creado para investigar las amenazas a largo plazo asociadas con la IA, menos de un año después de su creación. En julio pasado, el jefe de confianza y seguridad de OpenAI, Dave Willner, también renunció.

Imagen de portada: Canva



Source link

Hi, I’m Corina Guzman

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *