Empleados de OpenAl y Deepmind advierten sobre los peligros de Al, incluida la extinción humana, que las empresas están ocultando
La carta enfatiza la necesidad de una mejor supervisión y regulación para evitar daños graves, como un mayor fortalecimiento de las desigualdades existentes, la manipulación, la desinformación e incluso la pérdida de control sobre los sistemas autónomos de -IA. Los empleados abogan por una cultura de crítica abierta y exigen fuertes protecciones para los denunciantes que permitan la discusión de estos riesgos sin temor a represalias.
Esta es una historia en desarrollo que destaca la importancia de las consideraciones éticas y la transparencia en el campo del desarrollo de la IA. Es fundamental que las empresas de IA interactúen con los gobiernos, la sociedad civil y otras partes interesadas para garantizar que las tecnologías de IA se desarrollen de manera responsable y segura.
Riesgos específicos que preocupan a los empleados
Los empleados de OpenAI y Google DeepMind expresaron su preocupación sobre varios riesgos específicos asociados con el desarrollo y la implementación de sistemas avanzados de IA. Éstas incluyen:
Reparar las desigualdades existentes: La IA avanzada puede exacerbar las disparidades sociales y económicas si sus beneficios no se distribuyen equitativamente.
Manipulación y desinformación: Los sistemas de inteligencia artificial se pueden utilizar para crear y difundir información falsa, lo que podría influir en la opinión pública y socavar la confianza en las instituciones.
Pérdida de control: Existe el riesgo de que los sistemas autónomos de IA se vuelvan incontrolables, lo que provocaría consecuencias no deseadas.
Extinción humana: La carta menciona el riesgo extremo que plantea la IA no regulada, incluidos escenarios que podrían conducir a la extinción humana.
El grupo detrás de la carta abierta instó a las empresas de inteligencia artificial a facilitar un proceso para que los empleados actuales y anteriores planteen inquietudes relacionadas con riesgos y no hagan cumplir acuerdos de confidencialidad que prohíban las críticas. Enfatizan la necesidad de transparencia y supervisión para garantizar que el desarrollo de la IA no comprometa los estándares éticos o de seguridad.