Mochis NoticiasTecnologíaEl Instituto de Seguridad de IA de EE. UU. tendrá acceso a OpenAI y Anthropic para un futuro más seguro
Mochis NoticiasTecnologíaEl Instituto de Seguridad de IA de EE. UU. tendrá acceso a OpenAI y Anthropic para un futuro más seguro
Tecnología

El Instituto de Seguridad de IA de EE. UU. tendrá acceso a OpenAI y Anthropic para un futuro más seguro

El Instituto de Seguridad de IA de EE. UU. tendrá acceso a OpenAI y Anthropic para un futuro más seguro

El Instituto de Seguridad de IA de EE. UU. tendrá acceso a OpenAI y Anthropic para un futuro más seguro

OpenAI y Anthropic PBC anunciaron hoy que acordaron compartir modelos de IA previos y posteriores al lanzamiento con el Instituto de Seguridad de IA del gobierno de EE. UU.

El instituto, ubicado en el Instituto Nacional de Estándares y Tecnología (NIST) del Departamento de Comercio de EE. UU., fue establecido por orden ejecutiva del presidente Biden en 2023. Al trabajar con un consorcio de empresas y expertos, la responsabilidad es establecer pautas de seguridad y buenas prácticas mientras se evalúan sistemas de IA potencialmente peligrosos.

Las empresas explicaron hoy que el instituto tendrá acceso temprano a cualquier cosa que creen, así como acceso una vez que el producto esté en el mercado. El instituto también proporcionará comentarios a su homólogo del Reino Unido.

«La seguridad es clave para impulsar la innovación tecnológica revolucionaria», afirmó Elizabeth Kelly, directora del Instituto de Seguridad de IA de EE. UU. “Con estos acuerdos vigentes, esperamos comenzar nuestras colaboraciones técnicas con Anthropic y OpenAI para avanzar en la ciencia de la seguridad de la IA. Estos acuerdos son sólo el comienzo, pero son un hito importante mientras trabajamos para ayudar a gestionar responsablemente el futuro de la IA”.

La amenaza existencial que la IA podría representar para la humanidad era un tema candente mucho antes de este reciente aumento en el uso de la IA generativa. La razón principal era proceder con cautela, pero al mismo tiempo no dejarse dominar por el pánico de la IA.

En una carta abierta de junio, firmada por un grupo de investigadores actuales y anteriores de OpenAI, el grupo de investigación Google DeepMind de Alphabet Inc. y Anthropic, los firmantes pidieron más transparencia y supervisión para proteger al público de la IA potencialmente dañina. productos.

Los firmantes advirtieron que «fuertes incentivos financieros» podrían significar una falta de «supervisión efectiva». Agregaron que las principales empresas estadounidenses de IA «tienen sólo obligaciones débiles de compartir parte de esta información con los gobiernos, y ninguna con la sociedad civil», y es poco probable que «la compartan voluntariamente». El anuncio de hoy puede apaciguar al grupo interesado.

El director ejecutivo de OpenAI, Sam Altman, escribió en X que es «importante que esto suceda a nivel nacional», y agregó que «Estados Unidos debe seguir liderando».

«Esto fortalece nuestra capacidad para identificar y mitigar riesgos, impulsando el desarrollo responsable de la IA», dijo el cofundador y director de políticas de Anthropic, Jack Clark, en un comunicado a los medios.

Foto: Jonathan Kemper/Unsplash

Su voto a favor es importante para nosotros y nos ayuda a mantener el contenido GRATIS.

Un clic a continuación respalda nuestra misión de proporcionar contenido gratuito, profundo y relevante.

Únase a nuestra comunidad en YouTube

Únase a la comunidad de más de 15.000 expertos de #CubeAlumni, incluido el director ejecutivo de Amazon.com, Andy Jassy, ​​​​el fundador y director ejecutivo de Dell Technologies, Michael Dell, el director ejecutivo de Intel, Pat Gelsinger, y muchas más luminarias y expertos.

“TheCUBE es un socio importante para la industria. Realmente eres parte de nuestros eventos y realmente apreciamos que vengas y sé que la gente también aprecia el contenido que creas» – Andy Jassy

GRACIAS

Source link

Hi, I’m Corina Guzman

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *