Mochis NoticiasCienciaLas políticas de redes sociales no coinciden con los robots de IA
Mochis NoticiasCienciaLas políticas de redes sociales no coinciden con los robots de IA
Ciencia

Las políticas de redes sociales no coinciden con los robots de IA

Las políticas de redes sociales no coinciden con los robots de IA



Las investigaciones encuentran que las plataformas de redes sociales no están haciendo lo suficiente para detener los dañinos robots de IA.

Si bien los robots de inteligencia artificial (IA) pueden cumplir un propósito legítimo en las redes sociales, como marketing o servicio al cliente, algunos están diseñados para manipular el debate público, incitar discursos de odio, difundir información errónea o generar fraudes y estafas.

Para combatir la actividad de bots potencialmente dañina, algunas plataformas han publicado políticas sobre el uso de bots y han creado mecanismos técnicos para hacer cumplir esas políticas.

Pero, ¿son esas políticas y mecanismos suficientes para mantener seguros a los usuarios de las redes sociales?

La nueva investigación analizó las políticas y mecanismos de los robots de inteligencia artificial de ocho plataformas de redes sociales: LinkedIn, Mastodon, Reddit, TikTok, X (anteriormente conocida como Twitter) y las metaplataformas Facebook, Instagram y Threads. Luego, los investigadores intentaron lanzar bots para probar los procesos de aplicación de políticas del bot.

Los investigadores publicaron con éxito una publicación de «prueba» benigna de un bot en cada plataforma.

«Como científicos informáticos, sabemos cómo se crean estos bots, cómo se conectan y cuán maliciosos pueden ser, pero esperamos que las plataformas de redes sociales bloqueen o apaguen los bots y no sea un gran problema. «, dice Paul Brenner, miembro de la facultad y director del Centro de Investigación en Computación de la Universidad de Notre Dame y autor principal del estudio.

«Así que echamos un vistazo a lo que las plataformas, a menudo vagamente, afirman hacer y luego probamos para ver si realmente hacen cumplir sus políticas».

Los investigadores descubrieron que las metaplataformas eran las más difíciles para lanzar bots: fueron necesarios varios intentos para eludir sus mecanismos de aplicación de políticas. Aunque los investigadores obtuvieron tres suspensiones en el proceso, lograron lanzar un bot y publicar una publicación de «prueba» en su cuarto intento.

La única otra plataforma que presentó un desafío modesto fue TikTok, debido al uso frecuente de CAPTCHA en la plataforma. Pero tres plataformas no representaron ningún desafío.

«Reddit, Mastodon y X eran triviales», dice Brenner. «A pesar de lo que dice su política o de los mecanismos técnicos de bot que tienen, fue muy fácil poner en funcionamiento un bot en X. No están aplicando sus políticas de manera efectiva».

A la fecha de publicación del estudio, todas las cuentas y ubicaciones de los bots de prueba todavía estaban activas. Brenner compartió que los pasantes, que solo tenían educación secundaria y una capacitación mínima, pudieron lanzar los robots de prueba utilizando tecnología que está disponible para el público, enfatizando lo fácil que es lanzar bots en línea.

En general, los investigadores concluyeron que ninguna de las ocho plataformas de redes sociales probadas proporciona suficiente protección y monitoreo para mantener a los usuarios a salvo de la actividad de bots maliciosos. Brenner argumentó que se necesitan leyes, estructuras de incentivos económicos, educación de los usuarios y avances tecnológicos para proteger al público de los robots maliciosos.

«Es necesario que exista una legislación estadounidense que exija que las plataformas identifiquen cuentas humanas y de bot porque sabemos que las personas no pueden diferenciar ambas por sí solas», afirma Brenner.

«La economía actualmente está sesgada en contra de esto, ya que el número de cuentas en cada plataforma es la base de los ingresos por marketing. Esto debe ser abordado por los responsables políticos».

Para crear sus bots, los investigadores utilizaron Selenium, que es un conjunto de herramientas para automatizar navegadores web, y GPT-4o y DALL-E 3 de OpenAI.

La investigación aparece como una vista previa en ArXiv. Este artículo preimpreso no ha sido sometido a revisión por pares y sus hallazgos son preliminares.

Fuente: Universidad de Notre Dame

Source link

Hi, I’m Conchita Garcia

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *