Mochis NoticiasTecnología¿Qué tan riesgosa es la IA para las elecciones y la democracia?
Mochis NoticiasTecnología¿Qué tan riesgosa es la IA para las elecciones y la democracia?
Tecnología

¿Qué tan riesgosa es la IA para las elecciones y la democracia?

¿Qué tan riesgosa es la IA para las elecciones y la democracia?

¿Qué tan riesgosa es la IA para las elecciones y la democracia?

Con el auge de los potentes chatbots y el contenido engañoso y deepfake, los expertos creen que la IA puede utilizarse para influir en las elecciones y no está claro si los gobiernos o los gigantes tecnológicos podrán hacer frente a la amenaza.

2024 se perfila como un gran año para las elecciones en todo el mundo, pero en este mundo cada vez más digital, las preocupaciones sobre la interferencia tecnológica van en aumento.

Un ejemplo de tecnología que causa impacto son las redes sociales, ya que plataformas como Facebook y Twitter se han utilizado como herramientas para manipular a los votantes, una preocupación que persiste hasta el día de hoy.

Pero una forma de tecnología en rápido crecimiento también está causando preocupación en todo el mundo por su potencial para crear grandes cantidades de información engañosa. Esa tecnología es inteligencia artificial, o IA.

Si bien la IA ha existido de alguna forma durante décadas, sus capacidades e impacto han aumentado en los últimos años, particularmente tras el surgimiento de modelos de IA generativa como ChatGPT. Los expertos han estado debatiendo los beneficios y peligros que presenta esta tecnología; muchos la describen como un «arma de doble filo» para muchos sectores.

Pero, ¿se puede utilizar esta tecnología para influir en los votantes e interferir con las elecciones? El presidente de asuntos globales de Meta, Nick Clegg, describió recientemente esos temores como un engaño y dijo que estaba «horrorizado» por lo poco que se había utilizado la IA para perturbar las elecciones en lugares como Taiwán, Pakistán e Indonesia. También dijo que la IA debería verse como una «espada, no sólo un escudo» para combatir el contenido inadecuado.

Sin embargo, esto proviene de una empresa que ha invertido mucho en tecnología de IA en los últimos años y que ha creado equipos dedicados en respuesta a la amenaza del mal uso de la IA en las elecciones.

¿Ya empezó?

A pesar de lo que dice gente como Clegg, ya hay pruebas de que la IA se ha utilizado para interferir en las elecciones. Un informe de Microsoft a principios de este mes afirmó que los actores de amenazas vinculados al gobierno chino estaban utilizando contenido generado por IA en un intento de «influir y sembrar división» en varios países.

Este informe también afirmó que en enero hubo un aumento de contenido generado por IA de actores vinculados a China para influir en las elecciones taiwanesas, contrariamente al reciente comentario de Clegg. Sin embargo, el informe también afirmó que había «pocas pruebas» de que las acciones de estas cuentas lograran influir en la opinión pública.

Entonces, ¿cómo se puede utilizar exactamente la IA para influir en una elección y qué impacto puede tener? Tim Callan, director de cumplimiento de Sectigo, habló con SiliconRepublic.com sobre la creciente sofisticación de los deepfakes: contenido generado por IA que se asemeja a eventos o personas reales.

Este contenido suele tener forma de fotos, audio o vídeos. Si bien este contenido era más fácil de encontrar en el pasado, la tecnología ha avanzado hasta el punto en que es más probable que engañe a las personas.

Callan dijo que hay muchas maneras en que este tipo de contenido generado por IA puede usarse en políticos o partidos políticos que «cambian la impresión que el votante promedio tendrá» de ellos.

«En general, esto es algo difamatorio», dijo Callan. “Quieren hacer quedar mal a ese político. Pero podría ser todo lo contrario. Hubo un deepfake bastante famoso aquí en los EE. UU. durante las primarias de New Hampshire, donde se utilizó una voz deepfake de Joe Biden».

Callan dijo que si una elección es «aplastante», entonces es poco probable que estas técnicas engañosas cambien el resultado final, pero señaló que muchas elecciones son «realmente reñidas».

«Y en unas elecciones muy reñidas, conseguir unos cuantos votos puede marcar la diferencia», afirmó. «Entonces, si la gente cree de manera creíble que está viendo un video de un político diciendo algo estúpido, o durmiendo en la Cumbre del G20, o cualquiera de las otras cosas que hemos visto, entonces esas cosas pueden influir en las elecciones. Es un riesgo muy real».

Un estudio del año pasado también sugirió que los modelos de IA pueden engañar a las personas para que crean en información falsa mejor que los humanos. Este estudio también se refirió a cierto modelo de IA como un «arma de doble filo».

Preparándose para la amenaza

La tecnología de inteligencia artificial ha estado teniendo un impacto en muchos sectores desde hace algún tiempo, pero también se están haciendo esfuerzos para monitorear, regular y comprender mejor la tecnología en todo el mundo.

Un informe reciente de The Washington Post sugiere que el Senado de Estados Unidos está buscando formas de abordar las falsificaciones de IA en las campañas electorales, mientras que varios gigantes tecnológicos como Meta y Google afirman estar abordando la amenaza que la tecnología crea para las elecciones.

Mientras tanto, los gobiernos de todo el mundo están tomando nota del potencial de la IA para interferir en las elecciones. La UE ha enviado solicitudes a varias empresas tecnológicas como Microsoft, Alphabet, Meta y TikTok para ver cómo están gestionando la amenaza generativa que la IA presenta para las elecciones.

Esto siguió a los nuevos requisitos para los gigantes tecnológicos en línea anunciados el mes pasado, como la creación de equipos electorales internos y la adopción de medidas para reducir el riesgo que plantea la IA generativa, para garantizar el buen funcionamiento de los procesos democráticos.

Irlanda también ha tomado nota de la amenaza que el contenido engañoso de IA representa para las elecciones, habiendo emitido recientemente un marco sobre información en línea sobre procesos electorales, publicidad política y contenido engañoso de IA.

«Los riesgos para la integridad de las elecciones ya son evidentes, con muchos ejemplos en todo el mundo de comportamiento no auténtico, particularmente en audio o vídeo manipulados por IA», dijo el Ministro de Estado Malcolm Noonan, TD. «Es importante que hagamos todo lo posible para proteger nuestros procesos electorales y democráticos de tal interferencia».

También se están reuniendo expertos en estudios dirigidos por irlandeses para abordar las amenazas que enfrenta la democracia, incluida la IA. El Dr. Joseph Lacey, director fundador del Centro de Investigación sobre la Democracia de la University College Dublin, dirige un proyecto de investigación internacional llamado Elect que investiga los desafíos que surgen de los cambios recientes en términos de cómo se llevan a cabo y ganan las campañas políticas.

Vemos a Estados Unidos de cerca

En declaraciones a SiliconRepublic.com, Lacey destacó varios acontecimientos en los últimos años que han cambiado las campañas políticas, como «big data y análisis, nuevos medios y el surgimiento de nuevas fuerzas electorales».

En cuanto a la IA, Lacey dijo que su uso potencial y su impacto en el entorno de la campaña son todavía «en gran medida desconocidos», pero señaló que la IA puede mejorar en gran medida la productividad y la eficiencia, sugiriendo que ayudará «tanto a aquellos que quieran usarla para un propósito positivo y propósitos más nefastos».

«Por ejemplo, los partidos pueden llegar a más votantes en línea con la ayuda de la IA, pero cualquiera que quiera inundar la esfera pública con información engañosa o mentiras también podrá hacerlo mejor, al menos en ausencia de medidas compensatorias». medidas ”, dijo Lacey. «Una cosa que sabemos sobre los partidos políticos es que tienen recursos y experiencia limitados. De modo que realmente pueden maximizar lo que se puede lograr con las nuevas tecnologías para ayudarles en sus campañas».

Lacey dijo que la principal excepción para las campañas políticas con recursos limitados se encuentra en Estados Unidos, donde los dos partidos principales suelen ser «los verdaderos pioneros en la integración de la tecnología en su aparato de campaña».

«La falta de financiación de las campañas significa que hay mucho dinero disponible y muchos profesionales que contratar que realmente pueden aumentar el valor tecnológico de las campañas», afirmó. «Los partidos con recursos insuficientes en todo el mundo – como siempre – seguirán de cerca lo que sucede en las campañas estadounidenses con la esperanza de aprender de cualquier experimentación con IA que potencialmente pueden adaptarse dentro de los límites de sus propios recursos».

¿Cómo proteger la democracia?

A medida que avanzan la investigación y la regulación, parece que habrá algunas herramientas disponibles para proteger las elecciones del contenido generado por IA. Pero aún no está claro qué tan pronto se implementarán estas defensas y qué tan efectivas serán.

Callan señaló que una legislación para restringir el uso de la tecnología deepfake «ayudaría un poco», pero dijo que era mucho más difícil abordar las «diversas cosas clandestinas bajo tierra», como los chatbots en sitios de medios sociales que no están identificados como IA.

Pero el verdadero problema, según Callan, es que existe un «retraso» entre la comprensión que el votante medio tiene de esta tecnología y el «estado actual de la tecnología».

«Durante más de un año ha sido cierto que la IA está arruinando tu experiencia en línea», dijo. “Podría ser a través de deepfakes, o podría ser a través de otras cosas que no son deepfakes sino simplemente chatbots impulsados ​​por inteligencia artificial.

«Hay muchos lugares donde el diálogo en línea, o el conjunto de voces en línea que se obtienen, probablemente sea generado en parte o en gran parte por IA, y lo hacen con un propósito».

Callan cree que una respuesta está en la educación del consumidor: iniciativas para hacer que el público en general sea más consciente de la amenaza y del hecho de que el contenido en línea puede ser generado por IA. Pero esto presenta otro problema: a las personas les resulta más difícil confiar en algo en línea.

El año pasado, Wasim Khaled de Blackbird.AI afirmó que había ejemplos de IA utilizada para ataques de «denegación de confianza distribuida», que según él son ataques diseñados para socavar «cualquier noción de confianza» asociada con una entidad o narrativa en particular. «introduciendo muchas otras cosas», como teorías de conspiración.

Callan compartió preocupaciones similares en lo que respecta al auge de la tecnología de inteligencia artificial, y dijo que ha llegado al punto en el que es «escéptico ante todo lo que veo» en línea.

«Estamos en una época peligrosa donde nada de lo que sucede en línea es confiable, pero mucha gente no se da cuenta de eso», dijo Callan. «Esa podría ser la causa de un daño real».

Descubra cómo las tendencias tecnológicas emergentes se están transformando el mañana con nuestro nuevo podcast, Future Human: The Series. Escucha ahora Spotifyen Manzana o dondequiera que obtengas tus podcasts.

Source link

Hi, I’m Corina Guzman

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *