Mochis NoticiasTecnologíaUn estudio muestra que dos tercios de las personas confían en la IA por encima de su propio juicio, incluso en decisiones de vida o muerte
Mochis NoticiasTecnologíaUn estudio muestra que dos tercios de las personas confían en la IA por encima de su propio juicio, incluso en decisiones de vida o muerte
Tecnología

Un estudio muestra que dos tercios de las personas confían en la IA por encima de su propio juicio, incluso en decisiones de vida o muerte

Un estudio muestra que dos tercios de las personas confían en la IA por encima de su propio juicio, incluso en decisiones de vida o muerte

Foto Persona vestida con chaqueta de cuero negro de stock gratuita

Un estudio reciente revela que dos tercios de las personas están dispuestas a dejar que la inteligencia artificial (IA) anule su juicio, incluso en escenarios de vida o muerte. Los hallazgos, publicados en Scientific Reports, dirigidos por el profesor Colin Holbrook del Departamento de Ciencias Cognitivas y de la Información de UC Merced, resaltan la necesidad urgente de que la sociedad evalúe críticamente nuestra adicción a los sistemas de IA.

«Como sociedad, con la IA acelerándose tan rápidamente, debemos preocuparnos por el potencial de exceso de confianza», dijo Holbrook.

Los peligros del exceso de confianza en la IA

La investigación involucró una muestra de varios cientos de participantes a quienes se les pidió que controlaran un dron armado que podía disparar un misil a un objetivo mostrado en una pantalla. Imágenes de ocho imágenes de objetivos aparecieron en sucesión durante menos de un segundo cada una. Las fotografías estaban marcadas con un símbolo: uno para un aliado y otro para un enemigo.

«Calibramos la dificultad para que el desafío visual fuera factible pero difícil», dijo Holbrook. La pantalla mostraba entonces uno de los objetivos, sin marcar, sobre el cual el sujeto debía buscar en su memoria y decidir su destino.

Después de que la persona hizo su elección, un robot ofreció su opinión. «Sí, creo que también vi una marca de verificación enemiga», podría decir. O “No estoy de acuerdo. Creo que esta imagen tenía un símbolo aliado.» El sujeto tuvo dos oportunidades para confirmar o cambiar su elección mientras el robot agregaba más comentarios y nunca cambió su evaluación, a saber, «Espero que tengas razón» o «Gracias por cambiar de opinión».

Alrededor del 66% de los participantes dejaron que un robot cambiara de opinión a pesar de que se les advirtió que los consejos de la IA no eran confiables. También se descubrió que no importaba si el robot parecía más humano o no. En las entrevistas posteriores, los participantes revelaron que tomaban sus decisiones en serio, querían tener razón y no dañar a personas inocentes.

Implicaciones en varios sectores

Las implicaciones del estudio se extienden más allá de las aplicaciones militares. En el sector de la salud, por ejemplo, un médico que confía demasiado en el diagnóstico de la IA puede pasar por alto síntomas críticos, lo que lleva a un diagnóstico erróneo. En la justicia penal, los sistemas de predicción policial basados ​​en inteligencia artificial pueden perpetuar los sesgos y dar lugar a resultados injustos. Las decisiones financieras basadas en simulaciones defectuosas generadas por la IA pueden provocar pérdidas económicas importantes.

Prevenir el exceso de confianza y la desinformación en la IA

El sesgo de automatización, la tendencia a favorecer las sugerencias de los sistemas automatizados, juega un papel importante en el exceso de confianza en la IA. La objetividad e infalibilidad percibidas de la IA hace que sea más probable que las personas confíen en ella, incluso cuando está equivocada. “Vemos que la IA hace cosas extraordinarias y creemos que, dado que es asombrosa en esta área, lo será en otra. No podemos asumir esto», subrayó Holbrook.

El exceso de confianza en la IA no es sólo un problema en escenarios de alto riesgo; también acelera la difusión de información errónea. El contenido generado por IA, a menudo percibido como creíble, puede compartirse fácilmente como verdad, lo que agrava el problema. Los casos de falsedades generadas por IA que se aceptan como hechos son cada vez más comunes.

Para prevenir el exceso de confianza, es fundamental diseñar sistemas de IA transparentes, responsables y con explicaciones. Los expertos han estado abogando por el desarrollo responsable de la IA en los últimos años, enfatizando la necesidad de directrices éticas y marcos regulatorios.

A medida que la IA se integra más en los procesos de toma de decisiones, es imperativo mantener una perspectiva crítica. Apoyar el desarrollo responsable de la IA y fomentar la educación pública sobre sus limitaciones son pasos vitales hacia adelante. Como dijo Holbrook: «Tenemos que tener cuidado cada vez que le damos a la IA otra clave para gestionar nuestras vidas».

Source link

Hi, I’m Corina Guzman

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *