Mochis NoticiasCienciaIA, ciencia (ficción) y la necesidad de un enfoque centrado en el ser humano en el mundo académico · Elephant in the Lab
Mochis NoticiasCienciaIA, ciencia (ficción) y la necesidad de un enfoque centrado en el ser humano en el mundo académico · Elephant in the Lab
Ciencia

IA, ciencia (ficción) y la necesidad de un enfoque centrado en el ser humano en el mundo académico · Elephant in the Lab

IA, ciencia (ficción) y la necesidad de un enfoque centrado en el ser humano en el mundo académico · Elephant in the Lab

En este artículo de opinión, Isabella Hermann reflexiona sobre la IA y cómo su percepción general está determinada por los arquetipos de la cultura pop, representados, por ejemplo, en las películas.

La Inteligencia Artificial (IA) se ha convertido en un punto focal de debate en los últimos años, impulsado tanto por desarrollos del mundo real como por narrativas especulativas. Científicos, ejecutivos y visionarios de renombre han expresado su preocupación por las implicaciones de la IA. Por ejemplo, el físico Stephen Hawking ha advertido que la IA podría marcar el fin de la raza humana, el filósofo Nick Bostrom ha advertido sobre la llegada de la superinteligencia, y el empresario Elon Musk ha llegado incluso a equiparar la IA con convocar una manifestación. El año pasado, personas influyentes como Sam Altman, Demis Hassabis, Geoffrey Hinton, Bill Gates y cientos de otros firmaron una declaración abierta que enfatizaba que «mitigar el riesgo de extinción debido a la IA debería ser una prioridad global». No cabe duda de que afrontar las implicaciones de la IA requiere atención global y esfuerzos concertados. Sin embargo, sigue siendo un tema de debate si tales declaraciones son más que una simple estrategia de marketing y una distracción de los problemas del mundo real relacionados con la IA, como los derechos de privacidad, los derechos de autor y las condiciones de trabajo. Esto también se aplica en particular a la ciencia y el mundo académico, donde defiendo un enfoque centrado en el ser humano.

Como advertencias, las predicciones y advertencias anteriores sobre los peligros potenciales de la IA hacen eco de temas que se encuentran en las narrativas de ciencia ficción donde los sistemas de IA amenazan la existencia de la humanidad. Esto es particularmente notable en las historias de ciencia ficción donde una poderosa IA toma el control, como Skynet en Terminator o God Machine en Matrix. La ciencia ficción como género refleja los temores de que el avance tecnológico supere el control humano que están arraigados en la cultura humana a lo largo de la historia. Sin embargo, estas advertencias también sirven como metáforas de preocupaciones más amplias relacionadas con estructuras, ideologías o instituciones superiores inhumanas. (Hermann, 2023) En este contexto, Skynet y God Machines representan manifestaciones de ansiedades actuales y primitivas sobre los sistemas de gobierno totalitarios, opresivos y explotadores más allá de la IA per se, donde el disenso o la oposición es imposible. La IA ficticia proporciona entonces el lienzo perfecto para proyectar estas ansiedades.

Permítanme brindar dos ejemplos para ilustrar mejor este punto, uno real y otro especulativo: primero, en la adaptación en serie de 2020 del clásico «Un mundo feliz» de Aldous Huxley, el gobierno mundial totalitario ya no está representado por personas como en el libro original, sino por un sistema de inteligencia artificial llamado Indra, que está siendo creado por humanos para salvar el mundo. Por supuesto, la IA se ha convertido en una metáfora oportuna de los sistemas que no rinden cuentas. En segundo lugar, imaginemos que el libro de Franz Kafka «El proceso», que muestra al empleado de banco Joseph K. siendo perseguido por las autoridades sin conocer su presunto delito, ha sido adaptado a una nueva película. Estoy bastante seguro de que el opaco aparato judicial burocrático que impulsa a Josef K. hoy en día sería retratado como un sistema de inteligencia artificial inescrutable. Estos ejemplos muestran que la IA ficticia puede abordar tanto los miedos reales al desarrollo tecnológico descontrolado como también preocupaciones sociales más amplias sobre las estructuras de poder y los mecanismos de control que se extienden más allá de la IA como tal.

¿Cómo se relaciona esto con el tema de este número especial que aborda la cuestión de qué papel puede y debe desempeñar la IA en el mundo académico? Las preocupaciones sobre el posible predominio de una poderosa IA también pueden verse como una metáfora del predominio de la ciencia misma. En un artículo de 2016 sobre predicciones futuras en «Scientific American», el autor de ciencia ficción Kim Stanley Robinson afirmó que «la ciencia misma es la inteligencia artificial que tememos que se haga cargo: colectiva, abstracta, mecánica, que se extiende mucho más allá de los sentidos humanos individuales». (Robinson, 2024) Una petición que también repitió más adelante en las entrevistas. Este concepto puede aplicarse no sólo al campo de la ciencia sino también a la «academia» como marco institucional para los esfuerzos científicos, así como a la «investigación» como los procesos mediante los cuales se lleva a cabo la ciencia.

Si las advertencias de una fuerte IA tomando el control, ya sea descritas en narrativas ficticias o observadas en la realidad, se interpretan como metáforas del estado actual de la ciencia y sus instituciones asociadas, entonces reflejan inquietud con respecto a la trayectoria de la ciencia y la tecnología. Esta aprensión sugiere que la ciencia y la tecnología han cobrado impulso independientemente del control humano, priorizando sus propios intereses de poder y ganancias sobre el avance del bienestar humano. Uno puede pensar en el desarrollo desenfrenado de la bomba atómica, las armas biológicas o el potencial de la ingeniería genética, y en la IA, que es bastante curiosa en sí misma. Entonces, como se dijo antes, los mismos individuos que advierten contra el desarrollo irrestricto de la IA son aquellas personas que lo promueven sin restricciones, un fenómeno que Lee Vinsel llamó «criti-hype».

Volviendo al ámbito de las implicaciones prácticas, el aparato metafórico de la ciencia de la IA se enfrenta ahora a las aplicaciones de la IA en el mundo real. A la luz de estas consideraciones, explorar las implicaciones de la IA en la academia se convierte no solo en una cuestión de integración tecnológica sino también en una reflexión más profunda sobre la naturaleza cambiante de la investigación científica y su impacto en el conocimiento humano y la sociedad. Entonces surge la pregunta: ¿Cómo deberíamos abordar las nuevas herramientas científicas para garantizar que el mundo académico funcione menos como una IA fuera del control humano y más como una herramienta para hacer avanzar a la humanidad y proporcionar un entorno justo para los investigadores, los estudiantes y los empleados?

Es esencial garantizar que la ciencia se alinee con los valores humanos y siga las decisiones humanas, en lugar de realizar investigaciones por sí mismas o acelerar los procesos en aras de la eficiencia. Esto implica priorizar las consideraciones éticas humanas en el desarrollo y uso de tecnologías de IA en los campos científicos.

A continuación se muestran algunos ejemplos de lo que podría implicar este enfoque: en lugar de simplemente acelerar los procesos defectuosos, un enfoque más prudente implica utilizar IA para identificar y abordar estos procesos. Por ejemplo, si la asignación de plazas de estudio, la asignación de seminarios o la calificación de los estudiantes es injusta o ineficiente, la IA puede identificar problemas y proponer soluciones. Por ejemplo, considere un escenario en el que un estudiante de origen no académico o menos privilegiado escribe un ensayo coherente y bien estructurado, aunque carece de vocabulario sofisticado. Una herramienta de inteligencia artificial puede asignarles una calificación más baja en comparación con un ensayo de otro estudiante que utiliza un lenguaje más sofisticado. Esta discrepancia puede penalizar injustamente a los estudiantes en función de su entorno socioeconómico en lugar de la calidad de su escritura, perpetuando las desigualdades existentes en la educación y el sistema académico. Sin embargo, utilizar herramientas de inteligencia artificial para descubrir estos prejuicios, en última instancia tan humanos, y tratar de superarlos podría hacer que la academia sea más justa, más diversa y menos clasista a largo plazo. Al perfeccionar los procedimientos de esta manera, la IA puede contribuir a la creación de un panorama académico más equitativo, que beneficiará a todas las partes interesadas.

Además, los investigadores, educadores, directores de programas y administradores deben mejorar continuamente su competencia en el uso de la IA de forma ética y eficaz. Esto requiere comprender tanto los aspectos técnicos de la IA como sus implicaciones sociales, incluida la privacidad de los datos y la mitigación de sesgos. Los educadores deben integrar herramientas impulsadas por la IA en las prácticas de aprendizaje de manera transparente, mientras que los gerentes y administradores de programas deben considerar los impactos sociales de la implementación de la IA. Al invertir en capacitación continua en inteligencia artificial y ética, las personas pueden garantizar una integración responsable de las tecnologías de inteligencia artificial. Un ejemplo concreto es el uso de herramientas de IA generativa como ChatGPT en la educación, que a pesar de las preocupaciones por los derechos de autor y la privacidad se utilizan de todos modos. En lugar de prohibirlos, es esencial un compromiso proactivo y debates sobre los sesgos y las directrices éticas. Los educadores pueden aprovechar la IA generativa para crear materiales de aprendizaje personalizados, discutir las implicaciones éticas y legales y garantizar la transparencia en el uso de los datos. Esto promueve el pensamiento crítico y el uso responsable de la tecnología, y mejora la experiencia de aprendizaje.

En conclusión, el principio rector en la integración de las tecnologías de IA en la academia no debería ser simplemente automatizar procesos existentes y quizás malos, sino más bien esforzarse por lograr una mejora sistémica, basada en principios de justicia y humanidad. Al adoptar este espíritu, la academia puede aprovechar el poder transformador de la IA para avanzar en el conocimiento, promover la investigación ética y fomentar el bienestar social. Al hacerlo, los seres humanos dentro del mundo académico y de la investigación pueden esforzarse por implementar la IA en el mundo real de manera responsable y transparente, desafiando así la representación de la ciencia como un sistema de IA superior e incontrolable que se encuentra en las narrativas de ciencia ficción.

Source link

Hi, I’m Conchita Garcia

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *