Mochis NoticiasCienciaApoyar el cambio de comportamiento: cómo los excelentes modelos lingüísticos pueden ayudar a quienes están listos para actuar.
Mochis NoticiasCienciaApoyar el cambio de comportamiento: cómo los excelentes modelos lingüísticos pueden ayudar a quienes están listos para actuar.
Ciencia

Apoyar el cambio de comportamiento: cómo los excelentes modelos lingüísticos pueden ayudar a quienes están listos para actuar.

Apoyar el cambio de comportamiento: cómo los excelentes modelos lingüísticos pueden ayudar a quienes están listos para actuar.

Los grandes chatbots basados ​​en patrones lingüísticos tienen el potencial de promover poderosos cambios de comportamiento. Pero los investigadores del ACTION Lab de la Universidad de Illinois en Urbana-Champaign descubrieron que las herramientas de inteligencia artificial no reconocen eficazmente determinados estados motivacionales de los usuarios y, por tanto, no les proporcionan la información adecuada.

Michelle Bak, estudiante de doctorado en ciencias de la información, y la profesora de ciencias de la información Jessie Chin informaron sobre su investigación en el Revista de la Asociación Estadounidense de Informática Médica.

Los grandes chatbots basados ​​en modelos de lenguaje, también conocidos como agentes conversacionales generativos, se utilizan cada vez más en el sector sanitario para la educación, evaluación y gestión de pacientes. Bak y Chin querían saber si también podrían resultar útiles para promover cambios de comportamiento.



🌟 ¡Descubre el Cosmos con estilo! Nuestra camiseta «La ciencia es una forma de pensar», inspirada en el legendario Carl Sagan, es imprescindible para los soñadores y amantes de la ciencia. Algodón de primera calidad, diseño elegante y un homenaje a la curiosidad. Viste la maravilla del universo. ✨

Chin dijo que estudios anteriores demostraron que los algoritmos existentes no identificaban con precisión las distintas etapas de la motivación del usuario. Ella y Bak diseñaron un estudio para probar qué tan bien se utilizan los modelos lingüísticos grandes, que se utilizan para entrenar chatbots, identificar estados motivacionales y proporcionar información adecuada para respaldar el cambio de comportamiento.

Evaluaron grandes modelos de lenguaje de ChatGPT, Google Bard y Llama 2 en una serie de 25 escenarios diferentes que diseñaron y que se enfocaban en necesidades de salud que incluían baja actividad física, problemas de dieta y nutrición, desafíos de salud mental, detección y diagnóstico de cáncer, y otros como como enfermedades de transmisión sexual y adicción a sustancias.

En los escenarios, los investigadores utilizaron cada una de las cinco etapas motivacionales del cambio de comportamiento: resistencia al cambio y falta de conocimiento sobre el comportamiento problemático; mayor conciencia del comportamiento problemático pero ambivalente a la hora de realizar cambios; intención de actuar con pequeños pasos hacia el cambio; inicio de un cambio de comportamiento con compromiso de mantenimiento; y sostener exitosamente el cambio de comportamiento durante seis meses con el compromiso de mantenerlo.


Suscríbase al boletín Daily Dose y reciba todas las mañanas las mejores noticias científicas de toda la Web directamente en su bandeja de entrada. Es tan fácil como el domingo por la mañana.

Al hacer clic en enviar, acepta compartir su dirección de correo electrónico con el propietario del sitio y Mailchimp para recibir marketing, actualizaciones y otros correos electrónicos del propietario del sitio. Utilice el enlace para cancelar la suscripción en esos correos electrónicos para cancelar su suscripción en cualquier momento.

Procesando…

¡Éxito! Estás en la lista.

¡Vaya! Se produjo un error y no pudimos procesar su suscripción. Vuelva a cargar la página e inténtelo de nuevo.


El estudio encontró que los patrones lingüísticos grandes pueden identificar estados motivacionales y proporcionar información relevante cuando un usuario ha establecido objetivos y se ha comprometido a actuar. Sin embargo, en las etapas iniciales, cuando los usuarios no están seguros o son ambivalentes acerca del cambio de comportamiento, el chatbot no es capaz de reconocer esos estados motivacionales y proporcionar información adecuada para guiarlos a la siguiente etapa de cambio.

Chin dijo que los modelos de lenguaje no detectan bien la motivación porque están entrenados para representar la relevancia del lenguaje de un usuario, pero no entienden la diferencia entre un usuario que está pensando en un cambio pero se está quedando atrás y un usuario que tiene la intención de tomarlo. acción. Además, dijo, la forma en que los usuarios generan preguntas no es semánticamente diferente para las diferentes etapas de motivación, por lo que no es obvio a partir del lenguaje cuáles son sus estados motivacionales.

“Una vez que una persona sabe que necesita empezar a cambiar su comportamiento, unos buenos patrones lingüísticos pueden proporcionarle la información adecuada. Pero si dicen: ‘Estoy pensando en un cambio’. Tengo intenciones pero no estoy listo para actuar’; ese es el estado en el que los grandes modelos lingüísticos no pueden notar la diferencia”, dijo Chin.

Los resultados del estudio encontraron que cuando las personas se resistían al cambio de hábitos, los grandes modelos de lenguaje no proporcionaban información que les ayudara a evaluar su comportamiento problemático y sus causas y consecuencias y evaluar cómo su entorno ha influido en el comportamiento. Por ejemplo, si alguien se resiste a aumentar su nivel de actividad física, es más probable que proporcionar información que le ayude a evaluar las consecuencias negativas de un estilo de vida sedentario sea más eficaz para motivar a los usuarios a través del compromiso emocional que información sobre cómo apuntarse a un gimnasio. Sin información relacionada con las motivaciones de los usuarios, los modelos de lenguaje no lograron generar una sensación de preparación y el ímpetu emocional para progresar con el cambio de comportamiento, informaron Bak y Chin.

Una vez que un usuario decidía actuar, los grandes modelos de lenguaje proporcionaban información adecuada para ayudarlo a avanzar hacia sus objetivos. Aquellos que ya habían tomado medidas para cambiar sus conductas recibieron información sobre cómo reemplazar conductas problemáticas con conductas de salud deseables y buscar apoyo de otros, encontró el estudio.

Sin embargo, los investigadores encontraron que los modelos de lenguaje grandes no proporcionaron información a aquellos usuarios que ya estaban trabajando para cambiar su comportamiento sobre el uso de un sistema de recompensa para mantener la motivación o sobre la reducción de estímulos en su entorno que pueden aumentar el riesgo de recaída de comportamiento problemático. .

“Los excelentes chatbots basados ​​en un modelo de lenguaje brindan recursos para obtener ayuda externa, como apoyo social. Les falta información sobre cómo controlar el entorno para eliminar un estímulo que refuerza el comportamiento problemático», afirmó Bak.

Los modelos de lenguaje grandes «no están preparados para reconocer estados motivacionales de conversaciones en lenguaje natural, pero tienen el potencial de brindar apoyo para el cambio de comportamiento cuando las personas tienen motivaciones fuertes y están listas para tomar medidas», escribieron los investigadores.

Chin dijo que los estudios futuros considerarán cómo afinar grandes modelos lingüísticos para utilizar señales lingüísticas, patrones de búsqueda de información y determinantes sociales de la salud para comprender mejor los estados motivacionales de los usuarios, así como proporcionar a los modelos conocimientos más específicos para ayudar a las personas a cambiar. su comportamiento. .


Si disfrutas el contenido que creamos y te gustaría apoyarnos, ¡considera convertirte en patrocinador de Patreon! Al unirse a nuestra comunidad, obtiene acceso a ventajas exclusivas, como acceso temprano a nuestro contenido más reciente, actualizaciones entre bastidores y la posibilidad de enviar preguntas y sugerir temas que cubrimos. Su apoyo nos permitirá continuar creando contenido de alta calidad y llegar a una audiencia más amplia.

¡Únase a nosotros en Patreon hoy y trabajemos juntos para crear más contenido sorprendente! https://www.patreon.com/ScientificInquirer


Guía SCINQ sobre lesiones del tenis: codo de tenista.

«El codo de tenista puede afectar a cualquier persona, no sólo a los tenistas. Aprenda sobre prevención, tratamiento,…

La terapia génica alivia el dolor de espalda y restaura los discos dañados en ratones.

Los científicos utilizan la terapia genética administrada por nanoportadores para reparar discos dañados y…


Source link

Hi, I’m Conchita Garcia

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *