Mochis NoticiasTecnologíaChatGPT y otros LLM producen excrementos de toro, no alucinaciones
Mochis NoticiasTecnologíaChatGPT y otros LLM producen excrementos de toro, no alucinaciones
Tecnología

ChatGPT y otros LLM producen excrementos de toro, no alucinaciones

ChatGPT y otros LLM producen excrementos de toro, no alucinaciones

En las comunicaciones relacionadas con los LLM y las interfaces populares como ChatGPT, el término «alucinación» se utiliza a menudo para referirse a declaraciones falsas hechas en el resultado de estos modelos. Esto infiere que hay cierta coherencia y un intento por parte del LLM de que ambos sean conscientes de la verdad, al mismo tiempo que sufren momentos de (leve) locura. Por lo tanto, el LLM es tratado efectivamente como un niño pequeño o una persona que sufre trastornos como el Alzheimer, dándole agencia en el proceso. Que esto es una tontería y claramente incorrecto es el tema de un tratado de [Michael Townsen Hicks] y colegas, tal como se publicó en Ética y tecnología de la información.

Gran parte de la distinción radica en la diferencia entre una mentira y una mentira, como se describe tan elocuentemente en [Harry G. Frankfurt]el ensayo de 1986 y el libro de 2005 En tonterías. Mientras que una mentira tiene como objetivo engañar y encubrir la verdad, las tonterías se hacen sin ningún respeto por la verdad ni conexión con ella. Las tonterías sólo pretenden servir a la situación inmediata, recordando lo peor de la cultura de las frases habladas.

Cuando consideramos la forma en que funcionan los LLM, con la consulta de entrada utilizada para proporcionar una probabilidad en los nodos ponderados que componen su espacio vectorial, podemos ver que la salida generada es efectivamente la de un algoritmo de predicción de ‘palabras de gran tamaño’. Esto excluye cualquier posibilidad de inteligencia y, por tanto, de conocimiento cognitivo de la «verdad». Lo que significa que incluso si no hay ninguna intención detrás del LLM, sigue siendo una mentira, incluso si es del tipo suave (no intencional). Sin embargo, cuando consideramos la agencia y las intenciones de quienes crearon el LLM, lo capacitaron y crearon la interfaz (como ChatGPT), entramos en un territorio duro y deliberado de tonterías.

Por cierto, es esta misma tontería la que ha llevado a que los LLM ya se eliminen parcialmente, con la Generación de Recuperación Aumentada (RAG) que convierte un algoritmo de predicción de palabras en un motor de búsqueda más sofisticado. Después de todo, incluso los capitalistas de riesgo no pueden soportar tantas tonterías.

Source link

Hi, I’m Corina Guzman

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *