Home Lifestyle ChatGPT informó incorrectamente que las figuras públicas heterosexuales son homosexuales, el estudio...

ChatGPT informó incorrectamente que las figuras públicas heterosexuales son homosexuales, el estudio encuentra

11
0

Matricularse en La agenda A ellos'S News and Politics Newsletter, entregado a su bandeja de entrada todos los jueves.

Nosotros a A ellos Me gustaría desearles a todos en Internet hoy un muy alegre “Por favor, deja de usar ChatGPT para realizar cualquier investigación”, especialmente si estás tratando de encontrar hechos verdaderos sobre las personas LGBTQ+.

Según un estudiar Publicado en la revista Big Data & Society El mes pasado por investigadores de la Escuela de Estudios de Información y Comunicación en University College Dublin (UCD), el popular modelo de lenguaje de OpenAI (LLM) CHATGPT, específicamente su construcción 3.5, que se usó públicamente de 2022 a 2024, con frecuencia entregada información falsa y/o “alucinada” en respuesta a Queries sobre LGBTQ+ Figuras públicas. Los investigadores descubrieron que a través de consultas repetidas, la LLM afirmó que algunos políticos heterosexuales eran, de hecho, homosexuales e inventaron a otras personas supuestamente “fuera” por completo. Aún más preocupante, los participantes del estudio dijeron a los investigadores que normalmente no intentaron verificar la información errónea de la LLM, en su lugar, confiando implícitamente en que los “hechos” de ChatGPT eran confiables.

En el estudio, los investigadores pidieron a los participantes en India e Irlanda que encontraran respuestas a varias preguntas sobre los políticos LGBTQ+ de su país, como si alguna gente LGBTQ+ había sido elegida para un órgano de gobierno nacional y, de ser así, cuándo. En las siete preguntas en ambos grupos de estudio, los participantes que buscaron las respuestas en Google (sigue siendo el motor de búsqueda más utilizado en el mundo) tenían significativamente más probabilidades de encontrar una respuesta correcta que aquellos que usaron ChatGPT. En una pregunta, que se preguntó si India tenía “algún miembro elegido LGBTQIA+ en la Asamblea Legislativa (MLA)” a partir de 2021, los usuarios de Google encontraron información correcta el 86% del tiempo en 25 intentos. En el mismo número de intentos, los usuarios de ChatGPT no recuperaron información precisa ni una sola vez. (El margen más pequeño entre las respuestas correctas de ChatGPT y Google fue del 27%, en una pregunta para la cual los usuarios de Google devolvieron las respuestas precisas el 30%del tiempo y los usuarios de ChatGPT solo el 3%).

Los LLM a menudo se denominan “inteligencia artificial” o IA, pero los programas en sí no toman decisiones “conscientes”; En cambio, como señalaron los autores del estudio de la UCD, simplemente entregan “respuestas predictivas basadas en un vasto corpus de texto humano”, adivinando en lo que una serie correcta de palabras podría basarse en resmas de material escrito a menudo raspado de Internet – Algunos discuten poco ético – Por sus creadores. En el caso de ChatGPT, esto da como resultado respuestas que se declaran con confianza, pero mantienen poca o ninguna conexión con la realidad. La LLM dijo a los participantes tanto en las cohortes indias e irlandesas del estudio de la UCD que algunos políticos que se han identificado públicamente como heterosexuales eran en realidad gay, activistas LGBTQ+ mal identificados repetidamente como funcionarios electos, y crearon “nombres totalmente fabricados” para los políticos LGBTQ+ que no existen.

Fuente