Las "alucinaciones" en modelos de inteligencia artificial como ChatGPT se refieren a la generación de información incorrecta o inventada. A continuación, exploramos cinco aspectos esenciales para comprender este fenómeno:
-
Definición del término
Una alucinación ocurre cuando la IA produce datos falsos presentados con aparente certeza, sin intención de engañar, sino como resultado de patrones aprendidos. -
Causas principales
Estas se deben a limitaciones en los datos de entrenamiento y a la incapacidad del modelo para verificar hechos en tiempo real. -
Impacto en usuarios
Casos como el del streamer Tomás Mazza, quien utilizó ChatGPT como apoyo emocional y descubrió inconsistencias en sus respuestas, resaltan los riesgos de confiar plenamente en estas herramientas. -
Incremento en nuevos modelos
Los recientes modelos o3 y o4-mini de OpenAI han mostrado un aumento en la generación de alucinaciones, especialmente en tareas de razonamiento complejo. -
Medidas de mitigación
La ingeniería de prompts y el desarrollo de sistemas de verificación de hechos son estrategias en curso para reducir la incidencia de alucinaciones en las respuestas de la IA.