La generación aumentada por recuperación (RAG) ha sido una de las estrategias más populares para mejorar la precisión y contextualización de los modelos de lenguaje. Pero en 2025, ya no hablamos solo de “recuperar” contenido. Hablamos de sistemas complejos donde múltiples agentes colaboran, se reparten tareas y generan respuestas más útiles. Bienvenidos a la era de MA-RAG.
¿Qué era RAG y por qué funcionaba?
RAG, en su versión tradicional, consiste en mejorar las respuestas de una IA utilizando una base de conocimiento externa (como una base vectorial). En lugar de generar texto desde cero, el modelo accede a documentos relevantes y responde con esa información en mente.
Esto solucionaba dos problemas: el olvido de los modelos (que no siempre están actualizados) y la alucinación (respuestas inventadas sin fuente). Herramientas como ChatGPT Enterprise o Claude Pro integraron esta capacidad desde 2023 con resultados positivos.
MA-RAG: cuando cada agente tiene un rol
Ahora, el campo avanza hacia arquitecturas multiagente dentro del propio sistema RAG. El artículo “Multi-Agent RAG: Let Experts Collaborate for Retrieval-Augmented Generation” (2024) detalla cómo los distintos pasos del proceso pueden distribuirse entre agentes:
- El agente “estratega” analiza la pregunta y planifica los pasos de búsqueda.
- El agente “buscador” ejecuta búsquedas y filtra los mejores documentos.
- El agente “lector” sintetiza respuestas basadas en los documentos.
- El agente “verificador” revisa y reescribe para asegurar consistencia y coherencia.
Este enfoque mejora la precisión de los resultados y permite respuestas más fiables, con menor riesgo de alucinación.
¿Por qué esto es importante?
Porque este modelo imita la forma en que trabajamos los humanos: delegando tareas específicas según habilidades. Además, permite escalar sistemas sin necesidad de aumentar el tamaño de un único modelo.
Open source también está abrazando este modelo: proyectos como LangGraph, AutoGen Studio o CrewAI permiten crear fácilmente flujos de trabajo multiagente con herramientas tipo LangChain.
👉 ¿Te interesa este enfoque? Lee también nuestro artículo sobre ¿qué es RAG (Retrieval-Augmented Generation) y por qué importa en el futuro de la IA?