Langflow acaba de lanzar OpenRAG, una plataforma RAG 100% open source que empaqueta en un único comando todo lo que necesitás para construir un sistema de búsqueda semántica y chat sobre documentos: ingestión, indexación, búsqueda y flujos visuales.
Un solo comando: uvx openrag. Sin integraciones improvisadas. Sin vendor lock-in.
1. Repaso Rápido: ¿Qué es RAG?
RAG (Retrieval-Augmented Generation) es la arquitectura dominante para construir aplicaciones que permiten a los LLMs responder preguntas sobre información específica que no estaba en su entrenamiento: documentos internos, bases de conocimiento, contratos, manuales técnicos, etc.
El flujo básico de RAG
- 1. Ingestión: Los documentos se procesan, dividen en chunks y se convierten en embeddings (vectores numéricos).
- 2. Indexación: Esos embeddings se almacenan en una base de datos vectorial para búsqueda eficiente.
- 3. Recuperación: Cuando el usuario hace una pregunta, se buscan los chunks más relevantes por similitud semántica.
- 4. Generación: El LLM recibe la pregunta más el contexto recuperado y genera una respuesta fundamentada.
El problema hasta ahora era que armar un pipeline RAG completo requería integrar manualmente un framework de orquestación, un modelo de embeddings, una base de datos vectorial y una interfaz de usuario. OpenRAG resuelve todo eso de una vez.
2. ¿Qué es OpenRAG?
OpenRAG es una distribución open source lista para usar, construida por el equipo de Langflow, que empaqueta tres herramientas consolidadas en un sistema cohesionado:
Langflow
Motor de orquestación con editor visual de flujos. Conecta modelos, herramientas y fuentes de datos sin código.
Docling
Pipeline de procesamiento de documentos de IBM. Extrae texto estructurado de PDFs, Word, Excel, imágenes y más con OCR.
OpenSearch
Motor de búsqueda open source (fork de Elasticsearch) que actúa como base de datos vectorial para la búsqueda semántica.
Lo que hace especial a OpenRAG
No es simplemente un wrapper sobre estas herramientas. Es una integración preconfigurada donde cada componente está conectado, probado y listo para producción. No necesitás configurar nada manualmente.
3. Qué Incluye OpenRAG
Pipeline de Ingestión de Documentos
Subís un documento (PDF, Word, imagen, etc.) y el sistema lo procesa automáticamente con Docling: extrae el texto, lo divide en chunks semánticamente coherentes, genera los embeddings y los indexa en OpenSearch. Todo en un flujo continuo.
Chat con Documentos
Interfaz de chat nativa para hacer preguntas sobre el contenido indexado. El sistema recupera los fragmentos relevantes y los pasa al LLM para generar respuestas con contexto real, no alucinaciones.
Búsqueda Semántica Nativa
OpenSearch integrado como vector store. Soporta búsqueda por similitud semántica (embeddings) y búsqueda léxica tradicional (BM25), con la opción de combinar ambas (búsqueda híbrida).
Flujos Visuales con Langflow
El editor visual de Langflow está incluido, lo que te permite modificar o extender los flujos RAG sin tocar código. Podés agregar pasos de reranking, filtros, memoria conversacional o conectar APIs externas arrastrando componentes.
Soporte para Docker
Si preferís correrlo en contenedores, tiene soporte oficial para Docker. Ideal para deployarlo en cualquier servidor o integrarlo en pipelines de CI/CD existentes.
4. Cómo Correrlo
La propuesta de valor de OpenRAG es la simplicidad de instalación. No hay que configurar servicios por separado ni editar archivos de configuración para empezar.
Opción 1 — uvx (recomendado, sin instalación previa)
uvx openrag
Opción 2 — pip
pip install openrag
openrag
Opción 3 — Docker
git clone https://github.com/langflow-ai/openrag
cd openrag
docker compose up
¿Qué es uvx?
uvx es el runner de herramientas de uv, el nuevo package manager ultrarrápido de Python (escrito en Rust). Permite ejecutar paquetes Python directamente sin instalarlos globalmente, similar a npx en el ecosistema Node.js.
5. El Stack Técnico en Detalle
Langflow como Orquestador
Langflow es un framework de orquestación de LLMs con interfaz visual. En OpenRAG actúa como el cerebro del sistema: define cómo fluye la información desde la ingestión hasta la respuesta final. Sus flujos son archivos JSON exportables, versionables y desplegables.
Esto significa que podés customizar el pipeline RAG sin tocar el código de infraestructura. Cambiar el modelo de embeddings, agregar un paso de reranking con Cohere o conectar una fuente de datos adicional es cuestión de minutos desde el editor visual.
Docling para Procesamiento de Documentos
Docling es el proyecto open source de IBM para conversión de documentos. A diferencia de soluciones más simples, mantiene la estructura del documento al procesar: tablas, listas, encabezados y jerarquías se preservan, lo que mejora significativamente la calidad de los chunks y por ende la precisión del retrieval.
Formatos soportados por Docling:
PDF · DOCX · XLSX · PPTX · HTML · Markdown · Imágenes (con OCR)
OpenSearch como Vector Store
OpenSearch es el fork open source de Elasticsearch mantenido por Amazon y la comunidad. Incluye soporte nativo para búsqueda vectorial (k-NN) desde la versión 2.0, lo que lo hace una alternativa sólida a soluciones como Pinecone, Weaviate o Qdrant, pero completamente auto-hosteable.
La ventaja de usar OpenSearch frente a una base de datos vectorial pura es que también soporta búsqueda léxica (BM25), habilitando búsqueda híbrida sin componentes adicionales.
6. Casos de Uso Ideales
Base de Conocimiento Interna
Indexar documentación técnica, manuales de procesos, políticas de empresa o wikis internas para que el equipo pueda consultarlas en lenguaje natural.
Análisis de Contratos y Documentos Legales
¿Cuál es la cláusula de rescisión del contrato X? Cargá contratos, acuerdos o normativas para hacer preguntas específicas sin leerlos completos.
Research y Análisis de Papers
Indexar colecciones de papers científicos o informes técnicos para acelerar la revisión bibliográfica y el análisis comparativo.
Soporte Técnico con Documentación
Construir un asistente de soporte que responda preguntas sobre productos o servicios basándose en la documentación oficial, reduciendo la carga del equipo de soporte.
7. OpenRAG vs. Armar Tu Propio Stack RAG
La pregunta obvia es: ¿cuándo usar OpenRAG y cuándo tiene sentido construir tu propio pipeline?
✅ Usá OpenRAG si...
- • Necesitás un RAG funcional rápido, sin semanas de setup
- • Querés algo completamente auto-hosteable sin vendor lock-in
- • Tu equipo no es experto en infraestructura de ML
- • Los flujos visuales de Langflow se ajustan a tu caso de uso
- • Querés una base sólida para iterar encima
⚠️ Considerá un stack propio si...
- • Necesitás control total sobre cada componente del pipeline
- • Tenés requisitos de escala muy específicos
- • Querés usar un vector store que no es OpenSearch (Qdrant, Weaviate, etc.)
- • Tu pipeline tiene lógica de negocio muy compleja que no encaja en flujos visuales
- • Ya tenés infraestructura de búsqueda consolidada
Mi perspectiva
OpenRAG es excelente como punto de partida o para proyectos donde el RAG es un componente habilitador, no el producto principal. Para proyectos donde el pipeline RAG es el core del negocio con requisitos de rendimiento, escala o personalización muy específicos, probablemente vas a necesitar más control del que una solución pre-empaquetada puede darte. Pero incluso en ese caso, OpenRAG es una referencia de arquitectura muy valiosa.
Conclusión
OpenRAG es la señal más clara hasta ahora de que el ecosistema RAG está madurando. Ya no hace falta ser experto en infraestructura para tener un pipeline RAG completo y funcional. Langflow, Docling y OpenSearch son tres proyectos sólidos por separado; juntos, bien integrados y disponibles con un solo comando, son una propuesta que merece atención.
Si estás evaluando construir un sistema de búsqueda semántica o chat sobre documentos, OpenRAG es el mejor punto de partida open source disponible hoy.
Recursos
- • Sitio oficial: openr.ag
- • GitHub: github.com/langflow-ai/openrag
- • Langflow: langflow.org
- • Docling: github.com/DS4SD/docling



