GPT-5.4 desde 2,50 USD/M tokens entrada y 15 USD/M salida
Web search: 10 USD por 1000 llamadas. Buen arranque para prototipos, pero la memoria crítica sigue dependiendo de servicios alojados.

Nebomind DKE convierte documentación, conectores y procesos de búsqueda en una plataforma lista para operar: documentos, agentes, sincronización, búsqueda vía la misma tool MCP del agente activo, auditoría y despliegue local o privado.

El problema no suele ser el modelo. Suele ser la falta de una memoria documental gobernada, actualizable y preparada para integrarse con agentes.
La información vive en documentos, carpetas, conectores y versiones, pero el agente no puede usarla de forma fiable.
Sin fuente y trazabilidad, es difícil confiar en la respuesta y auditar de dónde salió.
Cuando cambia la documentación, muchas soluciones exigen retrabajo técnico o reentrenamiento.
No siempre hay visibilidad por agente, permisos claros o separación entre espacios de conocimiento.
Integrar repositorios externos sin sincronización y reconciliación complica mantener la memoria viva.
En enfoques gestionados por terceros, el coste real combina modelo, memoria, herramientas y consumo operativo.
Subida, detalle, versiones, seguimiento del pipeline y trazabilidad completa del documento desde su entrada hasta su indexación.
Cada agente puede operar con su token, sus estrategias permitidas y su ámbito documental, manteniendo aislamiento y gobierno.
La aplicación ya permite ejecutar la misma tool MCP que usa el agente activo para validar resultados, estrategias y evidencia recuperada.
El conocimiento ya se expone vía MCP JSON-RPC 2.0 para integrarse con n8n, Claude Desktop, LangGraph y otros clientes compatibles.
La plataforma incorpora conectores, pruebas de conexión, navegación, lanzado de jobs y seguimiento de sincronizaciones con reconciliación.
Usuarios, permisos, paneles de auditoría, observabilidad de búsquedas y administración de plataforma ya forman parte de la aplicación.
Cada fichero entra en un proceso asíncrono que lo transforma en contenido recuperable con contexto, resumen, metadatos y capacidad de búsqueda trazable.
Apache Tika extrae el texto de PDF, DOCX, XLS, HTML, CSV, TXT y MD.
Limpieza del texto, detección de idioma y estructura del contenido.
División en chunks semánticos con solapamiento para preservar contexto.
Generación de resumen corto y largo del documento completo con LLM.
Extracción de tags automáticos fusionados con los tags proporcionados.
Embeddings de chunks y resúmenes indexados en Qdrant (2 colecciones).
Comparativa orientativa entre alternativas habituales: fine-tuning, grafos documentales complejos, servicios cloud gestionados y una capa propia de memoria documental.
| Capacidad | Fine-tuning | Neo4j + GraphRAG | Servicios cloud | Nebomind-DKE |
|---|---|---|---|---|
| Actualizar conocimiento sin reentrenar | Parcial | En horas o días | ||
| Cita de fuente y chunk origen | Parcial | Parcial | ||
| Control por agente y visibilidad documental | Parcial | Parcial | ||
| Uso directo sobre documentación existente | Parcial | |||
| Memoria en local o nube privada | Parcial | Parcial | ||
| Complejidad de implantación | Media | Alta | Media | Controlada |
| Coste operativo principal | Entrenamiento + inferencia | Licencia + modelado | Consumo por uso | Infra propia + servicio |
| Cambio de proveedor de modelo sin perder memoria | Parcial |
Estas referencias ayudan a entender el modelo económico y la complejidad de implantación. No sustituyen una oferta formal de cada proveedor.
GPT-5.4 desde 2,50 USD/M tokens entrada y 15 USD/M salida
Web search: 10 USD por 1000 llamadas. Buen arranque para prototipos, pero la memoria crítica sigue dependiendo de servicios alojados.
Memory Bank: 0,25 USD por 1000 memorias almacenadas y 0,50 USD por 1000 recuperadas
A esto se suman runtime, sesiones, modelos y vector search. Potente, pero con varios contadores de coste simultáneos.
Professional desde 65 USD/GB/mes y Business Critical desde 146 USD/GB/mes
Muy valioso cuando el caso exige grafo explícito, pero introduce modelado, ontologías y operación especializada.
Modelo basado en infraestructura local o privada del cliente
Sin peaje cloud por memoria recuperada al proveedor. La memoria documental permanece bajo control del cliente.
La aplicación ya reúne las áreas que un cliente necesita para operar memoria documental con agentes: documentos, conectores, búsqueda MCP, gobierno y auditoría.
Búsqueda MCP, auditoría y administración
Mismo acceso documental para agentes, paneles y pruebas sobre la tool search_documents
Gobierno multiusuario
Usuarios, permisos, administración y control de visibilidad documental ya están integrados en la aplicación.
Observabilidad real
Las búsquedas, estrategias y resultados quedan registrados para auditoría, mejora continua y operación diaria.
Integración abierta
La plataforma se conecta con agentes externos y automatizaciones mediante MCP sin quedar atada a un único proveedor de modelo.

El siguiente paso natural es validar un caso de uso concreto con documentos reales, un agente operativo y criterios claros de precisión, control y retorno.
Acceso clientes