







La perspectiva de 2025 indicaba que las plataformas de data streaming (DSP) se acercaban a un punto de inflexión, pasando de una adopción inicial a consolidarse como motor ampliamente utilizado de diferenciación competitiva, aunque la cultura organizativa tradicional pudiese ser un factor que ralentizase a algunas empresas en su implementación.
Doce meses después, gran parte de esas previsiones se ha cumplido de forma general, aunque el contexto ha evolucionado más rápido de lo previsto, incluso en los escenarios más optimistas. El cambio más relevante ha sido el ritmo y el alcance de la adopción de la IA. Los proyectos piloto han dado paso a cientos de casos de uso en producción que gestionan procesos de múltiples etapas, desde la prevención del fraude hasta la atención al cliente, elevando aún más las exigencias sobre los datos que los respaldan.
“Aunque la resistencia cultural no ha desaparecido, la presión competitiva está acelerando su disminución. Los resultados tangibles han desplazado el foco desde las expectativas teóricas y los equipos de datos han evolucionado en consecuencia. Así, los ingenieros de streaming dedican menos tiempo a tareas de infraestructura y se enfocan más en la gobernanza en flujo, la creación de productos de datos reutilizables y el desarrollo de analítica capaz de reducir latencias y costos”, asegura Francisco Molero, Country Leader de Confluent en España y Portugal.
De acuerdo con Molero, de cara a 2026, las previsiones apuntan a un avance más pragmático: IA agéntica basada en datos en tiempo real, un streaming consolidado como columna vertebral siempre activa y una organización de datos rediseñada para transformar señales en tiempo real en valor duradero y medible.
La producción de IA agéntica se acelerará
Si 2025 fue el año de los asistentes inteligentes, 2026 será el año de los agentes capaces de llevar las tareas hasta su finalización. Se percibe un cambio claro desde un modelo de “sugerir y escalar” hacia uno de “decidir y ejecutar”, con sistemas de IA que clasifican incidentes, optimizan procesos de cumplimiento, evalúan riesgos y resuelven solicitudes de servicio.
Este progreso exige una mayor disciplina en torno a la calidad de los datos. Los agentes de IA necesitan un contexto continuo en lugar de datos procesados en lotes del día anterior. En paralelo, requieren marcos de políticas y trazabilidad para garantizar el cumplimiento desde el inicio, así como un circuito de retroalimentación que permita que cada decisión contribuya a su aprendizaje o active una verificación humana cuando el impacto lo justifique.
Los equipos comenzarán a gestionar a los agentes como si fueran productos, evaluándolos su desempeño mediante indicadores clave de rendimiento empresarial, como tiempos de resolución, pérdidas evitadas o niveles de satisfacción del cliente. Cuando se implementa correctamente, la experiencia con IA en la empresa deja de ser algo meramente espectacular y pasa a centrarse en resultados que pueden auditarse, explicarse y mejorarse.
Los agentes que prosperen no serán necesariamente los más nuevos ni los más llamativos, sino aquellos basados en señales vivas y confiables, con orígenes claros. En este contexto, un modelo modesto respaldado por datos actuales y de alta calidad ofrece mucho más valor que un modelo de última generación con datos insuficientes.
Las compañías contratarán a más ingenieros de datos
A medida que los agentes empiecen a integrarse en los equipos de IT, el desempeño de los ingenieros de datos en tiempo real dejará de medirse por la disponibilidad de los clústeres o por la cantidad de conectores configurados. En cambio, su aportación se evaluará por la calidad de los productos de datos que publiquen en flujo, por la gobernanza y trazabilidad incorporadas desde el inicio y por la reducción de tiempos de ciclo que logren para el resto de la organización.
El conjunto de talento se ampliará. Ya no será necesario contar con equipos completos de especialistas en sistemas distribuidos para generar un impacto significativo. Si los equipos saben escribir SQL, podrán trabajar directamente “en el flujo”, acercando la lógica de negocio a los eventos, construyendo una sola vez y permitiendo que el resto del entorno simplemente se suscriba. Esta tendencia se refleja en la cantidad de organizaciones que prevén incorporar a más ingenieros de datos con el objetivo de fortalecer su capacidad para adoptar, utilizar y gestionar la IA.
En el plano organizativo, las fronteras entre los equipos operativos y analíticos se irán difuminando a medida que los flujos compartidos se conviertan en el estándar de colaboración. El rol del ingeniero de datos actuará como un multiplicador: un solo flujo de alta calidad podrá sustituir múltiples canalizaciones, reducir costos de almacenamiento y conciliación y proporcionar a los agentes de IA el contexto en vivo que realmente necesitan.
El sector público empezará a adoptar el tiempo real
El próximo año se espera que gobiernos, organismos reguladores y fuerzas de defensa aumenten la velocidad en áreas donde cada minuto cuenta, especialmente en cumplimiento fiscal, elegibilidad para beneficios, detección de fraudes, operaciones fronterizas y supervisión de mercados. El patrón es el mismo que se ha observado en el sector privado: sustituir los procesos por lotes periódicos por un procesamiento continuo para que las decisiones reflejen la información actual y no la de la semana pasada.
¿Cuáles son los factores que hacen que este momento sea diferente? En primer lugar, la presión política: se pide a los organismos públicos que hagan más con menos, al mismo tiempo que mejoran la transparencia. En segundo lugar, la infraestructura tecnológica está lista: se ha demostrado que el streaming y los formatos abiertos permiten reemplazar flujos de trabajo heredados de la era de los mainframes sin perder la capacidad de auditoría.
En este contexto, los ciudadanos tendrán resultados más rápidos y justos porque las señales son actuales y las reglas se aplican de manera consistente. Los reguladores podrán demostrar sus acciones sin necesidad de reconstruir un historial retrospectivo en papel. Y a medida que estos programas se implementen, redefinirán las expectativas fuera del sector público: cuando la experiencia básica del gobierno sea “en tiempo real y explicable”, se eleva el estándar para todos los demás.
La flexibilidad multi-cloud pasará de ser una estrategia de IT a una estrategia de negocio
Eventos recientes han demostrado a los líderes que depender de un único proveedor de nube puede ser arriesgado, ya sea por interrupciones, variaciones de precios o cambios en políticas. En las últimas semanas, casi todas las conversaciones con clientes han girado en torno a una pregunta: ¿cómo mantener el control si ocurre algún imprevisto?. Para muchas organizaciones, esto también plantea cuestiones adicionales sobre la soberanía de los datos y cómo garantizar que la información crítica permanezca donde la legislación lo exige.
En 2026, más organizaciones incorporarán el multi-cloud como parte central de su plan de resiliencia. Esto implica elegir tecnologías capaces de operar de manera fluida entre distintos proveedores de nube, de modo que si los costos aumentan, una región falla o las regulaciones cambian, puedan trasladar o escalar operaciones sin interrupciones.
Esto deja de ser una simple preferencia de IT. Los directorios ahora solicitan pruebas de que sus sistemas de datos e IA puedan seguir funcionando incluso si un proveedor falla. La capacidad de cambiar de nube, balancear cargas de trabajo o mantener el flujo de datos entre plataformas se considerará como un indicador de madurez y competitividad de cara al futuro.
La gestión externalizada como nuevo estándar
Ejecutar internamente pilas complejas de streaming resulta cada vez más difícil de justificar. Las habilidades especializadas son escasas, la carga operativa es alta y cada hora dedicada a ajustar clústeres es una hora que no se invierte en mejorar los datos que impulsan el negocio. Para muchos equipos que gestionan Kafka por sí mismos, el mantenimiento ha empezado a superar el valor obtenido, especialmente a medida que crecen las demandas de streaming.
En 2026, se prevé que más equipos opten de manera decidida por plataformas de streaminggestionadas y traten el streaming como cualquier otro servicio esencial: confiable, seguro y responsabilidad de un tercero. Cuando la mayor parte del trabajo pesado está externalizada, los mejores profesionales se concentran en la gobernanza en flujo, en productos de datos reutilizables y en la lógica que acorta los tiempos de ciclo y reduce costos. En otras palabras, trabajan donde realmente importa.
El resultado es una entrega más rápida y con menos imprevistos. Dicho de manera directa, si la ventaja competitiva depende de lo que se hace con los datos y no de supervisar la infraestructura, la gestión externalizada se convierte en la opción más racional.
Reduciendo la brecha entre el conocimiento y la acción
“La mayoría de las organizaciones todavía utilizan solo una pequeña parte de los datos que generan. No se trata de falta de ambición, sino de que los silos, las transferencias lentas y las transformaciones duplicadas dificultan su aprovechamiento. Se espera que esto comience a cambiar a medida que el streaming se consolide como la vía predeterminada para convertir eventos en información accionable”, añade Francisco Molero.
No es necesario abarcarlo todo de inmediato. Lo recomendable es empezar por donde el valor sea más evidente y los efectos de red aparezcan rápidamente. El objetivo no es generar más paneles de control, sino contar con una visión actual y compartida de la organización que acorte la distancia entre lo que se sabe y lo que se hace.
De este modo, 2026 será un año menos centrado en promesas o expectativas y más en avances medibles que puedan respaldarse de manera concreta.
Nota:rrhhdigital.com






















