En 2026, la conversación sobre la IA en las grandes organizaciones ha pasado de “esto tiene un gran potencial, necesitamos extraer valor” a una pregunta mucho más incómoda: ¿estamos generando ingresos, ahorros de costes o una ventaja competitiva real… o seguimos atascados en pilotos?
Los comités ejecutivos han superado la fase de hype. La GenAI ha dejado de ser un truco llamativo para convertirse en una línea más del presupuesto. Y esa línea compite con muchas otras prioridades: ciberseguridad, modernización del core, fusiones, talento. Si la IA no demuestra impacto, pierde la batalla.
IA, GenAI y agentes inteligentes: “Enséñame el EBITDA”
Durante los primeros años de la explosión de la GenAI, la lógica era clara: experimentar rápido, probar muchas cosas, mostrar prototipos. Se financiaba con presupuestos de innovación, digital o incluso con partidas difusas de “exploración tecnológica”.
Pero al cerrar 2025 y entrar en 2026, la lógica cambia. La IA empieza a financiarse como cualquier otra iniciativa de negocio: OPEX recurrente, proyectos serios y expectativas claras de retorno. La narrativa de “tenemos que aprender” ya no funciona; la pregunta es más simple: ¿Qué hemos ganado o ahorrado?
Desde la perspectiva de un comité ejecutivo, la evaluación es bastante fría:
- ¿Hemos aumentado ingresos atribuibles a la IA?
- ¿Hemos reducido costes estructurales, no solo costes puntuales de proyecto?
- ¿Hemos reducido riesgos regulatorios, operativos o reputacionales?
- ¿Qué capacidad organizativa estamos construyendo más allá del caso de uso concreto?
Aquí es donde los agentes de IA emergen como una segunda ola que va más allá del clásico “modelo que predice X”. Los agentes no solo generan texto o código: toman decisiones, ejecutan tareas y orquestan workflows end-to-end. El salto no es solo de precisión, sino de capacidad de acción.
Pero si esa capacidad no está conectada a procesos de negocio, indicadores y una narrativa clara para el comité, termina siendo solo otro experimento. El reto para las compañías en 2026 no es tanto dominar la tecnología, sino traducirla a retorno económico y explicarlo con claridad a quienes toman decisiones de presupuesto.
Agentes verticales y DSLMs: la especialización como ventaja
En la primera ola de GenAI corporativa dominaron los copilotos generalistas u horizontales: asistentes basados en RAG que ayudaban “un poco con todo”. Redactar emails, resumir documentos, generar código genérico. Fueron (y siguen siendo) útiles y generaron sensación de progreso, pero tenían una limitación a medio plazo: su comprensión del negocio era superficial.
La siguiente etapa está marcada por una idea simple pero poderosa: la especialización gana. En lugar de un agente que intenta saberlo todo, muchos agentes que saben muchísimo de un área muy específica:
- Un agente que entiende el catálogo de producto, las reglas comerciales y los márgenes, y puede proponer ofertas personalizadas viables.
- Un agente que comprende completamente el proceso de siniestros, la regulación aplicable y el histórico de decisiones, y puede automatizar la mayor parte del ciclo.
- Un agente que domina la planificación de la demanda, las restricciones logísticas y la política de inventario, tomando decisiones que impactan directamente en el capital.
Esta especialización se apoya en modelos de lenguaje específicos de dominio, los llamados DSLMs. No intentan ser el modelo que responde a todo en el mundo, sino el modelo que responde extremadamente bien a lo que importa en tu negocio: tu jerga, tu regulación, tu lógica de decisión, tus datos históricos. Todo ello, por supuesto, respaldado por datos de alta calidad y bien gobernados.
El resultado práctico es claro: menos alucinaciones, menos ambigüedad, mayor alineación con los procesos reales y una automatización mucho más fiable. No se trata de abandonar los modelos generalistas —que siguen teniendo un papel importante como interfaz o “capa de razonamiento general”— sino de combinarlos con agentes verticales que operen de verdad donde se genera el valor.
En 2026, la pregunta ya no es “¿qué gran modelo usamos?”, sino “¿qué combinación de agentes y modelos —generalistas y de dominio— necesitamos para tener éxito en nuestros procesos clave?”.
Estrategia vs. casos de uso aislados: la importancia del roadmap
Otra trampa muy común en las grandes organizaciones es la «lista infinita» de casos de uso. En el mejor de los casos, cada área de negocio identifica los casos de uso relevantes. Todos parecen importantes, todos tienen potencial, y el resultado suele ser una agenda abrumadora que genera frustración.
La realidad es más dura: no todos los casos de uso tienen el mismo impacto en el negocio; el esfuerzo necesario para desarrollarlos varía; y no siempre son viables, a veces debido a la falta de datos de calidad. Además, no todos ellos ayudan a crear capacidades reutilizables.
Por eso es esencial cambiar el enfoque: menos catálogo y más hoja de ruta. No se trata solo de seleccionarlos, sino de secuenciarlos de forma inteligente a lo largo del tiempo:
- Empezar por los casos donde el impacto económico es claro y el esfuerzo técnico y organizativo es razonable.
- Priorizar aquellos que, además de su impacto, ayudan a construir elementos de plataforma reutilizables (conectores, modelos de dominio, agentes base).
- Dejar para más adelante los casos que pueden ser potentes pero requieren cambios profundos en procesos, regulación o talento.
En Keepler, este es exactamente el enfoque que utilizamos: impacto vs. esfuerzo, pero con datos reales y una perspectiva realista, no como ejercicio teórico. Nuestra metodología, aplicada a grandes organizaciones, no se queda en un canvas; se convierte en un plan accionable que combina quick wins, “anchor products” y construcción progresiva de capacidades.
El resultado no es solo una lista bonita. Es, por ejemplo, lo que ha permitido a nuestros tres últimos clientes vincular su portfolio de productos de IA diseñado bajo este marco a un impacto potencial en EBITDA superior a 100M€. No mediante un único “proyecto estrella”, sino mediante un portfolio bien secuenciado.
La lección para cualquier líder es clara: sin una hoja de ruta, la IA se diluye; con una hoja de ruta, la IA se convierte en una palanca estratégica gestionada con la misma seriedad que cualquier otra inversión significativa.
El Centro de Excelencia de IA: la torre de control
Cuando una organización pasa de la experimentación a la industrialización, aparece una necesidad casi inevitable: alguien tiene que dirigir el tráfico. Ese “alguien” no es un héroe individual ni un departamento aislado, sino un AI Center of Excellence (AI CoE) bien diseñado.
Un CoE eficaz no es la “policía de la IA” ni el lugar donde todo se centraliza y se ralentiza. Es, más bien, una torre de control que asegura tres cosas:
- Que la organización comparta un lenguaje común sobre datos, modelos y agentes.
- Que las soluciones que funcionan se escalen, en lugar de reinventarse en cada país o unidad.
- Que el riesgo esté controlado: no hay experimentos en producción que comprometan regulación, seguridad o reputación.
En la práctica, el CoE define la arquitectura de referencia, selecciona herramientas estratégicas, fija estándares de seguridad y observabilidad, impulsa la reutilización de componentes y actúa como partner de negocio para los equipos que quieren avanzar con IA.
Pero hay dos condiciones críticas que a menudo se olvidan:
- Mandato claro del liderazgo senior: sin apoyo explícito, el CoE se convierte en un grupo de “evangelizadores amables” con poco poder real de decisión.
- KPIs de negocio, no solo técnicos: no basta con medir modelos desplegados o latencia media; el CoE también debe rendir cuentas sobre valor generado, eficiencia y mitigación de riesgos.
Cuando estas condiciones se cumplen, el CoE se convierte en el lugar donde la IA deja de ser un mosaico de iniciativas dispersas y pasa a ser una capacidad estructural de la compañía.
Personas: el verdadero centro de la transformación
Hay una parte de toda esta ecuación que a menudo se trata como un apéndice cuando debería estar en el núcleo: las personas.
Dentro del marco ético de IA de Keepler, el enfoque Human-Centered es esencial. Si la IA no mejora la vida profesional de las personas, no es una buena solución. La tecnología debe complementar las capacidades humanas, no sustituirlas. La IA no solo automatiza tareas; cuestiona identidades profesionales. Cambia lo que significa ser “un buen analista”, “un buen comercial”, “un buen responsable de operaciones”. Introduce nuevas formas de trabajo, nuevas herramientas, nuevos lenguajes —y esto genera inevitablemente una mezcla de entusiasmo y resistencia.
Además, se ha demostrado que el enfoque human-in-the-loop en el desarrollo de productos basados en IA permite recoger mayor contexto sobre la lógica de negocio que la IA debe cubrir. También permite validar los sistemas y, por tanto, mejorarlos, ya sea mediante reentrenamiento en proyectos de IA o mediante mejora de agentes y re-prompting en proyectos de IA generativa.
Si la IA se percibe como una amenaza, aparecen todos los “anticuerpos” posibles: desconfianza en los resultados, resistencia silenciosa, preferencia por procesos manuales “como siempre se han hecho”. Si, en cambio, se percibe como un aliado que libera a las personas de tareas repetitivas y aumenta su capacidad de decisión, la adopción se acelera.
Por eso es esencial diseñar la transformación con las personas dentro de la ecuación, no en un apéndice.
Esto implica:
- Involucrar a usuarios reales desde la fase de diseño de cada agente o producto de IA.
- Explicar con total transparencia qué cambia, qué tareas se automatizan y qué nuevas oportunidades surgen.
- Crear nuevos roles (AI product owners, diseñadores de agentes, especialistas de datos) y darles legitimidad.
- Acompañarlo con un plan de formación adecuado, no solo una sesión puntual de “mirad qué chulo es esto”.
Al final, siempre hacemos la misma pregunta: ¿confían nuestros equipos lo suficiente en estos sistemas como para apoyarse en ellos cuando hay algo importante en juego? Si la respuesta es no, ninguna arquitectura, modelo o agente —por sofisticado que sea— será suficiente.
Mirando hacia 2026: de proyectos a capacidad estructural
En paralelo, el contexto regulatorio —con el marco europeo de IA avanzando, mayor sensibilidad en torno a la privacidad y presión social por un uso responsable— hace que ya no sea suficiente “hacer cosas con IA”. Hay que hacerlas bien, de forma gobernada y explicable.
Tomando todo en conjunto, la agenda de IA para una gran organización de cara a 2026 puede resumirse así:
- Demostrar impacto económico real, defendible ante el comité ejecutivo.
- Pasar de modelos generalistas a una combinación inteligente de agentes verticales y modelos de dominio.
- Construir las bases de la escalabilidad: datos, plataformas, gobierno y seguridad.
- Evolucionar de islas de agentes a un Agentic Mesh que orqueste una red de inteligencia conectada.
- Gestionar la IA como un portfolio estratégico con roadmap priorizado y revisiones periódicas.
- Establecer un Centro de Excelencia que actúe como torre de control y acelerador.
- Poner a las personas en el centro —no en los márgenes— de la transformación.
Los insights del State of AI 2026 apuntan claramente en esta dirección: la cuestión ya no es decidir si apostar por la IA, sino hacerlo de forma que realmente genere retorno.
Las compañías que tendrán éxito serán aquellas que dejen de ver la IA como un conjunto de proyectos dispersos y la conviertan en lo que realmente puede ser: una capacidad estructural, agéntica y conectada que amplifica la inteligencia colectiva de la organización. Las demás seguirán haciendo pilotos.
Y no nos engañemos: los comités ejecutivos ya saben bastante bien en cuál de los dos grupos quieren estar.
We are an Advanced Data Analytics company that makes amazing things possible by applying Public Cloud Technology and Artificial Intelligence to your data.




0 comentarios