Francisco Herrera
La rápida adopción de la inteligencia artificial (IA) en la ingeniería de organización promete importantes aumentos de pro-ductividad, pero los estudios muestran una persistente «paradoja de la productividad de la IA», en la que la eficiencia a nivel de tareas no se traduce en beneficios económicos cuantificables. Este artículo examina cómo la colaboración entre humanos e IA (HAIC) y la IA explicable (XAI) pueden abordar esta brecha alineando las capacidades algorítmicas con la experiencia humana, la confianza y el diseño organizativo. Basándonos en estudios empíricos recientes, analizamos las barreras estructu-rales, cognitivas y sociotécnicas que limitan la realización del valor de la IA, incluyendo la integración inadecuada, la depen-dencia excesiva de la automatización y la opacidad inherente al sistema. Proponemos que la explicabilidad, integrada como capacidad tanto técnica como organizativa, permita la transparencia, la rendición de cuentas y la colaboración adaptativa entre los diversos grupos de interesados. Mediante un escenario simulado de ingeniería de organización, mostramos cómo la HAIC basada en XAI puede mejorar la calidad de las decisiones, redistribuir la carga de trabajo cognitiva y fomentar el apren-dizaje iterativo. El análisis subraya que el verdadero potencial de productividad de la IA no reside únicamente en la automa-tización, sino en una integración deliberada y centrada en el ser humano que trata a la IA como un socio colaborador dentro de sistemas sociotécnicos resilientes que impulsan una ingeniería organizativa inteligente para aumentar la productividad
The rapid adoption of artificial intelligence (AI) in organizational engineering promises significant productivity gains, yet evidence shows a persistent “AI productivity paradox” in which task-level efficiencies fail to translate into measurable eco-nomic benefits. This paper examines how eXplainable AI (XAI) and human–AI collaboration (HAIC) can address this gap by aligning algorithmic capabilities with human expertise, trust, and organizational design. Drawing on recent empirical studies, we analyse the structural, cognitive, and socio-technical barriers that limit AI’s value realization, including in-adequate integration, overreliance on automation, and inherent system opacity. We propose that XAI, embedded as both a technical and organizational capability, enables transparency, accountability, and adaptive collaboration across diverse stakeholder groups. Using a simulated organizational engineering scenario, we show how XAI-informed HAIC can enhance decision quality, redistribute cognitive workload, and foster iterative learning. The analysis underscore that AI’s real pro-ductivity potential lies not in automation alone, but in deliberate, human-centred integration that treats AI as a collaborative partner within resilient socio-technical systems driving intelligent organizational engineering to increase productivity.