Shadow AI: cuando tus empleados van por delante (y tú no te enteras)

Recursos Humanos22 de abril de 2025
GenAI-and-shadow-IT-Dall·E

​La adopción de herramientas de inteligencia artificial generativa por parte de los trabajadores está ocurriendo a un ritmo vertiginoso, y en muchas ocasiones sin la aprobación o conocimiento de los departamentos de tecnología.

Este fenómeno, conocido como shadow AI, refleja una tendencia que ya se vislumbraba hace más de una década con el auge del llamado shadow IT, el uso de herramientas tecnológicas implementadas por departamentos distintos del departamento de sistemas centralizado o por algunos empleados independientemente, para eludir las limitaciones y restricciones que han sido impuestas por el departamento de IT, como ya comenté en este artículo en 2012 hablando de Dropbox.

La irrupción de la inteligencia artificial generativa es completamente imparable. Algunos estudios recientes indican que una proporción significativa de empleados utiliza herramientas de inteligencia artificial generativa sin la aprobación oficial de sus organizaciones, con hasta el 50% de los trabajadores utilizando herramientas de inteligencia artificial no autorizadas en sus tareas diarias . Esta práctica, aunque es susceptible de mejorar la productividad, puede también plantear, según la herramienta que se utilice, serios riesgos de seguridad y de cumplimiento normativo.

La solución no reside en establecer prohibiciones más estrictas, sino en la educación y formación de los empleados. La formación en ética de la inteligencia artificial y el liderazgo inclusivo puede suponer ahora mismo, en este estadio de adopción tecnológica, una ventaja competitiva a las compañías. Capacitar a los trabajadores en el uso adecuado de la inteligencia artificial generativa de manera que no sepan únicamente «hacer prompts«, sino también entender la lógica y las implicaciones del uso de las diferentes herramientas, así como su uso avanzado, es esencial para mitigar riesgos y aprovechar sus beneficios.​

Intentar detener el avance de la inteligencia artificial generativa con prohibiciones es tan inútil como intentar detener un río con las manos. En su lugar, las organizaciones deben desarrollar políticas claras y flexibles que guíen el uso de estas herramientas, políticas deben equilibrar la necesidad de innovación con la protección de datos y el cumplimiento normativo. Es fundamental establecer marcos de gobernanza del dato que aborden los riesgos emergentes de la inteligencia artificial generativa, y que lo hagan, además, mirando hacia un futuro en el que este tipo de herramientas van a estar evolucionando de manera rápida y constante. Si resulta difícil para un experto seguir simplemente el avance de los modelos más conocidos (y más aún teniendo en cuenta las absurdas políticas de naming de algunas compañías), cómo no va a serlo para nuestros empleados. Anticiparse a esa complejidad y marcar recomendaciones claras es fundamental.

La inteligencia artificial generativa ha llegado para quedarse, y su adopción por parte de los empleados es una realidad que las organizaciones no pueden ignorar. En lugar de resistirse, es crucial adoptar un enfoque proactivo que incluya educación, políticas claras y una gobernanza efectiva. Es la única forma de aprovechar todo el potencial de una herramienta que puede ser verdaderamente eficiente para muchas tareas, mientras intentamos minimizar todo lo posible sus riesgos.​

Nota: https://www.enriquedans.com/

Te puede interesar