La Inteligencia Artificial desafía a Recursos Humanos en protección de datos

Recursos Humanos20 de julio de 2024
ia-recursos-humanos-people-analytics.jpg_554688468

La inteligencia artificial (IA) está cambiando el entorno laboral, no solamente con la transformación de actividades, sino también en los desafíos que esto implica en términos de protección de datos de la fuerza laboral que tiene una empresa y las predicciones que la IA pueda hacer en los casos de los colaboradores.

Por lo que los departamentos de Recursos Humanos tienen un desafío de dilemas éticos con el uso de datos procesados por inteligencia artificial generativa con respecto a los empleados. El uso de esta tecnología en la gestión de talento plantea implicaciones éticas y legales, donde se destaca la necesidad de una regulación adecuada y el cumplimiento de normativas de protección de datos.

Jimena Sánchez Argoytia, socia fundadora de Employment Legal Aid, afirma que la protección de datos es un derecho constitucional regulado por la Ley Federal del Trabajo (LFT) y la Ley Federal de Protección de Datos Personales en Posesión de Particulares (LFPDPPP). Los empleadores tienen la obligación de salvaguardar la información personal de los empleados, no solo durante la relación laboral sino desde el proceso de selección y contratación, y la terminación de la relación laboral.

“La protección de datos tiene tres momentos desde el punto de vista laboral: precontractual, contractual y postcontractual. En el momento precontractual, es importante que las preguntas formuladas estén justificadas y que se recabe el consentimiento del candidato, durante el tiempo contractual el patrón debe de proteger los datos de la plantilla laboral, y el postcontractual que es lo que se tiene que hacer con los datos de la persona que dejará su puesto en la compañía”, menciona la especialista.

La Unión Europea está cerca de establecer una regulación para el uso de la inteligencia artificial basada en una clasificación de riesgos, los sistemas de gestión de Recursos Humanos tienen un nivel de riesgo medio, esto es por los sesgos y posibles predicciones sobre los trabajadores que pueden servir para para prevenir faltas, o en el polo extremo, para despedir personas.

La protección de datos es un derecho constitucional regulado por otras legislaciones, una de ellas es la Ley Federal del Trabajo. En el caso de la normativa laboral, se establece que el empleador debe obtener y restaurar información de sus colaboradores por todo el tiempo que dure la relación de trabajo y un período adicional, una vez que se termine.

En ese sentido, las empresas deben de conocer las implicaciones legales en la gestión de datos de los trabajadores a través de las plataformas operadas con IA, especialmente cuando es usada en modelos de predicción.

Aviso de privacidad, primer paso
Jaime Rodríguez, socio en Ibarra, del Paso y Gallego, dice que el primer paso es tener un aviso de privacidad, tanto para candidatos como para empleados, y respetar los derechos de todos los trabajadores; además de darle un tratamiento de protección a todos los datos sobre información sensible si es que se va a alimentar alguna plataforma de inteligencia artificial con esos datos.

Incluso el Instituto Nacional de Transparencia, Acceso a la información y Protección de Datos Personales (INAI) publicó un documento específico para la recopilación de información en todas las etapas de la relación de trabajo.

Según el documento del INAI, si bien se ha realizado un esfuerzo por adaptarse al paso de las circunstancias y la evolución de las tecnologías de la información, aún se requieren más acciones para regular mediante leyes específicas todos y cada uno de los aspectos inherentes al tratamiento de datos personales en este ámbito.

“Dado que la automatización incorporada por las nuevas tecnologías al tratamiento de datos puede de forma imperceptible atentar en contra de la intimidad que acompaña a las personas servidoras públicas en el acto de entrega de sus datos personales al responsable, y, posibilitar así la utilización de información para fines ilícitos” indica el documento del INAI.

Ya que las tecnologías superan la capacidad de la legislación para mantenerse actualizada, lo que genera desafíos como en los trabajos híbridos o remotos que utilizan plataformas de videoconferencia o de gestión laboral que también plantean cuestiones de privacidad.

“No puedes negarle la contratación o despedir a tus empleados utilizando inteligencia artificial sin hacerse una segunda revisión para confirmar que la información procesada no haya descartado a un candidato o despido por un tema de discriminación”, añade Rodríguez.

En ese tenor, el especialista agrega que el patrón es el que tiene la obligación de cuidar toda esta información y si se disemina, podrían tener problemas con el INAI y recibir una sanción.

Y en el caso de los colaboradores, es importante no compartir información confidencial durante ni después de la relación laboral.

“Aunque nuestras legislaciones tienen lagunas, es importante que tanto empleadores como empleados estén al tanto de sus obligaciones y derechos”, enfatiza Sánchez Argoytia.

La IA y los datos sesgados  
La ética en el diseño de IA, particularmente en la recolección y uso de los datos tiene dos obligaciones, las cuales son: seguridad y protección.

Jaime Rodríguez opina que es un tema poco explorado, pero esto se vincula con el derecho a la no discriminación de los trabajadores, o de negar el empleo o despido por condiciones como puede ser de raza, orientación sexual, estado de salud, etcétera.

“La base de datos a veces también tiene información sesgada, por ciertas cosas que puedan atacar, como por ejemplo que en Inglaterra o Estados Unidos puede predecir o agarrar delincuentes, pero resulta que estos delincuentes en su mayoría son de raza hispana o afrodescendientes. Ese es el tema con el sesgo que hay en la información, porque al final la IA es alimentada por alguien”, ejemplifica el abogado.

En cuanto a la tecnología y el uso de la inteligencia artificial, los especialistas coinciden en que es importante considerar la seguridad y el uso adecuado de la información compartida.

“Ya hay casos sonados en Estados Unidos sobre el uso de información falsa en juicios, proporcionada por la inteligencia artificial y no corroboraron datos. Siempre hay que corroborar los datos”, expone Jaime Rodríguez.

Los abogados señalan que es fundamental que el equipo de Recursos Humanos se asegure de que las herramientas de IA cumplan con las legislaciones locales y que obtenga el consentimiento expreso de los usuarios.

Nota:eleconomista.com

Te puede interesar