El necesario viaje hacia la responsabilidad de la Inteligencia Artificial

Actualidad10 de septiembre de 2024
GettyImages-1223967273-410x410

Los hechos son contundentes: la IA lleva más de diez años siendo un componente tangible del mercado actual. La IA no es una moda pasajera ni una tecnología nueva. Nuestros móviles, portátiles y la mayor parte de los sectores productivos utilizan IA de manera profunda y amplia. Sin embargo, tras las esperanzas de un 2023 en el que la mayor parte de los presupuestos de innovación se invirtieron en pruebas de concepto de IA generativa, el 2024 está siendo complejo: muchos pilotos no están satisfaciendo las expectativas generadas; lanzar al mercado un proyecto de IA generativa es técnicamente complejo y los costes son mayores de lo que se esperaba. El hecho de decir que “nos conectamos con la IA y listo” no es suficiente.

Mientras, el panorama regulatorio en torno a la IA está evolucionando rápidamente, con preocupaciones sobre la privacidad, la seguridad y las implicaciones éticas en primer plano. El recién publicado Reglamento de IA de la Unión Europea, junto con otros marcos legislativos como el Reglamento de Mercados Digitales (DMA), el Reglamento de Servicios Digitales (DSA) y el nuevo Reglamento de Datos, muestra la compleja trama de regulaciones que los sistemas de IA pueden tener que cumplir. La propia Ursula von der Leyen, recién reelegida como presidenta de la Comisión Europea, ha subrayado la necesidad de evitar el solapamiento normativo a la hora de implementar estas normas, abogando por la coherencia y la simplificación. Para ello se prevé introducir un nuevo control de adecuación para las pymes y la competitividad en el desarrollo de nueva normativa.

Todos estos desafíos – de compliance regulatorio y de adopción – conforman la receta perfecta para la frustración empresarial. Muchas organizaciones se plantean relegar la IA a usos internos temporalmente, lejos de la vista del público. Es comprensible, pero ¿sería una buena decisión? Rotundamente no.

La llegada de la IA generativa ha generado una ola de cambio que está redefiniendo el panorama empresarial y social. Quedarse de brazos cruzados no es una opción viable. Por una parte, las oportunidades de negocio, productividad y competitividad son demasiado significativas como para ignorarlas. Por otra parte, el rápido ritmo del avance tecnológico significa que quedarse al margen podría resultar en oportunidades perdidas y desventajas competitivas cruciales. Durante los próximos años surgirán nuevas tecnologías basadas en IA como el “sistema operativo” que las hará más capaces. Las organizaciones deben avanzar con un sentido de urgencia, abrazando la IA con una comprensión clara de sus capacidades y limitaciones.

Pero correr por correr no nos llevará al destino. La IA, como tecnología de toma de decisiones, conlleva una serie de riesgos y desafíos inherentes que no pueden desecharse. Este nuevo escenario exige que las empresas e instituciones implementen sistemas de gobernanza robustos, basados en mejores prácticas, estándares y, obviamente, la regulación vigente. No se trata solo de cumplir con la ley, sino de generar confianza con los clientes y la sociedad en general, lo cual construye una competitividad más robusta.

Para afrontar las complejidades de la verdadera adopción de la IA, las organizaciones deben adherirse a un plan que priorice el objetivo al hecho de obtener, y que valore si el uso de la IA es necesario en ese contexto.

En paralelo, se hace necesario entender qué significa utilizar IA; algunas empresas punteras ya tienen programas de adopción de IA que afecta no solo a la tecnología sino a la propia cultura organizacional: las organizaciones deben invertir en educar a sus equipos sobre las fortalezas y limitaciones de la IA, fomentando la toma de decisiones informada y expectativas realistas. Además, el plan ha de aprender de historias de éxito y de fracaso mediante las cuáles las organizaciones pueden identificar las mejores prácticas y evitar errores comunes.

Por último, pero no por ello menos importante, la IA ha de implementarse de manera responsable: desde el inicio, los sistemas de gobernanza han de asegurar la transparencia, la rendición de cuentas o la equidad en los sistemas implementados, alineándose con los valores de la sociedad y los requisitos regulatorios, mediante especificaciones, certificaciones y estándares adecuados.

El desafío es monumental, pero no es insuperable. La adopción exitosa de la IA depende de una colaboración robusta entre el sector público y privado. La regulación temprana, asegurando que las tecnologías y soluciones de IA se alineen cuanto antes con las regulaciones incluso antes de hacerse efectivas, permite que los reglamentos se implementen en base a casos y experiencias reales. Entender bien el entramado técnico/ético/regulatorio para que los sistemas de IA construidos o utilizados cumplan con la regulación, aumenten la confianza de sus clientes y, por tanto, la sociedad, mientras al mismo tiempo les permiten ser competitivos, es un camino desafiante para las empresas. Pero uno en el que no tienen que ir solas.

*Justo Hidalgo es director de Inteligencia Artificial en Adigital
 

Nota:retinatendencias.com

Te puede interesar