¿Un espía controla ChatGPT? La inteligencia militar entra en el consejo de OpenAI

Actualidad - Internacional14 de agosto de 2024
83f2eb0c-65a4-46f0-8c8e-fe9580de3cb7-1-410x410

Durante los últimos meses, la junta directiva de la empresa creadora de ChatGPT ha sido el juego de las sillas. Tras el cataclismo del pasado noviembre, con el despido de Sam Altman como CEO y su restitución días después, se renovaron casi todos los asientos del consejo de administración. Además, Microsoft, que es el principal inversor en OpenAI, se aseguró de tener un sitio como consejero observador. Una fórmula que Apple iba a copiar tras anunciar que sus iPhone integrarían la inteligencia artificial de OpenAI.

Ahora, tanto Microsoft como Apple han abandonado asiento y aspiraciones en la junta directiva. La idea de estas compañías era vigilar los desarrollos de OpenAI, ya que estos tienen un impacto en sus propios productos. Pero el escrutinio regulador de las autoridades de competencia ha desincentivado este vínculo entre las grandes tecnológicas y la startup más prometedora en el campo de la inteligencia artificial.

Sin embargo, el baile de asientos en la junta directiva de OpenAI apunta otros posibles vínculos. Recientemente, la startup nombró consejero —este no como observador sino con poder de votación— a un militar, Paul M. Nakasone. Al anunciarlo, la compañía señaló que se trataba de un general retirado y experto en ciberseguridad. Su misión: enriquecer el Comité de Seguridad, responsable de dar recomendaciones en este terreno para los proyectos y las operaciones de la empresa.

Nakasone sabe mucho de ciberseguridad. Ha estado en puestos directivos en varias entidades gubernamentales relacionadas con la ciberdefensa. Y también ha sido director durante seis años de la NSA (National Security Agency), un aspecto sobre el que muchos han puesto el acento al conocerse la noticia. Entre ellos, Edward Snowden, que desde su cuenta de Twitter apuntó: “Solo hay una razón para colocar a un director de la NSA en tu consejo. Esto es una traición deliberada y calculada a los derechos de todas las personas del mundo”. Su opinión del asunto no pudo quedar más clara. En el mismo mensaje, el responsable de filtrar el programa de ciberespionaje masivo de la propia NSA, sentenciaba: “No confiéis nunca en OpenAI o en sus productos”.

Snowden trabajaba como consultor en el contratista de defensa estadounidense Booz Allen Hamilton, que prestaba servicios a la NSA. Allí tuvo conocimiento sobre el programa de ciberespionaje a ciudadanos practicado por la agencia de seguridad. Sus filtraciones revelaron una ristra de programas de espionaje masivo a través de aplicaciones y productos de uso común. En sus documentos, la agencia aseguraba tener acceso directo a los servidores de Google, Apple o Facebook. A partir de ahí obtenían información sobre las comunicaciones de infinidad de usuarios.

Cuando la tormenta se desató, Nakasone no estaba cerca. Parece que le sorprendió sirviendo en el Estado Mayo Conjunto. A quien sí pilló de lleno el escándalo y seguramente le costó el puesto en diferido fue a Keith B. Alexander. Este general de cuatro estrellas fue director de la NSA desde 2005 hasta 2014. A mediados de 2013 se filtraron los programas de espionaje y en unos meses, Alexander anunció su jubilación, que se materializó al año siguiente. No solo él dejó el puesto, después de casi diez años al mando, también lo hizo su adjunto en ese momento.

Un puesto, el de adjunto del general Alexander, que años antes ocupaba Nakasone. El flamante consejero de OpenAI fue asistente ejecutivo del general que mandaba cuando se hacían los programas de ciberespionaje masivo. Y no solo en la NSA, también fue su adjunto en el Cibercomando de Estados Unidos (USCC). La relación entre ambos era tal que Alexander le colgó los galones a Nakasone cuando este ascendió a general de brigada. Cuando salieron a la luz los documentos de Snowden ya no era su ayudante, pero todo indica que asistió a Alexander en los años previos a 2012. Y habría sido en el año 2010 cuando la NSA empezó a cocinar el ciberespionaje.

No se pueden hacer afirmaciones sobre la responsabilidad de Nakasone en el programa de ciberespionaje masivo de la NSA. Pero su presencia en la agencia y su cercanía a la dirección indican que ya tenía un perfil alto cuando se cocinaban los programas de cibervigilancia que después escandalizaron a la opinión pública.

Varios años más tarde, en 2018, Nakasone volvería a la NSA. Tomó posesión del cargo como director de la agencia y allí ha permanecido hasta febrero de este año, cuando se jubiló. Apenas cuatro meses después ya se sentaba en la junta directiva de OpenAI.

Es inevitable que surjan preguntas sobre el papel de este general y ex director de la NSA en la empresa que ahora mismo arrasa en el mercado de la inteligencia artificial. No hay que pasar por alto los vínculos entre tecnología y defensa en Estados Unidos. Del 2019 al 2022, las agencias militares y de inteligencia firmaron contratos con compañías tecnológicas por valor de 53.000 millones de dólares.

Otro apunte que no se debería desdeñar: antes OpenAI prohibía expresamente que su IA sirviera para fines militares, para crear armas o para actividades con alto riesgo de daño físico. Pero suavizó su política el pasado mes de enero. Ahora advierte contra el uso de sus servicios para “dañarte a ti mismo o a otros”, pone como ejemplo de mala práctica” el desarrollo de armas”, pero desaparece el texto que prohibía su utilización en el plano militar.

Y para pasar de las palabras a los hechos, la startup también trabaja con el Departamento de Defensa de Estados Unidos. Una vinculación que suscitó protestas de activistas ante la sede de la compañía en San Francisco.

El desarrollo de inteligencia artificial para fines militares suele encontrar cierta resistencia entre el gremio de los programadores. Tanto es así que hace unos años Google tuvo que renunciar a un jugoso contrato con el Departamento de Defensa de Estados Unidos por las protestas de sus empleados. Tras las movilizaciones, la compañía estableció la prohibición de utilizar su inteligencia artificial con fines armamentísticos o militares.

Así,  la presión de la plantilla, evitó que la IA de Google se empleara en un proyecto que buscaba distinguir entre personas y objetivos militares en vídeos transmitidos por drones. Queda por ver si en OpenAI tienen sus propias reticencias a asociarse con el aparato militar y de inteligencia. Aunque lo último que llega no son noticias alentadoras. Uno de los adalides del desarrollo responsable de la inteligencia artificial dentro de la startup, el cofundador Ilya Sutskever, abandonó el barco recientemente. Su marcha estaba cantada desde que tomara parte en el coup d’état que derrocó brevemente a Altman. Pero su partida también ha arrastrado a Jan Leike, encargado de garantizar que los sistemas de IA de la empresa están alineados con intereses comúnmente aceptados por la sociedad.

La empresa afronta así su apertura hacia el sector militar sin los frenos éticos que tenía hasta ahora —quizá tenga otros, quizá incluso los nuevos sean más adecuados; qué sabemos— y con un antiguo general, ex jefe del principal organismo estadounidense de ciberespionaje, en su junta directiva.

Nota:retinatendencias.com

Te puede interesar