Inteligencia artificial: ¿por qué es necesaria su regulación?
¿Cuál es el estado actual de la legislación que regula la inteligencia artificial (IA) en la Argentina? ¿Cuál debería ser la política y la estrategia del Gobierno nacional para gestionar las cuestiones éticas y de derechos humanos que plantea la implementación de la IA? ¿Cómo se abordando en el país las cuestiones de privacidad y protección de datos relacionadas con la IA?
Román Alberto Uez, abogado, magíster en derecho administrativo y magíster en tecnología, políticas y culturas; especializado en inteligencia artificial, marco regulatorio y derechos digitales, responde estas y otras pregunta sobre la IA en la siguiente entrevista de iProfesional.
-¿Cuál es su opinión sobre la intención gubernamental de posicionar a la Argentina como un polo mundial de inteligencia artificial?
-El famoso inversor norteamericano Warren Buffet dijo en la asamblea anual de su fondo de inversión, Berkshire Hathaway, que la inteligencia artificial era la innovación más ambivalente y peligrosa desde que se inventó la bomba atómica.
Coincido plenamente con esta apreciación, ya que la dualidad de esta tecnología y sus efectos negativos pueden ser extremadamente nocivos. En primer lugar, debemos reconocer que, como mecanismo de aumento de la percepción humana de memoria y cálculo utilizado para detectar patrones semejantes o similares, o nuevas combinaciones de materia y energía, la IA puede dar un aporte ultra beneficioso para la humanidad, acercándonos información que, a simple vista, está fuera del alcance humano.
Pero no es ese precisamente su uso más extendido e intensivo, se está utilizando esa capacidad de cálculo y memoria para implantar un sistema de vigilancia y control que, mediante la recolección legal e ilegal de datos y su clasificación, elabora perfiles personales de los seres humanos mediante los cuales se los vigila, controla, o manipula para inducirlos a conductas comerciales, financieras, políticas y sociales.
El sistema propende a concentrar el conocimiento y el poder en pocas manos, que lo usan para incrementar el control social y la rentabilidad de sus negocios. Este aspecto es sumamente negativo porque las economías en desarrollo que no cuentan con estas tecnologías casi no tienen mecanismos tecnológicos o económicos que le permitan competir de manera igualitaria y resguardar los datos privados de sus ciudadanos, controlando el flujo informativo y de conocimientos, que es apropiado por las empresas extranjeras, generando colonialismo tecnológico.
Otro aspecto negativo es el enorme consumo energético y de recursos naturales, como agua, gas, petróleo y minerales cuya explotación intensiva y a bajo coste es necesario para que la IA sea rentable. También, son necesarios cuantiosos recursos humanos que trabajan en condiciones laborales precarias para entrenar a la IA o para corregir sus deficiencias, lo cual, produce daños económicos en las sociedades donde estos trabajos se realizan, y psicológicos en los individuos que en ella trabajan.
Su utilización en varios sectores de la economía susceptibles de automatización va a producir la desaparición de gran cantidad de puestos de trabajo existentes, por lo cual, si el Estado no regula este aspecto y capacita adecuadamente a los trabajadores para su reinserción al mercado laboral, se va a generar una crisis de empleo.
Los humanos somos los que le damos la impronta positiva o negativa a la tecnología. Una vez lanzadas al mercado estas innovaciones, hay que buscar encauzarlas para efectos benéficos, mediante educación y regulación.
En esta tecnología en especial, por su poder destructivo si se usa de manera intensiva y masiva desde la niñez, hay que brindar especial protección a los neuroderechos, evitando que los niños, adolescentes y adultos la usen en sus labores escolares, universitarias o laborales, sin ejercer sus propias facultades neuronales verificando los resultados.
La Argentina tiene todo para ser una potencia en IA internacional, puede tener energía barata, minerales, gas, petróleo, agua y excelentes recursos humanos. Si la IA que construimos se destina al uso de carácter científico, con organizaciones como Conicet, INVAP o Comisión Nacional de Energía Atómica, de seguro generaremos conocimientos de altísima calidad.
Si, en lugar de ello, se la destina para colaborar con plataformas tecnológicas comerciales, financieras o para potenciar los organismos de control del gobierno, sus efectos podrían ser destructivos para la economía y la sociedad argentina, poniendo en jaque la democracia.
-¿Cuál es el estado actual de la legislación que regula la IA en la Argentina? ¿Cómo compararía el nivel de esta reglamentación con el de otros países?
-En la actualidad, la legislación de IA en el país es totalmente dispersa y espasmódica. El primer intento fue el "Plan Nacional de Inteligencia Artificial" (ArgenIA) durante la gestión del gobierno macrista, con el cual no se llegó a ningún resultado concreto. Se pueden citar:
El Decreto 457 en la actualización de la Directiva de Política de Defensa Nacional se reconoce a la IA.
La Res. 90/2021 de la Secretaría de Asuntos Estratégicos que crea el "Programa de Inteligencia Artificial" que como el anteriormente mencionado, sin mayores repercusiones; Res. 14/2022 de la JGM- Secretaría de Innovación Pública por medio de la cual se crea el Chatbot del Estado Nacional "Tina".
La Disp. 2/2023 JGM- Subsecretaría de Tecnologías de la Información por la cual se aprueban las "Recomendaciones para una Inteligencia Artificial Fiable".
La ley 27.506 sobre "Economía del Conocimiento" incluye entre los objetos beneficiarios a la IA.
El país es parte firmante de las recomendaciones de la UNESCO (2019), primer documento internacional que reconoce la importancia de la IA; asimismo, se ha adherido al Pacto Global sobre IA, GPAI por sus siglas en inglés, el cual no ha sumado adhesiones ni ha mantenido ninguna actividad hasta la fecha.
Es importantísimo regular sobre la transparencia de los softwares de IA que permita la rendición de cuentas, responsabilidad por daños o errores y se haga pública la forma en que funcionan los algoritmos. También, es imprescindible otorgarle prioridad en la normativización a los sesgos técnicos que originan discriminación a diferentes niveles, generando su profundización; temas que hoy solo existen como "recomendaciones".
Una medida posible para el control de todos los sistemas de IA del país pueden ser los entes reguladores, que tendría que ser tenida en cuenta. No existe punto de comparación con la reglamentación extranjera. China, líder mundial en IA generativa tiene un marco normativo que incluye ciberseguridad, seguridad de datos y protección de información personal, y reglamentos administrativos.
EEUU con su IA Act, que se aplica a las agencias gubernamentales, sector privado, comunidad científica y académica, y público en general como los consumidores, formaliza el uso seguro y responsable, la gestión de riesgos que se pudieran presentar, generando un ambiente en el que se aprovechen los beneficios para la seguridad, la economía y la sociedad en general.
La Unión Europea dictó su legislación teniendo como centro al ser humano, para que con la fiabilidad de la IA se garantice la protección de la salud, la seguridad y los derechos humanos esenciales, así como la protección de la democracia, el Estado de derecho y el medio ambiente.
Con estos resumidos ejemplos tenemos un pequeño vistazo de todo lo que nos falta regular en un marco normativo integral. Bajo ningún aspecto se puede pensar que en esta materia no exista regulación estatal debido a que, de ser así, se está condenando a la sociedad argentina y al medio ambiente a daños que pueden ser inconmensurables.
-¿Cuál debería ser la política y la estrategia del Gobierno para gestionar las cuestiones éticas y de derechos humanos que plantea la implementación de la IA?
-La IA plantea los siguientes dilemas:
La apropiación ilegal de datos.
La discriminación por sesgos.
El robo de propiedad intelectual.
La no explicabilidad de su sistema de toma de decisiones.
Cuál es el sistema de responsabilidad jurídica que se debe implementar frente a sus errores o daños.
La mayoría de las legislaciones ensalza como valor la privacidad de los datos, pero la realidad demuestra que el robo de datos y su utilización sin consentimiento es una cosa de todos los días.
Idéntica situación sufre la propiedad intelectual registrada, hay demandas de periodistas de The New York Times, The Intercept, Raw Story y AlterNet por el robo de su propiedad intelectual para artículos nuevos.
Recién ahora la legislación europea está exigiendo la explicabilidad de las decisiones de los sistemas de IA e imponiendo responsabilidad frente a sus errores. El Gobierno argentino debería incorporar una regulación efectiva sobre la privacidad de los datos, reconociendo el derecho al olvido y la propiedad de ellos, de las personas para que puedan disponer de su borrado.
Aparte de ello, se debería controlar y exigir la eliminación de cualquier discriminación por sesgos y la responsabilidad de los operadores y de los creadores del software por errores, sesgos, que comprenda la explicabilidad de los sistemas algorítmicos para que puedan rendir cuentas. Estos mecanismos deben estar presentes en la IA de uso más peligroso: medicina, finanzas y seguridad.
-¿Existen restricciones comerciales que puedan aplicarse a los productos basados en IA?
-En la Argentina la IA está incluida en la Promoción de la Economía del Conocimiento, Ley 27.506, la cual sólo establece un régimen comercial para regular la recaudación, por lo que las restricciones que existen en la actualidad solo tienen un objetivo fiscal.
No se ha desarrollado todavía un sistema de comercio internacional en el que las restricciones que se establezcan tengan en cuenta los temas que hasta ahora son considerados fundamentales en este campo como los derechos de propiedad intelectual, el sistema de responsabilidad por daño a los humanos ya sea que se trate de programadores u operadores, el derecho a la intimidad, a la propia imagen.
Sobre todo, este tipo de productos deben ser fácilmente identificables como productos fabricados con IA y el régimen que se adopte debe tender a la protección de los derechos enumerados, los cuales son meramente ilustrativos de la problemática.
Hasta ahora la IA se ha utilizado en el comercio internacional mayormente con fines estadísticos, pero no ha surgido todavía un régimen de comercio internacional en el que se establezcan sistemas regulatorios garantistas de los derechos del hombre. A nivel internacional las restricciones que se han puesto en juego son sólo producto de maniobras de guerras geopolíticas.
-¿Cómo se están abordando en la Argentina las cuestiones de privacidad y protección de datos relacionadas con la IA? ¿Cómo afectarán estas cuestiones a los flujos de datos y a los acuerdos de intercambio de datos con otros países?
-Es importante enseñar que un dato personal es parte de nuestra identidad, y que el conjunto de datos personales clasificados y registrados son un mapa de cómo tomamos nuestras decisiones de vida. Cualquiera que tenga ese mapa podrá manipularnos para lograr que tomemos decisiones en el sentido de sus intereses.
Por este motivo, los datos son fuente de poder político, financiero, comercial y social. La política obtiene poder y los mercados rentabilidad, prediciendo en forma correcta las conductas de la ciudadanía Por eso, los datos tienen el doble carácter de ser un bien inmaterial de alto valor y dan origen a un derecho personalísimo con valor económico y político. Por todo lo expuesto, nuestros datos deben ser almacenados en servidores nacionales, con tecnología propia.
Con respecto a la privacidad y protección de datos personales en el ámbito de la IA, un intento de regulación lo da la Res.161/2023 de la Agencia de Acceso a la Información Pública, tomando como bases a las leyes 25326 y 25275 que constituyen nuestro marco regulatorio de protección de datos y acceso a la información pública.
Es un "intento" porque su articulado no pasa de ser una mera expresión de deseos, siendo uno de sus objetivos específicos el indagar sobre las implicancias sociales, económicas, laborales y ambientales del desarrollo de la IA, pero no establece un régimen específico que garantice la protección de datos. Por otro lado, siendo sinceros, es de público conocimiento que el robo y venta de datos es un hecho ya instalado internacionalmente, y la Argentina no es la excepción.
La transferencia de datos de cualquier tipo a otros países, organismos internacionales o supranacionales se encuentra prohibida por la Ley 25.326, salvo los casos de colaboración judicial, lavado de activos, interconsultas internacionales de carácter médico y lucha contra el crimen organizado.
Si bien, sí se permite esa transferencia en los casos de acuerdos en que el país sea parte firmante, en la realidad, todos los países son muy reacios a brindar sus datos; por lo que esa idea de cooperación internacional compartiendo el conocimiento es una mera falacia.
Los datos verdaderos de los países corren por otros pasillos que no son los acuerdos o tratados internacionales y menos tratándose de la IA, existiendo un fluido flujo de datos que corren a nivel internacional, los cuales ni siquiera son reconocidos oficialmente y son utilizados para fines espurios.
En la India e Irlanda hay una incipiente legislación para obligar a las plataformas a almacenar sus datos en territorio nacional para facilitar el funcionamiento de la justicia y resguardar la soberanía. Además, se debería obligar a las plataformas que informen a los usuarios de forma fácil y comprensible dónde están guardados sus datos.
-¿Cuáles han sido los avances más notables relacionados con la IA durante el último año en la Argentina?
-Desde el aspecto normativo, mencioné las regulaciones más significativas que están en proceso de evolución. Sin embargo, como abogado de empresas, considero igualmente importantes las iniciativas de colaboración que puedan acompañar las normas existentes e incluso generar nuevos marcos regulatorios, que mejoren los procesos de producción y el crecimiento de las industrias, generen mayor cantidad de empleo y calidad de capacitación de los trabajadores, en beneficio de los mercados y del país.
Se puede mencionar como un ejemplo, la participación de la Secretaría de Economía del Conocimiento, Emprendedores y Pymes de la Nación de un encuentro organizado por Microsoft, para analizar la adopción y el impacto de la IA en la Argentina, en la cual se resaltó el compromiso de facilitar su uso en el país y colaborar con el sector privado para brindar capacitaciones, en especial a las pymes.
La capacitación de las personas para que puedan ser aptas para trabajar y aprender con el uso de IA se presenta como el desafío más importante, a fin de evitar que esto represente nuevas barreras de acceso al mercado laboral y se produzca una deshumanización del trabajo, con una inmensa variedad de efectos disvaliosos a nivel socioeconómico en el contexto de nuestro país.
Todo nos lleva a la misma conclusión: la IA sin educación, sin control humano, sin herramientas jurídicas que moldeen su potencia como un recurso de evolución y detengan su potencial nocividad y su uso antiético, puede representar un peligro para el bienestar como seres humanos. Está en nosotros, como ciudadanos y profesionales, elegir siempre su uso responsable, que nos lleve al crecimiento individual y colectivo.
-¿Qué sectores industriales han experimentado un mayor desarrollo de productos y servicios basados en IA en la Argentina? ¿Existen normas emergentes de la industria o no gubernamentales que regulen el desarrollo y el uso de tecnologías relacionadas con la IA?
-En el área de bienes y servicios es clara que la presencia de la IA es muy fuerte, en especial en el área de logística, venta online a través de las plataformas, atención al cliente y neuromarketing.
Estos procesos implican el uso de tecnologías como la robótica, asistentes virtuales, inteligencia artificial generativa u otros modos de tecnificación de procesos de producción, comercialización, incluyendo el pago y la entrega, es decir que se "tecnifica" no solamente el proceso de desarrollo del bien o servicio sino también la relación de consumo.
El comercio electrónico lleva años desarrollándose y la IA es un recurso claramente efectivo para optimizar las ventas en turismo, educación, finanzas. No obstante, como dije antes, las áreas más sensibles e importantes como la medicina, la seguridad y las finanzas aún no cuentan con una regulación abarcativa de los aspectos medulares que aseguren un uso adecuado, seguro y ético de la IA. Tampoco se resguardan los neuroderechos, ni se regula el neuromarketing, a fin de evitar efectos devastadores en las capacidades de los consumidores y del consumo irresponsable.
Pero concretamente, las industrias de todos los días que atraviesan la vida cotidiana de los argentinos requieren un urgente resguardo, en especial en relación con la normativa de defensa del consumidor que ya tiene más de treinta años.
A nivel normativo, puedo agregar a todo lo dicho antes que la incorporación de la IA en la regulación de consumo está incluida dentro de los temas a abordar por la comisión reformadora que está gestando una reforma de la Ley de Defensa del Consumidor a través de un anteproyecto de código, dispuesta por la Resolución N° 81/2024 de la Secretaría de Comercio (05/03/24) que sumará la normativa internacional sobre nuevas tecnologías y convenios en los que la Argentina es parte, dentro de la normativa protectora del consumidor.
También, es importante la labor educativa al consumidor, que es efectiva para prevenir fraudes y estafas, en especial para aquellos consumidores hiper vulnerables, que además pueden no tener acceso al uso de computadoras o conocimiento de tecnologías (personas mayores, con discapacidad o provenientes de contextos socioeconómicos que los dejarían al margen del consumo seguro).
-¿Qué prácticas recomendaría para evaluar y gestionar los riesgos que surgen en la implementación de tecnologías relacionadas con la IA, incluidas aquellas desarrolladas por terceros?
-Aparte de que todos los sistemas de IA deben cumplir con los principios éticos y legales que mencioné anteriormente, es importante que la base de datos sobre la que se construye la IA sea lo más diversificada posible, para tener un muestreo que sea representativo de la realidad y evitar sesgos de repetición o técnicos. Para ello, sería bueno contar con programadores de diferentes grupos sociales, edad, etnia, experiencia, género, para que el software se nutra de diversidad.
Otro punto importante es que toda decisión de IA debe ser revisada por un humano, antes de ser validada como conocimiento cierto. Esto no sólo por los errores que comete el sistema cuando crea espejismos de conocimiento, porque hace correlaciones incorrectas, o las "alucinaciones de la IA" como ha pasado en casos en que abogados han sido sancionados por presentar demandas que incluían precedentes falsos creados por inteligencia artificial generativa.
Recientemente el Tribunal de Massachusetts (EEUU) aplicó una multa de 2 mil dólares a una letrada por esta razón y el juez federal Kevin Castel estudia el caso de abogados que citó fallos falsos inventados por el Chat GPT en una demanda entablada en contra de Avianca, a fin de sancionarlos, entre los múltiples casos que existen, sino también para mantener funcionando nuestras capacidades neuronales y evitar su declinación por falta de uso.
Mi mayor temor sobre el uso de la IA es que el confort y la comodidad que esta tecnología pone al alcance de los seres humanos haga que ellos descansen todas sus tareas en los sistemas de IA y que eso conduzca a que las generaciones venideras tengan un alto deterioro de sus funciones neuronales de percepción, memoria y cálculo.
Por eso, es de suma importancia implementar educación tecnológica en los colegios primarios, secundarios y en la universidad para que, desde niños, se comprenda la ambivalencia de esta tecnología y los efectos nocivos que su uso desmedido nos puede provocar.
Creo que el desafío más grande de esta tecnología es aprender a usarla sólo con fines científicos o de ampliación de conocimiento en laboratorios, y dejarla de lado en las tareas mundanas, y usarla con extremo cuidado en los campos escolares, académicos y laborales.
A la IA la entrenan los humanos y es un reflejo de los conocimientos y valores de los seres humanos. Si la propia IA destruye el nivel cognitivo de los humanos, porque se atrofian sus facultades neuronales, la propia IA, en el futuro verá afectado su nivel de conocimiento, al ser entrenada por humanos menos capacitados.
Para que la gente confíe en la IA debe poder entender cómo funciona la IA. Todos los sistemas de IA, no sólo los de riesgo extremo, como seguridad, medicina y finanzas, deben ser explicables y deben poder rendir cuentas de un tercero, explicando cuáles son las variables y los datos que se tomaron en cuenta para adoptar una determinada decisión.
Es la única forma de que la ciudadanía acepte las decisiones de la IA porque las vea acertadas y justas; si esto no sucede, y la IA funciona sin explicación multiplicando errores, será repudiada por la población.
-En el plano personal, ¿qué habilidades y experiencias le han ayudado a abordar cuestiones de IA como abogado?
-La irrupción de la IA en el campo profesional de los abogados nos demanda una capacidad de adaptación esencial para brindar un servicio jurídico de calidad y adecuado a nuestros tiempos. Esta transformación del derecho y de la profesión, nos exige atesorar nuestra experiencia nutrida, en mi caso, por más de treinta años de abogado litigante y consultor, pero también tener la maleabilidad adecuada para capitalizar este nuevo proceso a favor del cliente. Esto sólo puede lograrse a través de la formación constante en tecnología y en el ejercicio ético de la profesión.
La IA puede ser un recurso logístico, que simplifique procesos de búsqueda de información de difícil acceso, pero creo que el objetivo debe ser lograr con ella una sinergia en la cual lo humano prime y determine la impronta de un servicio jurídico especializado, de calidad y especialmente adaptado a las necesidades del cliente.
La digitalización de la realidad social y ambiental está provocando un acelerado fenómeno de tecnificación del derecho, donde el sistema probatorio viene cambiando radicalmente, la prueba testimonial y confesional están siendo hackeadas por videos, textos o audios de los sistemas de comunicación (ver el caso del joven Fernando Báez Sosa asesinado en Villa Gesell y el uso de la prueba digital realizada por la querella dirigida por el abogado Fernando Burlando).
Las pruebas científicas se realizan sobre entornos digitales de forma más certera. El debate procesal se traslada a la autenticidad o falsedad de la prueba digital y cómo conseguir que las plataformas digitales envíen los datos requeridos por la justicia descifrados y en forma rápida.
Los sistemas de cifrado y el guardado de datos en servidores ubicados en otros países se erigen como fuente de impunidad, situación cuestionada cada vez más internacionalmente. El abogado del futuro deberá ser tecnológico, una mezcla de jurista con ingeniero informático. El tecno-abogado.
-¿Qué áreas del desarrollo de la IA le entusiasman más y cuáles cree que ofrecerán mayores oportunidades?
-Las utilizaciones científicas de la IA me entusiasman todas, las atinentes a las investigaciones biológicas de medicina, geológicas, etc. Creo que, en todas esas áreas, puede traer grandes avances en la creación de conocimientos, si su uso se hace de manera prudente y adecuada, controlando la certeza o veracidad de los datos que son sometidos a análisis.
Indudablemente, en las áreas comerciales y financieras generará ganancias extraordinarias por su inmenso poder de predicción de las conductas humanas, lo que permitirá comercializar productos con rentabilidades casi aseguradas.
Los usos que menos me gustan son: el político, porque la manipulación de las personas vía sus perfiles personales impide un debate sano y serio en las sociedades modernas para lograr un acuerdo de verdad que permita pactar políticas económicas y sociales a mediano y largo plazo.
Esta circunstancia puede poner en grave peligro a las democracias occidentales, que se verán detenidas en algo parecido a la película "El día de la marmota" repitiendo, durante años, el mismo debate estéril.
Por último, los peores usos de la IA, son los vinculados a la vigilancia y control de los gobiernos y a la guerra. Frente a las máquinas de IA elaboradas para estos fines, el ser humano queda completamente desprotegido en su cuerpo físico y casi con su mente hackeada. Ello lo hace presa fácil de las máquinas de control gubernamentales y de las máquinas de guerra.
Si bien las leyes de Asimov establecen que un robot jamás deberá hacer daño a un ser humano, hemos visto usar recientemente en la guerra de Gaza el sistema Levander de identificación con fotos del Google de seres humanos para hacer su seguimiento con drones, y proceder a su ejecución en sus casas con drones suicidas. Dejar la muerte y la guerra en manos de las máquinas no susceptibles de compasión, puede ser el máximo acto de inhumanidad que cometan los seres humanos.
A veces, la decisión adecuada, no es hacer lo que las normas mandan en ese momento, en esa situación, sino hacer lo contrario. En el año 1983, Stanislav Petrov salvó al mundo de una guerra nuclear entre la Unión Soviética y los Estados Unidos, cuando decidió ignorar las alarmas que anunciaban un ataque de cinco misiles estadounidenses, pues intuyó una falla del sistema y no se equivocó, era una falsa alarma.
De esta manera, salvó al mundo de una guerra nuclear, pero no fue casualidad, pues sospechó de la falla del sistema por su experiencia militar y el conocimiento del propio sistema, del que conocía su falibilidad. Estos factores le permitieron reflexionar y tomar la mejor decisión, una decisión que solamente un humano podría tomar.
-¿Cuáles considera que son los mayores desafíos que enfrentan tanto los desarrolladores como la sociedad en su conjunto en relación con la implementación de la IA?
-Los desarrolladores de software tienen dos grandes desafíos, encontrar la forma de tener la mayor diversidad de datos en su base, analizados y clasificados por humanos de diferentes etnias, géneros, formación, escalas valorativas, a fin de asegurar la diversidad y evitar los sesgos.
Además de ello, construir sistemas de software que permitan exponer la explicabilidad de su funcionamiento algorítmico, de manera que permitan una rendición de cuentas y que los ciudadanos comprendan cuáles fueron los mecanismos por los cuales se adoptó la decisión que los afectó.
El mayor desafío de la sociedad es implementar en los colegios primarios, secundarios, universitarios y laborales, educación tecnológica y regulaciones del uso de la IA que resguarden los neuroderechos y permitan a los ciudadanos, conservar sus facultades neuronales y dar usos adecuados a esta tecnología.
La humanidad está construyendo un sistema global con dos lenguajes: el hablado en cada país y el digital. El digital será universal y en algún momento de su desarrollo será de código abierto y comprensible para todos.
El gran desafío universal es que todos los ciudadanos sean capacitados y manejen ambos idiomas, solo de esta forma seremos libres como individuos y soberanos como países, ya que la tecnología no será un ministerio en manos de unos pocos.
Nota:iprofesional.com