¿Puede un avatar declarar en un juicio en Argentina?: las claves del uso de la IA en el derecho

Actualidad29/06/2025
43298

Corría el año 2021 cuando Christopher Pelkey, veterano de guerra, murió asesinado en Arizona, Estados Unidos. Tres años después, su rostro volvió a aparecer en el tribunal. Pero no era un video viejo. 

Fue un avatar digital, creado con inteligencia artificial (IA), que "le habló" al asesino en la audiencia de sentencia, en el juicio oral y público. Sus familiares usaron fotos, audios y grabaciones para generar una reconstrucción animada con voz sintética. Fue un testimonio inédito, emocional, diseñado con tecnología.

¿Puede usarse la inteligencia artificial como prueba en juicio en Argentina? 
Desde la implementación del nuevo Código Procesal Penal Federal (CPPF), el sistema penal argentino se rige por el modelo acusatorio adversarial: la fiscalía acusa, la defensa contradice, y el juez garantiza el proceso. Todo bajo un principio rector: la libertad probatoria.

El artículo 227 del CPPF establece que pueden usarse todos los medios de prueba no prohibidos por ley. El 228 agrega que deben ser valoradas con imparcialidad, legalidad y control judicial. En otras palabras: si la prueba es lícita, pertinente y sujeta a contradicción, puede ser admitida. Incluso si fue generada por IA.

Sin embargo, hay serias reservas. En Argentina, no hay una norma que prohíba expresamente el uso de IA como medio de prueba. Pero tampoco hay una ley que la regule con precisión. Por eso, su uso se analiza caso por caso.

Para que una prueba generada o asistida por inteligencia artificial sea válida, debe cumplir ciertos requisitos:

Legalidad y control: la prueba debe haberse obtenido sin violar derechos fundamentales. Si la IA se usó para espiar sin orden judicial, es nula. Se aplica el principio del "fruto del árbol envenenado"
Audibilidad y transparencia: las partes deben poder revisar cómo fue generada. ¿Qué modelo de IA se usó? ¿Qué datos?

¿Cuál es su margen de error? La prueba debe ser replicable, comprensible y auditable
No puede decidir: la IA puede ayudar, pero no puede sustituir el juicio humano. Puede señalar patrones, ordenar datos, sugerir hipótesis. Pero no puede determinar culpabilidad.
Como lo expresa David Mielnick, de @inteligencialegal.ok, "el verdadero potencial de la inteligencia artificial hoy en el proceso penal está en asistir a las partes en el análisis de las pruebas, no en generar pruebas nuevas". 

 "En diversos casos apliqué IA para detectar inconsistencias en testimonios o automatizar el análisis de grandes volúmenes de imágenes, lo que permite acelerar y profundizar la investigación judicial sin reemplazar las garantías del proceso", agrega.

La inteligencia artificial en tribunales argentinos
Aunque escasos, ya hay antecedentes en tribunales locales. En Ciudad de Buenos Aires, una cámara de vigilancia con IA puede reconocer a un prófugo. Pero estaría suspendido según las últimas constancias públicas

Desde ya, se podría usar esta herramienta para analizar chats, por ejemplo, y detectar evidencia. Esto demuestra un principio clave: la inteligencia artificial puede ser un indicio, pero nunca la base única de una condena.

Supongamos que Don Corleone Argento (nombre ficticio) deja audios en vida. Tras su muerte, su familia genera un avatar que "declara" ante el juez. La voz no es una grabación antigua, sino una reconstrucción digital con guion nuevo.

¿Puede declarar un muerto? Legalmente, no. Pero su reconstrucción digital, con controles estrictos, puede ser un indicio admitido en la audiencia de juicio. 

En materia civil, el derecho argentino se basa en el principio de amplitud probatoria. Esto significa que, en general, se admite toda clase de pruebas, salvo que una norma específica las excluya. Así lo establece el artículo 579 del Código Civil y Comercial, por ejemplo, en materia de filiación: "se admiten toda clase de pruebas, incluidas las genéticas". 

También lo afirma el artículo 377 del Código Procesal Civil y Comercial de la Nación (CPCCN), que establece que "incumbe la prueba de las afirmaciones de hecho que se hicieren en el juicio, a quien las formula".

Finalmente, es fundamental aclarar: una reconstrucción digital realizada por inteligencia artificial no constituye un testimonio en sentido jurídico. El testimonio, según la ley procesal argentina, es una declaración personal y directa de alguien que vivió o presenció un hecho relevante para la causa, y que presta juramento de decir verdad ante el tribunal. 

Una voz generada por IA, aunque conmovedora o simbólicamente poderosa, no tiene valor testimonial: no proviene de un sujeto vivo, no puede ser interrogada ni repreguntada, y su contenido no es verificable en cuanto a experiencia directa. Por ende, puede considerarse como documento audiovisual, expresión artística o prueba ilustrativa, pero jamás como declaración testimonial en juicio.

Recordamos que una prueba obtenida ilegalmente (sin orden, con violación de derechos o sin posibilidad de control) será declarada nula. Esto se conoce como la doctrina del "fruto del árbol envenenado", también presente en el derecho argentino.

Veremos cómo se desarrolla esta tecnología en el ámbito legal, por lo pronto, la IA será una herramienta que asista a quien deba juzgar, aunque nunca pueden generarse pruebas válidas de este modo (esto incluso puede ser un delito simular pruebas), pero sí asistir para analizarlas.

Nota:iproup.com

Te puede interesar
Lo más visto

Suscríbete al newsletter para recibir periódicamente las novedades en tu email