


Tonterías, las justas: si tu inteligencia artificial se inventa cosas, no es mi problema
Actualidad12/11/2025




La inteligencia artificial generativa ha alcanzado un punto de inflexión: ya no se trata solo de una herramienta que «muestra fallos», sino de una tecnología que está siendo utilizada en contextos profesionales de alta responsabilidad. Un artículo reciente en The New York Times, «Vigilante lawyers expose the rising tide of AI slop in court filings«, detalla cómo algunos abogados están presentando en los tribunales escritos judiciales basados en contenido creado por inteligencia artificial que incluye citas inventadas, casos inexistentes y errores invisibles al primer vistazo.
Hace ya mucho tiempo que lo sabemos: la inteligencia artificial generativa se caracteriza, en muchos casos, por generar precisamente las respuestas que «dicen lo que quieres oír», y las llamadas «alucinaciones» que producen no son accidentes: son síntomas de una deliberada falta de cuidado en su corpus de entrenamiento (no querer invertir en supervisión humana y no querer ser acusados de sesgos por eliminar determinadas cosas), y de un diseño de función objetivo que sistemáticamente prefiere producir algo con el fin de producir una ilusión de omnisciencia antes que abstenerse de contestar. El problema técnico está perfectamente documentado.
¿Quiere esto decir que nunca debemos usar estas herramientas en un contexto profesional? No, en absoluto. Usar estas herramientas es perfectamente aceptable… siempre que las usemos adecuadamente. Llevamos ya tiempo viendo las consecuencias de aplicar modelos generativos en entornos donde la precisión no es una virtud opcional sino una obligación ética, y la cuestión es clara: si, usar un modelo de inteligencia artificial puede ahorrarte tiempo y mejorar la calidad de tu trabajo, pero sistemáticamente deberás dedicar una parte del tiempo ahorrado a supervisar los posibles errores cometidos, porque presentar un trabajo con «alucinaciones» ya no es ni deber ser en ningún caso aceptable. Lo de «es que la máquina alucinó» es una disculpa tan inaceptable como la de «el perro se comió mis apuntes».
Cuando un estudiante entrega un trabajo con fuentes falsas, debe recibir una sanción académica. Cuando un abogado presenta ante un tribunal un escrito que cita casos que no existen, la consecuencia puede ser sanción profesional, la pérdida de credibilidad del cliente e incluso sanciones económicas. Lo que una avalancha de alucinaciones generadas por inteligencia artificial en los escritos judiciales muestra es, sencillamente, que los abogados aún no han aprendido a afinar su uso de la tecnología, y en consecuencia, los riesgos financieros y reputacionales aumentan.
La lógica es clara: si va a usarse la inteligencia artificial en entornos profesionales, la supervisión humana debe integrarse en el proceso. En IE University, señalo a mis estudiantes que pueden usar modelos de inteligencia artificial generativa, pero deben compartir las secuencias de prompts, presentar su revisión del resultado, y asumir su responsabilidad. Si un profesional falla en ese control, su trabajo no puede darse por válido. Ya no estamos hablando de «nuevas tecnologías» ni de cosas que nacieron anteayer: si no sabes usar bien un algoritmo generativo, obtienes respuestas absurdas y no solo las das por buenas, sino que vas y las presentas como buenas, eres simplemente un irresponsable, un mal profesional.
El problema deja de ser técnico y se transforma en profesional. Las instituciones reguladoras lo están reconociendo: la American Bar Association emitió una guía formal que advierte a los abogados que el uso de inteligencia artificial puede implicar deberes de competencia, confidencialidad, comunicación con el cliente… e incluso revelar al cliente que están usando inteligencia artificial. En el mundo académico ya está claro lo que ocurre cuando un texto contiene «errores inevitables»: ahora lo vemos también en los tribunales.
Propongo tres ideas principales: primera, que la tecnología nunca excuse el fallo. Si se usan herramientas que pueden inventar datos, no es suficiente con digitalizar el error: se debe asumir que la tecnología no es infalible y que cada resultado debe verificarse. Segunda, que la responsabilidad recae en el profesional. El hecho de apoyar un argumento en una inteligencia artificial que produjo citas falsas no es atenuante, es negligencia. Tercera, que la formación debe cambiar. Ya no basta saber qué hace la inteligencia artificial, sino ademas, ser consciente de sus fallos estructurales, de cómo se pueden detectar y corregir, y de cómo comunicar su uso al cliente o a la institución.
Las alucinaciones de la inteligencia artificial han dejado de ser curiosidades técnicas tolerables y se han convertido en riesgos concretos para la práctica profesional, académica y legal. El hecho de que uno ahorre tiempo con un LLM no otorga inmunidad frente a errores que, en según qué contextos, pueden costar mucho más que horas perdidas. La idea de que un producto pueda «funcionar mal» y que eso no sea responsabilidad de su fabricante, sino de su usuario, podría parecer errónea, pero en este caso no lo es: hablamos de una tecnología que ya nos ha notificado por activa y por pasiva que su funcionamiento puede generar errores. Si decides no comprobarlos, el problema pasa a ser tuyo.
La próxima vez que alguien diga «el algoritmo generativo se equivocó», debemos responder que no, que el que se equivocó fue el usuario al confiar en que no lo haría. Y en el mundo profesional, eso ya no debe ser aceptable.
Nota: https://www.enriquedans.com/























