13 de abril de 2026
Los deepfakes y la clonación de voz ya se utilizan en tribunales para sembrar dudas sobre pruebas auténticas. La IA no sólo falsifica contenidos: pone en jaque la posibilidad misma de descubrir la verdad.
Por Carlos P. Pagliere (h.) *
"¿A quién va usted a creer: a mí o a sus propios ojos?". La célebre ironía de Groucho Marx hoy funciona como una advertencia: la realidad también se puede fabricar.
Durante siglos, la vista y el oído fueron los garantes de la verdad. El registro audiovisual heredó esa misma autoridad: si una cámara lo captaba o un micrófono lo grababa, el hecho se tenía por irrefutable.
Hoy, esa certeza se desvanece.
La Inteligencia Artificial (IA) permite generar imágenes, audios y videos indistinguibles de los reales. Ya no se trata sólo de manipular registros existentes: ahora pueden crearse íntegramente desde cero.
En el proceso penal, donde la prueba digital ocupa un lugar central, el impacto es inmediato.
La fábrica de realidades
Cada avance tecnológico en la reproducción de la realidad trajo consigo nuevas formas de manipulación.
En 1938, Orson Welles demostró, con su adaptación radial de La guerra de los mundos, que la verosimilitud puede imponerse a la verdad: al imitar el tono de los boletines informativos logró que miles de oyentes creyeran en una invasión extraterrestre.
En 1969, el alunizaje del Apolo 11 marcó un hito histórico, pero también inauguró la era de la sospecha visual: de inmediato surgieron absurdas teorías conspirativas que lo atribuían a un montaje de Hollywood.
La paradoja es fascinante: en aquel entonces era más avanzada la tecnología para llegar a la Luna que la necesaria para simularlo. Hoy ocurre lo contrario: es más fácil falsificar un evento que producirlo.
La impotencia de los sentidos
La irrupción de la IA generativa ha alterado la credibilidad de la evidencia audiovisual.
Un video puede mostrar a un político diciendo algo que nunca dijo, sin que nuestros ojos sean capaces de advertir la falsedad.
Un meme muestra a Messi en la puerta de un vecino, pidiendo por el portero eléctrico que le abran porque se le derrite una bolsa de hielo: una escena -imagen y voz- que, de no ser por lo desopilante, no tendría nada de sospechoso.
A ello se suma otro fenómeno particularmente perturbador: la proliferación de falsificaciones pornográficas en las que el rostro de una persona se superpone a cuerpos ajenos para fabricar escenas íntimas ficticias.
Así, la máxima "ver para creer" perdió toda vigencia.
Si la imagen nos engaña, el sonido es aún más traicionero. Hoy, con apenas diez segundos de audio, la IA puede clonar una voz con su timbre y vacilaciones.
El oído -nuestro sentido más íntimo- fue hackeado.
En síntesis, los deepfakes permiten simular hechos, ubicar personas en contextos irreales, alterar gestos o palabras y generar conversaciones o sonidos con un grado de precisión alarmante.
Esto produce un efecto doble y perverso: permite fabricar un delito inexistente y, a la vez, que un culpable niegue una prueba auténtica bajo la invocación de que se trata de un deepfake.
Al alcance de cualquiera
Hasta hace poco, alterar una imagen, un video o un audio requería conocimientos técnicos avanzados, software especializado y horas de trabajo. La manipulación dejaba rastros: cortes imperfectos o de sincronizaciones que podían ser detectados por peritos.
Hoy, ese escenario cambió de manera radical.
Herramientas de uso masivo permiten generar contenido audiovisual hiperrealista en cuestión de segundos. Plataformas como Midjourney, DALL·E o Stable Diffusion producen imágenes verosímiles a partir de simples descripciones textuales. A su vez, sistemas de clonación de voz -como ElevenLabs o Resemble AI- replican con precisión el timbre, la entonación y el estilo de habla de cualquier persona con apenas unos segundos de muestra.
La accesibilidad es el dato decisivo: ya no se requieren infraestructura ni conocimientos técnicos sofisticados. Basta con una conexión a Internet, un dispositivo común y una mínima alfabetización digital.
La falsificación deja de ser una práctica excepcional -propia de especialistas- para convertirse en una posibilidad cotidiana, al alcance de cualquier usuario.
La agonía de la certeza
En la justicia penal, la prueba audiovisual tiene un peso determinante. Videos de cámaras de seguridad, mensajes de WhatsApp o grabaciones periodísticas suelen ser decisivos en la reconstrucción de la verdad histórica.
Sin embargo, en algunos procesos recientes -tanto en tribunales locales como extranjeros- comienza a discutirse la fiabilidad de los registros digitales incorporados como prueba, lo que obliga a extremar los mecanismos de verificación.
Hay consenso en que la cadena de custodia digital -entendida como garantía de veracidad e integridad del soporte probatorio- exige un nivel de rigurosidad incluso mayor al de una prueba de ADN. Algo que no siempre es posible.
Surge, entonces, la pregunta central: ¿Y si no se puede asegurar la autenticidad e integridad de la prueba digital? Ello no conduce necesariamente a descartarla: a veces el contenido permite reconstruir su fiabilidad por vías indirectas.
Un caso real lo muestra: un familiar del imputado fue al domicilio de la víctima para cuestionar la denuncia. ¿Cómo podía estar tan segura? La víctima respondió que no lo estaba y que la habían presionado.
El audio se pudo validar por vías indirectas: modismos, vacilaciones, sonidos y contexto. No por el archivo, sino por su contenido.
Pero ese método tiene fecha de vencimiento: cuando la IA replique con precisión el habla y el entorno, dejará de ser confiable.
Llegado ese punto, el registro audiovisual pierde su autonomía probatoria: su fuerza convictiva queda enteramente supeditada a la credibilidad del testimonio que lo respalde.
La evidencia que no es prueba
La capacidad de crear coartadas perfectas o incriminar a inocentes mediante falsos materiales audiovisuales plantea un desafío directo a los tribunales.
Si todo puede ser falsificado, entonces todo puede ser impugnado.
Los peritos enfrentan la tarea de detectar manipulaciones cada vez más sofisticadas; mientras que los jueces se ven obligados a dictar sentencia en base a pruebas cuya autenticidad e integridad resulta difícil de establecer.
Surge así una asimetría procesal inquietante: producir una prueba falsa puede llevar minutos; demostrar su falsedad puede requerir días, recursos especializados o incluso volverse imposible.
El dividendo del mentiroso
La creciente dificultad para distinguir entre lo real y lo ficticio da lugar al llamado "dividendo del mentiroso" (liar's dividend).
Este fenómeno permite invalidar pruebas auténticas mediante la alegación de una posible manipulación.
Así, los deepfakes tensionan el estándar de convicción propio del proceso penal y expanden peligrosamente el principio del in dubio pro reo.
No se trata de un escenario hipotético ni futurista: ya está ocurriendo.
Las defensas alegan a diario que videos o audios incriminantes pudieron haber sido generados o manipulados con IA.
Pero esa mera afirmación no debería bastar para sembrar una duda razonable. Es imprescindible exigir un umbral mínimo de verosimilitud técnica: algún indicio concreto de adulteración, no la mera posibilidad abstracta de falsificación.
De lo contrario, el in dubio pro reo -garantía esencial del imputado- se vacía de contenido y se transforma en un escudo automático para quien sólo invoque la palabra deepfake ante el tribunal.
Aquí emerge el núcleo del problema: si el archivo digital es la única prueba de cargo, y su autenticidad e integridad no puede certificarse con certeza, ¿puede un juez condenar? Seguramente no.
Y en sentido inverso: ante una coartada audiovisual verosímil, ¿puede descartarla sin riesgo de error? Tampoco.
El mayor impacto lo sufre la víctima: la "duda razonable" puede convertirse en refugio de la impunidad.
La reivindicación de lo analógico
Frente a esta incertidumbre, reaparece la tentación de volver a soportes analógicos. No por nostalgia, sino en busca de una fiabilidad perdida.
Sin embargo, no es una opción realista.
Es cierto que los soportes tradicionales -como el negativo fotográfico o la cinta magnética- dejan rastros físicos difíciles de reproducir.
Pero la escala, la velocidad y la ubicuidad de la actual producción de información hacen inviable abandonar lo digital sin renunciar a sus beneficios estructurales.
El desafío es trasladar al entorno digital garantías equivalentes.
La industria tecnológica avanza en ese camino mediante iniciativas como el estándar C2PA (impulsado por Adobe, Microsoft, Google, Meta, entre otros), que buscan garantizar el origen y la integridad de los archivos digitales mediante sellos criptográficos que certifican, desde el momento de la captura, que un contenido no fue alterado. Pero, al día de hoy, no hay garantías suficientes.
El horizonte tampoco es alentador.
Estamos ante una carrera armamentista en la que los sistemas de generación llevan la delantera: mientras los detectores forenses buscan anomalías, las propias IA aprenden a eliminarlas.
A lo que se le suma la escasa disponibilidad de peritos especializados en el análisis de la prueba digital, pese a la magnitud del desafío que enfrentan los tribunales.
La era del escepticismo ilustrado
La imagen y el sonido ya no cierran discusiones: ahora las abren.
En un mundo donde los hechos pueden reconstruirse píxel por píxel y hercio por hercio, emerge una pregunta decisiva: ¿esto ocurrió o fue fabricado?
La respuesta no puede ser ni el escepticismo absoluto ni la credulidad ingenua: la mejor defensa posible es el escepticismo ilustrado, que implica adoptar una actitud crítica informada frente a la evidencia digital.
Supone reconocer los límites de nuestros sentidos y los riesgos de la tecnología, exigir procesos de verificación rigurosos y valorar la trazabilidad por sobre la mera apariencia.
El riesgo es evidente: que los tribunales sean engañados o que descarten toda prueba digital y retrocedan a la primacía del testimonio directo, con todas sus conocidas falencias de memoria y sesgo.
El desafío es formidable: que los deepfakes no asfixien la certeza jurídica.
El dilema es inquietante: si todo puede ser falso, la verdad se vuelve inalcanzable. Y sin verdad, no hay justicia.
* Juez de la Cámara de Apelaciones y Garantías en lo Penal del Departamento Judicial de Azul (Buenos Aires). Autor del tratado "Nueva teoría del delito: paradigma voluntarista" (15 tomos).
COMPARTE TU OPINION | DEJANOS UN COMENTARIO
Los comentarios publicados son de exclusiva responsabilidad de sus autores y las consecuencias derivadas de ellos pueden ser pasibles de sanciones legales.
13 de abril de 2026
13 de abril de 2026
13 de abril de 2026
Un pedido de su abogado para que fuera sobreseído no prosperó. Mientras sigue preso en la Unidad 2 de Sierra Chica por este hecho, ocurrido el pasado 8 de noviembre, el Juez de la causa decidió elevar a debate ese expediente. Miguel Jorge Mele continúa acusado de un "homicidio con dolo eventual" y pidió ser juzgado por un jurado de civiles.
13 de abril de 2026
13 de abril de 2026
12 de abril de 2026
12 de abril de 2026
12 de abril de 2026
12 de abril de 2026
12 de abril de 2026
11 de abril de 2026