La Justicia argentina sentó jurisprudencia sobre el uso de la Inteligencia Artificial (IA) para recrear imágenes de abuso sexual infantil y la tipificó como delito, aunque sea producto de una representación y no con personas reales.
El fallo sentó un precedente histórico e inédito en el país. La Cámara de Apelación y Garantías en lo Penal del Departamento Judicial Zárate-Campana dictaminó que el actual artículo 128 del Código Penal argentino comprende y penaliza las representaciones de abuso sexual infantil generadas o modificadas mediante IA, incluso cuando no hay víctimas reales identificadas.
Este fallo redefine la persecución de la explotación de menores en la era digital y sienta un pilar fundamental en la lucha contra la pedofilia impulsada por las nuevas tecnologías.
Representación
La causa que derivó en este dictamen fue contra un hombre acusado de publicación y distribución de representaciones de menores de 18 años en actividades sexuales. Su defensa alegó que no se había logrado acreditar la existencia de víctimas reales y que el contenido podría haber sido generado o alterado digitalmente mediante IA o imágenes generadas por computadora. La premisa de la defensa era que el artículo 128 del Código Penal busca proteger a menores de edad concretos y no penaliza representaciones ficticias.
Sin embargo, los camaristas Mariano Magaz, Humberto Bottini y María Pía Leiro rechazaron esto y confirmaron la elevación a juicio. Los jueces sostuvieron que el artículo 128 del Código Penal, reformado por la Ley 27.436, contempla las representaciones de menores en situaciones sexuales explícitas, sin importar cómo hayan sido creadas. La clave está en el término “representación”, que incluye “imagen o idea que sustituye a la realidad”. De esta manera marcaron precedente jurídico.
En primera instancia, la jueza de Garantías, Graciela Cione, determinó que una “simple observación de los videos y fotografías” permitía concluir que se trataba de niños y niñas de entre 3 y 8 años, y hasta 13 años, más allá de su falta de identificación.
El peligro de “normalizar la pedofilia”
El Tribunal advirtió sobre un riesgo mayor: permitir este tipo de contenidos, incluso si fueran creados artificialmente, llevaría a normalizar la pedofilia, lo que, en definitiva, pone en peligro el bien jurídico protegido: la libertad e integridad sexual de las infancias.
Respecto a la prueba, el fallo señaló que, si bien el informe pericial inicial no detalló si las imágenes eran representaciones de personas inexistentes, el perito sí informó sobre la disponibilidad de los elementos multimedia y sus metadatos (como fecha de creación, modificación o ubicación). Esto abre la puerta a cualquier medida adicional que se requiera durante la etapa de juicio para determinar el origen y la naturaleza precisa del material.
Este dictamen refuerza la postura de que el daño inherente al material de abuso sexual infantil, incluso si es digitalmente fabricado, es real y perjudicial para la sociedad y la protección de los menores. Este fallo establece una clara señal de que el vacío legal que preocupa a fiscales y especialistas está siendo llenado por la interpretación judicial, hasta tanto el Congreso sancione una ley específica.
Estados Unidos fue uno de los primeros países en aprobar una ley “take it down” (quítalo en castellano), diseñada para abordar los materiales de contenido sexual explícito y la difusión no consentida de imágenes íntimas. La ley estadounidense sanciona la creación y difusión de imágenes generadas con IA que simulan situaciones sexuales explícipas.