La Justicia estableció que crear imágenes de abuso sexual infantil con IA es un delito penal

La Justicia argentina dictó un fallo histórico que consideró “delito” la creación de imágenes de abuso sexual infantil mediante inteligencia artificial (IA).
La Cámara de Apelación y Garantías en lo Penal del Departamento Judicial Zárate-Campana determinó que el artículo 128 del Código Penal argentino abarca y penaliza las representaciones de abuso sexual infantil generadas o modificadas por IA, incluso en ausencia de víctimas reales identificadas.
Este fallo marcó un cambio en la persecución de la explotación de menores en la era digital y estableció un pilar fundamental en la lucha contra la pedofilia impulsada por nuevas tecnologías.
El dictamen judicial surgió a raíz de una denuncia contra un hombre acusado de publicar y distribuir representaciones de menores de 18 años en actividades sexuales.
De esta forma, la decisión judicial envió una clara señal sobre el vacío legal que preocupaba a fiscales y especialistas, indicando que este vacío se estaba llenando a través de interpretaciones judiciales, mientras se esperaba que el Congreso aprobara una ley específica.

La defensa del acusado argumentó que no se había demostrado la existencia de víctimas reales y que el contenido podría haber sido generado o alterado digitalmente mediante IA o imágenes generadas por computadora (CGI). La premisa principal de la defensa sostiene que el artículo 128 del Código Penal busca proteger a menores concretos y no penaliza representaciones ficticias. Sin embargo, los camaristas Mariano Magaz, Humberto Bottini y María Pía Leiro rechazaron esta argumentación y confirmaron la elevación a juicio.
Los jueces afirmaron que el artículo 128 del Código Penal, reformado por la Ley 27.436, contempla las representaciones de menores en situaciones sexuales explícitas, sin importar cómo hayan sido creadas. La clave radicó en el término “representación”, que incluye “imagen o idea que sustituye a la realidad”. Así, los magistrados establecieron un precedente jurídico importante.
La jueza de Garantías Graciela Cione determinó que una “simple observación de los videos y fotografías” permitía concluir que se trataba de niños y niñas entre 3 y 8 años, e incluso hasta 13 años, independientemente de su falta de identificación. Además, el Tribunal advirtió sobre un riesgo mayor: permitir este tipo de contenidos, aunque fueran creados artificialmente, podría normalizar la pedofilia, poniendo en peligro la libertad e integridad sexual de las infancias.
El dictamen reforzó la postura de que el daño inherente al material de abuso sexual infantil es real y perjudicial para la sociedad y para la protección de los menores, incluso si dicho material es digitalmente fabricado.
El fiscal de ciberdelitos de Córdoba, doctor Franco Pilnik, destacó la importancia de la resolución de la Cámara al señalar que “la tecnología avanza mucho más rápido que las leyes”.
Según Pilnik, esto crea “limbos judiciales” que los delincuentes pueden aprovechar. La Cámara determinó que, a pesar de la falta de víctimas identificables, el acto sigue siendo un delito, afirmando que “no se puede normalizar la pedofilia”.
La discusión se extiende a otros delitos relacionados con la inteligencia artificial, como la creación de contenido pornográfico a partir de imágenes de jóvenes. Pilnik opinó que la reciente decisión de la Cámara podría servir como un marco legal para abordar estos casos, sugiriendo que “este fallo puede ser un buen marco para encauzar ese tipo de situaciones”.