En la mañana de Comunicándonos dialogamos con Vani Casafus, quien relató la angustia que vive su familia luego de que alguien generara —con herramientas de inteligencia artificial— imágenes de su hija en las que aparece desnuda. Según la entrevistada, las imágenes fueron difundidas por redes y aplicaciones de mensajería, lo que provocó un fuerte impacto psicológico y social en la víctima y en su entorno.

En la Argentina este tipo de conductas encaja en la categoría de violencia digital y está expresamente reconocida por la llamada Ley Olimpia, que incorpora las agresiones telemáticas y la difusión no consentida de material íntimo como formas de violencia (especialmente cuando se producen por razones de género) y habilita a la víctima a denunciar y pedir medidas para la remoción del contenido y la protección de su integridad.
A nivel penal existe además un debate y avances legislativos para cerrar el vacío que generan las nuevas tecnologías: en el Congreso se presentaron proyectos (entre ellos la incorporación del artículo 155 bis al Código Penal) que buscan tipificar y sancionar con penas de prisión y multas la difusión de imágenes íntimas sin consentimiento —incluyendo deepfakes o imágenes generadas por IA— cuando se hacen en el marco de una relación de confianza o con el propósito de causar daño. Ese proyecto prevé penas que van desde meses de prisión y multas, lo que muestra la intención de otorgar respuesta penal a estos hechos.
Más allá del derecho penal, la Ley de Protección de Datos Personales (Ley 25.326) y los principios sobre tratamiento de datos permiten accionar por la vía administrativa y civil: la creación y difusión de imágenes manipuladas que vulneran la intimidad y la autodeterminación informativa de una persona puede dar lugar a reclamos ante autoridades de protección de datos, así como a demandas civiles por daño moral y pedidos de medidas cautelares para la eliminación del material. Expertos y académicos vienen señalando además la necesidad de actualizar marcos legales para regular el uso indebido de datos personales en sistemas de IA.
Qué pueden hacer las víctimas (pasos prácticos)
- Radicar una denuncia penal en la comisaría local o en la fiscalía federal/municipal según corresponda; detallar la difusión, adjuntar pruebas (capturas, enlaces, nombres de usuarios).
- Solicitar medidas cautelares para el bloqueo y retiro inmediato del material en redes y plataformas (el juez puede ordenar la remoción).
- Hacer la denuncia ante la autoridad de protección de datos si la imagen implica tratamiento indebido de datos personales (puede activar sanciones administrativas).
- Preservar pruebas (capturas con fecha/hora, URLs, mensajes), no eliminar las conversaciones hasta despejar el camino legal y compartir la documentación con el abogado.
- Buscar asistencia psicológica y contención (es clave frente al daño emocional que generan estas prácticas).
La gravedad del caso que narró Vani Casafus expone cuánto se está transformando el delito digital por la llegada de herramientas de IA: aunque la normativa argentina ya cuenta con instrumentos (como la Ley Olimpia y la ley de datos personales), diversas voces del derecho piden reformas específicas para tipificar y sancionar los deepfakes íntimos con mayor claridad y agilidad procesal. Mientras tanto, las víctimas cuentan con rutas administrativas, civiles y penales para exigir la eliminación del contenido y la reparación por el daño sufrido.
Fuentes: HCDN+1 Argentina





