Avanza el debate del proyecto que busca regular la creación y difusión de imitaciones digitales realistas generadas mediante inteligencia artificial, conocidas como deepfakes (boletín 17795). La Comisión de Ciencias recibió a organizaciones civiles, especialistas y académicos que abordaron los riesgos tecnológicos, jurídicos y sociales asociados a este fenómeno.
Con el objetivo de escuchar todas las presentaciones, las y los diputados acordaron postergar la votación en general que estaba agendada para esta jornada y concretarla en la próxima sesión de la instancia.
En términos generales, las y los expositores coincidieron en la necesidad de actualizar definiciones y considerar enfoques integrales para enfrentar los impactos de estas tecnologías. También destacaron la importancia de articular este proyecto con otras normas vinculadas a datos personales, plataformas digitales y violencia digital.
Asimismo, se analizaron usos legítimos e ilegítimos de las deepfakes y su efecto en la democracia, la reputación de las personas y la seguridad digital. Todo esto, especialmente enfocado en el contexto de desinformación y violencia de género que vive la sociedad.
Ajustes conceptuales
La profesora Edina Harbinja, de la Universidad de Birmingham, planteó la necesidad de ampliar la definición de deepfakes para así incluir diversas tecnologías digitales. Señaló que limitar el concepto a la inteligencia artificial puede dejar fuera prácticas emergentes que también generan imitaciones realistas. Además, propuso revisar la noción de consentimiento para la creación de imágenes y permitir que la protección post mortem se extienda mediante disposiciones testamentarias.
Desde la Universidad de Chile, Alberto Cerda y Danielle Zaror advirtieron inconsistencias con la nueva ley de datos personales. Destacaron que las imágenes manipuladas son datos personales y que algunas infracciones ya estarían cubiertas por dicha normativa. También llamaron a definir con precisión el objeto regulado y evitar contradicciones con la ley de propiedad intelectual.
Varias exposiciones coincidieron en la necesidad de establecer definiciones tecnológicamente neutrales. Esto permitiría sancionar conductas independiente del sistema utilizado para crear o difundir las imitaciones digitales realistas.
Riesgos democráticos de las deepfakes
El periodista Marcelo Santos, académico de la Universidad Diego Portales, expuso sobre el rol de las redes coordinadas en la amplificación de deepfakes. Señaló que el daño no proviene solo del contenido manipulado, sino de la estrategia planificada para su difusión. Frente a esto, advirtió sobre la dificultad técnica para rastrear su origen. Por lo tanto, propuso sanciones específicas para quienes suban y propaguen este contenido, así como, también, a quienes lo hagan con el fin de sembrar dudas y posteriormente lo eliminen, ya que el daño ya se produjo.
En la misma línea, algunos especialistas advirtieron que los deepfakes pueden afectar la confianza pública y distorsionar procesos electorales. Zaror destacó que estos contenidos presionan la integridad informativa y la ciberseguridad, lo que exige respuestas que involucren también a las plataformas digitales.
Violencia de género y usos criminales

El director del Programa de Derecho, Ciencia y Tecnología de la Universidad Católica, Matías Aránguiz, alertó sobre la dimensión criminal asociada a las deepfakes. Señaló que el 98% de estos contenidos tiene fines pornográficos y afecta principalmente a mujeres. En esta línea, describió el funcionamiento de una industria internacional dedicada a producir y monetizar este tipo de material.
Por su parte, Lucía Camacho, de la ONG Derechos Digitales, insistió en incorporar el enfoque de género en el análisis. Al respecto, propuso revisar experiencias comparadas que penalizan las deepfakes cuando tienen fines sexuales.
En la misma dirección, la directora de Fundación Datos Protegidos, Patricia Peña, llamó a fortalecer la definición de imitación digital realista, revisar el alcance del consentimiento y exigir a las plataformas contar con canales efectivos de respuesta. También planteó articular este proyecto con otras iniciativas sobre violencia digital y gobernanza de plataformas.
Plataformas digitales y educación comunitaria
Sobre este punto, varias organizaciones coincidieron en que el proyecto debe considerar obligaciones claras para las plataformas. Como ejemplo, se pueden tomar normativas internacionales como las directrices de UNESCO o la legislación europea.
Del mismo modo, los representantes del Internet Society Capítulo Chile, Jaime Cruz y Diego Lisoni subrayaron la relevancia de la nueva ley de protección de datos personales como marco complementario para esta regulación. Asimismo, destacaron la importancia de la prevención y de la educación digital en la comunidad para enfrentar de manera estructural los riesgos asociados a las deepfakes.
Finalmente, el CEO de AI Factory, Alec Dickinson, advirtió sobre prácticas cotidianas que exponen a familias y usuarios a usos indebidos de imágenes en plataformas que solicitan contenido audiovisual como requisito para operar.
