El 29 de julio de 2025, un grupo transversal de senadores presentó un proyecto de ley que busca obligar a etiquetar, con claridad y trazabilidad, todo contenido generado por inteligencia artificial (IA), incluyendo imágenes, textos, audios y videos.
La iniciativa, contenida en el Boletín 17.618R09;19, propone una advertencia visible “Creado por IA” y la inclusión de metadatos o marcas de agua que identifiquen el origen del contenido. El objetivo: prevenir estafas, proteger la integridad de las personas ante deepfakes sexuales, y evitar la manipulación informativa en el ecosistema digital.
La intención es correcta. El fenómeno de la desinformación artificial no solo es real, sino creciente. Basta ver cómo las voces de personas reales son clonadas para extorsiones, cómo se fabrican “videos íntimos” sin consentimiento con rostros de mujeres públicas o privadas, o cómo proliferan falsificaciones de pruebas en juicios. El problema está claro. Pero como ocurre tantas veces en la legislación chilena, las buenas intenciones no bastan. El desafío es convertir esa voluntad en regulación eficaz, ejecutable y técnicamente válida.
El proyecto enfrenta un primer dilema: ¿qué es exactamente “contenido generado por IA”? ¿Incluye solo lo creado de forma autónoma por un modelo, o también las imágenes editadas por una IA que mejora brillo o enfoca un retrato? Sin esta definición, la ley corre el riesgo de ser o bien ineficaz (porque no se sabrá a quién exigirle), o bien excesiva (porque lo abarcará todo, incluso usos legítimos y artísticos).
Luego está el tema de la ejecución: ¿qué organismo fiscaliza? ¿Con qué herramientas? ¿Quién determina si un contenido fue creado por IA? Hoy no existe una agencia técnica del Estado con capacidad para revisar millones de imágenes o videos por día. ¿Cómo se sanciona el incumplimiento? ¿Cómo se garantiza la aplicación efectiva?
Sin una autoridad técnica, un protocolo de detección automatizada, y un régimen de sanciones escalonado, la norma corre el riesgo de ser apenas un gesto político bien intencionado. Y eso no basta en tiempos donde la IA ya no es futuro, sino presente invasivo.
Mirada internacional y advertencia comparada
Mientras Chile discute este proyecto, otras jurisdicciones ya actúan con contundencia. La Unión Europea ha aprobado el AI Act, que obliga a los generadores de contenido artificial a marcar sus producciones con trazabilidad técnica: marcas de agua invisibles, firma criptográfica y almacenamiento de huellas digitales. China exige desde 2024 que cada contenido creado por IA en su territorio esté etiquetado. Y en EE.UU., varios estados sancionan penalmente el uso de deepfakes políticos o sexuales.
Chile, con este proyecto, entra a la conversación, pero en un rol aún incipiente. Si quiere estar a la altura, debe pasar del gesto normativo a la solución tecnológica efectiva.
La ley puede ser un aporte real si considera al menos cinco elementos clave, tales como una definición clara y operativa de contenido generado por IA. Que distinga entre creaciones totales, asistidas y meramente retocadas, pbligación para las plataformas y desarrolladores de incluir marcas de agua desde el origen. Que el contenido venga trazado de fábrica, asignación de fiscalización a una entidad competente, como la futura Agencia Nacional de IA o el Consejo para la Transparencia, un sistema ciudadano de denuncias rápidas, para que los afectados puedan reportar contenido falso o sin etiquetar y un régimen de sanciones escalonado, que distinga entre errores formales, usos maliciosos y delitos.
El proyecto chileno de etiquetado IA es necesario. Representa un primer paso hacia una ciudadanía más informada, una justicia más preparada y una democracia más protegida. Pero sin músculo técnico, sin una institucionalidad clara y sin herramientas concretas de fiscalización, podría transformarse en una ley decorativa. Y las leyes decorativas no protegen a nadie.
La IA no va a esperar a que la legislación chilena esté lista. La pregunta no es si debemos regular, sino cómo hacerlo bien, con inteligencia, con tecnología, con visión de futuro. El “sello de la verdad” no puede ser solo una etiqueta. Debe ser garantía de integridad, justicia y confianza digital.
|