Sabado, 8 de Noviembre de 2025  
 
 

 
 
 
Opinión

La inteligencia artificial frente a su propia vulnerabilidad

Por Omar Salinas Director de Ingeniería Civil Informática Advance UNAB

  • Tuitea
  • Comparte
  • Imprimir

 
Más Noticias
     
  Tejido social y territorialidad: las claves para el bienestar en un país desigual
  Convertir la ley en hábito
  Tomas, desalojos y salud
  La urgencia y belleza del urbanismo
  Proyectando a Chile desde sus jóvenes
  ¡Y la cosecha de saberes nunca se acaba!
 
 

En los últimos años, la inteligencia artificial (IA) ha dejado de ser una promesa futurista para convertirse en una herramienta cotidiana que influye directamente en nuestra vida diaria. Está presente en la salud, el transporte, la educación, la seguridad digital y prácticamente en todos los sectores productivos. Sin embargo, junto con su expansión también han surgido riesgos que ponen en duda su confiabilidad y seguridad. Lo que antes se percibía como una amenaza lejana hoy se ha transformado en una realidad que exige atención inmediata.

Uno de los hallazgos más inquietantes es la facilidad con que un modelo puede ser inducido a error. Una mínima alteración en los datos de entrada —imperceptible para los usuarios— basta para que un sistema produzca resultados completamente equivocados. En contextos donde la precisión es vital, como la salud o la conducción autónoma, esta vulnerabilidad puede tener consecuencias graves. Así, un algoritmo que parece confiable puede ser manipulado con relativa facilidad, exponiendo debilidades que ponen en riesgo su integridad operativa.

Otro fenómeno que preocupa es el llamado envenenamiento de datos, una técnica mediante la cual se introducen registros falsos o alterados en el conjunto de entrenamiento de un modelo. Aunque representen una pequeña fracción del total, pueden modificar el comportamiento del sistema y alterar sus predicciones sin que nadie lo note. Lo peligroso de este tipo de ataque es su carácter silencioso y persistente: corrompe el aprendizaje desde la raíz, generando un efecto acumulativo que deteriora la confianza en los resultados.

Aún más compleja es la amenaza que afecta directamente a la estructura interna de los modelos. Hoy es posible incorporar alteraciones imperceptibles en su arquitectura, creando “puertas traseras” que permiten manipular decisiones o acceder a información sensible. Este tipo de intervención configura un escenario más sofisticado y difícil de detectar, que demanda nuevas estrategias de defensa y una visión ética sobre cómo y quién controla la inteligencia artificial.

Proteger la IA ya no es una opción, sino una necesidad urgente. No se trata solo de mejorar su rendimiento o precisión, sino de fortalecer su resiliencia frente a ataques y sesgos cada vez más elaborados. A medida que la inteligencia artificial continúe expandiendo su influencia en la economía, la educación y la gestión pública, garantizar su seguridad será tan importante como asegurar su utilidad.

En definitiva, la confianza tecnológica —y social— en la IA dependerá de nuestra capacidad para hacerla no solo más inteligente, sino también más transparente, ética y segura.


 
 
Twitter Facebook Flickr
 

Tejido social y territorialidad: las claves para el bienestar en un país desigual

Convertir la ley en hábito

Tomas, desalojos y salud

La urgencia y belleza del urbanismo

 
 
 
¿Estaría de acuerdo con eliminar los estacionamientos en calles Santa Rosa y Maipú para agilizar el tránsito vehicular?
Si.
No.
Me da lo mismo.
Ver resultados
 
 
 
Diario Electrónico Andes Online® | ©2000-2025 Derechos Reservados.
Miembro de EMR™ Chile - Estadísticas de Medios en Internet - Estadísticas Certificadas
Andes Online is Licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.0 Chile License
Prensa | Publicidad | Contacto