Miercoles, 5 de Noviembre de 2025  
 
 

 
 
 
Opinión

La inteligencia artificial frente a su propia vulnerabilidad

Por Omar Salinas Director de Ingeniería Civil Informática Advance UNAB

  • Tuitea
  • Comparte
  • Imprimir

 
Más Noticias
     
  El duelo invisible y repentino
  Ley Duque: derechos de los trabajadores y la dignidad humana
  Deserciones y sistema
  Cuando la propaganda ensucia más que convence
  Liderazgo humanizado y neuroinclusivo: una nueva mirada a la gestión contemporánea
  El Congreso Fantasma, presentes en nómina, ausentes en la realidad
 
 

En los últimos años, la inteligencia artificial (IA) ha dejado de ser una promesa futurista para convertirse en una herramienta cotidiana que influye directamente en nuestra vida diaria. Está presente en la salud, el transporte, la educación, la seguridad digital y prácticamente en todos los sectores productivos. Sin embargo, junto con su expansión también han surgido riesgos que ponen en duda su confiabilidad y seguridad. Lo que antes se percibía como una amenaza lejana hoy se ha transformado en una realidad que exige atención inmediata.

Uno de los hallazgos más inquietantes es la facilidad con que un modelo puede ser inducido a error. Una mínima alteración en los datos de entrada —imperceptible para los usuarios— basta para que un sistema produzca resultados completamente equivocados. En contextos donde la precisión es vital, como la salud o la conducción autónoma, esta vulnerabilidad puede tener consecuencias graves. Así, un algoritmo que parece confiable puede ser manipulado con relativa facilidad, exponiendo debilidades que ponen en riesgo su integridad operativa.

Otro fenómeno que preocupa es el llamado envenenamiento de datos, una técnica mediante la cual se introducen registros falsos o alterados en el conjunto de entrenamiento de un modelo. Aunque representen una pequeña fracción del total, pueden modificar el comportamiento del sistema y alterar sus predicciones sin que nadie lo note. Lo peligroso de este tipo de ataque es su carácter silencioso y persistente: corrompe el aprendizaje desde la raíz, generando un efecto acumulativo que deteriora la confianza en los resultados.

Aún más compleja es la amenaza que afecta directamente a la estructura interna de los modelos. Hoy es posible incorporar alteraciones imperceptibles en su arquitectura, creando “puertas traseras” que permiten manipular decisiones o acceder a información sensible. Este tipo de intervención configura un escenario más sofisticado y difícil de detectar, que demanda nuevas estrategias de defensa y una visión ética sobre cómo y quién controla la inteligencia artificial.

Proteger la IA ya no es una opción, sino una necesidad urgente. No se trata solo de mejorar su rendimiento o precisión, sino de fortalecer su resiliencia frente a ataques y sesgos cada vez más elaborados. A medida que la inteligencia artificial continúe expandiendo su influencia en la economía, la educación y la gestión pública, garantizar su seguridad será tan importante como asegurar su utilidad.

En definitiva, la confianza tecnológica —y social— en la IA dependerá de nuestra capacidad para hacerla no solo más inteligente, sino también más transparente, ética y segura.


 
 
Twitter Facebook Flickr
 

El duelo invisible y repentino

La inteligencia artificial frente a su propia vulnerabilidad

Ley Duque: derechos de los trabajadores y la dignidad humana

Deserciones y sistema

 
 
 
¿Estaría de acuerdo con eliminar los estacionamientos en calles Santa Rosa y Maipú para agilizar el tránsito vehicular?
Si.
No.
Me da lo mismo.
Ver resultados
 
 
 
Diario Electrónico Andes Online® | ©2000-2025 Derechos Reservados.
Miembro de EMR™ Chile - Estadísticas de Medios en Internet - Estadísticas Certificadas
Andes Online is Licensed under a Creative Commons Attribution-NonCommercial-NoDerivs 2.0 Chile License
Prensa | Publicidad | Contacto