Saltar al contenido principalSaltar al pie de página

Secciones

Ciberseguridad

Vehículos autónomos: una vulnerabilidad en la IA podría permitir a ciberdelincuentes tomar el control de los sistemas

La vulnerabilidad descubierta podría llevar al robo de rutas, manipulación de destinos e incluso poner en riesgo a los ocupantes de los vehículos autónomos, transformando la ciberseguridad en un peligro público

Un "hueco" en la seguridad de la IA pone en riesgo a los coches autónomos.

Un "hueco" en la seguridad de la IA pone en riesgo a los coches autónomos. / Crédito: Georgia Tech.

Redacción T21

Una vulnerabilidad recientemente descubierta podría permitir a los ciberdelincuentes secuestrar los sistemas de Inteligencia Artificial (IA) de los vehículos autónomos, lo que genera preocupación sobre la seguridad de sistemas cada vez más utilizados en las vías públicas.

Un nuevo estudio presentado en la conferencia ACM CCS 2025 alerta sobre un “punto ciego” en la IA que emplean los vehículos autónomos. La investigación demuestra que es factible ocultar código malicioso en determinadas arquitecturas de aprendizaje automático, conocidas como supernets o superredes, y activarlo únicamente cuando se cumplen determinados escenarios. Esto podría dar lugar a ciberataques capaces de alterar el comportamiento de los coches sin conductor, sin ser detectados en las pruebas de seguridad tradicionales.

Este "hueco" de seguridad informática podría convertir a los vehículos autónomos en objetivos fáciles para los ciberdelincuentes. Según los investigadores del Georgia Institute of Technology, en Estados Unidos, la vulnerabilidad permite insertar “puertas traseras” en redes neuronales complejas empleadas por sistemas de conducción autónoma, logrando activar esas puertas solamente bajo condiciones específicas del mundo real.

La "navaja suiza" de la IA en peligro

“Las superredes están diseñadas para ser la navaja suiza de la IA, intercambiando herramientas o, en este caso, subredes, según sea necesario para la tarea en cuestión. Descubrimos que un delincuente puede aprovechar esto atacando solo una de esas pequeñas herramientas. El ataque permanece completamente inactivo hasta que se utiliza esa subred específica, ocultándose efectivamente entre miles de millones de otras configuraciones benignas", indicó en una nota de prensa el investigador David Oygenblik, autor principal del estudio.

Al parecer, los atacantes pueden "envenenar" el entrenamiento para que un comportamiento malicioso permanezca latente dentro de una subred específica, y se active solo cuando el vehículo entre en un conjunto de condiciones predefinidas, como por ejemplo al detectar lluvia o cierto patrón de tráfico. Las tasas de éxito son cercanas al 99 %, una vez disparado el mecanismo.

Referencia

VillainNet: Targeted Poisoning Attacks Against SuperNets Along the Accuracy-Latency Pareto Frontier. David Oygenblik et al. CCS '25: Proceedings of the 2025 ACM SIGSAC Conference on Computer and Communications Security (2025). DOI:https://doi.org/10.1145/3719027.3765185

Un problema de seguridad pública que involucra a los vehículos autónomos

La técnica, denominada VillainNet por los investigadores, puede operar sin llamar la atención durante el uso normal, dificultando su detección con pruebas de seguridad convencionales. Para detectar y verificar estas anomalías sería necesario multiplicar por decenas el coste de las auditorías de seguridad de los vehículos autónomos, hasta 66 veces más en algunos escenarios.

Los riesgos son graves: si un ciberdelincuente logra controlar a distancia el comportamiento de un vehículo autónomo, las consecuencias van desde el robo de rutas y la manipulación de destinos hasta escenarios extremos en que los ocupantes quedan a merced del atacante. De esta manera, un problema de ciberseguridad puede transformarse en un riesgo directo para la seguridad pública.

Tracking Pixel Contents