Entrevista

Julio Rilo, experto en ciberseguridad: "Regalamos datos personales hoy cuyo valor en treinta años puede ser tremendo"

"La IA es un gran valor, pero está el riesgo que supone generar desinformación: falsas noticias hicieron caer empresas en Bolsa", asegura el ingeniero informático

Vicente Montes

Julio Rilo Blanco, ingeniero informático, dirige la empresa asturiana Inixa, líder en herramientas para seguridad informática y que trabaja con empresas y fuerzas de seguridad.

–Radiografíe el mundo de mal en la red.

–Hay cuatro grupos: ciberterroristas, ciberactivistas, ciberdelincuentes y estados hostiles. Los ciberdelincuentes buscan robar dinero, identidades y obtener beneficios económicos. El cibercrimen ya es la tercera economía del mundo. En el ciberterrorismo está, por ejemplo, el estado islámico: busca la disrupción y usa la red para recultar y adoctrinar. Los ciberactivistas se mueven por intereses diversos, piense en el movimiento Anonymous. En cuanto a los estados hostiles… en las guerras internet también es campo de batalla.

–¿Han aumentado los ataques cibernéticos de Rusia desde el conflicto de Ucrania?

–Muchísimo. En España, las mayores actividades llegan de Rusia y Ucrania. Se persiguen intereses económicos o sociales. Piense que la Casa Blanca no recibió el ataque de ningún arma: fue asaltada gracias a las redes sociales.

–¿Los ordenadores pueden tanto como los misiles?

–Las conflictos ahora son multidominio. Una red de satélites puede lograr más que una baliza de misiles. Con una llamada telefónica de un soldado se localiza a un pelotón.

–¿Se producen más ataques de los que imaginamos?

–Infinitamente, pero no se denuncian ni difunden. Se estima que se denuncia un 10%, ahora puede ser un 20 o 25%.

–¿La inteligencia artificial ayuda tanto a mejorar sistemas de seguridad como a reventarlos?

–Efectivamente. El big data y el aprendizaje automático son un hecho diferencial. Ya hemos visto lo que pasa con las inteligencias artificiales generativas. Todo eso es un gran valor para los buenos y tanto o más para los malos. Y está el riesgo que supone generar desinformación para cualquier fin. Las falsas noticias han hecho a empresas caer en bolsa.

–¿Las empresas son plenamente conscientes de los riesgos?

–Se evidencia una falta absoluta de conocimientos: no se gestionan los riesgos e incluso se desconocen.

–Imagino que las grandes compañías sí son conscientes.

–¿Le parece grande Toyota? El modelo RAV4 se puede abrir y robar en cinco minutos si se coloca junto a uno de sus faros cierto dispositivo que se puede comprar por 50 euros en internet.

–Un amigo dice que no instala en su móvil la app del banco por si le roban.

–Tiene más riesgo si usa Whatsapp. Sobre eso no se educa: el dato es oro y de él se va a obtener mucho dinero. Si alguien roba un portátil, lo que le interesa son los datos, no el aparato. La Agencia de Protección de Datos de España ha prohibido que OpenAI escanee el iris de españoles a los que la empresa ofrecía 100 euros. Igual esa información que hoy no vemos relevante tiene un valor tremendo en 30 años.

–¿Qué cree que debe hacerse con la inteligencia artificial (IA)?

–La IA es una oportunidad única, pero ahora aún no es fiable, a veces miente. Es una oportunidad pero se debe gestionar con mucho cuidado, con una regulación, porque los actores pueden ser malintencionados. Esa regulación no puede bloquear, porque si en ciertas partes se deja de desarrollar lo hará en otras. Nunca alcanzará a la inteligencia humana, pero sí ocasionará brechas entre los países que se posicionen bien en ello y los que no. Hay que dinamizarla e invertir, y también deben crearse comités multidisciplinares para controlarla, con biólogos o filósofos… nos la jugamos.

–¿Dice que no alcanzará a la inteligencia humana?

–No, nuestro cerebro es mucho más complejo. Dice el matemático Zelmanov que la inteligencia humana es un brillo divino. Pero la caja de Pandora se ha abierto. Y será necesario introducir esos comités disciplinares, porque se abren muchas preguntas y es preocupante si la contestan gerentes de compañías como Mark Zuckerberg, que ni siquiera terminó sus estudios.

–La preocupación por la IA es creciente…

–Estamos viendo barbaridades. En Inixa hemos desarrollado el sistema de evidencias electrónicas de la Guardia Civil. Piense, ¿qué ocurre si con la IA empezamos a generar fotos o grabaciones falsas para un juicio? ¿Y si un abogado pone en duda evidencias reales en ese juicio al plantear la duda de que han sido generadas por una IA? Se puede echar abajo el sistema judicial. Por eso es importante hacer una IA transparente.

–Usted no tiene ni Whatsapp ni Telegram…

–No sé en qué momento decidimos que no teníamos problema en que todas nuestras conversaciones se almacenen en servidores informáticos en Estados Unidos. Tampoco tengo Gmail.

–¿Qué puede sacarse de esas conversaciones?

–Todo: Estimación de voto, información para marketing… El dato vale más que una onza de oro. Ya no tienen que venir con barcos a robárnoslo; se lo regalamos con nuestros datos. Ahora puede que no veamos el riesgo, pero ¿en el futuro para qué servirán? Por ejemplo, no entiendo que se den datos biométricos. En el ataque a Facebook de 2021 se llevaron los datos de 530 millones de usuarios. Quien los robó los vende. ¿Quién los compra y para qué? Deberíamos tomar medidas para reducir esta fuga de datos de los españoles. La privacidad y la anonimización son claves para asegurar la democracia. Me niego a dar mis datos a nadie que no sea de mi país. En Inixa hacemos herramientas para la cibersoberanía nacional, con software para el Ejército o la Guardia Civil.

Suscríbete para seguir leyendo