Un frenazo antes del precipicio

Investigadores como el valenciano José H. Orallo y empresarios como Elon Musk suscriben un documento para regular la IA antes de que la humanidad pierda su control

Una persona con un ordenador portátil.

Una persona con un ordenador portátil. / Levante-EMV

Ha sonado a grito desesperado para que pare el tren: «Llamamos a todos los laboratorios de inteligencia artificial que pausen inmediatamente durante al menos seis meses el entrenamiento de sistemas de inteligencia artificial más poderosos que (Chat) GPT-4».

Más de mil científicos y empresarios de todo el mundo, incluidos el magnate Elon Musk y el cofundador de Google Steve Wozniak, se han unido para firmar un documento que se lee como una petición de que la locomotora de la inteligencia artificial frene antes de que la humanidad pierda por completo las riendas de su destino.

Piden una pausa de seis meses y alertan de riesgos "potencialmente catastróficos" para la sociedad si esta no se produce

La misiva está promovida por el instituto Future of Life, una organización que se define como apolítica y sin fines de lucro que tiene sedes en Estados Unidos y Bélgica. El documento afirma sin paños calientes que si las empresas «no ejecutan esa pausa rápidamente, los gobiernos deberían intervenir e instituir una moratoria». La pausa, recalcan, debe ser «pública y verificable», algo de lo que subyace la sospecha de que hay compañías que pueden continuar sus trabajos en secreto.

Está en juego, dicen, el futuro de la humanidad. «La sociedad le ha dado pausa a otras tecnologías con efectos potencialmente catastróficos para la sociedad. Podemos hacer lo mismo aquí. Disfrutemos de un largo ‘verano de la inteligencia artificial’, no nos apresuremos hacia un ‘otoño’ sin estar preparados», indican los firmantes. De acuerdo con su visión de la situación, «ni siquiera los creadores» de los proyectos de inteligencia artificial pueden «entenderlos, predecirlos o controlarlos de manera fiable».

Chat GPT-4 —de la empresa OpenAI— parece ser la inteligencia artificial que ha hecho saltar la alarma del sector, pues esa tecnología es a la que se refieren explícitamente como límite al que puede llegar una IA. Según un estudio de Goldman Sachs, hay 300 millones de puestos de trabajo en peligro por inteligencias artificiales más desarrolladas que puedan desempeñar multitud de tareas, siendo los más afectados los trabajadores de oficinas. 

El límite de los proyectos que salgan a partir de ahora al público deben tener, como máximo, la potencia de Chat GPT-4

Ilustradores y pintores son algunos de los profesionales que han alzado su voz ante proyectos como Dall-E 2, que permiten al usuario generar en cuestión de segundos una imagen de lo que desea a raíz de un breve texto. 

Mientras, el generador de texto Chat GPT-4 mantiene conversaciones y resuelve problemas de toda índole —si bien ha hecho patentes también numerosos errores con sus respuestas y ha demostrado no ser infalible—. « GPT-4 es más creativo y colaborativo que nunca. Puede generar, editar e iterar con los usuarios en tareas de escritura técnica y creativa, como componer canciones, escribir guiones o aprender el estilo de escritura de un usuario», afriman sus desarrolladores.

Hacer las inteligencias artificiales precisas pero también "leales", en el centro de la cuestión

Si los autores de la carta consiguen su propósito, aseguran que podrán «reenfocar» los sistemas de inteligencia artificial para que sean «precisos, seguros, transparentes y leales».

Un valenciano entre los firmantes

Future of Life ha sorprendido con la severidad del contenido de la carta y por conseguir unir los intereses de empresarios multimillonarios con los objetivos que tienen centenares de científicos de reputadas universidades del planeta. Uno de esos investigadores es valenciano y su nombre es José Hernández Orallo. 

Este catedrático de la Universitat Politècnica de València (UPV) se encuentra ahora en la universidad de Cambridge (Reino Unido) y es experto en inteligencia artificial. Su libro sobre la evaluación de la inteligencia natural y artificial ganó en 2018 el premio de la Asociación de Editores Estadounidenses. Su trabajo más reciente versa sobre la evaluación robusta de capacidades cognitivas y generalidad en inteligencia artificial. El equipo investigador pretende dar «aplicaciones importantes para la ética y la gobernanza de la IA y el seguimiento de la velocidad a la que los avances de la IA pueden traducirse en nuevas capacidades para los sistemas de IA desplegados».