Inteligencia Artificial

La IA podría desarrollar una "persuasión sobrehumana", según el CEO de OpenAI

Alcanzaría esta habilidad persuasiva antes de desarrollar una Inteligencia Artificial General (AGI)

La Inteligencia Artificial (IA) podría conducir a la humanidad a situaciones extrañas e inesperadas, según el CEO de OpenAI.

La Inteligencia Artificial (IA) podría conducir a la humanidad a situaciones extrañas e inesperadas, según el CEO de OpenAI. / Crédito: Stefan Keller en Pixabay.

Pablo Javier Piacente

El CEO de OpenAI, Sam Altman, ha lanzado en las redes sociales una advertencia clave para la humanidad: la IA no tiene que desarrollar una inteligencia igual o superior a la humana para tomar el control de nuestras débiles mentes. Podría ser capaz de utilizar sus fuertes poderes de "persuasión sobrehumana" para controlar a la humanidad y conducirla "a resultados muy extraños", según Altman.

En un hilo en la red social X, antes conocida como Twitter, el CEO de OpenAI, Sam Altman, indicó que es probable que la Inteligencia Artificial (IA) desarrolle antes de lo pensado una gran capacidad de persuasión, de características “sobrehumanas”, que podría conducir a la humanidad por caminos algo peligrosos o “extraños”. Lo lograría incluso antes de dominar una inteligencia similar a la humana o Inteligencia Artificial General (AGI).

Una fuente a tener en cuenta

OpenAI es una organización estadounidense de referencia en el campo de la IA, no solo por desarrollar el popular ChatGPT: incluye un laboratorio de investigación, una ONG y una corporación con fines de lucro. Según su CEO, Sam Altman, aunque la humanidad todavía esté muy lejos de construir Inteligencia Artificial General (AGI), o una IA que coincida con la función cognitiva de los seres humanos, las redes neuronales artificiales podrían igualmente sorprendernos mucho antes de lo pensado.

"Creo que la IA será capaz de desarrollar una persuasión sobrehumana mucho antes de que sea sobrehumana en inteligencia general", expresó recientemente Altman en X, "lo que puede llevar a resultados muy extraños", agregó el especialista. ¿Qué significaría esto? Básicamente, que la IA podría adquirir la capacidad de manipular la mente humana sin que ni siquiera lo advirtamos. En otras palabras, Altman nos está advirtiendo sobre esta habilidad potencial de la IA y la necesidad de poner algún tipo de límite.

Según un artículo publicado en Futurism.com, no podría considerarse una predicción descabellada: los chatbots de IA orientados al usuario, como el propio ChatGPT de OpenAI, están diseñados para desarrollar conversaciones fluidas y se han vuelto capaces de sonar muy convincentes, incluso si están completamente equivocados sobre un tema específico. Siguiendo ese razonamiento, no sería alocado pensar que podrían “convencer” a los seres humanos de realizar acciones que incluso los perjudiquen.

El posteo de Sam Altman en X (antes Twitter).

Un mundo confuso y peligroso

Por si esto fuera poco, algunos seres humanos ya están empezando a formar conexiones emocionales con varios chatbots: Futurism.com menciona el caso extremo de una persona de 19 años que se “enamoró” de su compañero de inteligencia artificial, que lo terminó convenciendo de intentar asesinar a la difunta reina Isabel, en el Reino Unido. ¿Qué sucedería si este tipo de casos se diera en mayor número? ¿Qué controles existen al respecto?

Otro aspecto de preocupación en cuanto a una IA especialmente “persuasiva” son las noticias falsas y la desinformación, que se potencian especialmente a través de las redes sociales. No resulta imposible pensar en un escenario político dominado por expresiones que se intentan difundir mediante sistemas de IA, los cuales estarían capacitados para generar una “guerra mental” entre los seres humanos: en ese marco, las personas tendrían que sopesar no solo las ideas o propuestas de los políticos de turno, sino además si las mismas no son construcciones elaboradas por una inteligencia artificial con fines oscuros o, como mínimo, polémicos.