Inteligencia Artificial

Es urgente limitar a la IA para evitar el apocalipsis de nuestra civilización

Un análisis encargado por el gobierno estadounidense advierte sobre los peligros de perder el control sobre la IA

¿Podemos perder el control sobre la IA ante un avance tan vertiginoso?

¿Podemos perder el control sobre la IA ante un avance tan vertiginoso? / Crédito: Julien Tromeur en Unsplash.

Pablo Javier Piacente

Un nuevo informe elaborado por la firma Gladstone por pedido del Departamento de Estado de los Estados Unidos advierte que la rápida evolución de la Inteligencia Artificial (IA) podría representar un riesgo "catastrófico" para la seguridad nacional e incluso para toda la humanidad. El documento sugiere que el gobierno estadounidense debe actuar "rápidamente y con decisión" para limitar la potencia informática asignada al entrenamiento de estos sistemas.

La consultora Gladstone AI desarrolló recientemente un estudio sobre el impacto del veloz avance de las nuevas tecnologías relacionadas a la Inteligencia Artificial (IA), por pedido del Departamento de Estado de los Estados Unidos: el trabajo concluye que los sistemas más avanzados de IA pueden representar una amenaza real a nivel global, que ponga en riesgo la continuidad de la civilización humana tal como la conocemos.

Según informa Gladstone, el primer análisis fue encargado por el Departamento de Estado en octubre de 2022, un mes antes del lanzamiento de ChatGPT. En febrero de 2024 se concluyó la evaluación que ahora conocemos, que incluye un estudio sobre los “riesgos catastróficos” de la IA y un plan de acción gubernamental, el primero en su tipo, en torno a lo que puede hacer el gobierno estadounidense para evitar las consecuencias de un crecimiento descontrolado de la IA.

Perder el control

En el informe se indica que “los sistemas de IA ya pueden convertirse en armas riesgosas, y sus capacidades se están acelerando a una velocidad casi inconcebible”. Para reducir ese riesgo en el corto plazo y al mismo tiempo posicionarse para el largo plazo, el trabajo aconseja al gobierno estadounidense que debe “monitorear los desarrollos en IA avanzada y establecer controles en la cadena de suministro de información”, en referencia a los datos que se usan para entrenar a estos sistemas.

Es importante destacar que el estudio está respaldado por equipos técnicos de talla mundial, y se basa en conversaciones con más de doscientas partes interesadas en el sector de la IA, incluyendo a gobiernos, proveedores de servicios tecnológicos, expertos en seguridad informática y los responsables de los laboratorios de IA más avanzados a escala global.

Ventajas y riesgos de una tecnología sin límites

"La IA ya es una tecnología económicamente transformadora y podría permitirnos curar enfermedades, concretar descubrimientos científicos innovadores y superar desafíos que alguna vez pensamos que eran infranqueables. Pero a pesar de estos beneficios, también podría traer riesgos graves, de los que debemos ser conscientes", indicó Jeremie Harris, uno de los autores del informe y director ejecutivo de Gladstone AI, en declaraciones a la cadena CNN que recoge un artículo publicado en Futurism.

“Un creciente conjunto de evidencia, incluyendo investigaciones empíricas y análisis publicados en las principales conferencias de IA del mundo, sugiere que por encima de un cierto umbral de capacidad, los sistemas de IA podrían potencialmente volverse incontrolables", agregó Harris. En ese sentido, en el informe se concluye que el aumento del impacto de la IA y el posterior desarrollo de la Inteligencia Artificial General (IAG) tienen el potencial de desestabilizar la seguridad global de una manera similar a la introducción de armas nucleares.

Falta de inversiones en seguridad

La IAG supone que la IA alcance y supere a la inteligencia humana, logrando la generación de contenido autónomo y sin depender del entrenamiento y el procesamiento de datos operados por seres humanos. Como señala Time, el informe también resalta que los laboratorios de IA enfrentan un incentivo intenso e inmediato para escalar sus sistemas lo más rápido que puedan. Por el contrario, no muestran la misma urgencia en invertir en seguridad o medidas de protección, que no generan beneficios económicos directos.

Frente a esto, el estudio aconseja al gobierno de Estados Unidos que desarrolle rápidamente acciones tendientes a controlar la potencia informática permitida para el entrenamiento de los sistemas de IA. Sin embargo, algunos especialistas creen que es muy poco probable que la administración estatal tome en cuenta estos consejos: si se desarrollan sistemas de código abierto, el control se volverá aún más complejo.