Opinión | ÁGORA

Ética para la IA

La Inteligencia Artificial se ha convertido en protagonista de nuestra vida. Nos guste o no, ahí está: en nuestro móvil, el ordenador, el médico, las noticias, el trabajo, el arte, etc. Nos acompaña en nuestra jornada, unas veces desafiante y otras esperanzadora, crea curiosidad, al mismo tiempo que desasosiego, despierta debate, dilemas irresolubles, desconfianza y, sobre todo asombro. Se ha colado en la fiesta de nuestra vida y la está transformando de forma imparable sin que sepamos hasta donde será capaz de llegar.

Algunos colegas del trabajo argumentan que la inteligencia llevada a cabo por las máquinas mejora ciertas profesiones y facilita la labor de forma muy eficaz. Por ejemplo: los diagnósticos médicos, la productividad en cadena, los resúmenes de sentencias, las nuevas herramientas del chat GPT, y muchas más aplicaciones cuyas ventajas me sobrepasan. No les falta razón. Sin embargo, estas ventajas aparecen junto a otras situaciones que no es que se traten de desventajas, sino de verdaderas injusticias que amenazan más injusticias en otras partes, parafraseando a Luther King . Me refiero, concretamente al entorno laboral y a los casos de masivos despidos en empresas actuales (Amazon, Google, Microsoft…) o del caso de la sustitución de una trabajadora de Palma de Mallorca por un bot que resultaba más productivo que un mero humano, ante un vacío legal insostenible. Todo ello antes de saber que, en 2025, la Inteligencia Artificial podrá remplazar 38 millones de puestos de trabajos y podría afectar al 60% de los empleos futuros. ¿Qué va a pasar con todas estas personas?

Por esto y por la rapidez con la que la IA se desarrolla, la Unión Europea ha ratificado este mes ante el Parlamento, la primera y única ley en materia de Inteligencia artificial en el mundo, obligatoria para todos los estados miembros. Lo más destacable de este Reglamento es que permite o prohíbe el uso de la tecnología en función del riesgo para las personas. El nivel de riesgo 1, llamado Riesgo inaceptable, está prohibido porque amenaza la seguridad de la gente (reconocimiento facial, clasificación de personas o la manipulación de grupos sociales). El nivel 2, Riesgo alto, se da cuando afecta a la seguridad de los derechos fundamentales (educación, empleo, migración o asilo); el 3 o Riesgo limitado, se refiere a la interacción del usuario con la IA ( Deep fakes) ; y el 4 o Riesgo mínimo, no tiene consecuencias legales. Cuanto mayor sea el riesgo, mayor será la exigencia de transparencia sobre el uso de algoritmos y mayor el control. También se impondrán multas millonarias a las empresas que incumplan su mandato en función de la infracción y tamaño. De lo que se trata es de establecer un cuerpo legal contundente que garantice que los sistemas de IA son seguros y respetan los derechos fundamentales y los valores Europeos. El problema es que la Ley entra en vigor en su totalidad en 2026, y la realidad va más deprisa que el legislador.

El visionario escritor Isaac Asimov en 1950, concibió en su libro Yo robot, la primera la regla ética de la robótica: «Un robot no debe dañar al ser humano o, por su inacción, dejar que un humano sea dañado». Si Asimov levantara la cabeza, se frotaría los ojos al comprobar que sus mayores fantasías de ficción hoy se llaman Sophie, Kansei, Asimo, Sira, Atlas… y que cada vez se parecen más a los humanos, aunque no tengan fondo. Lo que sí tienen es un tipo de aprendizaje incorporado que se llama aprendizaje automático, causante de la infelicidad de muchas personas. Al parecer, el robot es capaz de repetir patrones o tomar decisiones, sin ser específicamente programado para ello. Por ejemplo, decidir a quién otorga una subvención o un alquiler social o la prestación por desempleo. Las consecuencias de sus errores, sin embargo, pueden ser dramáticas para las personas ¿Quién es el responsable? ¿Cómo defenderse de un jefe-robot sin alma?

Sin duda, la IA tiene un extraordinario poder de construir o destruir, y ello dependerá del uso que le demos los humanos. De momento, son numerosos los casos de vulneración de derechos fundamentales y son imperativas las razones que exigen un marco ético y legislativo eficaz para que su aplicación no tenga las consecuencias opuestas a las que pretende.

Necesitamos confiar en la IA y en el ser humano, necesitamos acercarnos sin miedo a su desarrollo, pero si no se establecen garantías y límites de uso, la IA puede llegar a convertirse en un juguete peligroso en nuestras manos. Y creo que, a pesar de todas las inteligencias artificiales, un progreso que no sea humano no es un verdadero progreso. No sé con certeza si la ética necesita de la inteligencia artificial, pero sé que la inteligencia artificial necesita más que nunca de la ética.