Opinión
IA ética, una brecha entre la retórica y la acción

"Recuperar la integridad de la IA responsable requiere volver a sus principios fundamentales". / L-EMV
Recientemente tuve la oportunidad de participar en la presentación del libro de la filósofa Adela Cortina ¿Ética o ideología de la inteligencia artificial? en La Nau. La lectura de este libro, y su relación entre la filosofía, la ciencia, la tecnología y la inteligencia artificial me han ratificado en el pensamiento de que es evidente y necesaria una ética de la IA en dos aspectos fundamentales, la ética del diseño de los sistemas de IA, y la propia ética que se pueda incorporar en los sistemas inteligentes.
Y esta reflexión, a raíz de tres afirmaciones importantes. La primera es que, pese a la existencia de las fake news desde tiempos inmemoriales, pasó en la antigua Roma, en la Edad Media, o con la prensa amarilla en el siglo XIX, hoy, con la democratización desde noviembre de 2022 de los modelos masivos de lenguaje, la sociedad tiene en sus manos una poderosa herramienta que permite generar fácilmente y sin capacitación tecnológica, fake news. Por ello, son el foco de desafíos cruciales, desde la erosión de la confianza en los medios hasta las graves implicaciones para la democracia y la cohesión social.
En segundo lugar, los gobiernos, la industria y el público en general está reconociendo, cada vez más, la urgencia de una IA ética, como lo demuestran las numerosas publicaciones de directrices sobre IA. Además de que, en el ámbito académico, un creciente cuerpo de investigación está analizando el papel de los valores humanos en el diseño de una IA ética. Cambiar de «razonar con valores» a «razonar sobre valores» que permite a los agentes software y humanos comprender mejor los valores de los demás, deliberar sobre esos valores, alcanzar un consenso respecto a ellos, y guiar sus interacciones a través de diversos sistemas de valores.
Y en tercer lugar, ya se habla de hominizar a las máquinas o utilizar los sistemas de inteligencia como instrumentos, o que los sistemas inteligentes sustituyan a los humanos. Así se lo escuché, en una reciente entrevista, al jefe de IA de Meta, Yann LeCunn, donde afirmaba que en los próximos tres a cinco años surgirá «un nuevo paradigma de arquitectura de IA» que superará con creces las capacidades de los sistemas de IA actuales.
A raíz de estas tres reflexiones, estamos viendo como el concepto de «IA responsable» está siendo cada vez más cooptado y perdiendo su esencia convirtiéndose en una mera estrategia de marketing, similar al «lavado de cara». Gobiernos, empresas y organismos internacionales recurren constantemente a esta idea para proyectar una imagen de superioridad moral y evitan tomar medidas reales para abordar los desafíos sistémicos que plantea la IA.
En este sentido, en 2024, fuimos testigos de cómo la grandes empresas promovían una «IA responsable», mientras estaban presionando para debilitar regulaciones clave, como la Ley de IA Europea. También vimos a compañías realizar «auditorías responsables», siempre con una alcance limitado, que evitaba abordar problemas críticos como el sesgo o el impacto ambiental. O cumbres sobre gobernanza de la IA en las que se predicaba inclusión y responsabilidad pero se excluía a actores clave como representantes del Sur Global u organizaciones de base. Incluso organismos internacionales como la ONU o la OCDE publicaron directrices éticas, que a falta de mecanismos de aplicación, resultan ineficaces para frenar los abusos o generar cambios sistémicos.
Estas situaciones nos dan a entender la preocupante brecha que existe entre la retórica y la acción. Y como la ética se ha convertido en una fachada conveniente que permite a los diferentes, y más poderosos, actores del mundo proyectar una imagen de falsa responsabilidad sin asumir una reforma genuina. La opacidad de los sistemas de IA, junto a la concentración en manos de unos pocos, refuerza los desequilibrios de poder y erosiona los principios democráticos.
Por ello, recuperar la integridad de la IA responsable requiere volver a sus principios fundamentales. Por un lado, debemos reconocer que la IA no es una fuerza incontrolable de la naturaleza, sino un artefacto humano. Las decisiones sobre su diseño, implementación y regulación reflejan valores y prioridades, por lo que debemos rechazar argumentos que la presenten como algo «mágico» o fenómeno inevitable, ya que calificarla de este modo hace que quienes ostentan el poder, dicten sin rumbo y sin oposición su desarrollo.
Y por otro, la IA responsable no puede quedarse en una simple etiqueta. Debe convertirse en una llamada a la acción, y en un compromiso con principios éticos que se reflejen en resultados tangibles. Desde el Instituto Universitario Valenciano de Investigación en Inteligencia Artificial (VRAIN) de la Universitat Politècnica de València, en nuestra faceta de creadores, pero también los usuarios de la IA, todos compartimos la responsabilidad de dar forma a su impacto. Y por ello, si no actuamos ahora, corremos el riesgo de que la IA perpetúe los mismos problemas que podría ayudar a resolver. Por tanto, el momento de actuar, es ahora.
- Muere una niña de dos años al caer desde un sexto piso en Bilbao
- Rosa gana Pasapalabra y hace historia en el programa: 'No me creo que haya ganado el bote
- Tremendo y duro golpe en Pasapalabra: 'Ha fallecido
- Perfil del ‘violador de los portales’: Un joven bailarín de Meliana sin antecedentes
- Cuenta atrás para la entrada de nuevos concursantes a Pasapalabra: ya se sabe el día
- Conmoción en la pirotecnia por el fallecimiento de Javier Nadal-Martí
- Emotiva procesión del Silencio en el Port de Sagunt
- El Papa visita una cárcel romana para conmemorar el Jueves Santo