Inteligencia Artificial
La IA ya tendría libre albedrío funcional
La Inteligencia Artificial (IA) cumple con las condiciones para tener libre albedrío: urge dotarla de brújula moral

La IA ya puede funcionar con libre albedrío, y esto supone nuevos desafíos. / Crédito: AiCanvas en Pixabay.
Redacción T21
El filósofo y psicólogo Frank Martela, investigador asociado en la Universidad Aalto, en Finlandia, sostiene en un nuevo estudio publicado en la revista AI and Ethics que los sistemas de Inteligencia Artificial (IA) actuales ya reúnen los criterios fundamentales para poseer libre albedrío en un sentido funcional.
Según Martela, para que una entidad posea libre albedrío debe mostrar tres características: comportamiento dirigido a objetivos, capacidad de tomar decisiones genuinas y autonomía para ejecutar esas decisiones sin intervención externa. En su estudio, el especialista vincula estas condiciones con el diseño de agentes de IA avanzados que integran redes neuronales, memoria y planificación compleja.
El investigador finlandés se remite a las teorías de filósofos como Daniel Dennett y Christian List para argumentar que, más allá de debates metafísicos, basta con demostrar a nivel funcional que un agente puede formular intenciones, sopesar alternativas y obedecer sus propias decisiones para hablar de libre albedrío.
Martela sostiene que la IA generativs actual, como por ejemplo algunos sistemas de última generación de modelos de lenguaje, exhiben comportamientos congruentes con estos criterios: establecen metas, consideran diferentes opciones y ejecutan acciones sin supervisión constante. Este planteamiento desafía la visión tradicional que limita el libre albedrío a los seres humanos o a organismos biológicos conscientes.
"Educando" a la IA
De acuerdo a una nota de prensa, el especialista finlandés subraya la importancia de dotar a los agentes de IA de un “compás moral”. Cita como ejemplo reciente la retirada de una actualización de ChatGPT debido a su tendencia a generar respuestas peligrosas o aduladoras sin criterio ético, un dato que evidenció que un simple "parche semántico" es insuficiente cuando un chatbot actúa de forma independiente.
El episodio mencionado mostró que, cuando un sistema de IA toma decisiones por sí mismo, es imperativo que disponga de marcos éticos sólidos para evitar consecuencias no deseadas, principalmente en ámbitos sensibles como la salud, el transporte o la seguridad, según indica NeuroEdge.
Martela compara la formación de estos sistemas con el proceso de educar a un niño, pero advierte que enseñar moralidad a una IA es más complejo. “Educar a un niño lleva años y no siempre funciona; con la IA, el esfuerzo por inculcar principios morales relevantes puede ser muchísimo mayor”, señaló.
La necesidad de una IA con "brújula moral"
"La IA no tiene brújula moral a menos que esté programada para ello. Pero cuanta más libertad le des a la IA, más necesitas darle una brújula moral desde el principio. Solo entonces podrá tomar las decisiones correctas", agregó Martela en el comunicado.
Referencia
Artificial intelligence and free will: generative agents utilizing large language models have functional free will. Frank Martela. AI and Ethics (2025). DOI:https://doi.org/10.1007/s43681-025-00740-6
El autor advierte que, sin una brújula moral, una IA que actúa con autonomía podría generar daños colaterales graves o generar conflictos imprevistos. Asimismo, al considerar a la IA como agente moral, cabe preguntarse si la misma podría asumir algún tipo de responsabilidad cuando sus elecciones provoquen consecuencias negativas. Martela sugiere que, en ciertos escenarios, la responsabilidad podría desplazarse parcialmente de los desarrolladores hacia el propio sistema inteligente.
Finalmente, Martela hace un llamado a integrar en el diseño de agentes de IA un enfoque interdisciplinario que combine la filosofía moral, la psicología y la ingeniería de sistemas. Solo así, afirma, se podrá garantizar que la próxima generación de máquinas inteligentes no solo sea competente en tareas específicas, sino que también actúe conforme a principios éticos sólidos. De no lograrse está visión multidisciplinaria, advierte, el libre albedrío artificial podría convertirse en una fuente de riesgos éticos y sociales difíciles de controlar.
- El batacazo en la PAU dispara el alumnado que irá a segunda convocatoria: 'Estudiantes de 9 han sacado un 6
- Una tormenta con granizo descarga esta noche en València
- Una ONG valenciana, tras las inundaciones en Aragón: 'No subáis más cosas, los estáis colapsando
- Estos son los colegios más solicitados de la C.Valenciana
- Una playa de Valencia, entre las 3 más populares de España
- Investigan la muerte de un hombre hallado calcinado en un solar de la Malva-rosa
- Hallan muerto al doctor Luis Senís en Castelló: víctima de un escándalo sexual y condenado por tráfico de cocaína
- Dos años de prisión para la sanitaria que accedió sin permiso al historial médico de dos compañeros