-MCH: Muchas gracias Profesor Lütge por concederme esta entrevista para Levante-El Mercantil Valenciano. Siendo usted doctor en filosofía, informática y economía como director del Instituto para la Ética en Inteligencia Artificial y la Cátedra Peter Löscher de Ética Empresarial de la Universidad Técnica de Múnich, podría decirnos desde su perspectiva académica, ¿cuál es uno de los mayores desafíos que tenemos que asumir como sociedad tecnológica ante el avance y dinamismo de la IA?

-CL: Existen diversos desafíos y oportunidades que vienen con la IA, pero el más importante es ser capaces de evaluar esos riesgos y oportunidades para poder establecer una Inteligencia Artificial que responda en forma responsable a la sociedad. Esto se relaciona con la necesidad de evaluar los riesgos que estamos dispuestos a aceptar como consecuencia del uso de cualquier tipo de tecnología y los que no se aceptarán.

En la actualidad muchas personas se encuentran empeñadas en la tarea de identificar con más detalle los límites necesarios a establecer, porque se presentan muchas oportunidades de uso responsable de la IA que se puede asumir en favor del bienestar de las sociedades.

Un ejemplo de ello es que para enfrentar posibles discriminaciones hay que establecer límites pero el desafío es complejo, ya que las diferencias existentes entre las sociedades van a condicionar el cómo se utiliza la Inteligencia Artificial en cada caso.

-MCH: Una de las mayores preocupaciones de las sociedades de corte democrático liberal en torno a las TIC, es que nos encontramos inmersos en una era donde se ha naturalizado la mentira a través de las fake news. Y esta preocupación se ha transformado en reclamo y malestar hacia los grandes emporios tecnológicos como gestores y administradores del Social Media. Entonces, ¿Cuáles son las medidas que Usted considera más efectivas que deberían implementar los Gigantes del Big Data para corregir esta problemática sin monopolizar el discurso tecnológico en Internet?

CL: Su pregunta es muy interesante y compleja de responder porque en algunos casos es posible detectar con facilidad las fake news, pero en otros es más difícil detectar situaciones problemáticas en Internet como en el caso chino en que se moderan debates  y cómo enfrentarlas desde una óptica democrática y pluralista.

Creo que no es posible dejar que la tecnología por sí sola adopte decisiones en forma automática sobre lo que es correcto, porque no funcionaría. Es necesario que sean personas por medio de su conciencia humana, las que constituyan el círculo en el que se adopten las decisiones finales considerando lo que es correcto y lo que no.

-MCH: ¿Es posible dotar al Machine Learning de un entrenamiento que enlace datos éticos al Deep learning como redes neuronales profundas, donde se llegue a conclusiones algorítmicas que respeten los derechos humanos partiendo de bases éticas legitimadas a través de la historia como las más adecuadas para combatir los delitos de odio, la discriminación y la violencia?

CL: El Machine Learning puede operar de muchas maneras diferentes y más allá de eso, existe suficiente evidencia general respecto del entrenamiento de los sistemas dotándoles de Big Data, lo que es un factor clave para un adecuado y más fino funcionamiento. Hay que tener en cuenta que los algoritmos son capaces por si mismos de generar información artificial aprovechando la información proveniente de fuentes humanas, con consecuencias aceptables algunas veces y otras, inaceptables.

En la dirección señalada por ejemplo, la diferencia del color de piel detectado por los sistemas de reconocimiento facial puede ser un factor discriminatorio que se expresa de diferentes formas. Es necesario que los niños especialmente desde la infancia aprendan a distinguir lo que es aceptable y lo no aceptable.

MCH: ¿Considera Usted viable la interacción interdisciplinar y multisectorial donde se involucren no solo los Estados, la academia, los medios de comunicación y la sociedad civil,  sin que esta última quede relegada “al cuarto de al lado”, integrando sus alcances por ejemplo, a través de una consulta popular para constituir nuevas políticas públicas en relación al manejo ético no solo del Big Data, sino además de todo lo concerniente a la IA, desde un enfoque que permee realmente a la nueva sociedad.com como la principal usuaria y destinataria de las campañas del marketing digital?  

CL: Las cuestiones de que si todos los ciudadanos como sociedad civil deberían tener acceso al uso de las plataformas digitales, o la posibilidad de establecer ciertos límites al uso de la tecnología, fue el tipo de temas que fueron objeto de discusión en los foros durante los años 90.

Al respecto es interesante apreciar el desarrollo actual del Metaverso sobre el que hablan las grandes compañías que manifiesta las diferencias involucradas en la interacción multisectorial e interdisciplinar de las personas. Considero que necesitamos analizar mejor en especial la responsabilidad de las personas y de los gobiernos en este nuevo ámbito.

En países como Alemania donde existe un progreso relativo mayor en temas digitales, este tema podría ser menos polémico, pero desde otra perspectiva podemos apreciar que en los medios de comunicación se produce un fuerte debate sobre estas cuestiones. Estamos presenciando la participación de amplios y diferentes sectores en el debate sobre la interacción con las nuevas tecnologías.

El profesor Lüetge, con la entrevistadora.

MCH: En la actualidad la colonización del espacio virtual ha llevado a diversas empresas de TIC, norteamericanas, chinas y europeas a desarrollar nuevas formas de gestión de sus informaciones y comunicaciones, abaratando los costes en relación con el entrenamiento de sus modelos de Machine learning, utilizando datos sintéticos para habilitar los llamados metaversos convirtiendo a estos en una nueva oportunidad de negocios.

Por ello, desde el ámbito de la filosofía del derecho ¿Cuál sería el razonamiento jurídico que se debería aplicar para no desatender los derechos de los trabajadores y las garantías de los usuarios en la Web, en el sentido de aprovechar la oportunidad tecnológica desde el ámbito laboral, pero sin menoscabar las conquistas en materia de derechos humanos?

CL: Este es un desafío muy importante al que tenemos que poner atención. ¿Cómo lograr transformar la visión de un mundo desconectado que teníamos en el pasado y que mutó al mundo digital del presente?

Creo que es posible lograrlo, en especial si hablamos de derechos humanos en relación con discriminación, pero también vinculados con derechos de los trabajadores.

Me parece que no es extremadamente difícil proyectar los derechos al Metaverso, en la medida que todos los jugadores involucrados colaboren en enfrentar el desafío. Sin embargo, hay que considerar que no se puede copiar exactamente la realidad y pegarla en el Metaverso, ya que no estás físicamente en esa habitación y por tanto son cosas diferentes.

Es necesario lograr que nadie quede rezagado evitando que la discriminación sistémica contra las mujeres y los niños con discapacidad por ejemplo, pueda trasladarse a la realidad virtual.

Creo también que los grandes actores son conscientes de esta ecuación como parte del largo proceso interdisciplinario que realizan los especialistas.

MCH: Usted formó parte del comité interdisciplinario de especialistas que redactó la propuesta de reglamento ético de la conducción de vehículos autónomos en Alemania. ¿En qué estado se encuentra hoy la discusión del fondo y los contenidos en relación a la constitución de una nueva legislación, donde prime la protección de la vida humana por sobre el dinamismo de la IA y la carrera tecnológica que actualmente libran las grandes corporaciones de la industria automotriz en el mundo?

CL: Hay diferentes aspectos involucrados. Por ejemplo, en Alemania se legisló sobre la conducción autónoma el año pasado permitiendo pruebas en un nivel superior con automatización de alto nivel y esta ley se basó en cierta medida al menos, en las recomendaciones éticas que dimos hace algunos años en el Comité que Usted menciona.

Diría que se cumplió una etapa. No la definitiva, pero es una nueva etapa en todo caso.

Ahora corresponde lograr establecer normas similares a nivel europeo y nos encontramos en ello. Como sabemos, la ley de IA europea está en discusión en el Parlamento Europeo la que se aplicaría también hasta cierto punto a la industria automotriz. La discusión vislumbra impactos en el tratamiento de la protección de los derechos humanos en la conducción de vehículos autónomos. Hay que poner atención a los costos y beneficios que tendrá la nueva norma.

Siempre tenemos que tener cuidado de sopesar que no estamos solos en el mundo y que hay otros jugadores como los EEUU y China. Se debería tratar de evitar establecer regulaciones que obstaculicen el aprovechamiento de las oportunidades que presenta la IA.

Creo que estamos en un buen camino para ello.