Adrián Todolí | Profesor titular de derecho del Trabajo en la Universitat de València.

«Los trabajos no cualificados tienen menos poder frente al control de la IA»

Muchas empresas utilizan algoritmos para medir la productividad de sus empleados

El profesor gandiense Adrián Todolí. | LEVANTE-EMV

El profesor gandiense Adrián Todolí. | LEVANTE-EMV / Toni Álvarez Casanova. Gandia

Algoritmos como jefes. Ese es ya el presente de muchas empresas que fían a la Inteligencia Artificial, es decir, a máquinas, la organización del trabajo e incluso las decisiones sobre si un empleado es o no productivo y sobre si debe ser despedido. En su libro, «Algoritmos productivos y extractivos. Cómo regular la digitalización para mejorar el empleo e incentivar la innovación», presentado hace unas semanas en Gandia, el gandiense Adirán Todolí, profesor de derecho del trabajo en la Uniersitat de València, analiza los efectos de esta aplicación y analiza las posibles herramientas legales que el empleado tiene frente a esta tecnología.

En su libro comenta que se está aplicando la inteligencia artificial para el funcionamiento del trabajo, ¿de qué forma lo están haciendo las empresas?

Hay fórmulas muy diversas. Actualmente lo que más se utiliza es para reclutamiento. Los datos indican que el 72% de los currículums nunca son vistos por una persona, sino que son previamente descartados por una IA. También se utiliza para decidir la velocidad del trabajo, tanto en la industria como en el sector servicios. Un ejemplo es para determinar el tiempo óptimo de limpieza de una habitación o hacer un cama por parte de las camareras de piso. Se cronometra a través de un smartwatch y, si tardan más del tiempo que la IA ha determinado, avisa a la empleada que debe ir más rápido. En los centros logísticos calcula, incluso, si ese empleado se para a hablar con un compañero, va al baño, etc. Dicha información determina si el trabajador cumple con la productividad y muchas veces se hace un ranking de todos los trabajadores y obligan a los que van los últimos a ir más rápido al día siguiente para no ser despedidos. De hecho, la IA también se utiliza para decidir qué trabajador debe ser despedido y muchas veces redacta incluso la carta de despido.

Esa pérdida del factor humano deja de tener en cuenta muchas circunstancias que un trabajador puede sufrir a lo largo de su jornada que pueden obligarle a dejar el puesto de trabajo de forma inesperada.

Ya no es solo que el índice lo calcule solo con criterios puramente económicos, sino que, muchas veces, una vez tomada la decisión, el trabajador no tiene la capacidad de oponerse y ni siquiera sabe por qué se ha tomado. El algoritmo no explica por qué un trabajador ha sido poco productivo y no se sabe por qué toma la decisión de despedirlo. Esa ausencia de transparencia provoca falta de humanidad pero también indefensión. Hay casos documentados de que esto provoca ansiedad e incluso pérdida de autoestima. Con tu jefe puedes hablar pero con un algoritmo no, y eso se traduce en que no tienes forma de mejorar.

Y ahí es donde entra el derecho. ¿Cómo reclama un trabajador que sido despedido por un algoritmo?

El problema es que esto es muy nuevo y no está claro qué harán los jueces. Hasta ahora solo se despedía de forma procedente si la empresa demostraba que incumplías el contrato. Puede que haya jueces que consideren que si el algoritmo resuelve que tienes baja productividad, es suficiente. Si vamos hacia un mundo en el que tenemos fe ciega en las máquinas y pensamos que no se equivocan, tal vez los jueces acaben convalidando esas decisiones. Es muy importante, y así intento transmitirlo en el libro, tener claro que las máquinas no son infalibles, sino todo lo contrario. Muchas veces tienen sesgos. Por ejemplo, ha habido algoritmos que sistemáticamente no contrataban a mujeres solo por ser mujeres y otros en los que por razones de conciliación se han despedido a personas cuando en realidad tenían derecho a ello. El problema es que el trabajador no puede demostrar que el algoritmo le ha discriminado. Si es una persona la que te despide, a través de una serie de indicios se puede saber la razón final o, incluso, el juez puede interrogarla. Pero a un algoritmo no y, en ocasiones, el abogado o el juez no tienen los conocimientos suficientes para demostrar qué ha pasado. Por eso estamos ante un reto muy grande, el de encontrar la manera de comprobar si el algoritmo ha tomado una decisión puramente labora o ha vulnerado algún derecho de la persona o cometido un error.

¿Una solución podría ser un programador que haga de perito judicial para interpretar un algoritmo, por ejemplo?

Sí, lo que pasa es que eso es muy costoso. En Estados Unidos muchos informáticos se están especializando en la auditoria de algoritmos o de la IA con el objetivo analizar las decisiones que toma. Pero eso tiene un coste muy alto, que si debe afrontar el propio trabajador o trabajadora, la mayoría de las veces no lo hará. Por eso, una de las propuestas que hago en el libro es la de establecer un organismo público que pueda auditar estos algoritmos, como ocurre, por ejemplo, con Hacienda en el control de las cuentas de las empresas. Ahora nos estamos jugando los derechos fundamentales y la humanización de las personas, por eso creo que debería haber un organismo estatal que controlara estas cuestiones.

¿Para las empresas son todo ventajas?

También puede tener aspectos negativos. En primer lugar porque si el algoritmo no está perfeccionado y, por ejemplo, discrimina a las mujeres, la empresa está perdiendo mucho capital humano de calidad que podría haber contratado. Lo mismo pasa con el tema de los accidentes. Si el nivel de velocidad que exige el algoritmo para hacer el trabajo es tan alto que provoca accidentes, ansiedad, estrés o trabajadores quemados, la empresa también se pierde un capital humano importante. Es también negativo para la empresa cuando el algoritmo no está auditado para comprobar que todas estas cuestiones no ocurren.

¿En qué tipo de trabajos se puede aplicar la IA?

A todos. Por ejemplo, ya hay algoritmos que calculan el tiempo óptimo para redactar una demanda en el caso de abogados. Igual que se calcula el tiempo óptimo para limpiar una habitación de hotel también puede hacerlo en el caso de un médico o cuánto tiempo tiene un enfermero o enfermera para poner una inyección. Todos estos controles se pueden hacer con independencia de que sea un trabajo cualificado o no. Es cierto que inicialmente se aplica a los no cualificados porque tienen menos poder para quejarse. Si a los médicos de un hospital les implantan este tipo de control tiene el colegio de médicos, sindicatos, que pueden de alguna manera rebelarse, mientras que hay otras profesiones con menor poder de negociación que hacen que no puedan oponerse a este tipo de control algorítmico.

Ahora los trabajadores reclaman mayor flexibilidad horaria y conciliación pero la aplicación de la IA parece que va en sentido totalmente contrario.

Determinadas empresas sí que están ofreciendo esa flexibilidad, pero otras, en cambio, van hacia una mayor vigilancia de sus trabajadores. Este efecto ocurre con la tecnología desde hace más de 20 años y se conoce como «polarización de la clase trabajadora», es decir, que hay por una parte gente que consigue mejoras, salarios más altos y mejor situación y otra que está en situación peor debido a la digitalización. Esa polarización se agrava con el tema de la IA.