Tiempos modernos: algoritmos que despiden

Por Iñaki Alrui. LQSomos.

Despedidos por algoritmos… suena lejano pero es realidad, no es ciencia ficción. Lejos empiezan a quedar aquellos departamentos de recursos humanos de hace un par de décadas que buscaban, hipócritamente, empatizar con la clase trabajadora. Sueño de ciencia ficción del capitalismo, realidad de hoy de la explotación la clase trabajadora.

Detrás de estas decisiones no hay una inteligencia humana, sino artificial, de momento bastante cuestionable. “La representación de los algoritmos como una cadena lógica pasa por alto el grado en que los algoritmos se modifican a sí mismos en y a través de sus relaciones iterativas no lineales con los datos de entrada”. Cloud Ethics, Louise Amoore (1).

Los algoritmos cada vez tienen un papel más preponderante en nuestras vidas, no solo como servidores o refuerzo en cotidianeidades, ya están presentes como controladores y agentes punitivos de nuestra actividad, son la nueva policía de control personalizado. Por ejemplo, los algoritmos se utilizan profusamente en el sistema sancionador estadounidense (2) y sirven, entre otras cosas, para determinar si se concede o no la libertad condicional, si se suspende la ejecución de la pena o, incluso, se utiliza como criterio para fijar su duración… y para cometer decenas de crasos errores: Condenado por un algoritmo (3).

Algoritmos que despiden en el mundo laboral

En agosto de este año, cerca de 150 personas de las 500 que trabajaban en las oficinas rusas, ubicadas en Perm y Moscú, de la empresa de servicios de pago para gaming XSolla, recibieron un mail en el que se les informaba que serían despedidos porque, después de un análisis sobre su actividad laboral de big data realizado por un sistema de inteligencia artificial contratado por la compañía, se había concluido que eran improductivas o poco comprometidas. El mensaje del despido indicaba que se concluyó que los trabajadores y trabajadoras eran “improductivas” porque durante los momentos más complicados de la pandemia del coronavirus en Rusia, momento en que todo el personal estaba trabajando de manera remota, se redujo su actividad en chats corporativos, comunicaciones a través de Gmail o el acceso a documentos y plataformas utilizadas por la empresa.

En 2019, en Estados Unidos, varios miembros del personal del servicio de reparto de Amazon, Flex, denunciaron a Bloomberg que la empresa de Jeff Bezos estaba utilizando, al menos en esa división, un sistema de inteligencia artificial para contratar, evaluar y despedir personal, sin que un solo ser humano se pusiera en contacto con estas personas en algún momento del proceso.

Las posturas de Amazon y XSolla se pueden enmarcar en un cambio en el paradigma de cómo se ve el mercado laboral a través de las empresas “modernas” que nos dan servicio. Estos casos han llevado a cuestionar la aplicación de los algoritmos y los sistemas de machine learning o aprendizaje automático en el ámbito laboral, y de qué manera se los programa para definir qué es productividad y qué no… sin olvidar que estos programas en su mayoría mantienen los códigos en secreto.

Forbes Rusia  publicaba, en relación con el caso de XSolla, que el director ejecutivo de la empresa, Aleksandr Agapitov, defendió el uso de este sistema argumentando que para su empresa buscaba “que todo nuestro personal piense diariamente en cómo sus acciones y decisiones afectan al destino y el éxito de la empresa, porque tenemos metas muy ambiciosas para los próximos años”. Ninguna de las personas despedidas ocupaba un alto cargo, algo sorprendente cuando se considera que esta resolución se tomó en un momento en que la empresa sufrió una caída de 40% en su crecimiento.

En el caso de Amazon Flex, además, se informa a las personas aspirantes que para trabajar en el servicio por un salario de 25 dólares por hora deben aceptar ser monitoreados por el sistema de la compañía a través de una app, la misma que tienen que utilizar para organizar sus entregas de reparto. Estos algoritmos no tienen en cuenta algunas variables que pueden generar complicaciones a la hora de trabajar, realidades de factor humano que a día de hoy no entran en la ecuación. El sistema evaluaba negativamente a los repartidores cuando no podían entregar un paquete porque el complejo de viviendas en el que residía el comprador se encontraba cerrado. Otra trabajadora dijo que su calificación bajó cuando reportó un pinchazo en la rueda de su vehículo, que la obligó a demorar la realización de algunas entregas.
Además, si los repartidores quieren impugnar un despido mediante el sistema de Amazon, deben empezar por pagar 200 dólares por la impugnación. Y en cualquier caso, nunca llegan a ponerse en contacto con una persona. Pese a esto, a los directivos de la empresa no parece molestarles la situación. Desde su lanzamiento en 2015, más de cuatro millones de personas descargaron la app de Amazon Flex para trabajar como repartidores a través de ella, algo que la empresa de Bezos considera un éxito rotundo. En declaraciones a Bloomberg, la portavoz de la empresa, Kate Kudrna, calificó de “anecdóticos” los casos en los que se denuncia una mala gestión por parte del sistema de inteligencia artificial.

En el caso de XSolla, mientras tanto, al menos 60 de los 150 despedidos consiguieron hablar con sus superiores directos y que se cancelara su despido. En el mail de despido, Aleksandr Agapitov invitaba a los empleados y empleadas en cuestión a buscar un nuevo empleo en el que pudieran “ganar más y trabajar aún menos”, y afirmaba que se vio obligado a acatar la resolución del sistema de machine learning porque ya se había acordado en la junta de accionistas.

El periodista Spencer Soper (4) publicó un artículo sobre la situación de los repartidores de Amazon Flex, en el que nos contaba cómo Stephen Normandin, un repartidor de 63 años damnificado por la decisión del algoritmo, apelaba a “una cultura del esfuerzo y la dignidad del trabajo, mientras que compañías como Amazon basan su modelo en una creciente automatización de los procesos productivos y las rutinas laborales que excluye casi por completo el factor humano. […] He demostrado en múltiples ocasiones que soy una persona disciplinada y responsable, no me merezco que se prescinda de mí sin escucharme, atender a mis circunstancias o darme explicaciones”.

Lo que también va quedando cada vez más claro es la absoluta falta de transparencia en el diseño y uso de estos programas de control, y por supuesto que los algoritmos toman decisiones arbitrarias y tratan a las personas como objetos. Este no es el camino.

Tiempos modernos, tiempos despóticos.

Notas:
1.- Cloud Ethics. Algorithms and the Attributes of Ourselves and Others
2.- Este algoritmo sugiere a los jueces de EEUU qué condenas imponer
3.- Condenado por un algoritmo
4.- Fired by Bot at Amazon: ‘It’s You Against the Machine’

Más artículos del autor. Miembro del Colectivo LoQueSomos. En Twitter: @IkaiAlo

Síguenos en redes sociales… Facebook: LoQueSomos Twitter: @LQSomos Telegram: LoQueSomosWeb Instagram: LoQueSomos

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Nos obligan a molestarte con las "galletitas informáticas". Si continuas utilizando este sitio aceptas el uso de cookies. más información

Los ajustes de cookies de esta web están configurados para "permitir cookies" y así ofrecerte la mejor experiencia de navegación posible. Si sigues utilizando esta web sin cambiar tus ajustes de cookies o haces clic en "Aceptar" estarás dando tu consentimiento a esto.

Cerrar