En un mundo tecnificado e hiperconectado, las nuevas tecnologías facilitan la vida y mejoran los procesos y la productividad. La máquina agiliza y elimina subjetividad propiamente humana lo que puede redundar en innegables beneficios. En el ámbito de las relaciones de trabajo aquellas facilitan la selección de trabajadores y la gestión de los recursos humanos en el día a día de las empresas (sistemas de promoción profesional y económica, evaluación del desempeño, incentivos…).
Así, tanto en el acceso al puesto de trabajo como en el desarrollo de la prestación de servicios, el empleador ejerce hoy un poder de dirección tecnológico que supone la participación de máquinas en el proceso de toma de decisiones (en su totalidad o en una parte de este). Aquí radica la novedad y también la necesidad de cautela y de fijar garantías porque, ahora, aquella máquina es un algoritmo que adopta decisiones que afectan a personas (potenciales candidatos a un empleo o trabajadores), lo que nos lleva a su cuestionamiento desde la igualdad y no discriminación. Los algoritmos, no solo pueden perpetuar las desigualdades en la sociedad sino también integrarlas de manera opaca, al tiempo que se consideran objetivos y precisos (O’Neil, Armas de destrucción matemática, 2018).
Con carácter general, la proyección de la igualdad en el ámbito de las relaciones privadas es limitada, pero en este ámbito, sí se despliega el principio de no discriminación. Esto es, el empresario habrá de evitar decisiones sesgadas que creen situaciones de discriminación lo haga con técnicas humanas o (ahora) digitales. En el ámbito del acceso al empleo, el objetivo algoritmo habrá sido diseñado para obtener un resultado a partir de una secuenciación de pasos, pero ya aquí puede haber sesgos (sexo, edad, raza, religión…). Esto es, el código fuente del algoritmo revela su construcción sesgada que excluirá a determinados candidatos (v gr. se entrena al sistema utilizando única o principalmente datos relativos a hombres y ello se traduce en exclusión o resultados peores para las mujeres).
Ahora bien, esta sencilla operación que ahorra tiempo y costes en la selección de personal (la máquina no descansa, no hay que pagarle horas extras…) es frecuente que se haga más sofisticada mediante el aprendizaje automático profundo del algoritmo (deep learning) de la máquina. No es sólo la simple búsqueda de las características deseadas y la selección de candidatos afines, sino que aquel, a partir de su propio aprendizaje, determina las características idóneas, por repetición (si hay más CV de hombres que aplican a puestos STEM, preferirá a hombres) y por asociación (persona de color/hispano-delincuencia, mujer–reducciones jornada, menos productividad-…). El sistema de inteligencia artificial aprende mientras está funcionando y aquí los resultados no pudieron preverse ni anticiparse en la fase de diseño, sino que son las repercusiones prácticas de las correlaciones que reconozca el sistema en un gran conjunto de datos (Comisión Europea, Libro Blanco sobre inteligencia artificial. Un enfoque orientado a la excelencia y confianza. 2020).
Por tanto, desde la óptica de la no discriminación estaríamos ante dos situaciones posibles: a) En la primera hay una discriminación directa: voluntad empresarial de excluir a determinados candidatos de una oferta de empleo. b) En la segunda, a priori, no existe intencionalidad discriminatoria…salvo que la empresa, que conociera el impacto discriminatorio del algoritmo, lo consintiera y lo continuara utilizando.
Si el algoritmo puede desplegar efectos discriminatorios en todos los estadios de la relación de trabajo, en la fase de acceso al empleo, su impacto vulnerador de derechos fundamentales es especialmente intenso, haciendo más débil al que ya lo es. Al margen de tecnología, el candidato a un empleo o participante en un proceso de selección, goza también en esta fase, de la protección jurídica de los actos discriminatorios (nulidad, reparación –indemnización por daños y perjuicios-…) pero, en la práctica, ello se ve extraordinariamente dificultado por cuestiones de prueba. Esta débil posición jurídica se potencia ahora al combinar algoritmo, proyección predictiva y big data.
El algoritmo se alimenta de datos y estos pueden ser facilitados por los propios candidatos a un empleo o no, pero igualmente utilizados en el proceso. Así, en la búsqueda del candidato idóneo, se utilizarán datos que procedan de fuentes diversas, se interconectarán, se elaborarán perfiles y se sacarán conclusiones. Y en todo esto, ¿Dónde están las garantías? ¿Qué límites establece el derecho? La espectacular proyección de la inteligencia artificial en todos los ámbitos y, también, en el mundo del trabajo ha abierto un interesante debate a nivel internacional, europeo y nacional sobre su impacto en los derechos humanos y la necesidad de fijar un marco de protección. En esta línea, el Consejo de Europa anima a los Estados miembros a incentivar la innovación tecnológica de acuerdo con los derechos humanos existentes, incluidos los derechos sociales y las normas laborales y de empleo reconocidas internacionalmente (Recomendación CM/Rec (2020) 1 del Comité de Ministros de los Estados miembros. Los impactos de los sistemas algorítmicos en los derechos humanos. 2020).
En el marco de la protección de datos, el art. 22 RGPD (Reglamento 2016/679 relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos) establece la prohibición general de las decisiones basadas únicamente en tratamiento automatizado: <<derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado, incluida la elaboración de perfiles que produzca efectos jurídicos en el (individuo) o le afecte de modo similar>>.
Es decir, el algoritmo arroja un resultado en base a una secuencia de operaciones pero se exige intervención humana en el proceso…¿solo en la fase final o también en las intermedias? Si, por ejemplo, pretendemos corregir la total automaticidad del proceso con una entrevista personal final entre los seleccionados por la máquina, podría no ser suficiente porque durante el proceso ya se podrían haber producido descartes de candidatos que podrían ser discriminatorios.
Junto a esta garantía jurídica de intervención humana del RGPD ya se apuntan otras como la inteligencia artificial explicable (no solo del resultado final), la necesidad de transparencia del algoritmo (información significativa de la lógica aplicable) y la minimización de los datos tratados para estos fines –adecuados, pertinentes y limitados- (Directrices sobre decisiones individuales automatizadas y elaboración de perfiles a los efectos del Reglamento 2016/679 Grupo del Trabajo del art. 29 -hoy Comité Europeo de protección de datos).
La discriminación algorítmica en el acceso al empleo ha de contar, además, con garantías colectivas a través de la representación de los trabajadores y la negociación colectiva. Los convenios colectivos y acuerdos de empresa habrían de incorporar previsiones específicas en la línea apuntada en materia de ingreso cuando la empresa utilice inteligencia artificial en los procesos de selección de personal. O, al menos, consultar e informar a los representantes de los trabajadores su introducción y utilización. En esta línea, la Comunicación de la Comisión Generar confianza en la inteligencia artificial centrada en el ser humano apunta tal necesidad cuando la implementación de sistemas de inteligencia artificial en la empresa pueda provocar cambios en la organización del trabajo, la vigilancia y su control, así como en los sistemas de evaluación y contratación de trabajadores.
En definitiva, la inteligencia artificial, además de explicable, ha de ser equitativa e inclusiva, sin sesgos y no reproducir desigualdades o incluso aumentarlas. Aun en un mundo de máquinas, el algoritmo lo crea el humano por lo que el diseño y desarrollo de los sistemas de inteligencia artificial han de tener en cuenta aquellas premisas y no escudarse en la aparente objetividad del número. Por su parte, el derecho ha de desplegar las garantías propias de la protección de derechos fundamentales y adaptarlas cuando sea necesario en este entorno digital imparable.
María Teresa Alameda Castillo
Profesora Derecho del Trabajo y Seguridad Social, Universidad Carlos III de Madrid
SUSCRÍBETE
SUSCRÍBETE