La Ley nacional de igualdad alude, como acabamos de indicar, a minimización de sesgos, transparencia y rendición de cuentas, siempre que sea técnicamente posible. También diseño y datos de entrenamiento con valoración del potencial impacto discriminatorio promoviendo a tal fin la realización evaluaciones de impacto que determinen el posible sesgo discriminatorio.
Tales exigencias han de conectarse también con el art. 22 RPGD – el algoritmo y la inteligencia artificial se nutren de datos- que establece la prohibición general de decisiones íntegramente automatizadas con efectos jurídicos -o que pueda afectar significativamente de un modo similar-, incluida la elaboración de perfiles, salvo excepciones. Entre ellas, cuando sea necesario para la celebración de un contrato, lo cual incluye el contrato de trabajo (y siempre que se cumpla el requisito de necesidad).
En las Guidelines on Automated individual decisión-making and Profiling for the purposes of Regulation 2016/679 , el Grupo de Trabajo del art. 29 (hoy Comité europeo de protección de datos) entiende que una decisión tiene efectos jurídicos cuando afecta a la situación legal de una persona o a sus derechos y tiene efectos similarmente significantes cuando esa decisión: a) impacta en las circunstancias, comportamiento y opciones de las personas, b) puede tener un efecto permanente o prolongado o c) genere exclusión o discriminación. Aquí, el responsable del tratamiento, asume la obligación de adoptar las medidas adecuadas para garantizar los derechos de los interesados lo que incluye una intervención humana, junto a la posibilidad de expresar el punto de vista e impugnar la decisión (art. 22.3 RGPD).
Este derecho de información e impugnación parece aplicarse solo a las decisiones automatizadas sin intervención humana, excluyéndose a las semiautomatizadas. Ahora bien, derecho de información de los art. 13.2. f], 14.2.g] y 15.1 RGPD se predica de la elaboración de perfiles, en general y ello incluye el derecho a obtener información sobre la existencia de decisión automatizada, la lógica involucrada en la decisión y las consecuencias que pueden derivarse para la persona interesada. Esto es, el derecho a obtener información sobre las variables o parámetros utilizados por el algoritmo pero no el derecho a acceder al código fuente. Además, el art. 64.4. d) ET (modificación operada por el RD Ley 9/2021, de 11 de mayo) recoge ahora un importante derecho de información colectiva de la representación legal de los trabajadores. Tendrá esta derecho a ser informada por la empresa de los parámetros, reglas e instrucciones en las que se basan los algoritmos o sistemas de inteligencia artificial que afectan a la toma de decisiones que pueden incidir en las condiciones de trabajo, el acceso y mantenimiento de empleo, incluida la elaboración de perfiles. Esta garantía colectiva se extiende a toda gestión algorítmica del trabajo y aun cuando haya intervención humana.
Junto a ello, el art. 35 RGPD establece la obligación de la empresa de realizar una evaluación de impacto cuando lleve a cabo un tratamiento de datos mediante el uso de nuevas tecnologías que por su naturaleza, alcance, contexto o fines, entrañe un alto riesgo para los derechos y libertades de las personas físicas y después identifica la adopción de decisiones automatizadas, incluida la elaboración de perfiles, con efectos jurídicos o similarmente significativos, como un tratamiento de alto riesgo para los derechos y libertades de las personas que requiere de aquella evaluación de impacto previa. Sería este un ejemplo de responsabilidad proactiva (preventiva) en línea con las afirmaciones de la AEPD en relación a las estrategias de transparencia, gestión del riesgos y mecanismos de auditoría y certificación que posibiliten el cumplimiento de las obligaciones del RGPD y mejoren la confianza en los productos y servicios de inteligencia artificial.