
Gaiak
La inteligencia artificial y el uso de algoritmos para dirigir el trabajo: ¿hacia un trabajo deshumanizado?
La realidad nos advierte que tanto Administraciones Públicas como empresas privadas utilizan algoritmos e inteligencia artificial. Ejemplo de ello es el algoritmo SyRI ( Risk Indication) en los Países Bajos para predecir la probabilidad de fraude a la Seguridad Social y al fisco por parte de los solicitantes de beneficios estatales. En la empresa privada contamos, entre otros, con el chatbot Phai, creado por PredictiveHire, que hace una serie de preguntas abiertas a los candidatos a una oferta de empleo. A continuación, analiza sus respuestas para detectar las características de personalidad relacionadas con el trabajo como dinamismo, iniciativa y flexibilidad. Phai promete en su página web una contratación más justa y recalca que hace las entrevistas muy rápido, es inclusivo y sin sesgo (bias). Pero, ¿Cuáles son los límites a los algoritmos?, ¿están protegidos los trabajadores frente a las decisiones algorítmicas que deciden la tarea?
Parece claro que el derecho a la intimidad y a la protección de datos de carácter personal del sujeto afectado es un límite al recurso a los algoritmos. Así lo afirma la Sentencia del Tribunal de Países Bajos (Tribunal de lo civil de la Haya) de 5-2-2020 respecto de SyRI, indicando que existe una responsabilidad especial en el uso de las tecnologías emergentes y concluye que el empleo de SyRI supone un incumplimiento del artículo 8 del Convenio Europeo de los Derechos Humanos (el derecho al respeto de la vida privada y familiar) debido a la falta de transparencia y uso sesgado de este instrumento, utilizado exclusivamente en barrios donde viven personas con rentas bajas o zonas donde residen minorías. Ahora bien, en el ámbito laboral, se deben tener en cuenta otros derechos en juego como el derecho a la seguridad y salud de los trabajadores.
Es cierto que la robótica reduce la exposición de los empleados a tareas peligrosas y/o insalubres pero también puede producir accidentes de trabajo. En la STS de 20-1-2010[1] el Tribunal Supremo concluye que el entrar el trabajador en la zona de riesgo y proceder por su cuenta para realizar una serie de operaciones bajo el alcance del robot ante una parada del robot, no hubo imprudencia temeraria del trabajador. Pese a que el trabajador falleció debido al atrapamiento de su cabeza por el robot, a juicio del Alto Tribunal, se produjo una concurrencia de culpas en la medida en que el daño surge, por una parte, de las infracciones de las normas de seguridad imputables a la empresa, pero también de una conducta de la propia víctima, que, con la intención de reparar el desperfecto, entra en la zona de riesgo y procede por su cuenta a realizar una serie de operaciones bajo el alcance del robot. La línea de esmaltado carecía de dispositivos y medidas que impidieran el acceso de trabajadores en dichas zonas móviles y agresivas de manera súbita e imprevista y el brazo del robot no disponía de un mecanismo que evitara el reinicio del movimiento del mismo una vez parado por cualquier causa, esto es, un dispositivo de seguridad, que parara de forma definitiva la máquina cuando el brazo se detuviera por defecto de colocación de ladrillos. Finalmente, se impuso a la empresa un recargo del 30% de las prestaciones de Seguridad Social.
Sin embargo, en otras ocasiones, se ha apreciado la negligencia exclusiva del empleado en accidentes laborales producidos por robots. Es el caso de la STSJ de Cataluña de 18-12-2017[2] donde se razona que el trabajador Nicolás era conocedor de que el sistema para acceder a la zona del robot era a través de la puerta que dispone del sistema de detección de personas por célula y parada automática del robot. No obstante, accedió a la zona saltando la valla metálica «para ir más deprisa» y corregir la avería del robot, pensando que el robot no se pondría en marcha. Nicolás sufrió un traumatismo torácico-abdominal, aplastamiento torácico, neumotórax derecho, y enfisema subcutáneo por el que causó situación de incapacidad temporal. Se concluye, por tanto, que se ha demostrado una negligencia exclusiva y no previsible del propio trabajador accidentado por lo que no concurre aquel nexo o relación de causalidad que exige la aplicación del recargo de prestaciones. En parecidos términos, resuelve la STSJ de Andalucía, Granada, de 4-4-2019[3], que desestima la reclamación de indemnización de daños y perjuicios debido al fallecimiento del trabajador por un robot, argumentando que se produjo imprudencia temeraria del trabajador, pese al conocimiento de los riesgos de penetrar en la máquina y los claros carteles de advertencia en materia de seguridad expuestos en las inmediaciones de la misma, sin que pueda exigirse al empresario que esté presente las veinticuatro horas del día el especialista encargado del manejo de la máquina[4].

La progresiva pérdida de funciones y autonomía para el trabajador así como la monitorización permanente de
su producción puede derivar en riesgos graves para su salud tales como depresión, ansiedad o estrés
al verse relegado a la posición de máquina dentro del proceso productivo.
La tecnología emergente permite no solo que el trabajador tenga un compañero robot sino que también puede haber un jefe algoritmo[5]. En la práctica, el uso de esta tecnología viene a significar una distribución de funciones entre la persona y la máquina inteligente (el algoritmo) hasta el punto que es posible la adopción de medidas solo por algoritmos sin que haya margen de decisión por parte del trabajador. La progresiva pérdida de funciones y autonomía para el trabajador así como la monitorización permanente de su producción puede derivar en riesgos graves para su salud tales como depresión, ansiedad o estrés al verse relegado a la posición de máquina dentro del proceso productivo. Más aún cuando las máquinas no descansan y pueden instar al trabajador a prolongar su jornada laboral con mensajes blandos del tipo: “todavía hay emocionantes tareas asignadas para ti, ¿estás seguro que deseas abandonar?”[6].
Los algoritmos predictivos pueden llegar a realizar evaluaciones ergonómicas del riesgo de estrés físico del trabajador/usuario de la herramienta a través del desarrollo de sensores corporales personalizados colocados en la ropa recopilando información, en tiempo real, sobre la salud del trabajador fundamentada en el análisis de los parámetros recogidos: postura, cargas, tiempos y estado fisiológico (frecuencia cardíaca, temperatura corporal, etc.)[7]. Sin embargo, habrá que tener en cuenta la posibilidad de los falsos positivos (cuando se clasifica al trabajador con riesgo de estrés físico de forma errónea), los falsos negativos (cuando se clasifica al trabajador sin riesgo de estrés físico y el riesgo existe) y que estos sistemas den preferencia a ciertos valores sobre otros (las ganancias generales sobre pérdidas específicas). Por ejemplo, se deberá controlar si el algoritmo prioriza la producción sobre el derecho fundamental a la seguridad y salud de los trabajadores. En esta línea, se pronuncia la Recomendación CM/Rec (2020) 1 del Comité de Ministros del Consejo de Europa a los Estados Miembros sobre los impactos de los sistemas algorítmicos sobre los derechos humanos de 8 de abril de 2020, donde se insta a los Estados miembros a adoptar un enfoque de precaución[8] y exigir el rechazo de determinados sistemas cuando su despliegue conlleve un alto riesgo de daños irreversibles o cuando, debido a su opacidad, el control y la supervisión humanos se vuelvan impracticables en línea con la pirámide alemana de criticidad basada en el riesgo[9]. El término “alto riesgo” se aplica al referirse al uso de sistemas algorítmicos en procesos o decisiones que pueden producir graves consecuencias para las personas o en situaciones donde la falta de alternativas genera una probabilidad particularmente alta de vulneración de los derechos humanos incluso introduciendo o ampliando la injusticia distributiva.
Mientras que los datos introducidos en un sistema pueden ser neutrales y representativos, la combinación de varios tipos de datos puede dar lugar a efectos discriminatorios. Así lo afirma la reciente Guía aprobada por CNIL (Agencia francesa de protección de datos) sobre Algoritmos e Inteligencia Artificial de 2 junio de 2020 donde se concluye que los sistemas automatizados “tienden a estigmatizar a los miembros de grupos sociales ya desfavorecidos y dominados”. En lógica preventiva, los trabajadores inmigrantes, discapacitados y mujeres son potenciales víctimas de los algoritmos debido a su vulnerabilidad. El documento propone que se sancione a las personas que apliquen decisiones discriminatorias y que a su vez se introduzcan recomendaciones como imponer obligaciones de transparencia más estrictas que refuercen la necesidad de explicar la lógica detrás de los algoritmos (y permitir que terceros, y no solo los afectados por una decisión automatizada, accedan a los criterios utilizados por los algoritmos) y realizar estudios de evaluación de impacto para anticipar los efectos discriminatorios de los algoritmos. Como se observa, la guía francesa desarrolla más garantías que las previstas en el artículo 22 sobre decisiones basadas únicamente en el tratamiento automatizado de datos del Reglamento Europeo 2016/679, relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a libre circulación de estos datos.
Por último, conviene subrayar que en el caso judicial de SyRI una de las partes demandantes fue la Confederación de Sindicatos de los Países Bajos. En verdad, parece recomendable que también los agentes sociales y la negociación colectiva tomen parte en el control y uso de los algoritmos especialmente cuando éstos pueden afectar a la seguridad y salud de los trabajadores. En este sentido, es un buen comienzo que algunos documentos sindicales introduzcan afirmaciones de este tipo: "Tenemos que abrir de forma colectiva el debate sobre el control de los algoritmos, la regulación de su uso, establecimiento de límites, registro público y/o empresarial, o la negociación de su uso” [10].
Bibliografía
- MERCADER UGUINA, J.R, El futuro del trabajo en la era de la digitalización y la robótica, Tirant Lo Blanch, 2017.
- MUÑOZ RUIZ, A.B., Sistema normativo de la prevención de riesgos laborales, Lex Nova, 2009.
Robótica y derecho del trabajo: una revisión de los primeros fallos judiciales, Trabajo y Derecho, Nº 62, 2020, págs. 67-77.
¿Se deben regular los algoritmos? Un breve análisis a la propuesta normativa alemana: la pirámide de criticidad basada en el riesgo, Foro de Labos, 2019, https://forodelabos.blogspot.com/2019/12/se-deben-regular-los-algoritmos-un.html
- TODOLÍ SIGNES, A., En cumplimiento de la primera Ley de la robótica: Análisis de los riesgos laborales asociados a un algoritmo/inteligencia artificial dirigiendo el trabajo (Complying With the First Law of Robotics: An Analysis of the Occupational Risks Associated With Work Directed by an Algorithm/Artificial Intelligence), Labour & Law Issues, 5 (2), 2019, pp. 1-38. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3506584
[1] Rcud 1239/2009.
[2] Rec. 6147/2017.
[3] Rec. 1948/2018.
[4] Más extensamente, MUÑOZ RUIZ, AB., Robótica y derecho del trabajo: una revisión de los primeros fallos judiciales, Trabajo y Derecho, ISSN 2386-8090, Nº 62, 2020, págs. 67-77.
[5] MERCADER UGUINA, J.R, El futuro del trabajo en la era de la digitalización y la robótica, Tirant Lo Blanch, 2017.
[6] TODOLÍ SIGNES, A., En cumplimiento de la primera Ley de la robótica: Análisis de los riesgos laborales asociados a un algoritmo/inteligencia artificial dirigiendo el trabajo (Complying With the First Law of Robotics: An Analysis of the Occupational Risks Associated With Work Directed by an Algorithm/Artificial Intelligence), Labour & Law Issues, 5 (2), 2019, pág. 14. 2020
[7] Vid. Proyecto H2020 Bionic liderado por Alemania y en el que participan la Fundación Laboral de la Construcción y el Instituto de Biomecánica de Valencia.
[8] Más extensamente sobre el principio de Precaución o de Cautela, MUÑOZ RUIZ, A.B, Sistema normativo de prevención de riesgos laborales, Lex Nova, 2009.