Los algoritmos a veces dan una falsa impresión de objetividad que aplasta los derechos de las personas

Entrevista a Carlos Preciado, Magistrado del TSJC Catalunya

No es legal que un empresario rastree las redes sociales personales de un candidato a un puesto de trabajo para decidir si le contrata. Tampoco que averigüe en qué empresas ha trabajado gracias a su huella digital y llame en busca de referencias sin su consentimiento. Ni que obligue al trabajador a instalar una app en su teléfono personal que lo mantenga geolocalizado en todo momento simplemente porque la tecnología se lo permite.

Son cosas que «parecen socialmente asumidas», explica en entrevista con eldiario.es Carlos Preciado (Tarragona, 1969), magistrado de lo Social en el Tribunal Superior de Justicia de Catalunya, pero que pueden cambiar. ¿Cuándo? En cuanto estos abusos vayan llegando a los tribunales.

El jurista, autor de Los derechos digitales de las personas trabajadoras (Aranzadi, 2019) detalla que en gran parte será gracias al Reglamento General de Protección de Datos europeo que entró en vigor hace trece meses. Este reconoce una serie de derechos digitales que «garantizan la dignidad de las personas frente al uso de las tecnologías», algo que «inevitablemente va a desembocar en pleitos»: «Seremos los tribunales los que, para mejor o para peor, tendremos que trazar las líneas por donde discurre toda la problemática».

¿Qué hay que hacer si te despide un algoritmo o «inteligencia artificial»?

Demandar, porque el despido es evidentemente nulo. Atenta contra el derecho digital de no ser objeto de una decisión automatizada de datos.

¿Esto qué quiere decir? En primer lugar, que esta práctica está prohibida por ley salvo algunas excepciones, como que sea necesario para la ejecución de un contrato. Pero incluso en estos casos, la persona afectada tiene derecho a obtener la intervención humana y a combatir esa decisión automática. Y todo eso, por supuesto, antes de llegar a un tribunal, porque esos son derechos que se van a proteger en los juzgados pero que se tienen que cumplir extrajudicialmente.

Esto, que estoy ejemplificando con el despido, vale para muchas cosas, como las decisiones de algoritmos sobre la promoción profesional o incluso para la contratación.

¿Y si te despide una persona en nombre de una máquina?

Tienes derecho a poder discutir esa decisión, pero lo que pasa es que eso, en derecho laboral, aún no se ha especificado cómo va a ser. ¿Va a haber un expediente previo? ¿Va a tener que constar el algoritmo o su lógica en la carta de despido para que el trabajador se pueda defender frente a esa lógica que considera discriminatoria? Todas estas son cuestiones que se van a plantear tarde o temprano pero que la ley no ha resuelto.

Sin embargo, el derecho está ahí. La gente lo puede ejecutar y seremos los tribunales los que, para mejor o para peor, tendremos que trazar las líneas por donde discurre toda la problemática.

¿Qué pasa con los algoritmos de las plataformas como Uber, Deliveroo, etc. que deciden cuándo, cómo, cuánto y por cuánto se trabaja? 

En este tipo de plataformas lo que tenemos son sistemas de valoración del trabajador en base a algoritmos, que determinan efectos en su patrimonio jurídico. Usted no va a recibir más de tantos pedidos por semana porque no ha aceptado más de otros tantos. Pero a lo mejor yo estoy al cuidado de mi hijo y no he aceptado tantos encargos por eso, por lo tanto ese algoritmo me está discriminando.

Muchas veces las máquinas dan una falsa impresión de objetividad que a veces aplasta, literalmente, los derechos de las personas. La protección ante eso es de lo que se encarga el Reglamento de Protección de Datos. Lo pasa es que todavía esto no ha empapado la cultura jurídica y la gente no es consciente, porque probablemente es que no es ni siquiera consciente de que está siendo despedida por una máquina.

¿Entonces? ¿Este tipo de algoritmos no son acordes a derecho?

Los algoritmos no es que no sean acordes a derecho, son acordes a derecho siempre que respeten los derechos. El principio de transparencia es fundamental: tiene que haber una información de que se están tratando los datos a través de un algoritmo, sobre la finalidad de ese tratamiento y sobre los los sesgos de ese algoritmo, en tanto en cuanto afecten al patrimonio jurídico de las personas.

Todo esto es precisamente para evitar que por el simple razonamiento de que una máquina lo ha dicho así, y de que el programa lo ha dicho así, esa decisión ya es irrebatible e irrefutable. Todo esto son barreras a la tecnología que garantizan la dignidad de las personas, en el trato entre entre ellos cuando el intermediario es una máquina. Son derechos de protección de datos frente al uso de las tecnologías.

¿Por qué es ilegal que una práctica tan extendida como pedir al trabajador que instale una app en su teléfono personal?

Un trabajador no tiene que aportar medios propios para que funcione la empresa. Eso es una cuestión que si no se impone y se consiente de forma efectiva en el contrato de trabajo, no está dentro de las obligaciones laborales del trabajador o trabajadora. Ahora bien, partiendo de eso, sí que es cierto que se aprovecha la vulnerabilidad de los trabajadores a la hora de contratar para imponerles ciertas prácticas que pueden considerarse abusivas.

¿Como por ejemplo?

Abusivas como, por ejemplo, la que ha declarado recientemente la Audiencia Nacional sobre la obligación de los trabajadores de instalar una app de Telepizza en sus móviles para saber dónde estaba geolocalizada la situación del reparto. Eso es una práctica abusiva.

¿Por qué es una práctica abusiva?

Por lo que hemos dicho al principio: porque la situación del trabajador a la hora de dar el consentimiento es débil. Es decir, es una persona que necesita el trabajo para vivir y por tanto va a consentir casi todo lo que le pongan por delante, sin que ello sea necesario para prestar el contrato de trabajo.

El nuevo Reglamento de Protección de Datos ofrece una serie de garantías que van a implicar un cambio de apreciación desde el punto de vista jurídico sobre cosas que parecen socialmente asumidas. Cosas como el control de acceso a través de la retina o a través de la huella digital, que en principio son desproporcionados en el 90% de los casos: para controlar el acceso a una panadería, a un banco o a un sitio donde no haya exigencias de seguridad e individualidad muy altos, no se requiere un dato biométrico.

¿Se avecina una época de redefinición de los derechos laborales a través de sentencias?

El Reglamento europeo va a provocar una transversalización de la protección de datos en toda la relación laboral, e inevitablemente va a desembocar en pleitos sobre cuestiones que se están planteando ahora, o que todavía no se han planteando.

Por ejemplo, el despido vulnerando la desconexión digital, o el despido automatizado. Todo eso inevitablemente va a desembocar en litigios. Cuanto mayor sea la asunción de los derechos que la ley y que el Reglamento comunitario dispensan, más se ejercitarán y, por lo tanto, más litigios van a provocar. Eso es inevitable y de hecho ya alguna cosa se está empezando a ver a nivel sobre todo en videovigilancia y en geolocalización, que sean probablemente los dos medios de control empresarial más utilizados.

¿No es un poco injusto pedirle a un trabajador, como a los de Telepizza, que pleitee hasta el Constitucional para proteger sus derechos digitales?

Hay más mecanismos de protección. La Inspección de Trabajo y las agencias de protección de datos autonómicas y estatales son mecanismos que se pueden utilizar con menos riesgo para la parte débil en el contrato, que es el trabajador, que el ejercicio de acciones judiciales. La capacidad sancionadora de las agencias es muy disuasoria y muy importante. Un tratamiento indebido de datos puede suponer una multa millonaria.

En su tribunal, el TSJ de Catalunya, ¿se ha notado ya el aumento de litigios por cuestiones referentes a derechos digitales?

Sí. Hace diez años la ilicitud de una prueba por haberse obtenido con una videograbación o una geolocalización incorrecta desde el punto de vista de la Ley de Protección de Datos era algo muy poco frecuente. Ahora son enormemente abundantes los litigios, lo cual quiere decir que la comunidad jurídica está interiorizando ya todos estos derechos y los está utilizando para defender los intereses de cada uno, tanto empresarios como trabajadores.

Critica que la ley de protección de datos española no ha reconocido debidamente los derechos colectivos. ¿Por qué ha ocurrido esto?

Tendrían que responderlo los legisladores. Desde luego, no creo que con la demora que tuvo la tramitación de la ley pueda achacarse a la casualidad o al olvido. Tiene que haber una intencionalidad clara ya que es evidente que han quedado en el tintero multitud de cuestiones que afectan a la a la posibilidad de defensa de derechos colectivos.

Yo creo que se han dejado en el tintero para, desgraciadamente, dificultar la acción sindical. El sindicato no va a poder ejercitar multitud de derechos como la información sindical porque toda esa articulación todavía está, en el ámbito jurisprudencial, ante el vacío legislativo. Que eso ocurriera antes de 2016, pues bueno, puede tener una explicación. Pero que después de la aprobación del Reglamento de Protección de Datos, eso siga ocurriendo, esas explicaciones se reducen.

En mi humilde opinión hay una clara intencionalidad política en dificultar la labor sindical en el ámbito de las nuevas tecnologías, de la protección de datos y del flujo de información que es necesario para el ejercicio de la labor sindical.

Extraido de el diario.es

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.