“IE Lawtomation Days II” y la humanización del algoritmo

Latest

Parte de lo que un alumno sabe sobre derecho lo aprende en las aulas. Hay ciertas cosas que son, hasta cierto punto, intuitivas incluso si uno no se dedica a la ley. Es decir, se asume que el derecho mercantil hablará indiscutiblemente sobre la ley y las empresas, o que el derecho administrativo es cosa del Estado. De lo que no son conscientes —ni siquiera para quienes pretenden dedicarse a ejercer la ley—  es que la digitalización del derecho abarca formas e idiomas que, para un estudiante promedio de derecho son ilegibles, y que, para la mayor parte del mundo legal actual, resultan desafiantes.

IE Lawtomation Days II

IE University es pionero en la conversación del derecho y la automatización. En las aulas, donde se introduce lo que ya no puede parecer a calzador, una de las palabras más usadas del año pasado según la RAE: inteligencia artificial (IA). Fuera de éstas, realiza conferencias como las llevadas a cabo durante los días 28 y 29 de septiembre: IE Lawtomation Days II. La segunda edición de IE Lawtomation Days II acogió a los académicos finalistas de la llamada a presentar escritos que divulgaran sobre la automatización de la toma de decisiones y el papel de la IA. 

Detrás del evento de IE Lawtomation Days II se esconde el Centro de Excelencia Jean Monnet para el Derecho y la Automatización, inaugurado por el IE hace un año, a la cabeza se encuentra Francisco de Elizalde, Profesor Titular de la Facultad de Derecho de la universidad. El Centro, financiado por el programa Erasmus+, es uno más en la tela de araña que teje la Unión Europea en materias de investigación multidisciplinar. La iniciativa de IE Law School acentúa la importancia de poner en boca de los profesionales legales palabras como e-justice, la justicia electrónica, o el Estado automatizado. Como director del Centro, Francisco de Elizalde inauguró la conferencia con unas palabras de agradecimiento y reconocimiento a la labor de los finalistas y sus aportaciones a la discusión. 

El Estado automatizado

La primera en exponer sus ideas fue Sofia Ranchordás, profesora de derecho administrativo en la Universidad de Tilburg, en Países Bajos. La ponente empezó con un par de historias de dos personas, distintas, pero que intentaban ejemplarizar las situaciones de un ciudadano vulnerable frente a un estado robustamente automatizado, donde no existe lugar para la empatía. En el centro del discurso, en efecto, se encontraban las minorías étnicas y el asalto irremediable de lo tecnológico al sector público. ¿Qué fórmula, entonces, debe implementar el Estado para hacer de éste una entidad accesible al ciudadano? “Humanizarse”, simplifica la ponente, no sólo porque el derecho administrativo se resume como un campo burocrático, sino también porque es una materia que acarrea relaciones de “desequilibrio de poder”. El hecho de que el Estado se sitúe por encima del individuo promedio no es un problema, pero también implica que la brecha de conocimiento y medios no va a parar de aumentar según las instituciones públicas continúen la carrera de la automatización. ¿La meta? La IA como brazo capaz del Estado.

Si bien la IA está en boca de todos, muchas veces resulta socorrido limitarse a análisis superficiales donde no hay cabida para adentrarse más allá. Se habla de la IA como herramienta intrusiva en las escuelas y universidades, pero poco sabemos de su papel en la administración pública. La IA “deshumaniza la relación de los ciudadanos con el gobierno”, apunta la profesora Sofia Ranchordás. Es cierto que comete menos errores —lo que es atractivo para una tarea como la administrativa, abrumadora en datos y papeles— pero también “identifica fácilmente los fallos como fraude”. Añade que “muchos ciudadanos se encuentran perdidos dentro del sistema”, lo que no hace sino agravar la situación en la que ya se encuentran, donde un error directamente te descalifica del proceso. 

“Mirar al funcionamiento original del derecho administrativo nos puede ayudar a comprender que la regulación de la IA y del derecho administrativo debería estar centrada en este inherente proceso humano”, señala la ponente. Porque la realidad social en muchos países pasa por un charco de desigualdades donde aquellos más vulnerables son siempre los que carecen de habilidades para acceder a beneficios o conocimientos. “Cuando automatizamos todo, no automatizamos la empatía, solo automatizamos los procedimientos y el cumplimiento de ciertos criterios, que son estrictos y no dejan espacio para diferencias”, cuenta la profesora Ranchordás.

El algoritmo y el consumidor

De la misma manera en la que el sector público va a ser inundado por la IA tarde o temprano, en nuestra vida privada vamos a vernos forzados a lidiar con la automatización. Así lo explicaba Jan Trzaskowski, profesor en la Escuela de Negocios de Copenhague, tras la intervención de la profesora Ranchordás. Trzaskowski habló desde la perspectiva del ciudadano como consumidor. Tras llevar tiempo trabajando con el derecho cibernético (IT law) asegura que, tras la irrupción de la IA, “la protección de datos y el copyright son, de nuevo, los campos relevantes”. La IA regula nuestros comportamientos como ciudadanos y como consumidores. “Lo que ahora resulta evidente es qué tipo de poderes tenían las big tech hace diez años”, expresa el ponente. “Todo aquello que uno hizo en Internet durante los últimos quince años, ahora se está utilizando en nuestra contra. Esto es a lo que se han dedicado las redes sociales desde hace mucho tiempo, por lo que es indudable que se necesitan garantías de protección”, añade. 

El trabajo expuesto del profesor Trzaskowski gira en torno al Reglamento General de Protección de Datos de la Unión Europea (RGPD) y su comparación con el marketing jurídico. La conversación no sería relevante si la UE ya hubiera aprobado legislación directamente relacionada con la IA, pero por el momento tenemos que limitarnos a su interpretación bajo las regulaciones vigentes, como el RGPD, entre otras. Aún así, a rasgos generales, el ponente explicó que los requisitos para la manipulación de datos bajo el RGPD —estos son, legitimidad, transparencia y seguridad— se ven debilitados por las nuevas tecnologías. Nuestra capacidad de decisión como consumidores está obsoleta. La manipulación, forzosa o no, de qué y cómo consumimos no es tan evidente como creemos. Como apunta Trzaskowski, el consumidor va a elegir generalmente aquellas situaciones donde haya menos “fricción”. Es decir, cuando navegamos en Internet, el usuario promedio tiende a aceptar en vez de rechazar las cookies, porque rechazarlas suele ocasionar un proceso más largo e indigesto. A su juicio, ahí es cuando procedemos a vender nuestros datos por un producto que es «gratis» y, por lo tanto, pagamos con nuestra libertad de elección y atención.

Es verdad que las asimetrías de poder e información también están presentes en lo privado. Lo cierto es que el vendedor y la máquina siempre van a tener más referencias que el consumidor, tanto del producto como de nuestras preferencias. “Lo llevamos observando desde hace cien años, cuando el primer libro sobre la publicidad científica fue publicado. Se lleva hablando mucho tiempo de cómo los vendedores nos empujan en diferentes direcciones. Ahora hemos aprendido cómo utilizar la tecnología para persuadirnos. Además, tenemos la IA, que ayuda en la tarea de analizar nuestro comportamiento”. El profesor Trzaskowski recalca que “la información no equivale a la transparencia”. ¿Conocemos los procesos internos de la IA? “Cuando hablamos de transparencia nos referimos a poder mirar dentro de la máquina y ver qué está pasando. La opacidad no es transparente. Transparencia es cuando el consumidor es capaz de entender, de manera que existe un límite en respecto a cuánta transparencia se puede exigir”, explica.  

Lo que está pasando (o está por pasar) equivale a un “hijacking de la experiencia humana”, asegura el ponente, antes de ofrecer una serie de posibles soluciones. Con la intervención sin fronteras en nuestra libertad para actuar, atacando a nuestra dignidad e independencia, resulta categórico afirmar que hay derechos en juego. Es por esto que Trzaskowski sugiere aplicar los derechos fundamentales a los negocios. En lo público y en lo privado, el despliegue de la automatización nos lleva a cuestionarnos nuestras propias creaciones. En tanto la ley intenta regular la IA, también está automatizando sus propios procesos. Mientras buscamos el equilibrio en el eje automatización-derecho, una última pregunta retórica del ponente nos conduce a la reflexión: “¿cuánto valoramos la dignidad humana?”

Inés G. Vega
Inés G. Vega
De Gijón, de Asturias y de España; en cualquier orden. Apasionada de la literatura y de los deportes. Amiga de mis amigos.

More from Author

Related

LEAVE A REPLY

Please enter your comment!
Please enter your name here