Blog

La IA como mecanismo antidiscriminatorio

Monday, 1 of August of 2022

Se ha hablado largo y tendido de la Inteligencia Artificial (“IA”), desde el punto de vista técnico, ético y, por supuesto también, jurídico. Hemos tenido oportunidad de leer estudios, artículos, opiniones, informes, propuestas, pero ya podemos afirmar que España ha incorporado la IA de forma expresa a su legislación, incluyendo su regulación positiva a través de su incorporación a la nueva Ley 15/2022, de 15 de julio, integral para la igualdad de trato y la no discriminación.

Este cuerpo normativo tiene como objeto, tal y como indica su exposición de motivos, convertirse “en el mínimo común normativo que contenga las definiciones fundamentales del derecho antidiscriminatorio español y, al mismo tiempo, albergue sus garantías básicas”. Y añade “con esta ley se pretende dar respuesta a una necesidad normativa concreta: crear un instrumento eficaz contra toda discriminación que pueda sufrir cualquier persona y que aborde todos los ámbitos desde los que esta se pueda producir, acogiendo la concepción más moderna de los derechos humanos”. Y es en esa concepción “más moderna” de igualdad de trato y no discriminación en la que tiene cabida la regulación de la IA y los mecanismos automatizados de toma de decisiones.

Ahora bien, resulta paradójico que a pesar de regular los sistemas de IA utilizados, en concreto por las administraciones públicas, la Ley no define qué ha de entenderse por IA. Probablemente siguiendo el rumbo marcado por la Estrategia Nacional de Inteligencia Artificial de 2020 (ENIA) que ya indicó que “no existe aún una definición formal y universalmente aceptada de Inteligencia Artificial”. Es por ello que la ENIA se remite al informe del Joint Research Centre (JRC) de la Comisión Europea “AI watch. Defining Artificial Intelligence”

“AI watch. Defining Artificial Intelligence” que la define como aquellos “sistemas de software (y posiblemente también de hardware) diseñados por humanos que, ante un objetivo complejo, actúan en la dimensión física o digital: percibiendo su entorno, a través de la adquisición e interpretación de datos estructurados o no estructurados, razonando sobre el conocimiento, procesando la información derivada de estos datos y decidiendo las mejores acciones para lograr el objetivo dado. Los sistemas de IA pueden usar reglas simbólicas o aprender un modelo numérico, y también pueden adaptar su comportamiento al analizar cómo el medio ambiente se ve afectado por sus acciones previas”.

Pues bien, lo que pretende la nueva Ley 15/2022 es darle forma a algo que ya se había propuesto por la ENIA, y es que la tecnología, en concreto la IA, ha de servir como herramienta para reducir y eliminar las múltiples brechas que aún persisten en nuestro país en función del género, la edad, el entorno urbano o rural de residencia, o la capacidad económica y nivel formativo.

No obstante, a nadie se le escapa que los algoritmos en los que se basan las soluciones de IA, han sido acusados en muchas ocasiones de contener un sesgo discriminatorio, por lo que es necesario regular cómo ha de usarse dicha tecnología para que pueda ser garante de la igualdad de trato, y no causante de la discriminación que pretende evitarse.

Así, el artículo 3 que regula el ámbito objetivo de aplicación de la Ley, indica los distintos sectores en los que deberá ser tenida en cuenta la nueva regulación, incluyendo en el extenso listado, la IA y gestión masiva de datos, así como otras esferas de análoga significación.

La regulación concreta del uso de la IA y otros mecanismos automatizados de toma de decisiones se hace en el artículo 23 que establece, en términos generales, que tanto las administraciones públicas como las empresas deben promover el uso de una IA ética, confiable y respetuosa con los derechos fundamentales, siguiendo especialmente las recomendaciones de la Unión Europea en este sentido.

Más concretamente indica que, cuando las administraciones públicas utilicen algoritmos para la toma de decisiones, favorecerán la puesta en marcha de mecanismos para que dichos algoritmos tengan en cuenta criterios de minimización de sesgos, transparencia y rendición de cuentas, siempre que sea factible técnicamente. En estos mecanismos se incluirán tanto su diseño como los datos de entrenamiento. Como garantía se incluye, más como una buena práctica que como obligación, la realización de evaluaciones de impacto que determinen el posible sesgo discriminatorio.

Respecto a los tres criterios indicados, sería deseable que el texto se hubiera extendido algo más en cada uno de ellos. No se incluye ninguna definición de sesgo. Tampoco se indica el alcance de la obligación de transparencia, si bien entendemos que debe referirse tanto a la información sobre el hecho de que se está utilizando un algoritmo para la toma de decisiones, como el propósito de la herramienta, así como los métodos o modelos que utiliza el algoritmo. Por último, tampoco se desarrolla cómo debe especificarse la rendición de cuentas que entendemos que debe estar aparejada a algún sistema de responsabilidad.

En definitiva, se trata de una primera regulación muy somera, que seguramente será desarrollada en futuras regulaciones, pero que ya marca el camino que debe seguir el uso de estos mecanismos de toma de decisiones: minimización de sesgos, transparencia, rendición de cuentas y evaluaciones de impacto.

Descárgate el PDF.