RESUMEN

El crecimiento exponencial de las tecnologías digitales, en particular de la inteligencia artificial, junto con el grado de penetración que tiene hoy en día internet y lo digital en la sociedad, posibilitan el acceso a un mundo lleno de oportunidades, al mismo tiempo que se plantean riesgos para la persona y su estatus jurídico, sea como ciudadano, usuario, profesional, investigador o tecnólogo. Esto se manifiesta de forma especial cuando la tecnología permite la utilización de algoritmos en el proceso de toma de decisiones que pueden tener consecuencias jurídicas o bien otros resultados o efectos que pueden ser equivalentes o similares, dados los potenciales efectos discriminatorios de estas decisiones, lo que afecta especialmente a personas que forman parte de colectivos vulnerables. La Ley 15/2022, de 12 de julio, Integral para la Igualdad de Trato y no Discriminación, que se inserta dentro de la Estrategia Nacional sobre la Inteligencia Artificial, tiene como gran objetivo constituir el mínimo común normativo fundamental del derecho antidiscriminatorio español, así como establecer sus garantías básicas. En este trabajo realizamos una aproximación a la problemática de la revolución tecnológica y los riesgos asociados a su desarrollado para el estatus de las personas, así como el avance que supone la Ley 15/2022, en el contexto de las iniciativas nacionales y europeas sobre esta materia.

Palabras clave: Revolución tecnológica; tecnología digital; inteligencia artificial; estatus de la persona; derechos fundamentales.

ABSTRACT

The exponential growth of digital technologies, particularly Artificial Intelligence, together with the degree of penetration that internet and digital have today in society, make it possible to access a world full of opportunities, but at the same time they pose risks for people and their legal status, whether as a citizen, user, professional, researcher or technologist. This is clear in a special way when technology allows the use of algorithms in the decision-making process that may have legal consequences or other results or effects that may be equivalent or similar, given the potential discriminatory effects of these decisions, especially affecting to people who are part of vulnerable groups. Law 15/2022, of July 12, comprehensive for equal treatment and non-discrimination, which is inserted within the Spanish National Strategy on Artificial Intelligence, has as its main objective to constitute the minimum common fundamental normative of Spanish anti-discrimination law, as well as to establish the required basic guarantees. In this work we take into account the problem of the technological revolution and the risks associated with its development for the personal status, and the progress that the Law 15/2022 implies, in the context of national and european initiatives, in this matter.

Keywords: Technological revolution; digital technology; artificial intelligence; personal status; fundamental rights.

Cómo citar este artículo / Citation: Sarrión Esteve, J. y Benlloch Domènech, C. (2024). Algunos riesgos para el estatus de las personas en la utilización de la inteligencia artificial: aproximación a los avances de la ley 15/2022. IgualdadES, 10, 91-‍121 doi: https://doi.org/10.18042/cepc/IgdES.10.04

Chéri alzaba la vista hacia el cielo primaveral y los castaños en flor y llenaba los pulmones de aire fresco, como un prófugo.

Colette: Chéri [1]

I. LA REVOLUCIÓN TECNOLÓGICA Y EL ESTATUS DE LA PERSONA[Subir]

La revolución tecnológica se manifiesta actualmente, de forma determinante, en la transformación digital, donde de una forma progresivamente creciente las personas o la ciudadanía convergen y participan en la vida digital, que constituye una parte cada vez más importante de nuestra vida (vida online frente a vida offline). Ciertamente, no todas las tecnologías avanzadas son digitales, pero las digitales y aquellas otras que se aplican al mundo digital tienen una especial trascendencia en la transformación que estamos viviendo. Cabe decir que las tecnologías pueden ser sostenibles o disruptivas. Así, son distributivas cuando emergen de una innovación radical que transforma el mercado y que pueden llevar al dilema del innovador, cuando las nuevas tecnologías constituyen a la larga un problema para las empresas (‍Christensen, 1997), pero también pude suceder lo que podríamos llamar el dilema de la persona predigital, cuando ve su mundo y su vida transformada, quiere pero no es capaz de seguir o de participar en la transformación tecnológica y, al mismo tiempo, se ve obligado a esforzarse por hacerlo, en particular cuando no se trata de personas nativas digitales[2], como un intento de vivir el presente, de adaptarse a un mundo digital que tiene sus propias reglas, sus propios usos, que alteran todo y que pueden llegar a afectar también a los derechos de las personas, siendo por ello esencial su protección.

Es en este mundo, elevado a categoría de «nueva plaza pública» (‍Innerarity y Colomina, 2020), donde comenzamos cada vez más a acceder a la información, interactuar, comprar, vender, investigar y, en definitiva, realizar muchísimas facetas de la vida, en particular en las redes sociales generalistas, específicas y sectoriales.

En el mundo digital, la persona puede asumir diferentes roles, como suele ocurrir también en la vida offline. También se puede decir que actúa o puede actuar bajo diferentes sombreros: como miembro de la sociedad y comunidad política a la que pertenece (ciudadano), usuario de un servicio (consumidor o usuario), investigador, profesional, etc. Esto implica la asunción de un estatus. Incluso cabe plantearse que en algunos casos se pueden tener varios roles o estatus a la vez y hay que determinar el estatus en virtud del cual se actúa.

La asunción de un estatus, desde el punto de vista jurídico, no es algo baladí, puesto que implica que las personas gocen de una serie de derechos y obligaciones, un haz vinculado al estatus individual de la persona, y esto viene determinado necesariamente por el derecho[3] y va a incidir en las relaciones que pueda desarrollar la persona en su vida, también digital. De hecho, desde la perspectiva de los derechos fundamentales es fundamental tomar conciencia de que hay una pluralidad de derechos que están en juego con la transformación y el desarrollo tecnológico (‍Hildebrandt, 2016: xi), en particular el digital.

Desde el punto de vista positivo, es el ordenamiento jurídico en el que vivimos el que determina el estatus de una persona individual, un ordenamiento jurídico constitucionalizado, pero en el que va a tener un papel predominante —dado nuestro contexto— el derecho de la Unión Europea, que se integra en el mismo de acuerdo a sus propias reglas[4], a la vez que ese llamado estatus individual constituye un pilar de la integración de la propia Unión Europea (‍Bartolini et al., 2019).

Y este estatus de la persona va a verse afectado, de forma particular, por la transformación digital, por una tecnología que avanza una velocidad mayor a la que el derecho trata de o puede regularizar, planteando mejoras, peligros y retos que hacen necesario un refuerzo de los derechos y garantías (‍Arenas Ramiro, 2022: 121), así como requieren que nos preguntemos si es necesario el planteamiento de un nuevo paradigma constitucional (‍Sarrión Esteve, 2022a), dados los retos sociales y jurídicos que plantea un mundo en transformación, precisamente por el desarrollo de las tecnologías digitales (‍Benlloch Domènech y Sarrión Esteve, 2021a), ya que la regulación y los derechos del mundo analógico y su traslación al mundo digital pueden ser insuficientes y facilitar resultados o respuestas no satisfactorias. Doménech Pascual ya planteaba hace años la necesidad de intervención para la protección de los derechos frente a los riesgos tecnológicos, considerando los principios de legalidad y de precaución (Doménech Pascual, 2006), y Sánchez Barrilao (‍2016) consideraba acertadamente la necesidad de un concepto propio de inteligencia artificial (IA) desde el derecho público.

Sin embargo, lo cierto es que ni siquiera a día de hoy hay una noción comúnmente aceptada de qué es la IA, además de que, incluso, se aboga en algunos casos por hablar mejor no de IA en singular, sino de inteligencias artificiales en plural por las diferencias en el nivel o grado de inteligencia existente en la tecnología, como plantean Kaplan y Haenlein (‍2019).

Se suele utilizar la definición bien desarrollada a nivel europeo de que se trata de «los sistemas que manifiestan un comportamiento inteligente, pues son capaces de analizar su entorno y pasar a la acción —con cierto grado de autonomía— con el fin de alcanzar objetivos específicos» (‍Comisión Europea, 2018). Cabe entender, en este sentido, por IA:

La innovación que permite dotar de autonomía y capacidad a un sistema para desarrollar tareas que exigen una respuesta, precisamente lo que llamamos inteligencia, y está presente en los smart robots o robots inteligentes, en los sistemas de reconocimiento de voz, instrumentos de seguridad de smartphones, traductores, gestores de contenidos audiovisuales digitales, sistemas de reconocimiento de imágenes, o, en general los instrumentos o sistemas computacionales con toma de decisiones automatizadas utilizando Big Data, y también en las Neurotecnologías cuando se trata de implantar chips o interfaces que utilicen estos sistemas (‍Sarrión Esteve, 2022b).

Recientemente se ha producido un rico e interesante debate sobre la necesidad de una regulación que dé respuesta a los riesgos y retos existentes (entre otros‍, Cotino Hueso, 2017; ‍Martínez, 2019; ‍Valero Torrijos, 2022; ‍Aba, 2023; ‍Sarrión Esteve, 2022a; ‍Balaguer Callejón, 2023a, ‍2023b), que indudablemente va unido a las funciones del derecho en relación con la tecnología (‍Hildebrandt, 2016).

Sin duda, uno de los desafíos que se presentan es delimitar o precisar la función que debe asumir el derecho, es decir, hasta dónde procede o no la intervención para regular el proceso científico-tecnológico. Los riesgos de la regulación, sobre todo el de desincentivar la investigación, son claros, pero el principio de precaución y los riesgos de no regular también. Piénsese, por ejemplo, en tecnologías peligrosas para el ser humano (‍Sarrión Esteve, 2022b: 183). Ya anticipó Zweig (‍2003: 9) con elocuencia que «entre las leyes misteriosas de la vida está el que siempre nos percatemos tardíamente de sus valores verdaderos y esenciales: de la juventud, cuando desaparece; de la salud, cuando nos abandona; y de la libertad, la esencia más preciosa de nuestra alma, solo en el momento en que nos la pueden arrebatar o cuando ya nos la han arrebatado».

A nuestro entender, desde que se plantea, se crea o diseña y se desarrolla una tecnología —también cuando utiliza IA— hasta su implantación y puesta en servicio, debe ir acompañada o presidida por un marco ético y jurídico adecuado, lo que va a requerir que los equipos de ingenieros y tecnólogos estén acompañados por equipos de éticos y juristas desde el principio, para garantizar que cualquier idea de investigación que se plantea[5] se vaya a diseñar, desarrollar e implementar de acuerdo con los principios y criterios éticos y jurídicos adecuados, lo que en inglés se podría denominar como ethics and law requirements from design to service, y que va más allá de lo que algunas guías europeas suelen denominar «ética por diseño» o, en inglés, ethics by design (‍Comisión Europea, 2021), y que debería ser superado por el más preciso de «ética y derecho por diseño» (ethics and law by design).

Progresivamente, estas preocupaciones van adquiriendo una mayor importancia debido a varios motivos, en particular el exponencial avance científico-tecnológico y la penetración de las tecnologías digitales en la vida de las personas, que inciden en su estatus. Esto se evidencia si consideramos que el grado de acceso y uso de internet está ya en cotas altísimas.

Así, podemos ver cómo en apenas quince años el porcentaje de personas que han usado internet al menos una vez se ha multiplicado en el contexto europeo y español.

Gráfico 1.

Porcentaje de personas de entre 16 y 74 años que nunca han usado internet. 2007-‍2022

media/image1.jpeg

Fuente: Eurostat. Encuesta sobre Equipamiento y Uso de Tecnologías de Información y Comunicación en los Hogares.

Y ello con independencia de la variable del sexo, puesto que no se evidencian diferencias notables entre los sexos, al menos en el acceso. Sin embargo, la brecha se evidencia en lo que respecta al uso de las nuevas tecnologías: se produce no solo en lo que al sexo se refiere, sino también en otras variables, como la edad y la clase social, por ejemplo[6].

De hecho, si atendemos al Digital News Report España 2022, casi la mitad de las personas que utilizan internet usan Facebook o Twitter para acceder a la actualidad (un 47 %), mientras que tres de cada diez utilizan WhatsApp, Facebook Messenger y Telegram (un 36 %) (‍Moreno, 2022).

Gráfico 2.

Frecuencia de uso de internet en España por sexos (2022)

media/image2.jpeg

Fuente: INE. Encuesta de Uso y Equipamiento de las TICs en los Hogares (2022).

Gráficos 3 y 4.

Uso semanal de redes sociales y servicios de mensajería 16 y 74 años que nunca han usado internet. 2007-‍2022; y contenido de medios informativos en redes sociales

media/image3.jpeg

Fuente: Digital News Report España 2022.

Es más, de acuerdo con el mismo informe, la mayoría de las personas que utilizan estos medios consideran que el volumen de los medios informativos que ve es adecuado (entre un 59 % y un 75 %) (íd.).

Gráfico 5.

Valoración del volumen de contenido de medios informativos en redes sociales

media/image4.jpeg

Fuente: Digital News Report España 2022.

En paralelo, la desconfianza en las noticias y en las marcas periodísticas desciende (‍Vara-Miguel, 2022). La utilización progresivamente creciente de las redes sociales como ventana de entrada a (y búsqueda de) la información, así como de interactuación con los demás por parte de las personas en la sociedad digital, produce una tendencia de cambios no solo en la forma que accedemos a la información, sino en la propia forma de vivir y de relacionarnos como personas, hasta el punto de que puede afectar a la propia vida y la percepción de la realidad, a la vez que origina nuevas realidades e identidades (virtuales) que quizá pueden requerir el replanteamiento de las garantías y el contenido de los derechos (‍Benlloch Domènech y Sarrión Esteve, 2021a: 7).

Quizás podamos esperar que esta proliferación del acceso y uso de internet ocurra también con la IA, y entonces ya no estaremos ante la era de Utrón, como decía Sánchez Barrilao, sino en la era de Utrón (‍2016).

A esto se une la utilización, por las compañías tecnológicas, de sofisticados algoritmos[7] que pueden motivar lo que se ha calificado como filtro burbuja en la medida en que una persona encuentra aquello que espera, es decir, aquello que tiene en perspectiva, que le gusta o agrada, evitando así información poco deseable o disonante (‍Pariser, 2017), así como también una cierta tendencia a relacionarse con las personas que comparten ideas o intereses similares (‍Sunstein, 2003).

De alguna manera, nuestros intereses se pueden activar y reforzar en internet; incluso se pueden convertir en identidades, pero los algoritmos no serían tanto un mecanismo al servicio de la radicalización como al servicio de la identidad (‍Klein, 2020: 157).

Esto coadyuva a producir una especie de polarización que puede ser calificada como de «polarización artificial», teoría basada en las ideas de pertenencia a la tribu o al grupo, la primacía de la emotividad, y que permite conceptualizar la polarización percibida, fruto de una sobrestimación de las diferencias entre grupos, tanto en el mundo online como offline, sobre la base de la adopción de una identidad que permite ver la realidad con las lentes grupales y que se incrementa online, atendiendo a un discurso emotivo que reclama atención y desencadena un contagio emocional de los miembros del grupo, si bien la distancia entre grupos no es tan grande como pudiera parecer (‍Pérez Zafrilla, 2021).

En este marco, en un mundo regido por algoritmos diseñados por grandes compañías tecnológicas que configuran el proceso comunicativo y que influyen en la toma de decisiones en función de su interés económico, se producen una serie de rupturas relevantes para el derecho constitucional: a) del contexto cultural constitucional, con nuevos factores de legitimación que corresponden al poder global; b) la pérdida de la constitución como referente cultural unitario; c) la ruptura entre la realidad física y virtual, dado que una se regula por el derecho público y la otra por el derecho privado; d) la propia configuración de la realidad, derivada de la destrucción de la percepción social compartida de la realidad, y que afecta al espacio público; y e) la pérdida de capacidad del Estado de ordenar la vida social por el desarrollo tecnológico (‍Balaguer Callejón, 2023a, ‍2023b).

Se hace necesario, por tanto, «repensar el derecho constitucional en clave digital» (‍Reche Telo y Tur Alsina, 2022), una «redefinición del constitucionalismo» (‍Guillén López, 2022) o un nuevo paradigma (constitucional) para la protección de los derechos (‍Sarrión Esteve, 2022a, ‍2022b).

No podemos obviar, en cualquier caso, que las compañías que proveen los servicios de comunicación social predominantes prestan un servicio y la persona que accede a ellas lo hace en su rol de usuario más que de ciudadano, lo que no es una diferencia baladí, aunque desde el punto de vista del derecho de la Unión el consumidor o usuario tenga un nivel de protección jurídico bastante alto (‍Sarrión Esteve, 2019).

Tanto las compañías privadas como también las Administraciones públicas van a tender a utilizar, de forma progresivamente creciente, algoritmos en los procesos de toma de decisiones, y los errores y sesgos de estas «armas de destrucción masiva» (‍O’Neil, 2018) pueden conllevar a situaciones de discriminación que afectarían, en particular, a personas que forman parte de grupos vulnerables (‍Soriano Arnanz, 2021a).

En el estado actual de las cosas, debemos tratar de superar esta dualidad (online/offline), pues vivimos en un mundo híbrido en el que hay que garantizar el reconocimiento y protección de los derechos y libertades, también el nivel digital, pues el derecho no puede renunciar a una regulación que posibilite una participación con garantías en la esfera pública digital (‍Pérez Zafrilla et al., 2021).

Por ello, era muy necesaria una ley que atendiera a estos riesgos y retos, en particular en lo que concierne a la igualdad y la no discriminación, como se puede apreciar de los estudios realizados[8]. Y es que progresivamente aumenta la utilización de estos sistemas, incluso de alto riesgo debido a los posibles errores o fallos que se pueden producir desde la perspectiva de la protección de los derechos y libertades. Piénsese, por ejemplo, en algunos sistemas IA que se utilizan en España, como Viogén[9], RisCanvi[10] o el sistema de alerta rápida SALER[11].

Debemos considerar que hasta el momento la regulación en este tema era más bien limitada. A nivel europeo, el Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos y por el que se deroga la Directiva 95/46/CE (Reglamento General de Protección de Datos, en adelante RGPD), introdujo en el art. 22 una serie de previsiones sobre las decisiones automatizadas, estableciendo el derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado —incluyendo la elaboración de perfiles— que produzca efectos jurídicos o una afectación significativa de modo similar (art. 22 RGPD)[12].

A nivel interno, el art. 11.2 de la Ley Orgánica 3/2018, de 5 de diciembre, de Protección de Datos Personales y Garantía de los Derechos Digitales (LOPDPyGDD) establece, como obligación y garantía de transparencia, dentro de la información básica, a facilitar al afectado por parte del responsable del tratamiento de datos personales —en el caso de que los datos obtenidos fueran a ser objeto de tratamiento para la elaboración de perfiles— de esa misma circunstancia, así como informarle del derecho de oposición a la adopción de decisiones individuales automatizadas que le produzcan efectos jurídicos o que le afecten significativamente de forma similar, cuando este derecho concurra, conforme a lo previsto en el art. 22 RGPD, y el art. 18, que alude al derecho de oposición, así como otros derechos relacionados con decisiones de carácter individual automatizadas, incluyendo la realización de perfiles, que se ejercerán de conformidad con lo previsto en los arts. 21 y 22 RGPD.

Pues bien, la Ley 15/2022, de 12 de julio, Integral para la Igualdad de Trato y la No Discriminación (en adelante Ley 15/2022) pretende constituir «el mínimo común normativo que contenga las definiciones fundamentales del derecho antidiscriminatorio español y, al mismo tiempo, albergue sus garantías básicas», siendo consciente el legislador de los retos que se plantean en materia de inclusión, así como del ejercicio y disfrute de los derechos y libertades, con un doble objetivo de prevención y erradicación de cualquier forma de discriminación (exposición de motivos)[13].

Dentro de su ámbito objetivo de aplicación, se incluyen la publicidad, medios de comunicación y servicios de la sociedad de la información (art. 3.1 m Ley 15/2022); internet, redes sociales y aplicaciones móviles (art. 3.1 n), e IA y gestión masiva de datos, así como otras esferas de análoga significación (art. 3.1 o). Vincula tanto al sector público —definido en un sentido amplio—[14] como a las personas físicas o jurídicas privadas que residan, se encuentren o actúen en el territorio español[15]; si bien, como veremos, en el articulado específico se modula la afectación de esta vinculación, con una nítida y clara distinción en las obligaciones derivadas de la ley.

Y dedica un artículo específico, el 23, con la rúbrica «IA y mecanismos de toma de decisiones automatizados», que se incluye en capítulo II, titulado «El derecho a la igualdad de trato y no discriminación en determinados ámbitos de la vida política, económica, cultural y social», del título I, «Derecho a la igualdad de trato y no discriminación».

En el siguiente apartado realizamos un breve análisis del mismo y de las novedades que conlleva, en el marco de las acciones e iniciativas en las que se inserta, tanto nacionales como europeas.

II. APROXIMACIÓN A LOS AVANCES DE LA LEY 15/2022 EN RELACIÓN CON LA IA Y REFERENCIA A LAS ACCIONES E INICIATIVAS NACIONALES Y EUROPEAS [Subir]

1. Consideraciones generales [Subir]

Como hemos adelantado, y en lo que respecta a la IA y los mecanismos de toma de decisiones automatizadas, la Ley 15/2022 regula por primera vez en España[16] la promoción por parte de Administraciones públicas y empresas de una «IA ética, confiable y respetuosa con los derechos fundamentales, siguiendo especialmente las recomendaciones de la Unión Europea en este sentido» (art. 23.3), estableciendo que se promoverá un sello de calidad de los algoritmos (art. 23.4), así como también que la Administración pública promoverá que los algoritmos involucrados en procesos de toma de decisión prioricen «la transparencia en el diseño y la implementación y la capacidad de interpretación de las decisiones adoptadas por los mismos» (art. 23.2).

Asimismo, en el marco de la Estrategia Nacional de IA, de la Carta de Derechos Digitales y de las iniciativas europeas en materia de IA, atribuye a las Administraciones públicas la función de favorecer la puesta en marcha de instrumentos[17] para que los algoritmos que intervengan en la toma de decisiones (concepto que, en realidad, deberíamos entender integra no solo mecanismos de toma de decisiones automatizadas, sino también aquellos algoritmos que dan soporte a la decisión adoptada o intervienen de alguna manera en procesos de toma de decisión con intervención humana) que se utilicen en el ámbito de la Administración pública «tengan en cuenta criterios de minimización de sesgos, transparencia y rendición de cuentas, siempre que sea factible técnicamente», así como se promoverán, con tal fin, evaluaciones de impacto que determinen el posible sesgo discriminatorio[18] (art. 23.1).

Llama la atención la ubicación del art. 23 dentro de la estructura de la ley, puesto que en realidad no se trata de una actividad sectorial específica, como pueden serlo el ámbito del empleo (art. 9), la negociación colectiva (art. 10), el trabajo por cuenta propia (art. 11), la educación (art. 13), la educación no formal (art. 14), la prestación de servicios sociales (art. 16), la oferta al público de bienes y servicios (art. 17), la seguridad ciudadana (art. 18), el acceso a la vivienda (art. 19), establecimientos o espacios y espectáculos abiertos al público (art. 21), o los medios de comunicación social y publicidad, internet y las redes sociales (art. 22), respecto a los cuales se trata de garantizar el derecho a la igualdad y la no discriminación, sino que la IA y los algoritmos son más bien una tecnología o, mejor dicho, unas tecnologías que se pueden utilizar en estos ámbitos, por lo que quizá estarían mejor ubicados en el título II, referido a las garantías del derecho a la igualdad de trato y no discriminación.

De hecho, más allá de las discusiones sobre la naturaleza jurídica que tienen los algoritmos, dado que si bien pueden nacer con una naturaleza jurídico-privada, pueden alcanzar una naturaleza jurídica pública, en particular cuando son utilizados por la Administración pública, y por ello nace el planteamiento de atribuirles la naturaleza de reglamentos, con las consecuencias jurídicas que ello conlleva, lo cierto es que lo realmente relevante es establecer una serie de garantías para las personas[19]. Así, por un lado la propia variedad y complejidad de los algoritmos (tanto en su creación, desarrollo y tipología como en su utilización), y la falta de un consenso y una respuesta clara sobre su naturaleza, plantean precisamente la problemática de las garantías y protección de los derechos de las personas que se ven afectadas por decisiones basadas en algoritmos, incluyendo, por supuesto, el derecho a la igualdad y la no discriminación[20]. Algunas propuestas interesantes plantean la creación de un registro público de algoritmos utilizados por las Administraciones públicas, como el existente en la ciudad de Ámsterdam (‍Soriano Arnanz, 2021b)[21].

Desde luego, la Ley 22/2015 podría haber aprovechado la regulación para tratar de convertir el uso de esta tecnología, de la IA y los algoritmos, en un mecanismo preciso de garantía para las personas, en particular cuando son utilizados por las Administraciones Públicas en la toma de decisiones[22], aunque también cuando son utilizados por empresas privadas, siempre que las decisiones tengan efectos jurídicos o equivalentes en las personas y, por tanto, afecten a sus derechos y libertades.

Hay que considerar que el art. 18.4 de la Constitución española prevé que «la ley limitará el uso de la informática para garantizar el honor y la intimidad personal y familiar de los ciudadanos y el pleno ejercicio de sus derechos». Ciertamente, cabe considerar que hay fundamento constitucional suficiente no solo para la limitación del uso de la informática, sino para un desarrollo de las garantías de los derechos, adaptándose al ámbito digital (‍Aba, 2023: 76), de forma que debemos entender que cabe la limitación del uso de la tecnología para garantizar el pleno ejercicio de los derechos de las personas, incluyendo no solo el derecho al honor, la intimidad personal y familiar, o el derecho a la protección de datos que se suele fundamentar específicamente en el art. 18.4 CE, sino también otros derechos, incluyendo el derecho a la igualdad y la prohibición de discriminación (art. 14 CE), que se une al principio de igualdad (art. 1.1 CE) y al mandato de promover una igualdad real y efectiva (art. 9.2 CE), que debe proyectarse también al ámbito del desarrollo y uso de las tecnologías digitales[23].

2. Acciones e iniciativas a nivel interno[Subir]

La Estrategia Nacional española sobre IA pretende constituir un marco de referencia para que se pueda desarrollar una IA que sea inclusiva, sostenible y que esté centrada en la ciudadanía, con marcos regulatorios que lleven a una delimitación y a la vez sirvan de guía para el diseño de la IA, garantizando que las aplicaciones respeten los derechos de las personas (‍Gobierno de España, 2020).

La Carta de Derechos Digitales precisamente se inserta como parte de esta Estrategia. Adoptada en 2021 (‍Gobierno de España, 2021), si bien no tiene un carácter vinculante, puede servir como un código orientador y establece en el punto V el llamado «derecho de la persona a no ser localizada y perfilada», que implica que:

1. La localización y los sistemas de análisis de personalidad o conducta que impliquen la toma de decisiones automatizadas o el perfilado de individuos o grupos de individuos, únicamente podrán realizarse en los casos permitidos por la normativa vigente y con las garantías adecuadas en ella dispuestas. 2. El responsable del tratamiento deberá informar explícitamente al interesado sobre la finalidad de la localización, el perfilado o la decisión automatizada y sobre el ejercicio del derecho de oposición, y presentarlos claramente y al margen de cualquier otra información y con pleno respeto al derecho a la protección de datos a que se refiere el apartado III.

En materia de códigos y guías de buenas prácticas en el ámbito interno, debemos considerar la primera Guía de buenas prácticas para el uso de la IA ética, elaborada en España por parte de OdiseIA —el Observatorio del Impacto Social y Ético de la IA— y PwC, en colaboración con Google, Microsoft, IBM y Telefónica, todo ello en el marco de una iniciativa por generar un ecosistema para empresas y entidades que puedan compartir prácticas sobre el uso de IA conforme a principios éticos y una normativa (‍ODISEA, 2022), con la siguiente visión:

Gráfico 6.

Visión y marco de la guía de ODISEA 2022

media/image5.jpeg

Fuente: ODISEA (‍2022: 8). Sombreado de los autores.

El planteamiento es partir desde una visión ética y normativa en todo el ciclo de la vida de las soluciones que incorporen IA, a través de tecnologías y de lo que serían modelos de gobierno (‍ODISEA, 2022:8), con los siguientes principios generales: privacidad y gobierno de datos; seguridad y protección; fiabilidad, robustez y precisión; responsabilidad y rendición de cuentas; transparencia y explicabilidad; el principio de justicia; foco en el ser humano: control y vigilancia humana; promoción de los valores y de los derechos humanos, y sostenibilidad ambiental.

Esto responde a una cuestión que consideramos esencial: todo el proceso de investigación —amparado desde la libertad de investigación, desde que se concibe una idea de investigación, se plantea, se crea y desarrolla la tecnología, hasta su implantación y puesta en servicio— no puede dejar de ir acompañada o presidida por un marco ético y jurídico adecuado, lo que va a requerir que los equipos de ingenieros y tecnólogos estén acompañados por equipos de éticos y juristas desde el principio para garantizar que cualquier idea de investigación que se pueda plantear se diseñe, desarrolle e implemente de acuerdo a los principios y criterios éticos y jurídicos adecuados (ética y derecho por diseño, ethics and law by design), como hemos planteado con antelación.

3. Acciones e iniciativas a nivel europeo[Subir]

En relación con las iniciativas europeas[24], cabe decir que el Parlamento Europeo es consciente desde hace tiempo que los macrodatos (big data) pueden capacitar dispositivos de IA a modo de redes neuronales y modelos estadísticos que sirvan para predecir comportamientos (‍Parlamento Europeo, 2017) y estos sistemas computacionales van a ser capaces de tratar, aprender y resolver problemas, tomando decisiones a partir del big data, con un cierto cambio de paradigma en cómo se tomaban las decisiones hasta el momento (‍Cotino Hueso, 2017: 132), puesto que los datos y recomendaciones o propuestas propiciados por estos sistemas van a ser fundamentales, incluso determinantes, siendo difícil que un operador humano se aparte de la recomendación dada por un sistema inteligente, salvo casos excepcionales (‍Benlloch Domènech y Sarrión Esteve, 2021b); por no hablar de los casos en los que es el propio mecanismo de IA el que adopta la decisión de forma automatizada.

El Reglamento General de Protección de Datos ya introduce en el art. 22 una serie de previsiones sobre decisiones automatizadas y establece el derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado —incluyendo la elaboración de perfiles— que produzca efectos jurídicos o una afectación significativa de modo similar (art. 22.1 RGPD), si bien con excepciones que incluyen a) que esta decisión automatizada sea necesaria para la celebración o la ejecución de un contrato; b) esté autorizada por el derecho de la Unión o de los Estados miembros con medidas adecuadas de salvaguardia de los derechos y libertades e intereses legítimos del interesado, o c) se base en el consentimiento explícito del interesado (art. 22.2 RGPD).

En los supuestos a) y c), siendo el supuesto c) la base jurídica que legitima con frecuencia el uso de algoritmos en medios de comunicación social, se prevé, además, que el responsable del tratamiento adopte las medidas adecuadas para salvaguardar los derechos y libertades y los intereses legítimos del interesado, estableciendo como medida mínima «el derecho a obtener intervención humana por parte del responsable, a expresar su punto de vista y a impugnar la decisión».

Conviene tener presentes las «Directrices sobre decisiones individuales automatizadas y elaboración de perfiles a los efectos del Reglamento 2016/679», adoptadas el 3 de octubre de 2017 y revisadas el 6 de febrero de 2018 por el llamado Grupo de Trabajo del Artículo 29 de la Directiva 95/46 (Grupo de Trabajo del Artículo 29, 2018), que, por ejemplo, establece como directriz el sentido de efectos significativamente equivalentes a consecuencias jurídicas en las decisiones automatizadas, entendiendo que la decisión debe tener «el potencial de» afectar de forma significativa «a las circunstancias, al comportamiento o a las elecciones de las personas afectadas»; tener un impacto prolongado o permanente en el interesado, o provocar la exclusión o discriminación de personas en los supuestos más expresos.

Además, en el ámbito de la publicidad podría suceder atendiendo a las circunstancias y el nivel de intrusismo en la elaboración de perfiles, incluyendo el seguimiento de las personas en su actividad en diferentes sitios web, dispositivos y servicios; las expectativas, deseos e intereses de las personas afectadas, y teniendo en consideración la especial y mejor protección de los menores[25] (íd.).

A la hora de establecer mecanismos de decisión automatizada, también indica la importancia de la responsabilidad proactiva, que es una obligación configurada en el RGPD en el art. 35, que se aplicaría en particular a estos mecanismos (íd.). Y es que el responsable del tratamiento debe realizar ante el mismo una evaluación de impacto de las operaciones de tratamiento en la protección de datos personales (EIPD) cuando sea probable que entrañe un alto riesgo para los derechos y libertades de las personas físicas (art. 35.1 RGPD), exigiéndose en particular en caso de evaluación sistemática y exhaustiva de aspectos personales que se base en un tratamiento automatizado, como la elaboración de perfiles, sobre cuya base se tomen decisiones con efectos jurídicos o que les afecten significativamente de modo similar (art. 35.3 RGPD). Constituyendo el EIPD —en opinión del Grupo de Trabajo del Artículo 29— una forma de indicar que el responsable ha aplicado las medidas adecuadas para abordar los riesgos y acreditar que cumple con las previsiones del RGPD, que —en caso de dedicarse de forma habitual a la elaboración de perfiles o decisiones automatizadas— requieren una observación habitual y sistemática de interesados a gran escala, tendrían la obligación de designar un delegado de Protección de Datos, de conformidad con lo previsto en el art. 37. 1 letra b) (íd.).

El futuro reglamento o ley de IA plantea una regulación basada en el riesgo, que sigue en este sentido los diferentes trabajos de los grupos de expertos establecidos por la Comisión Europea.

Gráfico 7.

Pirámide de riesgo IA

media/image6.jpeg

Fuente: Comisión Europea, Excellence and trust in artificial intelligence.

Junto con las recientes iniciativas europeas en materia de regulación de los datos[26], supone una de las mejores manifestaciones del desarrollo de lo que se puede denominar como el emergente derecho europeo de la ciencia y la tecnología (‍Cippitani, 2023: 203 y ss.), y que entendemos puede ser configurado como un modelo normativo específica e intrínsecamente europeo, en el que la investigación constituye parte de la identidad europea y que se basa en los siguientes principios:[27] protección de la dignidad de la persona como fundamento de la libertad y la igualdad; autodeterminación de la persona en relación con el proceso tecnológico como regla general; prevención y precaución, que definen la cultura europea frente a otros modelos como el norteamericano, con una regulación más fuerte en la UE; transparencia e integridad en la actividad científica, e innovación regulatoria, que se manifiesta, por ejemplo, con la creación de cajas negras regulatorias que tratan de crear condiciones seguras para la experimentación regulatoria o normativa y que requiere de marcos jurídicos adecuados.

Asimismo, la propuesta de reglamento incluye una serie importante de obligaciones de información y transparencia. De hecho, un informe de 2018 del Grupo de Expertos de Alto Nivel sobre Noticias Falsas y Desinformación, designado por la Comisión Europea, recomienda que se exija una mayor transparencia a las plataformas y redes digitales, a la vez que se abandona la utilización del concepto de «noticia falsa», poco preciso, y se utiliza mejor el de «desinformación», y recomienda promover el desarrollo de herramientas que permitan desenmascarar la desinformación, salvaguardar la diversidad y estudiar el impacto que estas campañas pueden tener en Europa, además de un código de buenas prácticas para seguir por las plataformas y redes (‍Comisión Europea, 2018a). Por ello, la Comisión ha adoptado un plan de acción para enfrentarse a estas campañas de desinformación (‍Comisión Europea, 2018b), lo que llevó a acordar junto con los representantes de plataformas, redes y empresas de publicidad a adoptar un Código de Buenas Prácticas sobre desinformación online y noticias falsas, en el que los signatarios —inicialmente Facebook, Google, Twitter (ahora X) y Mozilla, junto con sectores de la industria de publicidad, más Microsoft, que se une en mayo de 2019, y Tik Tok, en junio de 2020— se comprometen a adoptar políticas de lucha contra la desinformación y las noticias falsas. Este código incluye un anexo de buenas prácticas con enlaces a las políticas adoptadas por los signatarios (‍Comisión Europea, 2018c).

Por su parte, en el ámbito del Consejo de Europa se ha introducido también en el Convenio 108+[28] el derecho a no estar sujeto a una decisión basada únicamente en un procesamiento de datos automatizado que le afecte significativamente, sin tener en cuenta su opinión (‍Gascón Marcén, 2020: 344)[29]; de forma que, cuando se trate de decisiones automatizadas, con independencia de que tengan o no consecuencias jurídicas, se va a exigir tener en cuenta la opinión de la persona afectada si hay una afectación significativa, lo cual puede suponer una cierta elevación del nivel de protección de este derecho en relación con lo previsto en el RGPD, donde esta afectación significativa debe ser equivalente a la de tener consecuencias jurídicas. Además de que a diferencia del RGPD, que tiene la doble finalidad de garantizar la libre circulación de datos personales en el ámbito europeo y de proteger los derechos fundamentales, en particular el derecho a la protección de datos, el Convenio 108+ únicamente tiene el fin de protección de derechos de las personas (‍Martínez Lóez-Sáez, 2021: 247).

Hay que tener en consideración que España ha ratificado esta versión actualizada del Convenio con fecha de 28 de enero de 2021. Actualmente son veinticuatro los Estados que han ratificado el protocolo de reforma, estando previsto que entre en vigor a partir del 11 de octubre de 2023, una vez que 38 Estados parte lo hayan ratificado.

La «Recomendación CM/REc(2021)9 del Comité de Ministros del Consejo de Europa sobre la protección de las personas físicas en lo que respecta al tratamiento automatizado de datos personales en el contexto de la elaboración de perfiles» plantea como principios generales que los Estados miembros deben promover el diseño e implementación de procedimientos y sistemas que garanticen la privacidad y la protección de datos, incluso desde la planificación (privacy by design) y durante todo el procedimiento de tratamiento, en particular con el uso de tecnologías que mejoren la privacidad (privacy-enhacing technologies), así como adoptar medidas apropiadas para luchar contra el desarrollo y uso de tecnologías que tengan como objetivo —aunque sea parcial— esquivar las medidas tecnológicas que protegen la privacidad (principio 2.5). A su vez, la generación de perfiles no debe tener como resultado una discriminación contra individuos, grupos o comunidades, y se establece la recomendación de que el uso de sistemas o mecanismos de decisión automatizada debe preservar la autonomía de la intervención humana en el procedimiento de decisión (principio 2.6) (‍Comité de Ministros del Consejo de Europa, 2021).

El Consejo de Europa, a través del Comité sobre IA (CAI), ha trabajado en la elaboración de un Convenio sobre IA, Derechos Humanos, Democracia y Estado de Derecho, aprobado el 17 de mayo de 2024, incluye también una serie de principios jurídicos relevantes y de interés aplicables al diseño, desarrollo, uso y desmantelamiento de los sistemas de IA, incluyendo la transparencia y supervisión (art. 8), rendición de cuentas y responsabilidad (art. 9), igualdad y no discriminación (art. 10), privacidad y protección de datos (art. 11), seguridad y robustez (art. 12) e innovación segura (art. 13) (‍Consejo de Europa, 2024). De forma específica, el principio de igualdad y no discriminación, establecido en el art. 10, dispone que cada Estado parte tomará las medidas necesarias para garantizar que el diseño, el desarrollo, uso y desmantelamiento de sistemas de IA respetan el principio de igualdad, incluyendo la igualdad de género y la no discriminación. Asimismo, cada Estado parte está llamado a adoptar medidas o políticas especiales destinadas a eliminar desigualdades y lograr resultados justos e igualitarios, en consonancia con sus normas nacionales aplicables y obligaciones internacionales de derechos humanos y no discriminación. Este precepto posibilitaría esta idea de que en todo el proceso del desarrollo científico-tecnológico, desde que se tiene la idea de investigación hasta que se desarrolla e implementa la tecnología, se debe realizar con una «ética y derecho por diseño» (ethics and law by design).

Por tanto, debemos entender que los avances de la Ley 15/2022 en materia de IA están insertos en estas iniciativas, tanto de ámbito nacional como europeo.

III. CONCLUSIONES[Subir]

El crecimiento exponencial de las tecnologías digitales, en particular de la IA, junto con el grado de penetración que la digitalización tiene en la sociedad, posibilita el acceso a un mundo lleno de oportunidades, al mismo tiempo que plantea riesgos claros para la persona y su estatus jurídico —que viene definido por los derechos y obligaciones de la persona— teniendo en consideración el avance exponencial de la tecnología y los sistemas de IA.

Esto se manifiesta de forma especial cuando la tecnología permite la utilización de algoritmos en el proceso de toma de decisiones que pueden tener consecuencias jurídicas, o bien otros resultados o efectos que pueden ser equivalentes o similares dados los potenciales efectos discriminatorios de estas decisiones, que pueden afectar a las personas que forman parte de los colectivos más vulnerables.

En este marco, la Ley 15/2022, que se inserta dentro de la Estrategia Nacional sobre la IA, tiene como gran objetivo constituir el mínimo común normativo fundamental del derecho antidiscriminatorio español, así como establecer sus garantías básicas, y cabe entender que se inserta también y es congruente con las iniciativas europeas en materia de IA, tanto a nivel de la Unión Europea como del Consejo de Europa, enmarcándose, en ese sentido, en el marco del desarrollo del emergente derecho de la ciencia y la tecnología.

En este trabajo hemos tenido la oportunidad de plantear, aunque sea de una forma inicial y descriptiva, la problemática de la revolución tecnológica y los riesgos vinculados al ejercicio de los derechos que forman parte del estatus de las personas, así como realizar una primera aproximación a la Ley 15/2022 en el contexto de las iniciativas nacionales y europeas en esta materia, vinculadas en particular a la IA.

Entendemos que el art. 18.4 de la Constitución española debe ser interpretado en el sentido de establecer un fundamento constitucional para la limitación del uso de la tecnología, no solo la informática, para garantizar el pleno ejercicio de los derechos de las personas, incluyendo no solo el derecho al honor, la intimidad personal y familiar o el derecho a la protección de datos, sino también otros derechos, incluyendo el derecho a la igualdad y la prohibición de discriminación (art. 14 CE), que junto con la proclamación de la igualdad como valor superior (art. 1.1 CE) y el mandato de promover una igualdad real y efectiva (art. 9.2 CE) debería posibilitar el desarrollo de un derecho antidiscriminatorio potente en el uso de la IA, inspirado y orientado en los principios que deben regir el derecho europeo de la ciencia y la tecnología.

Las previsiones de la Ley 15/2022 en este ámbito son importantes y pueden favorecer que se desarrollen instrumentos y mecanismos que garanticen que los algoritmos utilizados en procesos de toma de decisiones por parte de Administraciones públicas utilicen técnicas de minimización de sesgos, transparencia y rendición de cuentas, y establece un marco para que tanto las Administraciones públicas como las empresas promuevan el uso de una IA ética, confiable y respetuosa con los derechos fundamentales.

Es una manifestación más del protagonismo que está adoptando España en el desarrollo de un marco jurídico que garantice un desarrollo seguro, dese la perspectiva de las personas, de la IA, pero quizás la iniciativa podría o debería haber sido algo más ambiciosa.

Ciertamente, no obstante, es una ley que se aprueba también en el marco de importantes iniciativas a nivel europeo, entre las que destacan el reglamento o ley de IA que se está tramitando en la UE, con una aproximación basada en el riesgo de las tecnologías, así como en una visión de protección de los derechos humanos, y que una vez se apruebe será de aplicación directa en España y requerirá la adaptación de nuestro marco jurídico actual, también de esta ley si fuera necesario. También es reseñable el trabajo del Comité sobre IA (CAI) del Consejo de Europa para la elaboración de un Convenio sobre IA, Derechos Humanos, Democracia y Estado de Derecho, y que plasma muy bien esta idea que hemos comentado de que habría que posibilitar que en todo el proceso del desarrollo científico-tecnológico —desde que se tiene la idea de investigación hasta que se desarrolla e implementa la tecnología— se realice en el marco de una «ética y derecho por diseño» (ethics and law by design), debiendo la normativa establecer mecanismos que lo garanticen.

Únicamente si conseguimos desarrollar un marco jurídico que garantice el estatus de las personas y sus derechos y libertades frente a los riesgos de los sistemas de IA, desde el fundamento de la preservación de la dignidad en el mundo digital, y teniendo en consideración los principios que deben orientar el desarrollo del emergente derecho europeo de la ciencia y la tecnología, se podrá conseguir que la era digital en la que entramos siga siendo humana.

AGRADECIMIENTOS Y RECONOCIMENTOS[Subir]

Trabajo inicialmente preparado de forma breve para su presentación en la mesa III, «Análisis por sectores: medios de comunicación e IA», en el seminario La Ley 15/2022 Integral para la Igualdad de Trato y la no Discriminación. Organismos de Igualdad, organizado por el Laboratorio de Igualdad (Equality Lab) en el Centro de Estudios Políticos y Constitucionales, y desarrollado posteriormente en el marco de la entonces emergente «Cátedra ISAAC. Derechos Individuales, Investigación Científica y Cooperación», formada por la UNED en colaboración con el CNR-IFAC, así como en el marco del grupo de investigación consolidado Derechos Fundamentales Multinivel de la UNED, del grupo de investigación Regulation Research Group de la Universitat de València, y del Grupo Interdisciplinar de Estudios Rurales de la Universitat de València (GIERUV). Asimismo, el trabajo se ha terminado en el marco de las actividades de la Cátedra Jean Monnet Gobernanza y Regulación en la Era Digital (proyecto 101127331, GovReDig), de la que forman parte ambos autores y financiada por la Unión Europea. Las opiniones y puntos de vista expresados solo comprometen a los autores y no reflejan necesariamente los de la Unión Europea o los de la Agencia Ejecutiva Europea de Educación y Cultura (EACEA). Ni la Unión Europea, ni la EACEA pueden ser considerados responsables de ellos. Los autores también agradecen las recomendaciones y sugerencias de las personas que han evaluado de forma anónima el trabajo y que han servido para su mejora. Los errores y defectos persistentes son responsabilidad de ellos.

CONTRIBUCIÓN Y DISTRIBUCIÓN DE LA COAUTORÍA[Subir]

Cristina Benlloch se ha ocupado de la preparación de los gráficos y datos estadísticos, así como de su interpretación y de la aproximación desde la sociología del derecho. Joaquín Sarrión se ha ocupado de la parte de análisis, estudio jurídico y aproximación desde el derecho constitucional. Ambos han participado en la revisión del artículo atendiendo a los comentarios, recomendaciones y sugerencias de la evaluación anónima.

NOTAS[Subir]

[1]

Colette: Chéry, trad. de Núria Petit Fontserè. Acantilado, 2018.

[2]

Podemos afirmar que nativas digitales son aquellas personas que han nacido una vez la digitalización es un hecho consustancial en la vida social de las personas.

[3]

Como decía Engisch, el derecho, entendido como ciencia, puede conformar al derecho y a la vida bajo el mismo (‍Engisch, 2001).

[4]

Desde las teorías pluralistas que seguimos aquí, como el constitucionalismo multinivel, se entiende, desde una perspectiva ordinamental, que el ordenamiento jurídico español es actualmente multinivel; es decir, se integra por diferentes niveles jurídicos que responden a diferentes centros de poder, entre los que el derecho de la Unión Europea es uno de estos niveles del ordenamiento multinivel. Esto permite explicar las relaciones en espacios de integración supranacional, como es el la Unión Europea en el que se ha incorporado España. Sobre el constitucionalismo multinivel, véase Gómez Sánchez (‍2020); para una revisión de la literatura sobre el pluralismo constitucional, remitimos a Bobić (‍2017).

[5]

No se puede obviar que aquí tiene incidencia la propia libertad de investigación científica que constituye, sin duda, como indican Gómez Sánchez (‍2009: 75-‍76) y Cippitani (‍2015), un derecho fundamental. Derecho que podemos encontrar implícito en el art. 19 de la Declaración de Derechos Humanos de 1948 (y de forma explícita tanto en el art. 16.1 del Tratado de Funcionamiento de la Unión Europea, en el art. 13 de la Carta de Derechos Fundamentales de la Unión Europea y, a nivel interno, de forma implícita en el art. 20.1 apdo. b) de la Constitución española.

[6]

Así, en lo que respecta a la conexión y frecuencia de uso de internet no se aprecian diferencias significativas por sexos. Hombres y mujeres utilizan internet en cifras similares en todas las frecuencias de uso. Dados los datos no se puede afirmar que exista brecha de género en el acceso a internet. Diferente es cuando se habla de brecha de uso o cuando se profundiza en los datos por edades.

[7]

Según la Real Academia de la Lengua, un algoritmo no es sino un «conjunto ordenado y finito de operaciones que permite hallar la solución de un problema».

[8]

Se pueden apreciar algunos de estos riesgos con casos reales en diferentes sectores, desde la banca a la educación, pasando por la policía predictiva, en el interesantísimo libro de O’Neil (‍2018). También es de interés, en particular, el informe elaborado por la Agencia Europea de Derechos Fundamentales precisamente sobre la relación entre la IA y los derechos fundamentales (‍FRA, 2020).

[9]

El Sistema Seguimiento Integral en los casos de Violencia de Género (Sistema VioGén), comenzó a funcionar el 26 de julio del 2007, conforme a lo previsto en la Ley Orgánica 1/2004, de 28 de diciembre, de Medidas de Protección Integral contra la Violencia de Género, con el objetivo de integrar la información disponible en materia de violencia de género y poder predecir el riesgo atendiendo al nivel de riesgo, para la protección de las víctimas en el territorio nacional español con un sistema de avisos, alertas y alarmas, dependiente de la Secretaria de Estado de Seguridad del Ministerio.

[10]

RisCanvi es un protocolo integral basado en un algoritmo utilizado por el Departamento de Atención a Víctimas en Centros Penitenciarios de Cataluña, cuya función es predecir si un recluso cometerá un delito si es liberado temporalmente. Se utiliza para analizar los avances con el fin de orientar la toma de decisiones, aunque no condiciona la decisión sobre el traslado de presos de un centro penitenciario a otro o sobre la salida anticipada (‍Generalitat de Catalunya, 2021).

[11]

El sistema de alerta rápida SALER es un sistema de alerta temprana regulado por la Ley 22/2018, de 6 de noviembre, de la Generalitat Valenciana, de inspección general de servicios y sistema de alertas para la prevención de malas prácticas en la Administración de la Generalitat y su sector público instrumental. Es un sistema informático que pretende prevenir el fraude en el sector de la Administración a través del análisis de los datos generados por la Administración autonómica valenciana (‍Generalitat Valenciana, 2021).

[12]

Este artículo se puede entender como el primero que introduce garantías jurídicas precisas en favor de las personas afectadas por decesiones automatizadas. Sobre la naturaleza de este artículo y las garantías que el mismo establece, véanse, por todos, los excelentes trabajos de Gil González (‍2017), Palma Ortigosa (‍2019) y Sancho Villa (‍2021).

[13]

Es el art. 2 de la Ley 15/2022 el que establece el ámbito subjetivo, reconociendo el derecho a la igualdad de trato y no discriminación de toda persona «con independencia de su nacionalidad, de si son menores o mayores de edad o de si disfrutan o no de residencia legal. Nadie podrá ser discriminado por razón de nacimiento, origen racial o étnico, sexo, religión, convicción u opinión, edad, discapacidad, orientación o identidad sexual, expresión de género, enfermedad o condición de salud, estado serológico y/o predisposición genética a sufrir patologías y trastornos, lengua, situación socioeconómica, o cualquier otra condición o circunstancia personal o social» (art. 2.1 Ley 15/2022).

[14]

Incluyendo como tal, de forma amplia, a todo el sector público: a) la Administración General del Estado; b) las Administraciones de las comunidades autónomas; c) las entidades que integran la Administración local; d) La Administración de Justicia; e) el sector público institucional, en los términos establecidos en el artículo 2.2 de la Ley 39/2015, de 1 de octubre, del Procedimiento Administrativo Común de las Administraciones Públicas —organismos públicos y entidades de derecho público vinculados o dependientes de las Administraciones públicas, las entidades de derecho privado vinculadas o dependientes de las Administraciones públicas, y las Universidades públicas—; así como f) las asociaciones y fundaciones constituidas por las Administraciones, entes, organismos y entidades que integran el sector público.

[15]

Y esto con independencia de su nacionalidad, domicilio o residencia.

[16]

Lo afirma en términos más taxativos Fernández Hernández (‍2022) afirmando que «La Ley 15/2022 introduce la primera regulación positiva de la IA en España». Lo cierto es que, como se ha dicho antes, la LODPyGDD recogía únicamente dos referencias: una en el art. 18 al derecho de oposición y otros derechos relacionados con las decisiones individuales automatizadas, incluyendo la realización de perfiles, que se ejercerán de acuerdo con los arts. 21 y 22 (RGPD); y otra en el art. 11 sobre la transparencia e información al afectado, que dispone que la obligación de información al afectado debe incluir este derecho a oponerse a decisiones individuales automatizadas cuando producen efectos jurídicos o le afecten de forma significativamente similar, conforme a lo previsto en el art. 22 RGPD.

[17]

Entre los mismos cabría destacar la nueva Agencia Española de Supervisión de la IA en el marco de la Agenda España Digital 2026, presentada esta última el jueves 8 de julio de 2022. Recientemente se ha aprobado el estatuto jurídico de la Agencia. Véase el Real Decreto 729/2023, de 22 de agosto, por el que se aprueba el Estatuto de la Agencia Española de Supervisión de IA, publicado recientemente.

[18]

Desde la perspectiva de la protección de los derechos fundamentales, el Consejo de Europa ya ha advertido de la importancia de que se hagan evaluaciones de impacto en los derechos fundamentales en relación con el desarrollo tecnológico (‍Consejo de Europa, 2019)

[19]

Véase en este sentido la posición favorable de Boix Palop (‍2020) y Baz Lomba (‍2021). En contraposición, se pueden ver las tesis de Huergo Lorga (‍2020) y de Arroyo Jiménez (‍2021). Este último defiende con precisión que se pueden extender las mismas garantías jurídicas a las decisiones de la Administración pública adoptadas con la utilización de algoritmos sin sostener que los mismos son reglamentos.

[20]

Sin duda, el (futuro) reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de IA (reglamento o ley de IA), que plantea una regulación basada en el riesgo desde la perspectiva de protección de las personas, es una iniciativa —la comentaremos posteriormente— que puede tener una incidencia significativa en este ámbito. Tras la propuesta inicial de la Comisión Europea y las posiciones del Consejo y del Parlamento Europeo, recientemente se ha llegado a un acuerdo a través de la negociación en el llamado trílogo (Comisión, Parlamento, Consejo de la Unión) y se ha formalizado ya el texto de la norma, aprobándose por el Parlamento Europeo el13 de marzo de 2024 (‍Parlamento Europeo, 2024), y está a la espera de la confirmación formal del Consejo y su publicación en el DOUE, lo que se espera ocurra a lo largo de los próximos meses.

[21]

Véase https://tinyurl.com/4mkd3xxk, que incluye los casos en los que los servicios municipales de Ámsterdam utilizan algoritmos.

[22]

Es conocido que las Administraciones públicas están utilizando diferentes mecanismos y soluciones basadas en IA para facilitar la adopción de decisiones, en el marco de la actuación administrativa automatizada (art. 41 de la Ley 40/2015, de 1 de octubre, de Régimen Jurídico del Sector Público, LRJSP). No obstante, este art. 41 LRJSP, que se utiliza como fundamento para la actuación administrativa automatizada, no establece importantes medidas específicas de garantía, más allá de definir qué se entiende por actuación administrativa automatizada (cualquier acto o actuación realizada por medios electrónicos de una Administración pública de forma íntegra, en el marco de un procedimiento administrativo y sin intervención directa de un empleado público) y la exigencia de que se establezca de forma previa el órgano u órganos competentes para la definición de las especificaciones, la programación, el mantenimiento, la supervisión y el control de calidad, así como del órgano responsable de la actuación a efectos de la eventual impugnación; garantías que no parecen suficientes desde el punto de vista de la tutela de los derechos y libertades de las personas que pueden verse afectadas por actuaciones administrativas automatizadas.

[23]

Por supuesto, sería necesario garantizar la preservación de la dignidad de la persona, junto con los derechos que le son inherentes, y el libre desarrollo de la personalidad (art. 10.1 CE) en el ámbito digital.

[24]

A nivel internacional, y en materia de códigos de buenas prácticas, podemos considerar, también la «Recomendación sobre la ética de la IA» elaborada en la UNESCO (‍UNESCO, 2022).

[25]

Y esto porque los niños constituyen un grupo más vulnerable, por lo que con carácter general no se deben elaborar perfiles con fines comerciales porque pueden ser particularmente susceptibles en su actividad en línea y ser influidos fácilmente a través de publicidad comportamental (‍Grupo de Trabajo del Artículo 29, 2018: 32)

[26]

Se está desarrollando, a partir de la Estrategia Europea de Datos, y los nuevos instrumentos normativos en desarrollo, incluyendo la gobernanza de datos y los futuros espacios europeos de datos, un cambio de paradigma en materia de la regulación de los datos. Véase Montero Pascual y Rodríguez Ayuso (‍2023).

[27]

Principios que deben orientar el desarrollo, la aplicación e interpretación del emergente Derecho europeo de la ciencia y la tecnología, y que también están pendientes de ser identificados en su totalidad y explicados por la dogmática del Derecho constitucional europeo.

[28]

Protocolo por el que se modifica el Convenio para la protección de las personas en lo que respecta al tratamiento automatizado de datos personales (CETS N.º 223).

[29]

En particular, dispone el art. 9.1 a) del Convenio 108+ el derecho a no estar sometido a una decisión que le afecte significativamente, basada únicamente en un procedimiento automatizada de datos sin tener en consideración su opinión (art. 1. «Every individual shall have a righ: a) not to be subject to a decision significantly affecting him or her based solely on an automated processing of data without having his or her views taken into consideration»).

Bibliografía[Subir]

[1] 

Aba Catoira, A. (2023). La garantía de los derechos como respuesta frente a los retos tecnológicos. En F. Balaguer Callejón y L. Cotino Hueso (coords.). Derecho Público de la IA (pp. 57-‍84). Zaragoza: Fundación Giménez Abad.

[2] 

Arenas Ramiro, M. (2022). La igualdad a la luz de los derechos digitales. En N. Reche Tello y R. Tur Ausina (dirs.), F. J. Sanjuán Andrés y C. Ortega Giménez (coords). La teoría constitucional frente a la transformación digital y las nuevas tecnologías (pp. 121-‍144). Cizur Menor: Thomsom Reuters Aranzadi.

[3] 

Arroyo Jiménez, L. (2021). Algoritmos y reglamentos. Almacén del Derecho [blog], 25-‍02-2020. Disponible en: https://tinyurl.com/3shc6a3s.

[4] 

Balaguer Callejón, F. (2023a). La Constitución del algoritmo. Zaragoza: Fundación Giménez Abad de Estudios Parlamentarios y del Estado Autonómico.

[5] 

Balaguer Callejón, F. (2023b). La Constitución del algoritmo. El difícil encaje de la constitución analógica en el mundo digital. En F. Balaguer Callejón, L. Cotino Hueso (coords.). Derecho Público de la IA (pp. 29-‍56). Zaragoza: Fundación Giménez Abad.

[6] 

Bartolini, A., Cippitani, R. y Colcelli, V. (2019). Dictionary of Statuses within EU Law. Cham: Springer. Disponible en: https://doi.org/10.1007/978-3-030-00554-2.

[7] 

Baz Lomba, C. (2021). Los algoritmos y la toma de decisiones administrativas. Especial referencia a la transparencia. Revista CEFLegal, 243, 119-‍160. Disponible en: https://doi.org/10.51302/ceflegal.2021.9441.

[8] 

Benlloch Domènech, C. y Sarrión Esteve, J. (2021a). Los derechos fundamentales ante las aporías de la era digital. Cuestiones Constitucionales, 46, 3-‍28. Disponible en: https://doi.org/10.22201/iij.24484881e.2022.46.17046.

[9] 

Benlloch Domènech, C. y Sarrión Esteve, J. (2021b). Los retos sociales y jurídicos de un mundo en transformación: una aproximación a la Sociología del Derecho. Valencia: Tirant lo blanch.

[10] 

Bobić, A. (2017). Constitutional Pluralism is not Dead: An Analysis of Interactions Between Constitutional Courts of Member States and the European Court of Justice. German Law Journal, 18 (6), 1395-‍1428. Disponible en: https://doi.org/10.1017/S2071832200022380.

[11] 

Boix Palop, A. (2020). Los algoritmos son reglamentos: la necesidad de extender las garantías propias de las normas reglamentarias a los programas empleados por la Administración para la adopción de decisiones. Revista de Derecho Público: Teoría y Método, 1, 223-‍270. Disponible en: https://doi.org/10.37417/RPD/vol_1_2020_33.

[12] 

Christensen, C. M. (1997). The Innovator’s dilemma. Boston: Harvard Business Review Press.

[13] 

Cippitani, R. (2015). Academic Freedom as a Fundamental Right. En 1stInternational Conference on Higuer Education Advances, HEAd’15. Valencia: Universitat Politècnica de València. Disponible en: https://doi.org/10.4995/HEAd15.2015.357.

[14] 

Cippitani, R. (2023). La dimension jurídica del espacio europeo de investigación. Roma: CNR.

[15] 

Comisión Europea (2018a). A multi-dimensional approach to disinformation. Report of the independent High Level Group on Fake News and Online Disinformation. Disponible en: https://tinyurl.com/pnx8sc5z.

[16] 

Comisión Europea (2018b). Joint Communication to the European Parliament, the European Council, the Council, The European Economic and Social Committee and the Committee of the Regions. Action Plan Against Disinformation. JOIN(2018) 36 final. Disponible en: https://tinyurl.com/mr37249d.

[17] 

Comisión Europea (2018c). EU Code of Practice on Disinformation. Disponible en: https://tinyurl.com/mvfmep6.

[18] 

Comisión Europea. (2018d). Comunicación de la Comisión Europea «IA para Europa», SWD(2018)137 final. 25-4-2018. Disponible en: https://tinyurl.com/2heb2ub8

[19] 

Comisión Europea (2021). Ethics By Design and Ethics of Use Approaches for Artificial Intelligence. 21/12/2021. Disponible en: https://tinyurl.com/4hm4pvsn

[20] 

Comité de Ministros del Consejo de Europa (2021). Recommendation CM/Rec(2021)8 of the Committee of Ministers to member States on the protection of individuals with regard to automatic processing of personal data in the context of profiling (adopted by the Committee of Ministers on 3 November 2021 at the 1416 meeting of the Ministers’ Deputies). Disponible en: https://tinyurl.com/yrnusn7w.

[21] 

Comité de Ministros del Consejo de Europa (2024). Committee on Artificial Intelligence (CAI). Council of Europe Framework Convention on Artificial Intelligence and Human Rights, Democracy and the Rule of Law. CM(2024)52-final. Disponible en: https://search.coe.int/cm?i=0900001680afb11f

[22] 

Consejo de Europa (2019). Umboxing Artificial Intelligence: 10 Steps to Protect Human Rights. Bruselas: Consejo de Europa. Disponible en: https://tinyurl.com/56978sje.

[23] 

Cotino Hueso, L. (2017). Big data e IA. Una aproximación a su tratamiento jurídico desde los derechos fundamentales. ILEMATA, 24, 131-‍150.

[24] 

Engisch, K. (2001). Introducción al pensamiento jurídico. Granada: Comares.

[25] 

Fernández Hernández, C. (2022). La Ley 15/2022 introduce la primera regulación positiva de la IA en España. Ciberderecho. Diario La Ley [blog], 13-‍07-2022. Disponible en: https://tinyurl.com/3r46avyc.

[26] 

FRA. European Union Agency for Fundamental Rights (2020). Getting the future right- Artificial Intelligence and fundamental rights. Disponible en: https://tinyurl.com/3mw3yxpt.

[27] 

Gascón Marcén, A. (2020). Derechos humanos e IA. En A. Pérez G. M. Teruel, E. C. Raffiotta y M. P. Iadicicco (dirs.). Setenta años de Constitución italiana y cuarenta años de Constitución española (pp. 335-‍350). Madrid: Centro de Estudios Políticos y Constitucionales.

[28] 

Generalitat de Catalunya (2021). Riscanvi: el protocol de valoració del risc. Disponible en: https://tinyurl.com/2zyuvd4t.

[29] 

Generalitat Valenciana (2021). Sistema de alerta rápida SALER. Disponible en: https://tinyurl.com/2btzv8ww.

[30] 

Gil González, E. (2017). Aproximación al estudio de las decisiones automatizadas en el seno del Reglamento General Europeo de Protección de Datos a la luz de las tecnologías big data y de aprendizaje computacional, Revista Española de la Transparencia, 5, 165-‍179.

[31] 

Gobierno de España (2020). ENIA. Estrategia Nacional de IA. Disponible en: https://tinyurl.com/bdc2pj92

[32] 

Gobierno de España (2021). Carta de Derechos Digitales. Disponible en: https://tinyurl.com/m935vu8v

[33] 

Gómez Sánchez, Y. (2009). La libertad de creación y producción científica: especial referencia a la Ley de Investigación Biomédica. Revista de Derecho Político, 75-76, 489-‍514.

[34] 

Gómez Sánchez, Y. (2020). Constitucionalismo multinivel. Derechos fundamentales. Madrid: Sanz y Torres. Disponible en: https://doi.org/10.5944/rdp.75-76. 2009.9100.

[35] 

Grupo de Trabajo del Artículo 29 (2018). Directrices sobre decisiones individuales automatizadas y elaboración de perfiles a los efectos del Reglamento 2016/679. Adoptadas el 3 de octubre de 2017. Disponible en: https://tinyurl.com/3vzbvk98.

[36] 

Guillen López, E. (2022). Definición y redefinición del constitucionalismo en la era digital. En N. Reche y R. Tur Ausina (dirs), F. J. Sanjuán Andrés y C. Ortega Giménez (coords). La teoría constitucional frente a la transformación digital y las nuevas tecnologías (pp. 97-‍117). Valencia: Thomsom Reuters Aranzadi.

[37] 

Hildebrandt, M. (2016). Smart Technologies and the End(s) of Law. Cheltenham: Edward Elgar. Disponible en: https://doi.org/10.4337/9781849808774.

[38] 

Huelgo Lorga, A. J. (2020). Una aproximación a los algoritmos desde el derecho administrativo. En A. J. Huergo Lorga (dir.) y G. M. Díaz González (coord.). La regulación de los algoritmos (pp. 23-‍87). Cizur Menor: Thomsom Reuters Aranzadi.

[39] 

Innerarity, D. y Colomina, C. (2020). La verdad en las democracias algorítmicas. Revista CIDOB d’Afers Internacionals, 124, 11-‍23. Disponible en: https://doi.org/10.24241/rcai.2020.124.1.11.

[40] 

Kaplan, A. y Haenlein, M. (2019). Siri, Siri, in my hand: Who’s the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence. Business Horizons, 62, 15-‍25. Disponible en: https://doi.org/10.1016/j.bushor.2018.08.004.

[41] 

Klein, E. (2020). Why We’re Polarized. Nueva York: Avid Reader Press.

[42] 

Martínez Martínez, R. (2019). IA desde el diseño. Retos y estrategias para el cumplimiento normativo. Revista Catalana de Dret Públic. 58, 64-‍81.

[43] 

Martínez López-Sáez, M. (2021). La ratificación española del Convenio 108+: consideraciones jurídicas básicas del nuevo marco paneuropeo de protección de datos. Revista General de Derecho Europeo, 54, 229-‍254.

[44] 

Montero Pascual, J. J. y Rodríguez Ayuso, J. F. (2023). La nueva regulación de los datos. Navarra: Aranzadi.

[45] 

Moreno, E. (2022). News Report España 2022. Pamplona: Publicaciones de la Universidad Universidad de Navarra.

[46] 

OdiseIA. (2022). Guía de buenas prácticas para el uso de la IA ética. Disponible en: https://tinyurl.com/yc38bekw.

[47] 

O’Neil, C. (2018). Armas de destrucción masiva. Madrid: Capitán Swing Libros.

[48] 

Palma Ortigosa, A. (2019). Decisiones automatizadas en el RGPD. El uso de algoritmos en el contexto de la protección de datos. Revista General de Derecho Administrativo, 50.

[49] 

Pariser, E. (2017). El filtro burbuja. Barcelona: Taurus.

[50] 

Parlamento Europeo (2017). Resolución del 16 de febrero de 2017, con recomendaciones destinadas a la Comisión sobre Normas de Derecho Civil sobre Robótica (2015/2103(INL)). Disponible en: https://tinyurl.com/yafcdp4y.

[51] 

Parlamento Europeo (2024). Resolución legislativa del Parlamento Europeo, de 13 de marzo de 2024, sobre la propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de IA (ley de IA) y se modifican determinados actos legislativos de la Unión (COM(2021)0206—C9-0146/2021—2021/0106(COD). Disponible en: https://tinyurl.com/3ex3kjzd.

[52] 

Pérez Zafrilla, P. J. (2021). Polarización artificial: cómo los discursos expresivos inflaman la percepción de polarización política en internet. Recerca. Revista de Pensament i Anàlisi, 26 (2), 1-‍23. Disponible en: http://dx.doi.org/10.6035/recerca.4661.

[53] 

Pérez Zafrilla, P. J., Benlloch Domènech, C. y Sarrión Esteve, J. (2021). E-democracia rural. Valencia: Tirant lo Blanch.

[54] 

Reche Tello, N. y Tur Ausina, R. (2022). Poder y persona en una sociedad digital. En N. Reche Tello, R. Tur Ausina (dirs.), F. J. Sanjuán Andrés y C. Ortega Giménez (coords.). La teoría constitucional frente a la transformación digital y las nuevas tecnologías (pp. 13-‍28). Cizur Menor: Thomsom Reuters Aranzadi.

[55] 

Sánchez Barrilao, J. F. (2016). El Derecho constitucional ante la era de Utrón: la informática y la IA como objeto constitucional. Estudios de Deusto, 64 (2), 225-‍58. Disponible en: https://doi.org/10.18543/ed-64(2)-2016pp225-258.

[56] 

Sancho Villa, D. (2021). Las decisiones individuales automatizadas, incluida la elaboración de perfiles (comentario al artículo 22 RGPD). En A. Troncoso Reigada (dir). Comentario al Reglamento General de Protección de Datos y a la Ley Orgánica de protección de los datos personales y garantía de los derechos digitales (pp.1725-1745). Cizur Menor: Thomsom Reuters Aranzadi.

[57] 

Sarrión Esteve, J. (2019). Consumer. En A. Bartolini, R. Cippitani y V. Colcelli (eds.). Dictionary of Statuses within EU Law. Cham: Springer. Disponible en: https://doi.org/10.1007/978-3-030-00554-2_13

[58] 

Sarrión Esteve, J. (2022a). El reconocimiento y protección de los derechos y libertades en un mundo en transformación. ¿Hacia un nuevo paradigma constitucional. Cizur Menor: Thomsom Reuters Aranzadi.

[59] 

Sarrión Esteve, J. (2022b). Algunas notas sobre el paradigma de protección de los derechos fundamentales frente a la IA y las neurotecnologías. En N. Reche Tello y R. Tur Ausina (dirs.), F. J. Sanjuán Andrés y C. Ortega Giménez (coords.). La teoría constitucional frente a la transformación digital y las nuevas tecnologías (pp. 181-‍197). Cizur Menor: Thomsom Reuters Aranzadi.

[60] 

Soriano Arnanz, A. (2021a). Decisiones automatizadas y discriminación: aproximación y propuestas generales. Revista General de Derecho Administrativo, 56, 11.

[61] 

Soriano Arnanz, A. (2021b). Decisiones automatizadas: problemas y soluciones jurídicas. Más allá de la protección de datos. Revista de Derecho Público: Teoría y Método, 3, 85-‍127. Disponible en: https://doi.org/10.37417/RPD/vol_3_2021_535.

[62] 

Sustein, C. (2003). República.com. Internet, democracia y libertad. Barcelona: Paidós.

[63] 

UNESCO (2022). Recomendación sobre la ética de la IA. Disponible en: https://tinyurl.com/4tv2f7hr.

[64] 

Valero Torrijos, J. (2022). Los derechos en la era digital. En J. F. Rodríguez Ayuso (coord.). Nuevos retos en materia de derechos digitales en un contexto de pandemia: perspectiva multidisciplinar (pp. 25-‍42). Cizur Menor: Thomsom Reuters Aranzadi.

[65] 

Vara-Miguel, A. (2022). Se agrava la desconfianza de los españoles en las noticias. En: A. Vara, A. Amoedo, E. Moreno, S. Negredo y J. Kaufmann (coords). Digital News Report España 2022. (pp. 23-‍29). Pamplona: Servicio de Publicaciones de la Universidad de Navarra. Disponible en: https://doi.org/10.15581/019.2022.

[66] 

Vara, A., Amoedo, A., Moreno, E., Negredo, S. y Kaufmann, J. (2022). Digital News Report España 2022. Pamplona: Servicio de Publicaciones de la Universidad de Navarra. Disponible en: https://doi.org/10.15581/019.2022.

[67] 

Zweig, S. (2003). El legado de Europa. Barcelona: Acantilado.