RESUMEN

El presente estudio pretende aportar reflexiones para el análisis iusconstitucional de la inteligencia artificial. Para ello propone evitar metáforas que pueden llamar a engaño o esconder aspectos esenciales y tener en cuenta algunas lecciones aprendidas en la traslación de conceptos constitucionales estatales a la integración europea. Estas lecciones son aplicadas al análisis constitucional de un concepto típico de la inteligencia artificial (el ciclo de vida de un sistema de IA) para concluir la necesaria transformación de los conceptos y categorías constitucionales de manera que sean útiles para proteger los ideales de libertad, igualdad y progreso propios del constitucionalismo.

Palabras clave: Constitucionalismo; inteligencia artificial (AI); derecho constitucional europeo; ciclo de vida; proceso razonable de decisión.

ABSTRACT

This study reflects on the constitutional analysis of Artificial Intelligence. To this end, it advises avoiding metaphors that may mislead or conceal essential aspects. In this sense, it recommends taking into account some lessons learned in the adaptation of state constitutional concepts to European integration. These lessons are applied to the constitutional analysis of a typical AI concept (the life cycle of an AI system) in order to argue for the transformation of constitutional concepts and categories so that they become useful to protect the ideals of freedom, equality and progress inherent to constitutionalism.

Keywords: Constitutionalism; Artificial Intelligence (AI); European Constitutional Law; lifecycle; reasonable decision making process.

Cómo citar este artículo / Citation: Bustos Gisbert, R. (2024). El constitucionalista europeo ante la inteligencia artificial: reflexiones metodológicas de un recién llegado. Revista Española de Derecho Constitucional, 131, 149-‍178. doi: https://doi.org/10.18042/cepc/redc.131.05

I. PLANTEAMIENTO[Subir]

En diversos contextos he podido leer y oír quejas de quienes desde hace tiempo llevan trabajando temas relacionados con la dimensión digital (o, si se quiere, «no analógica») del derecho constitucional por la invasión de nuevas voces doctrinales en la materia. Invasión provocada, en parte, por una suerte de psicosis colectiva sobre los riesgos de la inteligencia artificial (en adelante, IA) y, en parte, por la proliferación de recursos económicos para financiar las siempre maltrechas arcas de la investigación universitaria.

Tienen cierta razón. Para quienes desde los años noventa (algunos incluso antes) llevan trabajando en estos temas, sobre todo vinculados a lo que hoy se conoce como protección de datos, la llegada masiva de estudios, conferencias, ponencias y otras formas de difusión científica sobre IA y derecho constitucional realizadas por autores «extraños» al mundo digital aparece como una avalancha de reflexiones tras las que no existe un conocimiento profundo de la realidad (digital) en la que se desarrolla la IA. Ese desconocimiento de la base empírica del estudio normativo lleva a detectar con claridad en tales aportaciones meros «lugares comunes», «generalidades», o, en el peor de los casos, simples «ocurrencias».

Mutatis mutandis, tal reacción, desde luego lógica y frecuentemente justificada, recuerda a la de los estudiosos del, entonces, derecho comunitario cuando en los años noventa del pasado siglo especialistas de otras ramas del derecho, en concreto del derecho constitucional, comenzaron a trabajar en los aspectos constitucionales de la integración europea. Se sostenía, así, que el uso de las herramientas propias del derecho constitucional nacional no era adecuado para el análisis del derecho comunitario que disponía de sus específicas categorías y conceptos resultado de su propia lógica interna, de modo que aplicar los propios del derecho constitucional nacional o arrojaba confusión o resultaba inútil. Los años demostraron que estaban equivocados a partir del lento alumbramiento de una ciencia del derecho constitucional europeo en el marco de un ius publicum europaeum (Von Bogdandy, 2020; Cruz Villalón et al., 2013) fruto de la transformación constitucional de instrumentos no solo comunitarios, sino también vinculados al Consejo de Europa (‍García Roca, 2019). Pero también lo estaban aquellos que trataban de explicar el fenómeno de la integración solo desde la lógica de la Constitución y del derecho constitucional nacional. La analogía entre este proceso y el de la IA será unos de los ejes de este ensayo.

Por ello, en esta introducción, conviene no solo disculparse por anticipado por los errores u ocurrencias que un lector avezado en IA sin duda encontrará, sino sobre todo justificar su pertinencia, que no es otra que la de tratar de ofrecer una mirada metodológica en el estudio de la IA después de solo unos pocos años de intentar entender su funcionamiento e impacto en el derecho constitucional. Esto es, no se pretende en las páginas siguientes plantear grandes aportaciones, ni mucho menos intentar corregir a quienes desde hace tiempo llevan trabajando sobre la materia. Simplemente se pretende ofrecer tanto a quienes se están aproximando a estos temas como a quienes llevan tiempo dedicándose a ellos algunas reflexiones que puedan ayudar a aproximarse metodológicamente desde el derecho constitucional a la infinidad de cuestiones derivadas de la irrupción de la IA en nuestro mundo. Parafraseando el trabajo editado por Micklitz et al. (‍2022), se trata de ofrecer algunas herramientas para hacer frente a los retos constitucionales en la sociedad algorítmica. En fin, en las siguientes páginas vamos a hablar de derecho constitucional, Constitución y constitucionalismo. Pero, sobre todo, vamos a hacerlo desde la óptica de la ciencia del derecho constitucional.

Pero conviene, para finalizar esta introducción, dejar claro que no pretendemos adentrarnos en una teoría general sobre la IA como objeto del derecho constitucional. Es, sin duda, demasiado pronto para tal tarea, que requerirá un estudio profundo de problemas concretos derivados del uso de la IA en nuestras vidas y de sus efectos en los valores del constitucionalismo. Solo después de esos análisis sectoriales podrán comenzar a diseñarse los elementos propios de una teoría general.

Nuestro objetivo es, por tanto, mucho más modesto. En una primera parte de este estudio trataremos de apuntar algunas premisas (posiblemente obvias) conceptuales respecto al análisis constitucional de la IA (apartados II y III) para, después, aplicarlas a un concreto concepto de la IA, como es el ciclo de vida que ha sido utilizado con profusión por el Convenio Marco del Consejo de Europa sobre Inteligencia Artificial recientemente abierto a la firma (en el apartado IV), que nos permita extraer algunas conclusiones (en el apartado V) que habrán de entenderse como provisionales. No se trata, pues, de presentar al lector un trabajo definitivo ni cerrado. Simplemente intentaremos ofrecer una propuesta de análisis constitucional adaptado a un concepto de IA.

Para ello conviene comenzar por preguntarnos por tres conceptos.

II. METÁFORAS ENGAÑOSAS: ¿INTELIGENCIA? ¿ARTIFICIAL? ¿RIESGOS?[Subir]

Es un lugar común en el mundo de la IA afirmar que las metáforas son engañosas. Efectivamente, el uso de imágenes conceptuales pertenecientes al mundo analógico para designar procesos, herramientas y nociones propios del mundo digital es muy útil por su claridad, pero resulta intrínsecamente engañoso en la medida en que se basan, sobre todo, en experiencias físicas que, por definición, no existen en el ámbito del trabajo de una herramienta o sistema[2] de IA. Y no conviene olvidarlo (‍Lakoff y Johnson, 1980: 208), las metáforas no son solo una figura literaria, sino también un mecanismo cognitivo que permite la construcción de un sistema de conceptos útil para estructurar el propio discurso, incluido el discurso científico. Como sostenían los autores norteamericanos, el genio del buen científico se encuentra en construir un adecuado sistema de metáforas naturales para su ciencia, pero es «igualmente importante entender que las metáforas de una ciencia, como cualquier otra metáfora, suelen esconder indefinidamente muchos aspectos de la realidad». Es, pues, necesario buscar esos aspectos ocultos tras las metáforas que pueden resultar esenciales para el análisis jurídico-constitucional del funcionamiento de la IA.

Como punto de partida requerimos un concepto de IA claro y útil para el análisis jurídico, lo que dista de ser sencillo, tal y como pone de manifiesto Hernández Ramos (‍2024). Siguiendo su aproximación parece que lo más razonable es describir la IA a partir de una serie de elementos comunes mínimos presentes en todas las definiciones propuestas por organismos y académicos y entender que una herramienta de IA es un sistema o programa informático, con unos objetivos definidos por alcanzar y unos resultados predeterminados que pueden consistir en contenidos, predicciones, recomendaciones, decisiones o aprendizaje, con la capacidad de influir en su entorno y, quizás el elemento más relevante, un cierto grado de autonomía para emprender acciones[3].

A partir de este concepto descriptivo podemos comenzar la búsqueda de aspectos ocultos tras la metáfora afirmando que la IA no es ni inteligencia ni artificial. No desde luego como se entienden estas dos ideas en el mundo físico. Coincidimos, pues, con Innerarity (‍2022: 33) en que no deberíamos siquiera seguir llamándola así, aunque no encontremos un término mejor.

En primer lugar, no es inteligencia al menos por dos motivos. Por un lado, porque la inteligencia en el mundo físico no se basa solo en el análisis racional de datos, sino que también tiene componentes intuitivos y emocionales que no es posible (hasta donde llega la ciencia hoy) trasladar al proceso de funcionamiento de una herramienta de IA. Por el otro, porque la inteligencia física es general, abarca y se aplica a todas las actividades del ser humano, mientras que la IA es (al menos todavía) sectorial, especializada en un determinado tipo de procesos que, eso sí, pueden tener aplicaciones más o menos generales dependiendo del tipo de herramienta que estemos utilizando. Esto es, de momento nos movemos exclusivamente en lo que se denomina una IA débil (sectorial) y no en una IA fuerte (general).

En segundo lugar, tampoco es estricta y únicamente artificial. Es una creación humana, desde luego, pero controlada por los humanos. Las herramientas de IA son pensadas, diseñadas, probadas, aplicadas y supervisadas por humanos. Ciertamente, la entidad y presencia humana en cada una de esas fases es variable y, a menudo, descansa, a su vez, en otras herramientas de IA. Pero estas no aparecen autogeneradas, pues detrás de ellas hay seres humanos que piensan sus utilidades y diseñan su funcionamiento; no se ponen en marcha por sí mismas, sino que son probadas y evaluadas por seres humanos; se aplican a través de soportes y medios no creados por la propia entidad artificial, y, en fin, su correcto funcionamiento es evaluado también por seres humanos, aunque puedan utilizar para todos esos procesos otras herramientas (distintas) de IA. Balkin (‍2017: 1222 y ss.) ha evocado la historia del gólem de Praga para destacar que el problema no es la criatura creada por el hombre, sino el comportamiento de este a la hora de instruirla y utilizarla. Debemos huir, pues, recuerda el autor, de la falacia del homúnculo: no hay ningún pequeño ser artificial tras la herramienta que la haga producir buenos o malos resultados. La IA no crea problemas por sí misma, son los hombres que la diseñan y la utilizan los que generan los riesgos para los valores de convivencia básicos. Son los seres humanos los destinatarios de las reglas jurídicas que pretenden disciplinar el funcionamiento de la IA. Teniendo en cuenta lo que oculta la metáfora, podemos apuntar dos elementos importantes.

Se refiere el primero a que no estamos hablando de herramientas capaces de pensar y actuar por sí mismas, sino que realmente estamos tratando con procesos de tratamiento estadístico de cantidades ingentes de datos capaces de ser aplicados en la práctica en forma de previsiones con un alto grado de acierto y con una mayor o menor capacidad de aprendizaje autónomo. Más que de IA, deberíamos hablar de estadística masiva aplicada con capacidad de aprendizaje de sí misma y del entorno que le sea suministrado. Dicho en otros términos: estamos hablando de sistemas de información sobre los que se ejecutan procesos informáticos (algorítmicos) de aprendizaje y/o de decisión. Ello requiere: datos adecuados, reglas y procesos de aprendizaje (definidos —dirigidos— o no —profundos o no dirigidos—), y propuestas de decisión (outputs) sometidas o no a supervisión y validación humana. No se trata, pues, de entes autónomos dotados de razón. Es una máquina de diseño humano, controlada por humanos y al servicio de los humanos.

Atañe el segundo a que la popularización de la metáfora IA se ha producido precisamente cuando se han puesto en marcha herramientas capaces de generar contenidos por sí mismas («generativas») no solo sobre la base de procesos prestablecidos de gestión de datos, sino también utilizando capacidades de aprendizaje derivadas de la experiencia obtenida en su funcionamiento por la propia herramienta («autoaprendizaje»). Esos dos factores, unidos al cierto grado de autonomía alcanzado por algunas herramientas de IA, en mi opinión, han cambiado la importancia cualitativa de la IA desde el punto de vista del derecho constitucional porque los seres humanos, por una parte, pierden la capacidad de controlar qué contenidos se generan, y, por la otra, no tutelan el modo en el que la herramienta, en concreto, utiliza masivamente los datos para producir los nuevos resultados estadísticos conformadores de los contenidos generados (‍Simonccini y Longo, 2022: 27). Por tanto, no toda IA nos interesa desde el derecho constitucional, muchas de las herramientas de IA no son relevantes ni afectan a valores constitucionales directamente. La inmensa mayoría de lo que podríamos considerar IA, si entendemos esta desde una concepción amplia, está compuesta por herramientas inocuas en sí mismas (con la excepción de lo referente al derecho a la protección de datos o que afecten directamente a otros derechos fundamentales). Nos interesan más bien las herramientas que componen una concepción estricta de la IA y, muy en particular, las generativas con capacidades de autoaprendizaje. Son, sobre todo, estas las que posiblemente deben preocuparnos y las que, en estas páginas, constituyen el objeto básico de reflexión.

No conviene terminar este apartado sin abordar otra metáfora básica en el análisis jurídico de la IA que puede resultar engañosa. Me refiero a la noción de «riesgo» aplicada a la IA en relación con la plena vigencia de la Constitución. La noción de riesgo se utiliza en dos planos diferentes pero complementarios. Por una parte, se entiende que las herramientas de IA ponen en riesgo aspectos esenciales del constitucionalismo como son el Estado social de derecho, la democracia y los derechos fundamentales. Se aduce, con razón, para justificar la afirmación tanto ejemplos concretos de ataques a los fundamentos del constitucionalismo (desde la actuación de Cambridge Analytica durante el brexit a los intentos de manipulación electoral en las elecciones presidenciales norteamericana o brasileña, pasando por la detección de sesgos perjudiciales para grupos vulnerables en la puesta en marcha de herramientas de IA) como construcciones más elaboradas en las que se muestra la aparición de lugares de ejercicio de poder no constreñidos por norma constitucional alguna. A este tipo de riesgos responden propuestas como la de Balaguer Callejón (‍2022) de «constitucionalizar los algoritmos» en el sentido de limitar constitucionalmente el funcionamiento de las herramientas de IA y de las empresas que las diseñan. Un segundo plano, más concreto, utiliza la metáfora del riesgo para poner de manifiesto que el uso de las herramientas de IA afecta a los derechos fundamentales de manera potencialmente generalizada y, por tanto, debe trasladarse a su regulación y estudio jurídico una perspectiva basada en el riesgo similar a la que desde hace años se viene utilizando en materia de tratamiento de datos (‍Presno Linera, 2022). A ambas perspectivas responden los planteamientos de Cotino Hueso (‍2019) respecto a la necesidad de introducir regulaciones en la materia. En fin, ambos puntos de vista se reflejan con claridad en el Reglamento sobre IA de la UE, cuya regulación se estructura a partir de un enfoque de riesgo (sobre este, ‍Simón Castellano, 2023: 118 y ss.) para los intereses públicos y para los derechos como consecuencia del uso de herramientas de IA. No en vano su objeto esencial de regulación son los sistemas de IA considerados de alto riesgo junto con las prácticas de IA prohibidas.

Comparto plenamente la utilidad de la metáfora del riesgo, que, por tanto, no considero engañosa. Pero, siguiendo el consejo de Lakoff y Johnson, querría subrayar que la metáfora no debe ocultar aspectos esenciales de la realidad que deben ser tenidos en cuenta. No es ocioso recordar en este punto que la IA parece ser una de las revoluciones tecnológicas más importantes de la historia y, sobre todo, la más rápida. Los avances de este tipo generan incertidumbres y miedos que se intentan mitigar mediante el uso del derecho (mutatis mutandis, en lo referido a comunicación‍, Bollinger, 1976), sin que esté del todo clara cuál será la eficacia real que tal regulación pueda tener en la práctica, de modo que «el derecho escrito puede ser un tigre de papel en la era del tsunami digital» (‍Hildebrant y Koos, 2010: 440). Pero, además, los avances tecnológicos han sido globalmente beneficiosos para la evolución humana, incluso pese a que los objetivos perseguidos en su nacimiento fueran tan poco sugerentes como mejorar la capacidad de destrucción física de los adversarios. Con ello quiero decir que los riesgos de la IA no deben ocultar los indudables efectos beneficiosos que el uso de tales herramientas puede tener no ya en general para la humanidad, sino para los propios valores y objetivos presentes en el constitucionalismo, tal y como ha tratado de demostrar Sunstein (‍2022) respecto a la erradicación de la desigualdad de trato injustificada («ruido») y de los prejuicios en las decisiones administrativas. Así, las herramientas de IA pueden servir no solo para amenazar el Estado social y democrático de derecho o los derechos fundamentales, sino también para fortalecerlos. La aproximación jurídica a la IA basada en el riesgo no debe, a mi juicio, impedir el desarrollo y aplicación de herramientas que pueden elevar hasta niveles muy superiores a los actuales el disfrute de derechos fundamentales, la garantía de una mayor igualdad social, la realización de procesos democráticos más limpios y participativos o, en general, la consecución de un mejor funcionamiento de las instituciones propias del Estado de derecho. Una aproximación jurídico-constitucional defensiva (basada en los riesgos) es esencial, pero una aproximación proactiva (basada en las oportunidades) también es básica, aunque esto suponga (ibid.: 1179) «nadar contra la corriente» mayoritaria en la doctrina e, incluso, en la opinión pública. En fin, no se trata de pasar de un «entusiasmo ingenuo propio de la tecnofilia a un pesimismo radical típico de la tecnofobia» (‍Innerarity, 2022: 26), sino de buscar un punto que tenga en cuenta ambos polos. Punto de encuentro que probablemente se halle en un enfoque de gobernanza del riesgo. Esto es, un punto de vista en el que los riesgos, especialmente para los derechos fundamentales, se contrapesen con elementos de gobernanza (en el sentido de regulación de la toma de decisiones) para la prevención y remedio del riesgo y no a través de mecanismos de reacción desmesurada o de prohibición que dificulten el desarrollo tecnológico. El peligro de «huida» de los desarrolladores a entornos jurídicos más amigables (incluso inexistentes) no debe nunca ser subestimado en un mundo global.

Para avanzar en ambas aproximaciones es necesario primero que tengamos en cuenta algunos principios generales que permitan la adaptación del método utilizado por la ciencia del derecho constitucional a la nueva realidad generada por la IA.

III. UNA ANALOGÍA ÚTIL: EL DERECHO CONSTITUCIONAL EUROPEO Y LA NECESIDAD DE NUEVAS LENTES, LENGUAJES Y SUJETOS[Subir]

Toda ciencia, y la del derecho constitucional no es una excepción, utiliza un discurso para canalizar la investigación. Un discurso que expresa una continuidad histórica en el uso de categorías y conceptos propios que evolucionan a lo largo del tiempo sin perder un núcleo básico que permite conocer sus utilidades y limitaciones. Esta adaptación se desarrolla de manera lenta y progresiva, pero, en ocasiones, cambios rápidos y radicales en la materia objeto de estudio hacen necesario que se reformulen de manera generalizada para redefinir su contenido y, con ello, detectar sus nuevas utilidades y límites. Es una operación extremadamente compleja, pues ha de construir un gozne entre los viejos y los nuevos conceptos necesarios para el análisis de esa nueva realidad, de modo que resulten útiles y, a la vez, no perder el sentido último que tenían antes.

La revolución digital nos coloca en una de estas situaciones. El cambio en la realidad del ejercicio del poder y de sus límites (objeto básico del constitucionalismo y, con ello, del propio derecho constitucional y de la ciencia que se ocupa de él) provoca que muchas de las herramientas conceptuales diseñadas en el pasado para estudiarlo y evaluarlo hayan dejado de ser útiles en la medida en que no son aplicables a la nueva sociedad algorítmica. Es necesario, por ello, bien adaptarlas, bien acuñar unas nuevas categorías sobre la base de nuevos conceptos constitucionales.

El camino de toda ciencia es el de, primero, adaptar las viejas herramientas y, después, solo cuando esto no sea posible, proceder a construir los nuevos conceptos. Ello es particularmente necesario en la ciencia del derecho constitucional, pues es una ciencia de decantación histórica muy unida al telos de su propio objeto (el derecho constitucional), encarnado en los ideales propios del constitucionalismo. Las herramientas que utilizamos (los conceptos y categorías propios de nuestra ciencia) se vinculan a la consecución de objetivos de libertad, igualdad y progreso a través de la limitación del poder por el derecho y, en particular, por la Constitución. En otras palabras, las categorías y conceptos propios del derecho constitucional son precipitados históricos continuamente enriquecidos a lo largo de trescientos años con un importante grado de éxito que no deberían ser abandonados alegremente ante un cambio en la realidad objeto de análisis, sino más bien adaptados (y de nuevo enriquecidos) para ser utilizados en la consecución de los objetivos del constitucionalismo.

En esta labor puede acudir en nuestra ayuda, como apuntábamos el principio de este texto, la revolución que supuso para el derecho constitucional la aparición de los fenómenos de integración supraestatal. La integración, sobre todo cuando a partir de los años noventa del pasado siglo dio un salto cualitativo en Europa, supuso un cambio en el derecho constitucional de primera magnitud. Su análisis requirió adaptar las categorías y conceptos constitucionales clásicos a una nueva realidad. Un proceso aún no terminado. Pero entonces aprendimos algunas lecciones sobre cómo reaccionar sin perder esa continuidad discursiva que quizás sean útiles para afrontar los cambios derivados de la revolución digital. Esto es, existe una cierta analogía (que no metáfora) entre ambos procesos. Decimos una «cierta» analogía porque resulta claro que el cambio en el que estamos inmersos es de una naturaleza diferente y más revolucionaria. Las mutaciones derivadas de la integración europea eran de naturaleza política y jurídica, mientras que las derivadas de la irrupción de la IA son resultado de una revolución de naturaleza tecnológica con efectos jurídicos y políticos. Si se quiere en otros términos: la traslación de conceptos iusconstitucionales a la integración europea resultaba, con todas sus dificultades, mucho más sencilla que la propuesta para la IA[4].

Aun siendo, pues, conscientes de las limitaciones de la analogía, creemos que nos puede ser útil en al menos tres sentidos.

(i) Necesitamos unas nuevas lentes

En la adaptación del derecho constitucional nacional a un derecho constitucional europeo, una de las dificultades básicas que encontramos radica en que el objeto del derecho constitucional clásico es el Estado, mientras que el derecho constitucional europeo tiene por objeto no solo el Estado, sino nuevas organizaciones que ejercen poder pero que no son Estados ni tienen vocación de serlo. Se asemejan en algunos aspectos, pero se trata de entidades políticas de diferente naturaleza. Como sostendrían tempranamente Von Bogdandy (2000) o Walker (‍2002), el Estado era un presupuesto ontológico de la Constitución y, con ello, del constitucionalismo, del derecho constitucional y de la ciencia del derecho constitucional. Si el objeto es diferente, las herramientas de una ciencia encuentran dificultades graves para ser útiles en su análisis. Construir un «constitucionalismo sin Estado» (‍Díez Picazo, 2002) era (y es) un reto de enorme magnitud. Para afrontarlo se utilizó una metáfora creo que muy útil para la evolución posterior: era necesario cambiar el modo en que se entienden la constitución y el derecho constitucional sustituyendo las gafas estatales que hasta entonces guiaban la interpretación constitucional por unas gafas supraestatales (‍Walker, 2002). Se trataba, así, de reinterpretar los viejos conceptos, lo que hasta cierto punto distorsionaba su contenido (al utilizar nuevas «lentes»), pero mantenía su esencia última y garantizaba el cumplimiento de su finalidad «constitucional». Más que de sustitución, para que la metáfora sea precisa, se trataba de utilizar unas lentes «progresivas» en las que, cuanto más cercano fuera el objeto de estudio, más fácil sería utilizar la óptica tradicional estatal, y, cuanto más lejano, más tendríamos que aplicar la lente correctora. Utilizando un ejemplo, a nuestro juicio claro, la noción de rule of law europea se parece y es, en parte, resultado de la noción Estado de derecho. Pero no es un concepto idéntico, pues las organizaciones de la integración no son un Estado. La noción de rule of law que realiza el art. 2.a del Reglamento 2020/2092 (conocido como el Reglamento de condicionalidad) es aceptable para un constitucionalista español, pero no recoge de manera precisa el concepto que utilizamos en nuestro trabajo diario, sino que más bien suma todos los elementos que constituyen el concepto en todos los Estados miembros bajo un mismo término. Es un concepto, hasta cierto punto, distorsionado supraestatalmente, pero que permite trasladar al mundo de la integración su función limitadora del poder a través del derecho y de sustitución del government by men por el government by law.

Algo parecido ocurre, a mi juicio, en el mundo digital. Necesitamos lentes correctoras que nos permitan tener en cuenta las particularidades de nuestro nuevo objeto de estudio a la hora de aplicar las herramientas propias del derecho constitucional. Cualquier aplicación de estas al mundo digital ha de tener en cuenta qué aspectos funcionan de manera diferente en dicho mundo, qué sujetos, qué procesos, qué riesgos o qué beneficios son distintos. Y toda propuesta normativa o interpretativa deberá ser compatible con esas diferencias y no mera traslación de nociones pertenecientes al derecho constitucional clásico centrado en el Estado y en el mundo físico. Continuando con la metáfora, necesitamos unas lentes digitales o algorítmicas. Y estas lentes (he ahí una de las diferencias con el mundo analógico), además, han de ser unas lentes supraestatales, porque el mundo digital no tiene su hábitat natural en el Estado, sino mucho más allá de las fronteras nacionales. Es evidente que la IA opera a nivel universal, se desarrolla y despliega simultáneamente en todo el orbe. Cualquier regulación o límite iusconstitucional limitado territorialmente, más o menos localizado, podrá ser superado fácilmente por quien se lo proponga operando desde o refugiándose fuera de esos territorios. La aproximación jurídica al problema ha de cambiar completamente respecto a todo lo conocido con anterioridad.

Es, pues, necesario examinar con nuevas lentes los grandes conceptos jurídicos tal y como, por ejemplo, está desarrollando Innerarity (por todos, ‍2020, respecto al concepto de democracia) en lo relativo conceptos filosóficos y políticos acuñados en el pasado para una nueva realidad que ha cambiado algunos de sus presupuestos ontológicos.

Obviamente, el reto es mayúsculo, aún no nos hemos acostumbrado a la perspectiva supraestatal del derecho constitucional y sus categorías son, todavía, en gran medida, un trabajo en construcción, cuando tenemos que proceder a su readaptación a una nueva realidad (algorítmica, digital y universal).

(ii) Carecemos de un lenguaje compartido

Otro de los problemas encontrados en la adaptación de las herramientas propias del derecho constitucional en este siglo fue la ausencia de un «lenguaje compartido» entre el discurso de la integración europea y el discurso estatal, pues encontrábamos graves problemas de traducción de los conceptos. La integración usaba sus propios términos que o eran desconocidos en el mundo nacional o eran generadores de graves equívocos. Así, nociones básicas de la integración como eficacia directa, primacía, equivalencia, margen de apreciación, subsidiariedad, responsabilidad compartida, directiva, decisión, decisión marco, recomendación, autonomía institucional, etc., eran conceptos cuyo significado era desconocido por la ciencia del derecho constitucional. Otros significaban cosas muy diferentes en el mundo estatal y en el mundo europeo, aunque los significantes fueran los mismos, lo que generaba graves confusiones: comisión, tribunal (de Justicia o de Derechos Humanos), parlamento/asamblea parlamentaria; reglamento, etc. En fin, otros han tenido que delimitarse poco a poco en los últimos años: identidad constitucional, diálogo judicial, presunción de protección equivalente, condicionalidad, etc.

El derecho constitucional europeo solo se ha podido construir cuando en los entes en los que se desarrolla el discurso constitucional (estatales y supraestatales) esas nociones han adquirido un contenido claro y común para la ciencia que los estudia. Ha sido un proceso de años de estudio y de ósmosis entre ambos niveles de gobierno.

Construir un lenguaje común compartido entre el mundo digital y la ciencia del derecho constitucional es otro de los retos básicos que afrontamos en estos momentos y que presenta también especiales dificultades.

Efectivamente, la IA se ha desarrollado en los últimos años utilizando conceptos (y metáforas) absolutamente nuevos, a menudo no traducidos desde el inglés o con anglicismos incomprensibles a primera vista, cuando no acrónimos cuyo significado es absolutamente secreto para un «no iniciado». La lista puede ser interminable: código fuente, aprendizaje automático/supervisado/profundo/reforzado, redes neuronales, bot, DSS (sistema de soporte a la decisión), minería de datos, big data, odds (que no es exactamente lo mismo que probabilidad), visual computing, variable predictiva, NLP (procesamiento de lenguaje natural), etiqueta/etiquetador, centralidad humana, comprensibilidad, robustez, confiabilidad (trustworthy), agentes autónomos, clustering (agrupamientos), trazabilidad, pseudoanonimización, blackbox (caja negra), sandbox, deep fake y un larguísimo etcétera. No es de extrañar que las regulaciones aprobadas, o en tramitación, incluyan en su texto un glosario o definición de términos. Sin embargo, estas definiciones plantean, a su vez, importantes problemas.

El mundo digital se desarrolla con conceptos técnicos que no son comprensibles fácilmente para quienes, desde el derecho constitucional, han de analizar su relevancia para la garantía del constitucionalismo. Ciertamente algunos (pocos) de esos conceptos empiezan a tener un significado compartido como algoritmo o fake news o aquellos vinculados a la protección de datos; pero, sin duda, es mucho el trabajo de «traducción» de los términos a nociones capaces de ser utilizadas en el análisis iusconstitucional.

Una labor de traducción que, además, se debe desarrollar en varios niveles si no queremos que se generen «torres de marfil lingüísticas» que impidan la aplicación del discurso constitucional al mundo digital. En primer lugar, y obvio desde el punto de vista de estas páginas, es necesario que los términos técnicos usados en el mundo algorítmico sean comprensibles para el iusconstitucionalista. No se trata solo de que se pueda conocer el significado del concepto, sino sobre todo de que se pueda entender cuál es la relevancia de este para el análisis jurídico constitucional. En segundo lugar, y esto a menudo es olvidado, el camino de traducción ha de ser también inverso. Desde los constitucionalistas hacia quienes promueven, desarrollan, aplican y supervisan herramientas de IA. Los mismos problemas de los juristas en la comprensión de términos de la IA los tienen los técnicos en IA para entender los conceptos iusconstitucionales. En tercer lugar, es importante subrayar que la labor de traducción ha de ser especialmente desarrollada por los propios juristas que se ocupan de temas vinculados a la IA, muchos de los cuales, a su vez, proceden de los estudios relativos al derecho a la protección de datos y a la regulación de los servicios digitales[5]. Son, sin duda, ellos los más preparados para crear ese lenguaje compartido que demandamos. Es urgente que salgan de su específica «torre de marfil lingüística», en la que todo estudioso se siente muy cómodo, para permitir la plena comprensión de sus investigaciones por juristas no «digitalizados», especialmente por aquellos llamados a aplicar al mundo digital las garantías propias del derecho constitucional, entre los que los legisladores y los jueces ocupan un lugar particularmente destacado. Resulta obvio que los llamados a aplicar el derecho regulador de la IA han de ser capaces de entender la tecnología sobre la que están aplicando las normas, así como el sentido y alcance de dichas normas. En cuarto y último lugar, aunque no desde luego en importancia, la labor de traducción ha de alcanzar a la opinión pública. Los objetivos del constitucionalismo se refieren a la garantía de la libertad y el bienestar de los ciudadanos. Si queremos trasladarlos y aplicarlos en el mundo de la IA, los ciudadanos han de entender cómo, por qué y para qué se hace. Dónde están los riesgos y los beneficios de la IA que exigen la intervención del derecho constitucional y cuáles son los instrumentos que pueden utilizarse, así como sus límites. Al final, son sus derechos y las garantías de una vida en una sociedad libre y democrática los que están en juego.

En fin, es necesario que traduzcamos los términos de la nueva realidad al mundo constitucional, que los técnicos de esa nueva realidad, a su vez, nos comprendan, que los juristas expertos en esta asuman un papel protagonista en esa traducción y que la opinión pública entienda la importancia constitucional de esa nueva realidad[6].

(iii) Tenemos nuevos sujetos

Una última analogía con respecto a la creación del derecho constitucional europeo puede ser subrayada cuando intentamos hacer una aproximación metodológica a la aplicación de los conceptos y categorías constitucionales a la IA: la distinta posición de los sujetos que intervienen en el mundo digital.

El derecho constitucional nacional democrático y social del siglo xx tenía muy claro quiénes eran esos sujetos y cuáles eran sus posiciones respectivas. Por una parte, los ciudadanos. Titulares de los derechos y sujetos legitimadores del Estado a través de un gran pacto que hipotéticamente lo crea, y, sobre todo, que regula sus límites, sus formas de adopción de decisiones y su permanente renovación en la línea marcada a través de un sistema de democracia representativa (pacto expresado en la constitución aprobada en grandes momentos de deliberación democrática en la conocida teoría de Ackerman). Por la otra, el Estado como creación humana (hoy podríamos decir «artificial»), con las conocidas características weberianas y sometido a estrictos límites fijados por el derecho. Un sujeto simultáneamente amenazante (el monopolio del uso legítimo de la violencia siempre lo es) para los derechos y libertades y emancipador en cuanto que instrumento no solo de garantía de la seguridad y la libertad, sino también del progreso y la justicia social.

La integración europea no cambió los sujetos, pero sí sus posiciones respectivas y añadió uno nuevo. En primer lugar, la construcción europea es obra no de los ciudadanos, o al menos no solo, sino de los Estados. La integración se realiza creando un nuevo sujeto diferente de los Estados, pero también de las clásicas organizaciones internacionales de mera cooperación. Unas nuevas entidades políticas (lugares metaconstitucionales los llamó en su día Walker) que ejercen poderes soberanos delegados y eficaces directamente tanto frente a los Estados como frente a los ciudadanos con límites típicamente constitucionales. Nuevas entidades políticas que se fundan en un nuevo tipo de pacto social mucho más complejo (expresado en tratados internacionales de naturaleza constitucional), pues integra a los ciudadanos, pero también a los Estados (‍Pernice, 1999), en el marco de una noción de soberanía compartida que para un constitucionalista de la primera mitad del siglo xx no habría sido más que un oxímoron inaceptable.

El mundo de la IA recoge y promueve un cambio en la posición de los sujetos constitucionales hasta ahora existentes: ciudadanos, Estados y organizaciones de integración. Es difícil exagerar la profundidad en el cambio de posición de los ciudadanos en la sociedad digital en general y respecto a las herramientas de IA en particular. Respecto a los primeros, resumiendo las posiciones de Balaguer Callejón (‍2022), el ciudadano ha pasado de ser titular de derechos y legitimador de toda decisión colectiva a ser un mero consumidor de productos sobre la base de decisiones orientadas tecnológicamente para la consecución de beneficios económicos de terceros. Se trata, además, de ciudadanos globales que actúan en un espacio (el digital) que no conoce de fronteras ni de soberanías. Y, por su parte, los otros sujetos constitucionales (Estados y organizaciones de integración) encuentran graves dificultades para seguir cumpliendo en la sociedad digital la tarea básica para la que fueron creados: la garantía de la seguridad, la libertad, el progreso y la justicia social en un marco de decisión democrática.

Pero, además, la sociedad algorítmica (especialmente a partir de la generalización de herramientas de IA) ha dado origen a un nuevo sujeto que, con carácter general, podemos llamar las grandes corporaciones tecnológicas, o, si se prefiere, las grandes plataformas digitales. No son equiparables a sujetos privados (como se ha hecho siempre con la ficción de las personas jurídicas en el mundo del derecho), puesto que difícilmente puede considerarse que estén realmente sujetas al poder de un Estado u organización supraestatal, ni, sobre todo, porque el poder que ejercen en la práctica sobre los seres humanos a través de los algoritmos se asemeja mucho más a un poder de naturaleza soberana que al que pueda ejercer una entidad privada (‍Simonccini y Longo, 2022: 30 y ss.). Las relaciones entre las corporaciones y los ciudadanos son absolutamente verticales. Responden a un status subiectionis típico de la vieja soberanía que nos enseñara Jellinek, que solo se ha complementado con un proto-status libertatis, y no se han desarrollado, al menos no todavía, el resto de los status (civiatis, activae civitatis y socialis) que configuran la posición jurídica de un ciudadano libre en una sociedad democrática y social.

Resulta indudable que cualquier intento de usar las categorías y los conceptos propios de la ciencia del derecho constitucional al mundo de la IA requiere que tengamos en cuenta esos cambios en la posición de los sujetos y, sobre todo, la aparición de las grandes corporaciones que no pueden considerarse ya solo entidades privadas titulares de derechos económicos, sino también entidades que ejercen, en ocasiones, poderes perfectamente equiparables a los del Estado o a los de las organizaciones internacionales de integración y, en cuanto tales, simultánea y potencialmente amenazantes y emancipadores en los términos ya expuestos respecto del Estado. Las viejas categorías (‍Pollicino y De Gregorio, 2022: 16 y ss.) como la eficacia horizontal de los derechos fundamentales son un punto ineludible de partida que requerirá nuevas ideas y, posiblemente, nuevos derechos.

Ello pasa, desde una óptica general, por la justificación y diseño de un nuevo pacto social, más complejo y con sujetos de diferente naturaleza (y no necesariamente expreso o codificado —esa lección ya la aprendimos en el derecho constitucional europeo—), que permita extender la aplicación de dichos conceptos y categorías a un entorno de limitación del poder a través del derecho. Posiblemente este nuevo pacto social hace ya tiempo que se está produciendo en el tratamiento jurídico de las nuevas realidades tecnológicas a través de la regulación de la protección de datos y los servicios digitales. Un pacto en el que las regulaciones (sobre todo europeas, pero también estatales) fijan postulados materiales, pero cuyo respeto se confía más a la prevención, a exigencias de procedimientos o de organización en los operadores y a su propia contención y autorregulación. Confianza respaldada en sanciones importantes de naturaleza económica (multas o prohibiciones de acceso al mercado). La regulación de la IA responderá más a este tipo de regulación (fundada en pacto tácito con las grandes plataformas), de corte más anglosajón, pragmático, que continental.

Pero desde una óptica más concreta exigirá que el análisis iusconstitucional de herramientas IA tenga en cuenta que está operando en un mundo compuesto por sujetos diferentes a los que, si quiere ser útil y eficaz, deberá adaptarse.

En definitiva, si es correcta la analogía entre los dos procesos de evolución constitucional (del nivel nacional al europeo y la del mundo analógico al de la IA), tres herramientas son básicas para adaptar el análisis constitucional: la utilización de unas nuevas lentes simultáneamente supraestatales y digitales; la construcción de un lenguaje compartido entre el mundo constitucional físico y el de la IA, y la proposición de conceptos constitucionales útiles y eficaces para cuatro tipos de sujetos simultáneamente destinatarios de las normas constitucionales: ciudadanos, Estados, entidades supraestatales y corporaciones tecnológicas.

IV. UNA METÁFORA PODEROSA Y POTENCIALMENTE SISTEMATIZADORA: EL CICLO DE LA VIDA[Subir]

Hasta aquí las analogías con la ciencia del derecho constitucional europeo. Si queremos avanzar en la construcción de instrumentos que permitan el análisis constitucional de la IA necesitamos algo más que entender y utilizar nuevas lentes, otro lenguaje y otros sujetos. Requerimos categorías que nos permitan ordenar mínimamente el modo en el que podemos enfrentarnos a la nueva realidad de la IA. Metáforas, si se quiere, que puedan orientar la forma en la que aplicamos las categorías del derecho constitucional a las herramientas de la IA.

Intentaremos, pues, ahora utilizar una metáfora proveniente del mundo de la IA para analizarla «constitucionalmente» con una terminología mutuamente comprensible, con unas nuevas lentes y teniendo en cuenta el papel jugado por los nuevos sujetos.

1. El ciclo de vida de una herramienta de IA: descripción[Subir]

A mi juicio, una metáfora potencialmente muy útil es la del «ciclo de vida» de la IA. Con tales términos nos referimos a que la puesta en marcha de una herramienta de IA sigue un camino con fases claras, predeterminadas, en las que se desarrollan diferentes procesos.

Siguiendo muy de cerca el estudio realizado por el Instituto Alan Turing para el comité ad hoc del Consejo de Europa sobre IA (‍Lesli et al., 2021: 9-‍11), las etapas del ciclo de vida de una herramienta de IA son básicamente tres.

(i) Etapa 1: diseño. En esta fase se desarrollan, a su vez, cuatro procesos.

  • a)Planificación de la herramienta: implica la existencia de un decisor que establezca cuáles son los fines de la herramienta que se pretende diseñar y cuál es su impacto.

  • b)Formulación del problema: exige la definición de qué problemas pretende resolver la herramienta y qué datos necesita para hacerlo. Igualmente, cuáles son las consecuencias, intencionadas o no, de su uso.

  • c)Extracción de datos: requiere la consecución de los datos que van a ser utilizados en el diseño y entrenamiento de la herramienta. Los procesos para la extracción de datos pueden ser muy variados y, normalmente, requieren siempre una valoración jurídica en tanto que tales datos estarán sometidos a restricciones legales de diversa índole.

  • d)Análisis de datos: supone el cribado de los datos para permitir su uso para el diseño de la herramienta. Se realiza mediante un «análisis exploratorio de datos» en el que se intenta identificar los datos incompletos, los datos inesperados, los datos desequilibrados o sesgados, etc.

(ii) Etapa dos: desarrollo.

  • a)Preprocesamiento: normalmente la fase más larga de esta etapa. Implica la clarificación y transformación de los datos para que puedan servir en el entrenamiento de la herramienta.

  • b)Selección y entrenamiento de la herramienta. Las herramientas de IA pueden utilizar diversas técnicas de mayor o menor complejidad (desde regresiones sencillas hasta complicados procesos como las redes neuronales). La selección del modelo que se va a utilizar exigirá tener en cuenta la complejidad del problema y de la tarea que se le asigna. Los datos son utilizados en modo de prueba y se van creando nuevos datos (datos de entrenamiento) que sirvan para alimentar el funcionamiento de la herramienta, de modo que esta gane en eficacia.

  • c)Prueba y validación de la herramienta. En esta fase se prueba la herramienta frente a nuevos datos y se comprueba su correcto funcionamiento.

  • d)Informe de la herramienta: concluidos los procesos anteriores, se recopilan todos los resultados junto con una detallada información capaz de permitir una discusión sobre las ventajas y desventajas de la herramienta.

(iii) Etapa tres: despliegue y evaluación.

  • a)Implementación: consiste en la aplicación de la herramienta ya entrenada en el mundo real, bien sea de manera autónoma, bien vinculada a otras herramientas. Este proceso puede realizarse parcialmente para observar los resultados en entornos controlados o incluso aplicarse en escenarios creados artificialmente.

  • b)Formación del encargado de usar la herramienta: exige el entrenamiento de quienes vayan a utilizar la herramienta de manera que entiendan la lógica del sistema, sean capaces de explicar sus decisiones de manera sencilla a quienes reciben las respuestas automatizadas y puedan, así, hacer un uso imparcial de esta.

  • c)Monitorización: después de su puesta en marcha ha de comprobarse que la herramienta sirve correctamente al objetivo perseguido, que su ámbito de aplicación es el previsto y que reacciona correctamente a las situaciones reales planteadas.

  • d)Actualización o eliminación: la evaluación continua de la eficacia de la herramienta puede exigir la inclusión de nuevas variables, datos o técnicas de entrenamiento. Si la actualización no es posible, la herramienta será eliminada.

2. Análisis (somero) iusconstitucional del ciclo de la vida: procesos y sujetos.[Subir]

El ciclo de vida presenta, a nuestro juicio, una altísima capacidad sistematizadora para el análisis de la IA desde el derecho constitucional y en tal sentido ha sido utilizada tanto en trabajos académicos (‍Martínez Martínez, 2019) como por agencias de protección de datos[7].

En lo que a nosotros nos interesa, una aproximación iusconstitucional al ciclo de la vida resulta muy interesante, al menos, en dos sentidos.

a) La evaluación constitucional de etapas y procesos.

En un primer sentido, identifica las etapas, pero sobre todo los procesos desarrollados en cada una de ellas. Sin pretender un análisis en profundidad, a primera vista se puede observar que la presencia del derecho constitucional tendrá intensidades diferentes en las tres etapas. Además, según el tipo de proceso podremos utilizar técnicas distintas, pero bien conocidas, del derecho constitucional para el análisis. No se trata de analizar la herramienta de IA in totum, sino de evaluar desde los criterios propios del derecho constitucional cómo se ha de desarrollar cada uno de los procesos para que sea respetuoso con las reglas constitucionales.

Así, la etapa de diseño tendrá una enorme relevancia desde el derecho constitucional. En concreto, por una parte, fijará las bases de valoración constitucional (al establecer los objetivos, que, a su vez, deberán ser legítimos y que condicionarán todo el análisis constitucional posterior) y los costes y beneficios previstos en términos constitucionales (lo que implica el bien conocido análisis del juicio de proporcionalidad en sus tres pasos: idoneidad, indispensabilidad y proporcionalidad en sentido estricto). Por la otra, tanto la extracción como el análisis de datos estarán sometidos a las normas y principios reguladores de la protección de datos donde, sin duda, deberán incluirse los mecanismos para evitar la inclusión de sesgos contrarios a reglas constitucionales básicas (en particular, aunque no solo, los generadores de desventajas para colectivos vulnerables).

La etapa de desarrollo parece suscitar menor interés para el constitucionalismo. Sin embargo, habrá de tenerse en cuenta que en la validación de la herramienta deberá asegurarse que se han gestionado adecuadamente los riesgos para los derechos y, cuando proceda, para el Estado de derecho y la participación democrática. En tal sentido debe destacarse que el informe del funcionamiento de la herramienta debería estar sometido a dos criterios constitucionales: i) el grado de consecución de los objetivos y sus costes —esto es, un juicio de proporcionalidad con la ventaja de que, a diferencia del juicio de proporcionalidad «físico», tanto costes como beneficios no son realmente los «esperados», sino los «obtenidos» en los procesos de entrenamiento, prueba y validación, lo que supone una mejora evidente en la aplicación del propio juicio de proporcionalidad—, y ii) la suficiente explicación del funcionamiento de la herramienta, de sus posibles errores y/o sesgos y de las formas de corrección, asegurando elementos de transparencia que no son solo un fin en sí mismos, sino, como veremos enseguida, una precondición de otras obligaciones constitucionales.

La etapa de despliegue y evaluación nos es particularmente interesante en varios sentidos: i) la formación del aplicador de la herramienta exigirá que este se encuentre en condiciones de cumplir exigencias constitucionales tanto de rendición de cuentas (explicar al receptor del resultado de la herramienta el funcionamiento de esta y los motivos de tales resultados) como de independencia e imparcialidad en su uso en una suerte de igualdad ante la «ley algorítmica», y ii) la monitorización exigirá la creación de mecanismos de supervisión interna (por el propio diseñador), externa (administrativa y judicial) o incluso mixta (plataforma-poderes públicos), de modo que se evite que el funcionamiento de la herramienta, o los resultados generados, provoque efectos contrarios a las normas constitucionales, imponiendo las medidas pertinentes para corregirlos (sea mediante correcciones, sea mediante sanciones).

b) Distintos sujetos implican distintas reglas y distintas obligaciones.

Además, el ciclo de vida nos permite diferenciar los distintos tipos de sujetos que intervienen en el desarrollo y aplicación de una herramienta de IA: decisores, técnicos-diseñadores, aplicadores, supervisores, usuarios o incluso clientes[8]. A estos sujetos se les ha de exigir el cumplimiento de normas jurídico-constitucionales diferentes según el papel que desempeñen y según su propia naturaleza (poder público, plataforma o sujeto privado).

Esto es, la responsabilidad exigible por los resultados generados por una herramienta de IA será imputable a los sujetos que intervienen en su diseño, desarrollo y despliegue. Pero no será idéntica sino solo en función del papel desarrollado. Esta operación es posible si no utilizamos un concepto constitucional «absoluto» de responsabilidad, sino el mucho más elaborado concepto «graduado» de accountability. Efectivamente, si adaptamos el principio de responsabilidad política como accountability, acuñado en los años noventa del pasado siglo en el parlamentarismo británico (‍Marshall, 1984; ‍Woodhouse, 1994; en España‍, Bustos, 2001), podremos hablar de responsabilidad como pura información (informadora), como suficiente explicación (explicativa), como razonable justificación (justificativa), como eficaz corrección (correctora o enmendadora) y, en fin, como disuasoria sanción (sancionadora).

A los técnicos, sin duda, no se les podrá exigir más que las formas más débiles de accountability (informadora y explicativa); a los aplicadores y usuarios, además, se les exigirán las derivadas de la responsabilidad justificativa y, posiblemente, la correctora, y a los decisores y supervisores, todas las formas de responsabilidad, incluida la sancionadora. Y debe recordarse que la accountability en este contexto no se reduce a las prestaciones negativas (no afectar a un derecho o valor constitucional), sino también a las prestaciones positivas (promover la plena realización del derecho o valor), insertas en las decisiones adoptadas durante el ciclo de vida.

Corresponderá, en fin, a las autoridades públicas (estatales y supraestatales) ejercer el control de esas responsabilidades, pero, posiblemente, al poder establecer con cierta claridad el grado de intervención de cada sujeto en cada proceso, se garantizará la viabilidad de la atribución de estas de manera eficaz y suficientemente garantista de los valores constitucionales.

Igualmente, la diferenciación de los sujetos intervinientes en el desarrollo y aplicación de una herramienta de IA permite una mínima clarificación de las diferentes obligaciones que les corresponden en función de la propia naturaleza de dicho sujeto. No serán las mismas obligaciones constitucionales (ni las responsabilidades derivadas de ellas) cuando el sujeto sea un ente público, una plataforma o un sujeto privado. El derecho constitucional de la IA debería diferenciarlos claramente y hacer una suerte de aproximación graduada a dichas obligaciones, mucho más elevadas para los poderes públicos cuando intervienen en la creación de las herramientas de IA (especialmente cuando son decisores) que para un sujeto privado que diseña una herramienta de IA. Tampoco lo serán las de este con respecto a una plataforma que domina todas las etapas y todos los procesos que llevan a la creación de tales herramientas. De este modo, las obligaciones y responsabilidades de las plataformas digitales se habrán de equiparar en gran medida a las de los poderes públicos cuando, en el marco de los procesos que componen el ciclo de vida, ocupan una posición de clara superioridad sobre el resto de sujetos intervinientes. Identificar cuáles son esos procesos, las responsabilidades y obligaciones específicas en cada uno de ellos es, sin duda, el gran reto del legislador constitucional del futuro y de sus intérpretes.

En definitiva, un análisis constitucional de la IA necesita hilos conductores que lo guíen. El discurso del derecho constitucional, para ser eficaz, ha de ser extremadamente ordenado y sistemático. Cuando el objeto de estudio es la IA, es difícil encontrar ese orden y sistemática. Las viejas sistemáticas constitucionales no son siempre útiles para la nueva realidad empírica representada por el mundo digital. El ciclo de vida de la IA puede ser uno de los elementos estructuradores del análisis jurídico constitucional. Obviamente, eso no significa hacer tabla rasa de las viejas herramientas iusconstitucionales, sino que posiblemente solo deberemos renovarlas.

V. UNA ALITERACIÓN FUERTE PARA CONCLUIR: NI EVOLUCIÓN NI REVOLUCIÓN; TRANSFORMACIÓN. EL ANÁLISIS DEL PROCESO DE DECISIÓN INTERNO[Subir]

El debate británico (vid ‍Wade, 1996, y ‍Allan, 1997) sobre los efectos constitucionales de la integración europea planteó con toda crudeza si la aceptación del principio de primacía del derecho comunitario significaba una evolución o una revolución, en tanto que suponía una contradicción directa del principio de soberanía parlamentaria. Obviamente, los británicos acabaron convirtiéndolo en una evolución constitucional e incluso, a la larga, en una auténtica involución.

En el contexto de la IA debemos preguntarnos, para concluir, si la nueva realidad requerirá cambiar de manera radical los fundamentos del mismo derecho constitucional o si, por el contrario, una evolución ordenada de los valores del constitucionalismo y de las categorías del derecho constitucional, como se apuntaba más arriba, podrá ofrecer una respuesta satisfactoria.

A nuestro juicio, la opción preferida ha de ser la de la evolución de los conceptos constitucionales al mundo de la IA. Y ello porque los valores del constitucionalismo siguen siendo dignos de ser protegidos y las categorías conceptuales del derecho constitucional han sido, por una parte, muy útiles en tal protección, y, por la otra, han demostrado una enorme capacidad de adaptación a los cambios en la realidad a través de sucesivas reformulaciones conceptuales. El problema de esta aproximación es que no se dispone del tiempo que una evolución de ese tipo requiere. La IA no solo ha provocado (y presumiblemente provocará) enormes cambios en la vida diaria de los seres humanos, sino que, además, lo ha hecho (y presumiblemente seguirá haciéndolo) con una inusitada rapidez. En un contexto de cambio profundo y, además, muy acelerado, la opción por una lenta evolución queda en un mero desiderátum.

Por ello, nuestra opción, que hemos tratado de apuntar mínimamente en estas páginas, es la de proceder a una urgente «transformación» de las categorías propias del derecho constitucional para analizar la nueva realidad, identificar los límites a las herramientas de IA y apuntar los objetivos a los que ha de dirigirse para la consecución de los valores propios del constitucionalismo.

Hablar de «transformación» implica adoptar una actitud proactiva por parte de los estudiosos del derecho constitucional para la renovación de nuestra ciencia en este nuevo mundo recién descubierto. Este término ha sido acertadamente utilizado para referirse no solo a la renovación de los viejos conceptos, sino también a la acuñación de otros nuevos coherentes con los anteriores (‍García Roca, 2019). Pero también la idea de transformación constitucional ha sido utilizada para describir el proceso de refundación constitucional sobre nuevas bases en el marco de rupturas en la evolución política de un pueblo sin alterar de manera significativa la literalidad de la norma suprema. Esto es, necesitaremos en un futuro inmediato analizar transformative rules y transformative decisions en el sentido teorizado por Ackerman respecto al cambio constitucional que requerirá, a su vez, transformar los conceptos constitucionales en el doble sentido de renovar su contenido y acuñar otros nuevos[9].

Adoptar la perspectiva de la transformación constitucional también supone excluir determinadas posturas. En primer lugar, las posturas exclusivamente defensivas (la IA solo como riesgo del que hay que proteger a los ciudadanos), o, peor aún, ciegas (la IA es una cuestión ajena al ámbito propio de estudio de los constitucionalistas). En segundo lugar, también deberíamos huir de posturas «adanistas» en las que se descubren (y se les ponen nombres muy extraños) conceptos que llevan existiendo muchos años o herramientas de análisis que no son más que variantes de otras cuya eficacia (o ineficacia) ya está ampliamente probada. En tercer lugar, no es aceptable acudir a lecturas que sustituyan la normatividad de la Constitución por la vigencia de meros principios éticos cuya exigibilidad se deje en manos de la buena voluntad de los nuevos soberanos digitales. En fin, en cuarto lugar, deberíamos excluir también aquellas posiciones que apuntan a una reconstrucción ex novo de todo el andamiaje conceptual sobre la base de unos nuevos valores constitucionales (los propios de la era digital) formulados en textos apócrifos que no han sido objeto ni de deliberación democrática alguna ni de una mínima experiencia histórica que pueda avalarlos.

En este ensayo hemos intentado apuntar algunas vías para hacer esa labor de renovación tomando como referencia la realizada respecto al derecho constitucional europeo, por un lado, y con la aplicación (renovada) al mundo de la IA de algunas herramientas conceptuales básicas del derecho constitucional (como pueden ser el juicio de proporcionalidad y el principio de responsabilidad, como accountability). Esta labor habrá que hacerla, de hecho, ya se está haciendo[10], con otras categorías constitucionales, pero no podemos concluir sin apuntar otro principio (propio, además del derecho constitucional europeo) cuya renovación puede resultar, a nuestro entender, muy relevante para el estudio y evaluación de la IA desde el derecho constitucional. Nos referimos al análisis del proceso de decisión interno.

Este tipo de análisis (‍Spano, 2018; en España‍, Saiz Arnaiz, 2018) es una herramienta que permite a una instancia supraestatal supervisora (el TEDH es el que más la ha desarrollado) evaluar la conformidad de una determinada decisión estatal con una norma europea de naturaleza constitucional. En concreto, permite establecer en un caso determinado los límites de la intensidad de la supervisión, de modo que puede avalar la decisión adoptada si fue «razonable» el proceso a través del cual se estableció, por una parte, su base normativa, y, por la otra, el resultado concreto de su aplicación administrativa y judicial. Por razonable se entiende que tales procesos (legislativo, administrativo y judicial) tuvieran suficiente y razonablemente en cuenta a través de procesos de deliberación pública todos los factores relevantes desde la óptica de la norma constitucional afectada y el resultado alcanzado finalmente sea aceptable para el significado mínimo que pueda otorgarse a dicha norma.

La potencialidad de este principio para analizar el ciclo de vida de una herramienta de IA nos parece indudable. Creo que es precisamente a esta idea a la que se refieren quienes han defendido la regulación de la IA «desde el diseño» (‍Martínez Martínez, 2019: 64 y ss.), aunque ello, además de en una «fórmula prometedora», pueda convertirse, también, en una «pesadilla constitucional» (‍Van Cleinenbreugel, 2022: 202 y ss.). La introducción de la «evaluación de conformidad» de los sistemas de IA con los valores europeos básicos en la ley europea de IA o la incorporación de una herramienta de evaluación de impacto para la aplicación de la IA en Canadá[11] parecen dirigirse de alguna forma en este sentido que algunos han denominado (‍Simonccini y Longo, 2022: 41) un constitucionalismo «híbrido» en el que los valores constitucionales se han de incorporar en el propio diseño de los sistemas de IA a través de los autores técnicos de estos. Algunos académicos, como Simón Castellano (‍2023), siguiendo la estela de Mantelero (‍2022), ya han comenzado a explorar ese camino aplicando conceptos iusconstitucionales a las evaluaciones de impacto de la IA sobre los derechos fundamentales manteniendo una continuidad clara con el análisis de ese mismo tipo de evaluaciones en el ámbito de la protección de datos.

Quizás en el futuro los constitucionalistas debamos centrarnos más en establecer el contenido constitucional de las etapas y procesos desarrollados a lo largo de ese ciclo de vida para concluir si el resultado puede presumirse constitucional en cuanto fue adoptado mediante un procedimiento razonable. De este modo el análisis constitucional en la IA deberá: i) determinar qué mecanismos pueden asegurar que los procesos de creación y aplicación de las herramientas de la IA tengan suficientemente en cuenta los valores constitucionales a la hora de diseñar sus concretas fórmulas de adopción de decisiones (valga formulación de resultados); ii) transformar las normas constitucionales en criterios comprensibles para todos los sujetos que tienen que evaluarlos en sus decisiones y aplicarlos en los diseños técnicos de esas herramientas; iii) esclarecer qué líneas rojas no son aceptables para el desarrollo de esas herramientas por motivos constitucionales; iv) formular criterios razonablemente claros para que los supervisores (públicos y privados, internos y externos, administrativos y judiciales) determinen los excesos cuando se produzcan y atribuir correctamente las responsabilidades correspondientes; v) garantizar las fórmulas para que el proceso sea público y comprensible para los ciudadanos de modo que puedan ejercer el correspondiente control democrático sobre todos los sujetos intervinientes, y vi) ofrecer desarrollos conceptuales para utilizar las herramientas de IA en la mejora de los derechos de los seres humanos, de la garantía del rule of law en la adopción de decisiones colectivas, de la participación política de los ciudadanos en una sociedad democrática o, en fin, de la promesa de progreso ínsita en el corazón del constitucionalismo moderno.

NOTAS[Subir]

[1]

El presente trabajo se enmarca en el proyecto de Investigación «Fortalecimiento de la democracia y el Estado de derecho a través de la inteligencia artificial», concedido por el Ministerio de Ciencia e Innovación, referencia PID2021-122677NB-100. He de agradecer los comentarios que a la primera exposición de las ideas propuestas en el texto se hicieron en el Taller permanente de IA del Instituto de Derecho Parlamentario por los miembros del equipo de este proyecto, así como los realizados, ya sobre el texto escrito, por parte de Pablo Lucas Murillo, Javier García Roca, Mario Hernández, Ricard Martínez, Alfonso Peralta e Ignacio García Vitoria. También los realizados, desde otras ciencias, por Antonio y Eugenio Bustos Gisbert. Algunos de esos comentarios han sido incorporados, casi literalmente, al texto final.

[2]

La palabra usada en la legislación es «sistema», tal y como es definida en el art. 3.1 del Reglamento de la UE de Inteligencia Artificial en los términos especificados en la siguiente nota. Sin embargo, en el texto nos hemos decantado por utilizar la palabra «herramienta» porque a nuestro juicio describe metafóricamente mejor la realidad a la que nos estamos refiriendo.

[3]

Esta aproximación es perfectamente compatible con la definición contenida en el Reglamento de la UE conocido como la Ley de Inteligencia Artificial, y cuyo art. 3.1 define el sistema de IA como «un sistema basado en máquinas diseñado para funcionar con diversos niveles de autonomía y que puede mostrar capacidad de adaptación tras su despliegue y que, para objetivos explícitos o implícitos, infiere, a partir de la entrada que recibe, cómo generar salidas tales como predicciones, contenidos, recomendaciones o decisiones que pueden influir en entornos físicos o virtuales».

[4]

Existirán, por tanto, otras analogías que pueden ser, incluso, más útiles. porque se refieren a cambios conceptuales en el derecho constitucional como consecuencia de avances tecnológicos, como pueden ser la transformación en las formas de entender la libertad de expresión a finales del siglo pasado o las nuevas aproximaciones conceptuales con la irrupción del mundo digital (tanto en protección de datos como en la regulación de los servicios digitales).

[5]

En este sentido, un ejemplo de «traducción» particularmente clara y útil se encuentra en el trabajo de Medina Guerrero (‍2022).

[6]

Este es uno de los objetivos básicos del proyecto de investigación citado en la primera nota de esta investigación, por lo que el grupo de investigación ha elaborado un glosario de términos escrito por juristas y supervisado por técnicos de inminente publicación on line que permita establecer definiciones mutuamente comprensibles.

[7]

Véase el interesante documento de la AEPD Adecuación al RGPD de tratamientos que incorporan inteligencia artificial. Una introducción, de febrero 2020. Disponible en: https://encr.pw/uCdUb.

[8]

Nótese que la ley de IA centraliza la responsabilidad en los «proveedores», lo que constituye un concepto tendencialmente omnicomprensivo a tenor de su definición en el art. 3.3 de la citada norma: «Una persona física o jurídica, autoridad pública, agencia u otro organismo que desarrolle un sistema de IA o un modelo de IA de propósito general o que haga desarrollar un sistema de IA o un modelo de IA de propósito general y los comercialice o ponga en servicio bajo su propio nombre o marca comercial, ya sea a título oneroso o gratuito». Algo parecido ocurre con la definición de «usuario» en el art. 3.4 como «implantador»: cualquier persona física o jurídica, autoridad pública, agencia u otro organismo que utilice un sistema de IA bajo su autoridad, excepto cuando el sistema de IA se utilice en el curso de una actividad personal no profesional

[9]

Con carácter general, véase B. Ackerman (‍1995: 44 y ss.). Sobre la concreta articulación constitucional derivada de la XIII y XIV enmiendas, vid pp. 81-‍104. Respecto a la articulación constitucional consecuencia de los cambios introducidos con el New Deal, véanse, pp. 105-‍131. Respecto a las síntesis de los diferentes modelos, pp. 132 y ss.. Para el estudio histórico véase el segundo volumen de la obra (‍1998), pp. 98-‍252, para la Reconstrucción, y pp. 255 a 383 para el New Deal. Significativamente este segundo volumen se subtitula Transformations.

[10]

Véanse, para una aproximación más novedosa y radical, las tres leyes propuestas por Balkin ya en 2017 adaptando a la IA conceptos jurídicos clásicos como la relación fiduciaria, la función social de la propiedad o la responsabilidad objetiva por daños medioambientales, o, en España, las propuestas contenidas en la monografía coordinada por Balaguer y Cotino (‍2022), de Simón Castellano (‍2022: 125 y ss.) respecto a una nueva taxonomía de las garantías de los sistemas de IA, de Aba Catoira (‍2023: 74 y ss.) para la utilización de los principios como instrumento idóneo para el reconocimiento y garantía de los derechos digitales, y de Montilla Martos (‍2923: 152 y ss.) respecto al derecho de participación política en democracia.

[11]

Nos referimos a la Canadian Directive on Algorithmic Decision-Making, aprobada en abril de 2019, y que introduce la Algorithmic Impact Asessment Tool. Sobre esta directiva y la herramienta, véase Castets-Renard (‍2022: 106 y ss.).

Bibliografía[Subir]

[1] 

Ackerman, B. (1995). We the People, Foundations. Cambridge: Harvard University Press.

[2] 

Ackerman, B. (1998). We the People, Transformations. Cambridge: Harvard University Press.

[3] 

Allan, T. R. S. (1997). Parliamentary Sovereignty: Law, Politics, and Revolution. Law Quarterly Review, 113, 443.

[4] 

Balaguer Callejón, F. y Cotino Hueso, L. (coords.) (2022). Derecho público de la inteligencia artificial. Zaragoza: Fundación Manuel Jiménez Abad.

[5] 

Balaguer Callejón, F. (2022). La Constitución del Algoritmo. Zaragoza: Fundación Manuel Jiménez Abad.

[6] 

Balkin, J. M. (2017). The Three Laws of Robotics in the Age of Big Data. Ohio St. LJ, 78, 1217.

[7] 

Bollinger, L. C. (1976). Freedom of the Press and Public Access: Toward a Theory of Partial Regulation of Mass Media. Michigan Law Review, 75 (1), 1-‍42. Disponible en: https://doi.org/10.2307/1287849.

[8] 

Bustos Gisbert, R. (2001). La responsabilidad política del gobierno: ¿realidad o ficción? Madrid: Colex.

[9] 

Castets-Renard, C (2022). Human Rights and Algorithmic Impact Assessment for Predictive Policing. En H.-W. Micklitz, O. Pollicino, A. Reichman, A. Simoncini, G. Sartor, y G. de Gregorio (eds.). Constitutional Challenges in the Algorithmic Society (pp. 93-‍110). Cambridge: Cambridge University Press.

[10] 

Cotino Hueso, L. (2019). Riesgos e impactos del Big Data, la inteligencia artificial y la robótica. Enfoques, modelos y principios de la respuesta del Derecho. Revista General de Derecho Administrativo, 50, 1-‍37.

[11] 

Díez-Picazo Giménez, L. M. (2002). Constitucionalismo de la Unión Europea. Madrid: Civitas.

[12] 

García Roca, J. (2019). La transformación constitucional del Convenio Europeo de Derechos Humanos. Madrid: Civitas.

[13] 

Hernández Ramos, M. (2024). El impacto de la inteligencia artificial sobre el derecho constitucional. (en prensa).

[14] 

Hildebrant, M. y Koops, B. (2010). The Challenges of Ambiental Law and Legal Protection in the Profiling era. Modern Law Review, 73 (3), 428-‍460. Disponible en: https://doi.org/10.1111/j.1468-2230.2010.00806.x.

[15] 

Innerarity, D. (2020). El impacto de la inteligencia artificial en la democracia. Revista de las Cortes Generales, 109, 87-‍103. Disponible en: https://doi.org/10.33426/rcg/2020/109/1526.

[16] 

Innerarity, D. (2022). Inteligencia artificial y democracia. En C. Lazzarini, F. D. Quilici y E. Amador (coords.). Inteligencia artificial y política: los desafíos de una tecnología acelerada en las instituciones contemporáneas (pp. 25-‍39). Buenos Aires: Colección Parlamento Futuro.

[17] 

Lakoff, G. y Johnson, M. (1980). The metaphorical structure of the human conceptual system. Cognitive science, 4 (2), 195-‍208. Disponible en: https://doi.org/10.1207/s15516709cog0402_4.

[18] 

Leslie, D., Burr, C., Aitken, M., Cowls, J., Katell, M. y Briggs, M. (2021). Artificial intelligence, human rights, democracy, and the rule of law: a primer. Disponible en: https://xurl.es/xv4sf.

[19] 

Mantelero, A. (2022). Beyond Data: Human Rights, Ethical and Social Impact Assessment in AI. Berlin: Springer. Disponible en: https://doi.org/10.1007/978-94-6265-531-7.

[20] 

Marshall, G. (1984). Constitutional Conventions. The Rules and Forms of Political Accountability. Oxford: Oxford University Press.

[21] 

Martínez Martínez, R. (2019). Inteligencia artificial desde el diseño. Retos y estrategias para el cumplimiento normativo. Revista Catalana de Dret Públic, 58, 64-‍81.

[22] 

Medina Guerrero, M. (2022). El derecho a conocer los algoritmos utilizados en la toma de decisiones. Aproximación desde la perspectiva del derecho fundamental a la protección de datos personales. Teoría y Realidad Constitucional, 49, 141-‍171. Disponible en: https://doi.org/10.5944/trc.49.2022.33847.

[23] 

Micklitz, H. W., Pollicino, O., Reichman, A., Simoncini, A., Sartor, G. y De Gregorio, G. (2022). Constitutional Challenges in the Algorithmic Society. Cambridge: Cambridge University Press. Disponible en: https://doi.org/10.1017/9781108914857.

[24] 

Montilla Martos, J. A. (2023). Inteligencia artificial y derecho de participación política. En F. Balaguer Callejón y L. Cotino Hueso (coords.). Derecho público de la inteligencia artificial. Zaragoza: Fundación Manuel Jiménez Abad. Disponible en: https://doi.org/10.30827/dlf.1.2023.28552.

[25] 

Pernice, I. (1999). Multilevel Constitutionalism and the Treaty of Amsterdam: European Constitution Making revisited? Common Market Law Review, 36 (4). Disponible en: https://doi.org/10.54648/233680.

[26] 

Pollicino, O. y De Gregorio, G. (2022). Constitutional Law in the Algorithmic Society. En H.-W. Micklitz, O. Pollicino, A. Reichman, A. Simoncini. G. Sator, G. de Gregorio (eds.). Constitutional Challenges in the Algorithmic Society (pp. 3-‍24). Cambridge: Cambridge University Press.

[27] 

Presno Linera, M. A. (2022). Derechos fundamentales e inteligencia artificial. Madrid: Marcial Pons.

[28] 

Saiz Arnaiz, A. (2018). Tribunal Europeo de Derechos Humanos y procesos políticos nacionales: democracia convencional y margen de apreciación. Teoría y Realidad Constitucional, 42, 221-‍245.

[29] 

Simón Castellano, P. (2022). Allende una teoría general de las garantías jurídicas para una inteligencia artificial confiable. En F. Balaguer Callejón y L. Cotino Hueso (coords.). Derecho público de la inteligencia artificial (pp. 111-‍148). Zaragoza: Fundación Manuel Jiménez Abad.

[30] 

Simón Castellano, P. (2023). La evaluación de impacto algorítmico en los derechos fundamentales. Pamplona: Aranzadi.

[31] 

Simonccini, A. y Longo, E. (2022). Fundamental Rights and the Rule of Law in the Algorithmic Society. En H.-W. Micklitz, O. Pollicino, A. Reichman, A. Simoncini. G. Sator, G. de Gregorio (eds.). Constitutional Challenges in the Algorithmic Society (pp. 27-‍41). Cambridge: Cambridge University Press.

[32] 

Spano, R. (2018). The future of the European Court of Human Rights. Subsidiarity, Process-Based Review and the Rule of Law. Human Rights Law Review, 18 (3), 473-‍494.

[33] 

Sunstein, C. R. (2022). Governing by Algorithm? No Noise and (Potentially) less Bias. Duke Law Journal, 71, 1175.

[34] 

Van Cleynenbreugel, P. (2022). EU-Bydesign Regulation in the Algorithmic Society: A Promising Way Forward or Constitutional Nightmare in the Making. En H.-W. Micklitz, O. Pollicino, A. Reichman, A. Simoncini. G. Sator, G. de Gregorio (eds.). Constitutional Challenges in the Algorithmic Society (pp. 202-‍218). Cambridge: Cambridge University Press.

[35] 

Wade, H. R. W. (1996). Sovereignty: Revolution or Evolution. Law Quarterly Review, 112 (4), 558-‍575.

[36] 

Walker, N. (2002). The Idea of Constitutional Pluralism. Modern Law Review, 65 (3), 317-‍359.

[37] 

Woodhouse, D. (1994). Ministers and Parliament: Accountability in Theory and Practice. Oxford: Oxford University Press.