DE LA FRAGMENTACIÓN, SEGMENTACIÓN Y DESCONTEXTUALIZACIÓN DE LA INFORMACIÓN AL SPLINTERNET: UN DERECHO A LA INFORMACIÓN EN MUTACIÓN EN LA ERA DE LA INTELIGENCIA ARTIFICIAL[1]
From fragmentation, segmentation and decontextualization of information to the splinternet: a mutation of the right to information in AI era
RESUMEN
La fragmentación, segmentación y descontextualización de la información en las plataformas y el progresivo splintering de internet global, tanto por los Estados como por la empresas tecnológicas, han impactado en el derecho a la información, que manifiesta algunas «mutaciones». Un pacto global sobre la IA se presenta como la solución no solo para evitar el splinternet, sino también para reducir la problemática de la información/desinformación en las plataformas sociales.
Palabras clave: Inteligencia artificial; desinformación; splinternet; plataformas sociales.
ABSTRACT
Fragmentation, segmentation and decontextualization of information on digital platforms and the progressive splintering of the global Internet, as much from governments as from the technological companies, are making a big impact on the right to information and leading to some “mutations”. A global AI agreement looks like the right solution to avoid not only the splinternet but also the disinformation problems on social media.
Keywords: Artificial intelligence; disinformation; splinternet; social media platforms.
I. INTRODUCCIÓN[Subir]
La descontextualización, la segmentación y la fragmentación de la información[3] sirven de andamiaje a la desinformación y el disenso, lo que propicia la erosión del sistema democrático. Pero, además, la «desinformación», no en estricto sentido jurídico, sino como concepto técnico objetivado (como una abstracción política), señala las estrategias, maniobras y acciones de los sujetos que forman parte de la lucha por el poder en el ciberespacio[4]: entre el Estado y las empresas privadas tecnológicas, entre Estados y las diversas alianzas entre ellos. Este contencioso muestra una de sus expresiones en las operaciones de influencia indebida de actores tanto extranjeros como nacionales (guerra híbrida, amenazas híbridas), lo que, unido a un entendimiento desacertado de la (des)información (Herz y Molnar, 2012), podría inducir a las partes a sucumbir a la tentación de un total splinternet[5] (llamado también balcanización de internet), lo cual significaría una histórica y rotunda vulneración del derecho fundamental a la información conforme al estado del arte. Probada la eficacia de las plataformas en reconducir la opinión pública mediante algoritmos[6] (inducida artificialmente y de dudoso valor democrático) (Rubio et al., 2024), e identificada la descontextualización de datos o información y de los espacios y tiempos, así como la fragmentación ideológica como causa y efecto de la segmentación[7], podrían, tanto el Estado como los mismos gigantes tecnológicos, alegar razones sobradas para «romper internet». La escalada de restricciones a internet (Bischoff, 2023), también en países democráticos, hace vislumbrar el camino que encabezaron China, Irán o Corea del Norte y, más recientemente, Rusia (Nachbar, 2022) al realizar el casi total splinternet, ejerciendo así el poder inmenso que ofrecen las tecnologías digitales. E incluso la idea de los metaversos[8] podría conducir a la fragmentación de la red global. La relación tensa pero interesada entre Estados y tecnológicas[9] invita, para trascenderla, a un nuevocontrato social, global e inclusivo (Estados, empresas privadas tecnológicas y ciudadanos) cuyo centro debe ser el pacto sobre la inteligencia artificial y sus algoritmos, con el fin de devolver al ciudadano el pleno ejercicio de sus derechos y evitar la posible balcanización de internet y los riesgos de censura y control absoluto que podría conllevar (AccesNow, 2023). Todo apunta a que sin un nuevo pacto social global es muy difícil la «gobernabilidad de la IA[10]» con el fin de sanar el proceso de comunicación pública digital y su impacto en la democracia, pues no resulta realista pensar que el Estado pueda prescindir de las plataformas (ni de los ciudadanos) para este fin[11].
La doctrina, en general, percibe que el derecho trata de asir sin éxito la nueva realidad digital y la transformación del poder basado en la tecnología (IA) de las empresas privadas tecnológicas, que se escapa a las riendas del Estado constitucional. Autores como Balaguer (2023: 32) entienden que el cambio de paradigma «pasa por la constitucionalización de la nueva realidad digital, sometiéndola a los principios y valores constitucionales y por la digitalización de la Constitución». Sin embargo, no se trata de «maquillar de digital» lo viejo, sino de abrirse a lo nuevo e identificar en la nueva realidad los valores y principios que subyacen (que podrían ser distintos). Estamos de acuerdo con Bustos (2024: 7) al afirmar que «una aproximación jurídico-constitucional defensiva (basada en los riesgos) es esencial, pero una aproximación proactiva (basada en las oportunidades) también es básica». Afrontar las problemáticas de los algoritmos (IA) en el Estado democrático exige enfocar el análisis en los derechos fundamentales y, especialmente, en el derecho a la información, por su papel tradicional de pilar de la democracia y su importancia incuestionable entre los derechos fundamentales[12]. Sin duda, reseñan algunos autores (Sánchez Muñoz, 2024), en el cambio del sistema de comunicación digital se encuentra el origendel cambio de paradigma y el declive del sistema democrático actual. Así, se observa cómo la descontextualización, la segmentación y la fragmentación de la información han impactado en este derecho, y cómo el funcionamiento mismo de las plataformas lo ha desacoplado de su anclaje constitucional actual, con sus derivadas en el espacio público democrático (cuestión esta ya muy documentada en la literatura jurídica) (Rubio et al., 2024). Al mismo tiempo parece necesario identificar las trazas, que muestran signos de mutación, del nuevo modo de ejercer las libertades informativas mediante los algoritmos e inteligencia artificial (conscientes de las diferentes plataformas y modelos jurídicos, especialmente Estados Unidos/UE). Todo parece indicar que se está ante un derecho a la información en transformación y que se avanza hacia un nuevo orden de la comunicación, que podría accidentalmente degenerar, si no se adoptan las justas medidas, en un total splinternet.
II. DE LA FRAGMENTACIÓN, SEGMENTACIÓN Y DESCONTEXTUALIZACIÓN DE LA INFORMACIÓN EN LAS PLATAFORMAS DIGITALES A LA TENTACIÓN DEL SPLINTERNET[Subir]
Al afrontar la problemática y la regulación de la IA (especialmente la de última generación), cierta doctrina encuentra muy útil la experiencia histórica, entre otras, de la protección de datos personales[13] (Bustos, 2024), lo cual no produce extrañeza, pues, como afirma Balkin (2018: 984), existe una íntima interconexión entre las libertades informativas y el derecho a la protección de datos personales (privacy), y se da la ironía de que cuanta más libertad de expresión, menos privacidad. La cuestión de los de datos personales es clave en la diferencia de los modelos legales Estados Unidos/UE, y que se ahonda con la regulación de la IA. También resulta útil remontarse a los comienzos de internet y a la misma transformación de lo analógico en digital en el ciberespacio, con todas sus disrupciones legales, sociales y económicas. Habría que recordar que el sistema tecnológico y organizativo tradicional de la comunicación se vio «revolucionado» por internet (Benkler, 2007) y puso en solfa todos los elementos clave para la formación de la opinión pública (medios de comunicación, partidos políticos, parlamento), con sus derivadas en los derechos de participación, que todavía están en proceso de transformación. La abundancia de información, que ya anunció Benkler (2007: 1), condujo a la escasez de atención, como anticipó Simon (1971), y los algoritmos supieron administrar eficientemente después. La misma digitalización de la información supuso su conversión en ceros y unos, o sea, en datos, y, por lo tanto, la cuestión del flujo de datos (personales/no personales o factuales) se vio precipitada, especialmente la protección de los datos personales, que, con los logros de las ciencias de la computación más tarde, el big data y la IA, se agravó[14]. En ese nuevo estadio de evolución, podría afirmarse que todos los datos, técnicamente, se pueden reconducir como personales en la red (la anonimización total no es posible en realidad —Barocas, 2014—). El libre flujo de los datos (información) propició su descontextualización, de la que advirtió Nissebaum (2010) como un ataque a la «integridad social», que luego los algoritmos (Barocas et al., 2013) acelerarían llevándola «casi» hasta sus últimas consecuencias (Xu, 2024), con diversos fines (por la segmentación de audiencias, mercados o electorados) en redes, plataformas y motores de búsqueda, propiciando mensajes personalizados, aunque descontextualizados y fragmentados por la segregación de los usuarios en nichos (segmentación ymicrosegmentación). Los desórdenes informativos (fake news, desinformación, posverdad, discurso del odio —Herz y Molnar, 2012— o polarización) fueron surgiendo en este proceso (Hasen, 2022). Con la inteligencia artificial se entró en una nueva fase, que, a su vez, está siendo revolucionada con la IA generativa[15] y otros avances como las neurotecnologías, que plantean nuevos desafíos a los derechos, especialmente al derecho a la información y/o datos. Los modelos de IA generativa son, conforme al RIA, modelos de uso general que permiten la generación flexible de contenidos de texto, audio o vídeo (considerandos 97 y 99), con problemáticas propias.
La emergencia de esta IA de última generación vuelve a poner en primer plano la cuestión de los datos. Datos que sirven a la necesaria ingesta de la IA para su entrenamiento y aprendizaje, que pueden ser de diferente naturaleza y protección jurídica (derecho a la protección datos personales, propiedad intelectual, propia imagen, derecho a la información, etc.) y entrar en conflicto[16]. Y es que, siguiendo el itinerario histórico, en el ámbito digital y computacional, los datos (en todo su espectro de categorías) son la materia prima compartida de distintos derechos, es decir, con el mismo objeto, aunque con bienes jurídicos protegidos diferenciados: entre los mencionados, el derecho a la información, a la protección de datos personales (y no personales), a la propia imagen y al derecho de autor y de la propiedad intelectual (Higueras, 1995). Objeto común que subyace en estos derechos[17] con una íntima interrelación entre estos y sus límites. Las llamadas deepfakes[18] son ejemplo de una necesaria y nueva armonización entre estos (RIA, el art. 13, 50, y considerandos 105 y 134). Para las máquinas solo hay datos sin diferenciación de derechos (aunque la IA puede aprender a diferenciarlos) y la aceleración de todas estas problemáticas podría estar provocando un progresivo splinternet. En este orden de cosas, los conceptos[19] y metodologías que han servido para la regulación de los datos personales y la construcción de su disciplina (García Mahamut y Rallo Lombarte, 2015) parecen herramientas útiles para esta nueva fase. Sin embargo, esta sistemática y conceptualización, si bien es de gran complejidad, en realidad, no ha sido tan eficaz para solucionar los trascendentes problemas de los datos que, principalmente, se encuentran en las plataformas en línea y redes sociales, donde se produce la comunicación e interacción online en tiempo real de los usuarios[20] (RIA, los art. 13, sistemas de alto riesgo[21], y art. 50, en interactuación directa con la persona, exigen el principio de transparencia).
1. En las plataformas digitales y su impacto en el derecho a la información y otros derechos fundamentales[Subir]
En estas plataformas de naturaleza comercial, concebidas como soportes técnicos de modelos de negocio publicitario, se ha superpuesto la «plaza pública». El espacio privado de negocio convive con el espacio público digital generando contradicción de intereses y principios jurídicos. DiResta (2024: 331) lo observa en este sentido también: «In reality, the current system is simply an attention and revenue maximization engine built by a for profit company». Es un hecho que en el modelo que exportaron las empresas tecnológicas americanas al resto del mundo se exportó un modelo jurídico, sociopolítico y económico. Igualmente, el llamado «efecto Bruselas» supone una implantación del modelo europeo en otros países. Y de ello se sigue un cambio de contexto debido al desplazamiento del modelo y de su espacio y tiempo. En esta línea de descontextualización, los contenidos, a veces, aparecen sin línea temporal[22], descontextualizados en el tiempo y el espacio (por el mismo funcionamiento técnico, no siempre es intencional). La descontextualización de los mensajes o datos se produce tanto en la curación[23] como en la moderación y recomendación de contenidos por la red social. Dado que los datos personales se segmentan y microsegmentan, se facilita la personalización de los mensajes, aislando a los sujetos y creando comunidades paralelas que no se conectan y seencapsulan (fragmentadas) en burbujas ideológicas[24]. Afirma Balkin (2018: 1156) que la tecnología ha hecho posible que el poder esté más distribuido que nunca, aunque, al mismo tiempo, sea también mucho menos democrático, a pesar de las «aparentes» bondades de las redes sociales. Y para entender los desafíos políticos de la «sociedad algorítmica» hay que entender la capacidad del big data de recoger y analizar los datos-información de las personas. Esto impacta en todos los elementos objetivos y subjetivos del derecho a la información y en su ejercicio en las plataformas. Conviene, pues, identificar estas y otras disrupciones en las distintas categorías de estudio del derecho a la información[25]:
-
—El sujeto, los usuarios de todo tipo, se mezclan y confunden en la plataforma, sin diferenciación ni contextualización entre todos ellos[26]. Al sujeto usuario[27] (ciudadano) se le iguala al profesional de la información y a los medios de comunicación[28], al influencer, sea o no profesional[29], o a cargos públicos (como los presidentes de Gobierno) que se expresan a veces como autoridad y otras como personas privadas[30]. Todo lo cual conduce al sin sentido, por ejemplo, de exigir a los usuarios las mismas obligaciones que a los profesionales[31], pero sin disponer de sus mismas garantías constitucionales en el ejercicio del derecho. O a suspender la cuenta de un presidente en Estados Unidos conforme a criterios particulares de un moderador en Twitter o Facebook[32], sin control jurisdiccional. Desafortunadamente, la sentencia del Tribunal Supremo Americano Missori v. Biden[33] dispuso que no pudo identificarse una conexión entre la comunicación del Gobierno y las decisiones de moderación de las plataformas (que libremente deciden sus políticas de moderación) y no aclaró cuáles deben ser las relaciones entre el Estado y las plataformas privadas conforme a derecho. En el caso europeo no existe jurisprudencia en este sentido, pero la numerosa normativa de la UE que regula directa[34] o indirectamente las plataformas habla por sí misma. Strauss (2022: 13-14)[35] apunta que los mensajes del Gobierno en las redes pueden provocar distintas reacciones y, entre ellas, un efecto disuasorio al inhibir o silenciar a los usuarios («In that respect government speech resembles suppression […] that is what creates the fault line»), es decir, la descontextualización no facilita el sentido del mensaje. Y reconoce que, «de alguna manera, internet, incluidas las redes sociales, podrían hacer que el contradiscurso sea más efectivo».
-
—El objeto, que abarca todo tipo de mensajes —se diferencia entre libertad de información o noticias y libertad de expresión, que son opiniones e ideas[36]—, en las plataformas no se manifiesta con diferenciación de mensajes, sino que en una continuidad de interacciones se confunde y uniforma. Dificultad de identificación, exacerbada al extremo en los social media, que ha sido puesta de manifiesto por el TC español y otros tribunales europeos[37], lo cual también tiene trascendencia en los límites. Así, por ejemplo, las llamadas fighting words (palabras hirientes) en las redes (Strauss, 2022), al no estar contextualizadas; es difícil precisar la fault line (límite), es decir, cuándo ciertas expresiones se pueden permitir para el debate público, a pesar incluso de su posible ilegalidad. El TC español también lo ha justificado por un principio de necesidad para la formación de la opinión pública[38]. Serían formas de inhibir la conversación pública digital (op. cit.), lo que, aunque no es nuevo, se exacerba en los social media. Y es que la importancia del contexto ya fue puesta de relevancia para los medios tradicionales[39]. En mimetismo con el lenguaje de la computación, lainformación fluye como una cadena indiferenciada. Es así que en Estados Unidos se protege la libertad de datos como libertad de expresión (Sorrel) y ello explica que la First Admendment haya experimentado una impensable expansión (Netanel, 2023: 24). Lo público y lo privado, lo comercial y lo político-social, aparecen en el mismo espacio, pero sin relación alguna (fuera de contexto). Los datos privados se desplazan a la esfera pública por el consentimiento de los usuarios mismos (que aceptan los términos de uso de la red) y por las máquinas silenciosamente, lo que permite microsegmentación, profiling y personalización[40] de mensajes, propiciando nichos y bubles, con consecuencias previsibles en la opinión pública y en la democracia. Datos que alimentan a los algoritmos (en tiempo real) y que, obviamente, contienen nuestros sesgos, que luego se reflejarán en los resultados. Esos resultados que modelan la información (e imponen el tema) que recibimos (feeds), a la que accedemos y difundimos a través de la plataforma. Y sesgos que se desplazan a otros espacios y usuarios por nosotros mismos y por las mismas máquinas (viralidad, shares, retweet, trending topics, bots, etc.), descontextualizando aspectos sociales, educacionales, religiosos o ideológicos. El tiempo/espacio digital(viralidad, visibilidad, atención) ha permitido que se descontextualicen los espacios y los tiempos[41], cambiando su significado originario y desplazando lo privado a lo público (y viceversa). Merced de esos trasvases de datos, también se descontextualizan culturas, religiones y jurisdicciones, entrando, posiblemente, en conflicto en el lugar de destino y sin relación alguna. Así, la llamada content neutrality no diferencia entre contextos democráticos y no democráticos (Haupt, 2021: 757), pero «el enfoque de este régimen se centra en el papel de los participantes en el discurso público democrático, más que en la protección acontextual y del discurso en sí mismo» (ibid.: 778). Sin embargo, explica Khan (2018: 215): «Post, especialmente tras la controversia de la Caricatura Danesa, presentó su teoría como de alcance global. Si bien Post se ha refugiado desde entonces en el contextualismo, su experiencia plantea una pregunta que persiste […]: ¿Ha llegado finalmente a su fin la era del absolutismo de la Primera Enmienda, si es que alguna vez existió?».
Ahora bien, es necesario también poner la «descontextualización[42]» en contexto, para evitar un entendimiento interesado o equivocado que pudiera ser pretexto para «romper» internet. Cierto que el contexto ayuda a explicar por qué un sujeto, grupo o sociedad se expresa, reacciona o actúa ante ciertos discursos, pero no es el único parámetro que indica lo que es verdadero o falso (sea respecto a una información o una determinada regulación). Entienden algunos autores (Herz y Molnar, 2012: 210) que, «si se puede malinterpretar el contexto, se pueden exagerar las presiones de la globalización. Si bien algunos autores como Ruti Teitel ven una convergencia global emergente de normas, estas “normas globales” aún deben aplicarse en contextos concretos. Si bien Haraszti tiene razón al afirmar que internet puede proporcionar información sin restricciones de distancia, reglas ni cultura, el impacto de ese discurso en una concreta sociedad se verá moldeado por estos factores». Aceptado el argumento, habría que añadir que, de todas formas, la descontextualización (especialmente la intencionada[43]) no ayuda al consenso, pues la información puede volverse conflictiva. Teniendo en cuenta que, en principio, la descontextualización no es desinformación (según su caracterización por la UE[44], con intención de engañar u obtenerun beneficio), aunque pudiera constituir otras formas de esta (según las precisiones doctrinales) o manipularse con fines propiamente de desinformación. Dicho esto, y enlazando con lo citado, no se puede ignorar la libre voluntad y acción humana: tanto la que manipula y explota la descontextualización de la información (ayudándose de los algoritmos) para generar disenso como la de los usuarios para entenderla, rechazarla o combatirla[45]. Afirma Starbird (2024) que «la desinformación no es una pieza de contenido. Es una estrategia»[46]. En el mismo sentido observa Cotino (2022: 200) que, «desde distintos ámbitos —como, por ejemplo, las plataformas y redes—, en vez de fijar la atención en si los contenidos son desinformación desinformativos [sic], se subrayan los elementos descriptivos de la conducta y el comportamiento de los sujetos que desinforman a través de las nuevas tecnologías. Así, objetivar el concepto, hacerlo más técnico e incluso aséptico, de este modo se mitiga el siempre sensible juicio de la falsedad del contenido de la información». Y en el mismo sentido, fuentes de la Unión Europa (unidades especializadas en injerencias extranjeras de desinformación) señalan que «se mira fundamentalmente el comportamiento, no la narrativa»[47]. Se maneja muyfrecuentemente un concepto abstracto u objetivado de «desinformación» que, en realidad, no hace referencia al objeto del derecho a la información (en estricto sentido jurídico), sino a estrategias o luchas de poder entre Estados, Estados y plataformas o todos ellos en alianzas de unos u otros. Se necesita cautela, la confusión del concepto podría conducir a la vulneración de los derechos fundamentales y erosionar las instituciones democráticas. No se trata de minimizar los riesgos de los mensajes que no se ajusten a los estándares constitucionales, pero hay que estar advertidos de que pueden ser síntoma y no causa y servir a un argumento que conduzca al splinternet.
— Respecto al contenido y ejercicio del derecho, en palabras de Álvarez (2023: 174-175), «las redes sociales cambiaron para siempre la forma en la que se accede, se difunde y se comparte la información. Los algoritmos median e intervienen en la selección y en la promoción de contenidos a partir de la ultrasegmentación de los perfiles y preferencias de los usuarios». Advertidos de que expresamos por la navegación e interacción online, nuestra tendencia se refleja por los feeds (contenido que nos provee la red social) y recomendaciones que satisfacen nuestra facultad de recibir e «impulsan» nuestra facultad de difundir (retweet, share, likes, links, etc.) e investigar (al buscar los que nos sugiere la máquina). DiResta (2022: 125) observa que «[l]os algoritmos se utilizan principalmente para activar funciones que actúan sobre los usuarios sin que estos realicen una acción directa en ese momento», y, en este ejercicio dirigido, señala cómo los seguidores son «creadores y amplificadores de contenido». Es decir, hay una apariencia del ejercicio del contenido, que en realidad lo pilotan los algoritmos y algunos usuarios muy «resabidos» en el funcionamiento del algoritmo, que explotan y conducen la conversación hacia determinados intereses. Se ha caracterizado (DiResta, 2024: 314) como«trinity of influencers, algorithms and crowds—the new means of shaping public opinion», la orquestación y uso que algunos activistas hacen del sistema para imponer sus intereses en la conversación pública. Y en el funcionamiento se observa que los límites del derecho se difuminan o no son de fácil reconocimiento al no aparecer con nitidez el objeto del derecho (tipo de mensaje) y porque en ocasiones han sido traspasados esos límites por la máquina y no por el usuario.
Esta fragmentación, segmentación y descontextualización se produce en los distintos momentos del funcionamiento de los social media. En la curación, tanto humana como artificial (Singh, 2019), hay una incapacidad de dar contexto a cada mensaje o información. En la moderación (con o sin regulación legal), los términos legales y las normas de moderación son una «talla única» (sin atender al contexto local) para todo, pues su aplicabilidad diferenciada, ponderada y contextual es muy difícil aun con moderadores humanos y artificiales[48], incluidos factchekers. Esta misma falta de contextualización la constata Douek (2022), y Singh (2019: 11-18) manifiesta de la IA «[i]ncapacidad para interpretar el contexto», y añade que «las plataformas deberían permitir a los usuarios proporcionar más contexto e información durante el proceso de apelación». Reclama un «decentralized model […], enable more localized […], culture-specific and context-specific moderation to take place». En la recomendación de contenidos, finalmente, el sistema le devuelve sus opiniones al usuario. Se forman nichos, se segrega al sujeto y a la información sin contextualización. Situación que contrasta con las medidas estructurales que exige el Convenio IA del Consejo de Europa, en su art. 5, que incluye la libreformación de la opinión y el acceso y participación en el debate público. También lo confirman Rubio et al. (2024: 53): «En este nuevo orden comunicativo, moldeado en grandes proporciones por los efectos de la IA, la información viaja de forma dirigida, según un modo distributivo dictado predominantemente por la inescrutable voluntad de los algoritmos que, en definitiva, condicionan activamente el acceso a la información. Al mismo tiempo, la segregación de los usuarios en nichos relacionales fragmentados […]». En los mismos autores (ibid.: 70-86) se encuentra una detallada taxonomía de prácticas mediante herramientas IA para la generación, difusión de mensajes y acceso a fuentes[49], donde se describe, técnicamente, cómo operan y su posible impacto en los derechos de participación política[50] (IA al servicio de/o contra la democracia); y, también, por supuesto, en el derecho a la información[51] y en el de protección de datos personales (privacidad), pues son herramientas que generan, difunden y distribuyen contenidos para el usuario y «suplantando» al usuario. Múltiples herramientas para generar «disenso» y, sobre todo, para «explotar el disenso», resultando una opinión pública dividida. Ahora bien, si la desinformación es munición (amenaza y/o guerra híbrida), moneda de cambio oacicate entre plataformas y Estados (o entre Estados) con distintos fines, el disenso que se propicia y explota es parte del mismo intercambio y juego de intereses. El disenso técnicamente es posible, pero el consenso es, en mayor o menor medida, posible también. DiResta (2022: 128-137) ha manifestado: «[…] what we are contending with now is not the manufacture of consent but the manipulation of consensus». Contrario sensu, Strauss (2022) y Harari (2024) observan que esta sofisticada network técnica refuerza, sin embargo, el derecho de asociación.
2. El progresivo splintering y el impacto en el derecho a la información y otros derechos fundamentales[Subir]
Que la red de redes global está cada día más fragmentada es ya un lugar común. Las infraestructuras de telecomunicaciones se van fragmentando: a la propiedad pública del Estado se ha unido una propiedad privada[52] en continua expansión, de las grandes empresas de telecomunicaciones a las mismas compañías tecnológicas de las plataformas[53] (Nugent, 2023). Incluso «[l]a propia columna vertebral de internet no es inmune a la balcanización. Cada vez hay más iniciativas por parte de empresas y proveedores de servicios de internet (ISP) para filtrar sitios maliciosos a nivel del Sistema de Nombres de Dominio (DNS) para que nunca sean accesibles, ni siquiera en su sistema de servidores» (Lemley, 2021: 1415). Sin ignorar que las nuevas infraestructuras del 5G son problemáticas entre los Estados[54]. Igualmente, el software y toda la logística de las redes cada día dividen más al mundo por la no interoperabilidad e incompatibilidad, de manera que a lo que se puede acceder desde un país no se alcanza desde otro[55]. Las plataformas centralizadas permanecen cerradas unas a otras, sus apps no son interoperables[56] e, incluso, siendo las mismas en diferentes países, laexperiencia es completamente distinta. Su gobernanza diferenciada por los algoritmos, los términos de uso y la legislación separa a los países cada vez más (UE y Estados Unidos, y sin obviar a China) (Bradford, 2023). Ocurre también que el mercado del hardware está cada vez más dividido (teléfonos móviles, chips o semiconductores). «Estados Unidos está actualmente en proceso de prohibir los teléfonos chinos en el mercado. El Estado considera la tecnología de los teléfonos Huawei y ZTE un riesgo para la seguridad, al igual que TikTok» (Lemley, 2021: 1411). A ello se añade ahora que los sistemas de IA desarrollados en diferentes partes del mundo podrían no autorizarse ni comercializarse en todos los países, al no ajustarse a las distintas legislaciones, como la europea, lo que puede fragmentar más el ciberespacio y comprometer definitivamente la neutralidad de internet. La tecnología y sus usos muestran el desanclaje del derecho a la información del derecho constitucional. Y en un posible intento de «corregir» los usos disruptivos conforme a derecho, las progresivas restricciones técnicas y jurídicas de acceso a internet aumentan, incluso en los países democráticos. El horizonte de splinternet total se contempla cada vez más cercano y las «excusas» pueden ser muchas, desde un fin de reparar el ejercicio del derecho a la información a explotar las «anomalías»para el control casi absoluto de internet. Las distintas opciones reflejan, en realidad, los modelos legales respecto a internet[57] y la lucha[58] por dominarlo (Lemley, 2021: 1402): «The competition is […] between regulatory models that are going to determine whether the internet as we know it will continue to exist in any given country». Este fraccionamiento progresivo (reflejo de luchas de poder), sin embargo, no es nuevo: «Estamos volviendo a los jardines amurallados. Algunos de estos jardines están gestionados por empresas privadas, pero cada vez más se crean trazando fronteras nacionales en torno a internet […]. La balcanización de internet es algo negativo, y deberíamos detenerla si podemos» (Lemley, 2021: 1399). Conviene seguir ahondando sobre las razones, ya tratadas más arriba, que empujan tanto a las empresas privadas como a los Estados a avanzar en este inquietante movimiento. Se ha visto que la descontextualización, la segmentación y la fragmentación son el andamiaje que sostiene la desinformación, tanto en un sentido político (estrategias de poder) como en un sentido jurídico estricto (objeto del derecho a la información). Así, una de las principales causas de este troceamiento de la red es la creciente preocupación de los Estados por la soberanía digital[59] yla ciberseguridad, por lo que buscan controlar el flujo de información dentro de sus fronteras para prevenir amenazas externas mediante la desinformación. Además, las diferencias culturales, religiosas o sociales se perciben como causas desestabilizadoras, lo cual contribuye al splinternet.
Se insiste en que «evolving technology of computing and its potential impact on democracy […] could represent a technical triumph and a social disaster» (DiResta, 2024: 38). En este mismo sentido, Harari sostiene (2024: 7-10) que el orden establecido está desintegrándose, y la nueva infraestructura de la información, a pesar de su potencial de conexión técnica, no ofrece un «nexo» de interés público general y, en crisis el concepto hasta ahora predominante de información, que el autor califica de naïve, no aprehende «la realidad universal» ni narra unos hechos captando «la verdad universal». Aun aceptando que existe una realidad universal, no existe una verdad universal, pues la realidad es compleja y existen muchos puntos de vista y «cada verdad» pone su atención en cierto aspectos de la realidad e ignora otros. Y la información (sin link esencial con «la verdad») representaría, en todo caso, una realidad histórica que se desmorona (Harari, 2024: 11). Y aunque DiResta (2024: 328) apunta a «la curación de los algoritmos para dar forma al consenso que, aun así, se ve eclipsada por la moderación de contenido, que intenta separar lo “bueno” de lo “malo”», todo resulta en que no se alcanza nexo ni consenso entre las distintas comunidades y realidades. Esta situación, unida a losdesórdenes de la información, que se propician, bien desde el exterior por terceros países[60] (se impone la ciberseguridad con fines de seguridad nacional), bien desde el interior, es especialmente crítica en períodos electorales, pero también en momentos sensibles políticos o sociales, y puede ser un poderoso argumento para dividir internet, tanto por el Estado como por las empresas privadas tecnológicas[61]. Advierten algunos autores (Khan, 2018: 210-211) que los Estados pueden responder a estos problemas troceando la red de redes y reduciéndola a pequeñas intranets ejerciendo su soberanía nacional y/o soberanía digital. «Además, la idea de que la única respuesta al odio en línea es que los Estados destruyan la autopista de la información y la reemplacen con sus propias “intranets” mucho más pequeñas es cuestionable. […] con la ayuda del sector privado, los Estados pueden tomar medidas para regular el odio en línea sin necesidad de desmantelar Internet». Bichoff (2023)[62] ha elaborado un mapa global de restricciones a internet, clasificando los países en función de su acción censora legal y técnica (cierres, denegación de acceso, bloqueos, etc.). Por supuesto, China, Irán, Corea del Norte o Rusia[63] ocupan el primerpuesto, pero sorprende el avance en esta medidas en países democráticos (Estados Unidos, UE o Australia). Robles Carrillo (2023) explica que el concepto de soberanía digital se ha trasladado de los países autocráticos a los democráticos y las diferencias de este en ambos[64]. Nachbar (2022)[65] explica que la guerra de Ucrania ha dado lugar a numerosas peticiones y actuaciones para desconectar a los países involucrados de la red mundial y que la arquitectura técnica de internet y el funcionamiento de la ICANN han hecho casi imposible una desconexión total. En la UE el enfoque de la ciberseguridad es esencial[66], y se ha desarrollado una intensa y profusa actividad dirigida primero al fenómeno de la desinformación y después a su utilización en la llamada guerra híbrida y amenazas híbridas que provienen de injerencias extranjeras. Esta actividad tuvo un hito en 2018 con el Plan de Acción contra la desinformación[67], que incluye el Código de buenas prácticas[68]. Desde 2020 las acciones de la UE cobraron nuevo impulso con el compendio de ciberseguridad destinado a proteger la integridad de las elecciones en marzo de 2024[69], el Paquete de Defensa de la Democracia endiciembre de 2023, y los Reglamentos de Servicios Digitales[70] en octubre de 2022, de Mercados Digitales en septiembre de 2020[71] y de Libertad de los Medios de Comunicación en abril de 2024. Y recientemente la Comisión Europea ha anunciado un nuevo «escudo europeo de la desinformación» para combatir las injerencias extranjeras[72]. Resulta, sin embargo, asombroso que, tras la invasión de Ucrania, blindándose contra la desinformación rusa y sobre tal base[73], la Comisión ordenara el bloqueo de los canales de difusión rusos Russia Today y Sputnik, lo que supone una grave injerencia en el derecho a la libertad de expresión en una sociedad democrática. Una medida de gran amplitud y sin ningún género de garantías: se bloquean estos medios de forma radical y absoluta. Un bloqueo que se extiende a todas las vías de difusión: radio, televisión, plataformas de internet y motores de búsqueda, sin otros matices más allá de entender que la medida es temporal (aunque no está sujeta a un término cierto). El Reglamento (UE 2022/350) justifica la medida porque Rusia ha seguido una «sistemática» campaña de «manipulación y distorsión de los hechos» en su estrategia de desestabilización. Y una «propaganda» «repetida y constantemente dirigida a partidos políticos especialmente en períodoselectorales» (considerandos 6 y 7). De todos los bloqueos, solo el de RT France fue impugnado ante el Tribunal de Luxemburgo, que mediante la Sentencia del Tribunal General de la Unión Europea (Gran Sala) de 27 de julio de 2022, T-125/22, RT France c. Consejo de la UE, ha confirmado la legitimidad de la medida adoptada por el Consejo, validando el bloqueo de los canales rusos, desde la perspectiva de la protección de la libertad de expresión en Europa. Tristante y Teruel (2023: 325), en un análisis muy crítico de la sentencia[74], discrepan con su fallo, entendiendo que «la prohibición impuesta es difícilmente conciliable con las garantías exigibles para adoptar una medida de esta severidad, de acuerdo con la doctrina del Tribunal de Estrasburgo». En especial, sí consideramos que el TEDH ha reputado ilegítimas restricciones a la libertad teniendo en cuenta: «i) el alcance excepcionalmente amplio de la injerencia; ii) su duración excesiva; iii) la falta de motivación de la medida por parte del tribunal nacional, y iv) la imposibilidad de los demandantes de impugnarla antes de su ejecución». Aun así el Tribunal consideró que el canal demandante no goza de la «protección reforzada» de la Carta, que reconoce la libertad de expresión de prensa. Por otra parte y conectado con las anteriores críticas, advierte Robles Carrillo (2023) de que democracia y legitimidad son conceptosque en este debate de la soberanía digital «habría que trabajar para evitar que un concepto ideado para defender el modelo europeo de valores y principios no responda suficientemente a esos criterios de democracia y legitimidad» (Robles Carrillo, 2023: 164).
Hay que concluir con Lemley (2021: 1403-1404) que, «[e]n Europa, en cambio, las industrias de contenidos y el Estado ejercen un control mayor y más efectivo sobre internet que en Estados Unidos. […] Y todo eso significa que la Unión Europea busca y ejerce cada vez más control sobre lo que se publica en internet». Este progresivo control, que supone una escalada de restricciones a internet[75] y del libre flujo informativo, so pretexto de influencias indebidas, extranjeras o internas, y de la ciberseguridad, está apuntando al splinternet. Además, muchas de estas medidas caracterizadas por su excepcionalidad se convierten en normalidad (se mantienen más allá de un período definido de guerra o electoral). España, dando respuesta nacional al Plan de la UE, aprobó la Orden PCM/1030/2020, de 30 de octubre, sobre el Procedimiento de actuación contra la desinformación aprobado por el Consejo de Seguridad Nacional. Orden recurrida ante el Tribunal Supremo, que, mediante sentencia de 18 de octubre de 2021, inadmitió a trámite el recurso al entender que no regula contenidos ni atisba ningún tipo de restricción. Más llamativo fue el Real Decreto Ley 14/2019 («el decretazo digital»), modificando la Ley General de Telecomunicaciones 9/2014, por el que se permite la intervención y el control del Gobierno de redes y servicios de comunicación electrónicas en aras de la seguridad pública ynacional. El decreto fue recurrido ante el TC por sendos recursos de inconstitucionalidad que declaró en parte extinguidos y en parte desestimados[76]. Y con ello se puso fin a las aspiraciones de una «república digital catalana».
La cuestión de la seguridad nacional y el orden público es asunto de vital importancia tanto en la UE como en Estados Unidos[77] y la ciberseguridad no es cuestión menor para el mantenimiento de la soberanía digital. Ahora bien, las decisiones pueden deslizarse hasta el splinternet e imponer fronteras electrónicas: tanto para restablecer el orden democrático como para establecer totalitarismos (Harari, 2024), aprovechando estas herramientas digitales de inigualable capacidad de control (surveillance) en la historia de la humanidad. Tampoco se descarta la idea del splinternet con el fin de dar luz a los metaversos por los Estados y/o empresas. John Gilmore, citado por Lemley (2021: 1400), lo dijo ya en 1993: «[L]a red interpreta la censura como un daño y la evita». Y añade Lemley: «La idea era que tuviéramos una red distribuida que pudiera evitar el control centralizado. Hoy, creo que es más justo decir que la censura interpreta la red internet como un daño y la evita. Como argumento aquí, los Estados han encontrado maneras de evitar o controlar los esfuerzos de internet por eludir su censura». Pero no solo los Estados, también las empresas tecnológicas, pues, siguiendo a Nugent (2023: 532), el deplatforming (prohibir el acceso a alguien a unaplataforma) «está llegando ahora al núcleo de la infraestructura de internet. Estos esfuerzos, y otros similares, plantean la posibilidad muy real de que la privatización completa de internet […] pronto produzca un mundo en el que los puntos de vista más impopulares puedan ser excluidos por completo de internet, un fenómeno que denomino exclusión de puntos de vista». Aún más, la desconfianza de los Estados (Estados Unidos) respecto alguna plataforma extranjera (TikTok), como amenaza a su seguridad nacional, se vive actualmente en contienda judicial[78]. Muestra también su preocupación Haupt (2021: 775-776) por las posturas enfrentadas de UE y Estados Unidos, y, tomando las palabras de Balkin, afirma que en nuestros días son los valores de uno de los países menos censores —Estados Unidos— los que han gobernado internet. Pero si los Estados pueden globalmente filtering (filtrar), blocking (bloquear) o delinking (desconectar), internet será gobernado finalmente por los más censores. Y «[t]his will undermine the global public good of a free internet». Internet libre ha sido siempre global (Leiner et al., 1997) y ese es el modelo defendido por Estados Unidos y Europa hasta ahora. Y su defensa es imprescindible para proteger y potenciar las libertades de expresión e información (conforme al estadodel arte) y, por ende, de todos los derechos. La desconexión a la internet global supone una rotunda vulneración del art. 19 de la Declaración Universal de los Derechos Humanos de 1948 y del resto de los convenios y pactos internacionales en la materia.
3. Un derecho a la información en transformación: identificando mutaciones y su trascendencia democrática[Subir]
La fragmentación de la información en las plataformas y el progresivo splintering de la red global, tanto por los Estados como por la empresas tecnológicas, han impactado en el derecho a la información, que manifiesta algunas «mutaciones». Y advertidos de que el continuo splintering puede conducir a un splinternet total que, en los países democráticos, supondría no una mutación, sino una vulneración absoluta del derecho a la información (Harari, 2024), con onda expansiva en todos los derechos fundamentales y en la democracia misma. La necesidad de repensar una nueva relación jurídico-informativa se va revelando más necesaria: la presencia de nuevos sujetos (tecnológicas/máquinas IA) y su posible atribución de derechos y responsabilidades; el déficit del ejercicio de las facultades del derecho por los usuarios, déficit que se corresponde con el ejercicio que han «acaparado» ya los nuevos sujetos (máquinas IA); la forma de ejercer la libertad de expresión por los usuarios, a través de «todos» sus datos públicos y privados en la navegación e interacción en la red, manifestada indirecta y posteriormente por los algoritmos y materializada en forma de mensajes por los feeds o recomendaciones a los usuarios; cambios en el objeto, mensajes/datos sin diferenciación, y, posiblemente, también en el contenido esencial, que se vacía para los usuarios y se llena decontenido para la máquina; en los límites del derecho, que se desdibujan por la falta de diferenciación y contextualización de los mensajes, lo cual está llamando a redibujar los límites, y no solo para el sujeto usuario, sino también ya para las máquinas. Todas estas «anomalías» o posibles mutaciones (que abajo se describen con más detalle) calan en el derecho a la información en todas sus categorías de análisis: sujeto, objeto, contenido, herramientas tecnológicas y espacio-tiempo. En general, se advierte que la persona, titular del derecho a la información, está siendo desplazada, en mayor o menor medida, por la máquina en el ejercicio de las facultades que contiene el derecho. Parece que se estuviera fraguando un nuevo rol del derecho a la información: conectar a la persona con la máquina, propiciando con sus datos e información el diálogo con la máquina y entre máquinas, que se conectan y dialogan entre sí, propiciando unas narrativas que conformen la conversación pública, la opinión pública, las comunidades virtuales, sus norms y su gobernanza. Así lo ha expresado DiResta: «La relación entre humanos y algoritmos se configura como un “bucle viral” en el que el usuario envía señales a la máquina mediante sus acciones y el consumo de contenido. El algoritmo las interpreta y las refleja en su sugerencia, y luego los humanos reaccionan a la nueva provocación. No existe una única fuerza impulsora responsable, sino la interacciónentre algoritmos, funciones y capacidades que ha transformado el discurso y la comunidad» (2021: 123).
Advierte Harari (2024: 12) que en este nuevo sistema, a semejanza de otros en la naturaleza como en biología, la información no representa una realidad, sino que su rol es conectar cosas: «[…] the rol of information in connecting things is of course not unique to human history. A case can be made that this is the chief role of information biology». Y, como en el ADN, un error en la transmisión es un error de copia de lo anterior, una mutación con posible propósito de un cambio, pero no es desinformación, siguiendo al mismo autor. Por su parte, Lessig (1996b: 869-904), en los comienzos de internet, llamó la atención de que estamos «haciendo el ciberespacio» y no «descubriéndolo», porque se trata de un producto técnico humano (no de la naturaleza)[79]. Y la tecnología rara vez es determinista, en también observación de Harari (2024: 309). Ahora bien, sin minimizar la fuerza transformadora de las tecnologías e infraestructuras digitales. Es imposible ignorar que, a diferencia de otros sistemas de información en la historia, estas tecnologías tienen capacidad de tomar decisiones y generar ideas por sí mismas, es decir, poseen autonomía. Pero todavía se está a tiempo de intervenir (en los albores de la IA generativa y otras tecnologías), estableciendo mecanismos técnico-jurídicos que puedan actuar en este proceso dedisrupción democrática. Advierte de nuevo Harari (2024: 346): «Si no podemos descubrir qué ha fallado y solucionarlo, las democracias a gran escala podrían no sobrevivir al auge de la tecnología informática. Si esto realmente sucede, ¿qué podría reemplazar a la democracia como sistema político dominante?». Seguidamente se describen algunos de los cambios (o mutaciones) que están transformando el derecho fundamental.
Cambios en los sujetos del proceso: a los usuarios como generadores y receptores de contenidos, hay que añadir los usuarios de especial relevancia como los influencers[80]. DiResta (2022: 127) advierte que «a new class of communicators had emerged: influencers and hyperpartisan demi-media» (los pseudomedios), y la misma autora después (2024: 314) los caracteriza dentro de «la trinidad» (the trinity of influencers, users and algorithms). Los factchekers[81] se han sumado al ecosistema de las plataformas (aunque no dependen de ningún prestador de plataforma en línea, RSD art. 22.2b). Y sin obviar el papel de los prompters, cuyo rol puede ser decisivo para el diálogo con la IA generativa. Los modelos de IA y/o sus algoritmos (entre ellos, ChatGPT, Copilot, Gemini, etc.) podrían constituirse como un nuevo sujeto titular[82] (Fernández Carballo, 2021) de derechos y deberes (muy debatido en el ámbito del derecho de autor). Afirma Balkin (2018: 1150) que el problema no es tanto si las máquinas deben ser titulares de derechos, sino si las tecnológicas, propietarias de estas tecnologías, van a ser los titulares. Cuestión esta que no es baladí, pues nos sitúa en la cuestión de la responsabilidad[83] en el ejercicio del derecho. Las propias compañías tecnológicas, titulares de las plataformas, son instituciones clave controladoras del proceso de comunicación (Rubio et al., 2024: 7), cuya naturaleza jurídica está aún por definir, pues no son solo sujetos privados (o no cualquiera), sino que actúan como Estados soberanos (sin serlo), y están llamadas, probablemente, a tener un estatus jurídico diferente (Bustos, 2024). Sin desconocer que lafunción reguladora se ha desplazado a las plataformas (o en colaboración con las plataformas en UE) y el derecho se ejerce frente al Estado, pero también frente las plataformas[84] y frente a todos (quizás incluidas máquinas). Además, el Reglamento europeo de IA prevé obligaciones y responsabilidades para estos sujetos, tanto en virtud de la posible titularidad de la propiedad intelectual de la IA como por el despliegue que hagan de esta por sus usos en las plataformas. El considerando 93 precisa:
Aunque los riesgos relacionados con los sistemas de IA pueden derivarse de su diseño, también pueden derivarse riesgos del uso que se hace de ellos. Por ello, los responsables del despliegue de un sistema de IA de alto riesgo desempeñan un papel fundamental a la hora de garantizar la protección de los derechos fundamentales […]. Los responsables del despliegue se encuentran en una posición óptima para comprender el uso concreto que se le dará al sistema de IA de alto riesgo y pueden, por lo tanto, detectar potenciales riesgos significativos que no se previeron en la fase de desarrollo, al tener un conocimiento más preciso del contexto de uso y de las personas o los colectivos de personas que probablemente se vean afectados.
Dependiendo del grado de riesgo de la IA, estos proveedores y/o responsables del despliegue de los algoritmos deben cumplir con las obligaciones y requisitos que el RIA impone para su empleo en la UE (arts. 16 a 26 de los de alto riesgo, y arts. 50, 51 y 53 para los de riesgo limitado). A su vez, el Reglamento de Servicios Digitales ofrece numerosas vías para denunciar (art. 16) y exigir responsabilidades a las plataformas tanto por sus propios algoritmos como del uso que hagan de estos los usuarios (considerandos 84, 89, 96), por ejemplo, subiendo contenidos generados con IA (deepfakes). Asimismo, el RSD, es su considerando 84, alerta contra el «uso no auténtico» del servicio. Por otra parte, el Reglamento de Mercados Digitales incluye a las plataformas y motores de búsqueda como «guardianes del mercado» en los términos del art. 3 y siguientes. Habría que añadir a los profesionales de la información que están presentes, tanto individualmente como mediante sus medios de comunicación, para los que las redes son, a la vez, sus canales de distribución y sus competidores[85]. Ya se ha observado la circunstancia de tratar en las redes a los usuarios como profesionales (con dudas de que el Reglamento de Libertad de Medios lo revierta), lo cual tiene trascendencia en el ejercicio del derecho a la información, pues se les somete a obligaciones profesionales, pero sin las debidas garantías constitucionales,restringiendo aún más el ámbito de ejercicio de su derecho.
Cambios en el objeto: la diferenciación de mensajes se difumina en la red (buena prueba es que a todos ellos se refiere la expresión de fake news). Además, la falta de contextualización no permite su reconocimiento o diferenciación y la propia forma de presentarse (secuencia) hace difícil su distinción, como bien observa Harari (2024: 13): «Su existencia también se ve comprometida por la pérdida de contacto entre sus partes constituyentes, más que por representaciones inexactas de la realidad». En el RSD, considerando 12, se adopta un concepto único y amplio sobre «contenido ilícito» e «información», sin diferenciar tipos de información o mensajes concretos, ni su contexto en plataformas. Se obvia toda distinción en su origen, naturaleza y efectos y se han fundido en un solo régimen. El considerando 84 se refiere a «información que no sea ilícita», pero que contribuye a los riesgos sistémicos identificados, en un esfuerzo por abarcar cualquier «desorden informativo».
Los contenidos sintéticos, generados por la IA (texto, audio o vídeo), se han incorporado y no siempre es fácil su clasificación (v. gr., las deepfakes[86]). Los prompts, directrices con las que nos comunicamos con la aplicación de inteligencia generativa (GTP), podrían constituir un tipo de mensaje e incluso de creación. El mensaje de noticias (libertad de información en TC), quizás el más comprometido, comporta una crisis existencial, pues su elemento constitutivo, que es la «verdad» de los hechos, está muy cuestionado (Harari, 2024) y no encuentra su identidad en esta cultura del algoritmo[87]. Algunos autores llaman la atención sobre la «verdad algorítmica» (Rubio et al., 2024) y Balaguer (2023) sugiere un nuevo consenso. Algunos profesionales subrayan la falta de presupuestos comunes culturales, educacionales[88] o sociales para abordarla. Y otros señalan a la crisis de objetividad (Sulzberg, 2023). Por su parte, Harari (2024: 7-10) ofrece una mirada distinta que arroja luz al problema: «La visión ingenua sostiene que la información es un intento de representar la realidad, y cuando este intento tiene éxito, lo llamamos verdad». Pero la verdad captada representa solo ciertos aspectos de la realidad, la cual es muy compleja («La verdad y la realidad son, sin embargo, cosas diferentes porque,por muy veraz que sea un relato, nunca podrá representar la realidad en todos sus aspectos»), pues tiene muchos aspectos (lo cual se observa en las redes). Y, añade, se asume que se puede separar «el error» si se representan tanto el nivel objetivo como el subjetivo de la realidad (creencias objetivadas), incluso se puede distinguir la verdad de la falsedad siempre, sin atender a contextos. Pero esto no es siempre así, y «cada verdad» pone su atención en ciertos aspectos de la realidad e ignora otros. Incluso puede no representar bien la realidad, como ocurre con la desinformación (disinformation/misinformation) (Harari, 2024: 10 y ss.). Obviamente, todo ello no es un buen pegamento entre los elementos en las plataformas de las redes sociales, lo que produce desintegración. Es decir, la información está fallando en representar una realidad histórica (pasada), dando lugar a «errores», pero «los errores en la copia del ADN no siempre reducen la aptitud. […] Sin estas mutaciones, no habría proceso evolutivo. […] crea nuevas realidades. La información crea nuevas realidades al conectar diferentes puntos en una red». Este enfoque de Harari, en un momento de emergencia la IA generativa (junto con otras tecnologías revolucionarias), pone la mirada en la idea de la inteligencia artificial en sus aspectos positivos como oportunidad. Las fuentes informativas, necesarias para la formación de mensajes, sehan visto igualmente afectadas (Pauner Chulvi, 2024), pues los algoritmos (sujeto-objeto) se constituyen tanto en fuentes en sí mismos, proveedoras de información cuyo origen en muchos casos desconocemos (IA generativa, feeds), y en sujetos investigadores de fuentes, al constituirse en herramientas-agentes capaces de «explorar» (incluso ilegalmente, v. gr., Pegasus) fuentes de todo tipo (Estados[89], empresas, periodistas, etc.)[90]. Inquietante resulta el art. 4, apartados 4 y 5, del Reglamento de Libertad de los Medios de Comunicación, que, mediante la vía de la excepción, permite a los Estados medidas e instalación de programas informáticos intrusivos para conocer las fuentes periodísticas. En cuanto a la libertad de expresión, el mensaje de opinión[91], que por su naturaleza es uno de los más comunes en las redes junto con el de ideas o propaganda, frecuentemente, se presentan como hechos (Rubio et al., 2024: 55), generando confusión. Se desdibujan o difuminan los límites y genera inseguridad jurídica. Sin embargo, no es tanto nuestro mensaje opinático o ideológico en sí mismo el que importa, sino el que el algoritmo cristaliza al captar y procesar todos nuestros datos y comportamientos en la red (públicos o privados), acrisolando las queson «realmente» nuestras opiniones e ideas. La privacidad representa un «obstáculo para el libre comercio», afirma Morozov (2018: 71). El llamado interés público general queda decidido por los algoritmos cuantitativamente y sin lograr consenso entre las comunidades fragmentadas.
Las afectaciones en el contenido esencial del derecho y su ejercicio son relevantes, como ya ha sido constatado empíricamente por Rubio et al. (2024: 55-56). La no diferenciación de mensajes y su descontextualización han desdibujado los límites del derecho, provocando conflicto e inseguridad jurídica, que no es fácil de recomponer[92] en la curación o moderación de contenidos, conforme el RSD en nuestro caso. Delinear los perfiles del contenido esencial del derecho requiere una labor de ponderación que solo en sede judicial puede hacerse con todas las garantías jurídicas[93]. Además, el contenido esencial y los límites de su ejercicio se extienden ahora a las máquinas, que han asumido gran parte del ejercicio de las facultades del derecho, lo que explica, a su vez, la deficiencia de ejercicio por parte de los usuarios, que ven vaciado de contenido su derecho. Hay que recordar que, de acuerdo con la jurisprudencia del TEDH, cualquier restricción a estas libertades debe estar «prevista por ley», entendiéndose esta exigencia en sentido sustantivo y no formal. Las facultades de recibir, difundir o investigar están muy interconectadas, y la privación de una puede restringir las otras (Tristante y Teruel, 2023)[94]. Las máquinas nos sustituyen unavez que hemos iniciado el proceso: los algoritmos ejercen en gran medida la facultad de recibir (nos proveen feeds, links, respuestas de los motores de búsqueda o de la IA generativa); la de difundir poniendo a disposición funcionalidades de likes, retweets, share, etc., para difundir, visibilizar y viralizar, conforme a los criterios del algoritmo, e investigan fuentes por nosotros para ofrecernos lo que nos interesa (que es lo que interesa a la máquina que nos conoce). Diferente de este funcionamiento es «el ejercicio no autentico» del servicio o usos no debidos de los que nos alertan tanto el RSD como el RIA por posible manipulación[95].
Por el papel activo que han asumido los sistemas IA en el ejercicio del derecho, deben someterse a los principios de transparencia, explicabilidad y trazabilidad que exige el RIA[96]. Además, observar los «entornos», es decir, respetar los «contextos» en los que está previsto que se utilice el sistema (RIA: considerando 12, y CIA, art. 16) para evitar riesgos para los derechos humanos, la democracia y el Estado de derecho en las plataformas sociales. Podría interpretarse, sin violentar el contenido del derecho, pero ampliándolo, que se trata de una nueva facultad al contexto[97] y un límite de descontextualización que puede producirse tanto en el diseño del algoritmo y por los datos (sesgados) de entrenamiento de la IA (descontextualizados) como por los entornos donde se despliega el sistema. Conscientes de que somos nosotros mismos los que suministramos los datos en cada interacción con nuestro consentimiento (Kaminski, 2019). El principio de transparencia se impone, pues la «comprensión del funcionamiento del sistema ayuda a establecer responsabilidades en caso de fallos, accidentes o manipulación intencional facilitando […] exigir que haya cierta rendición de cuentas» (Degli-Esposti, 2023: 59-60). Ahora bien, como reconoce el considerando 12 del RIA, puede haber funcionamientos del sistema de la IA quedificulten no solo la contextualización, sino la misma identificación de responsabilidades:
Los objetivos del sistema de IA pueden ser diferentes de la finalidad prevista del sistema de IA en un contexto específico. A los efectos del presente Reglamento, debe entenderse por entornos los contextos en los que funcionan los sistemas de IA, mientras que los resultados de salida generados por el sistema de IA reflejan las distintas funciones desempeñadas por los sistemas de IA e incluyen predicciones, contenidos, recomendaciones o decisiones. Los sistemas de IA están diseñados para funcionar con distintos niveles de autonomía, lo que significa que pueden actuar con cierto grado de independencia con respecto a la actuación humana y tienen ciertas capacidades para funcionar sin intervención humana. La capacidad de adaptación que un sistema de IA podría mostrar tras su despliegue se refiere a las capacidades de autoaprendizaje que permiten al sistema cambiar mientras está en uso.
Luego, quién ejerce la responsabilidad (Xu, 2024) es una cuestión abierta. Y es que asistimos a un cambio incuestionable de paradigma: las tecnologías digitales y los propios sistemas IA y/o algoritmos que, a diferencia de los media legacy, pueden generar ideas y tomar decisiones, es decir, poseen autonomía (considerando 12 RIA) y posible identidad digital (Ebers, 2024)[98], y comportan un parámetro tiempo-espacio (atención y viralidad) de trascendentes efectos jurídicos (censor y descontextualización).
III. A MODO DE CONCLUSIÓN: LA IA COMO SOLUCIÓN[Subir]
No todas las mutaciones serán útiles y permanecerán en el nuevo paradigma. Requerirán un examen conforme a un principio teleológico: la máxima satisfacción del derecho a la información y en armonía con el resto de los derechos fundamentales (Higueras, 1995), conscientes de que nuevos derechos están naciendo (Ebers, 2024). Pues se va forjando una identidad digital (de usuarios y máquinas), que reclama personalidad jurídica para la atribución de derechos y deberes[99]. Y los principios jurídicos que se han de reidentificar en el nuevo paradigma digital de la comunicación (Bustos, 2024) deben ser tributarios de las grandes declaraciones y convenios internacionales de derechos humanos con el fin de propiciar un pacto global de la IA[100], sin el cual el internet global, abierto y descentralizado se vuelve casi imposible, al igual que la neutralidad en la red. En este sentido, la doctrina es coincidente: DiResta (2024), al igual que Harari (2024), propone rediseñar los sistemas de IA conforme a principios. Y Bloch-Wehba (2019) ilustra un rango de posibilidades que arrancan desde principios jurídicos globales (Daskal), hasta un enfoque basado en derechos humanosinternacionales (Evelyn Aswad). En definitiva, un nuevo contrato social global que pacifique el ciberespacio, establezca consensos sobre la IA y permita así resolver las problemáticas de la desinformación y evitar el splinternet. Asimismo, que establezca unas condiciones[101] que faciliten la posible transformación del derecho a la información sin manipulaciones interesadas. La nueva arquitectura de poder triangular (Balkin, 2019) requiere que este «nuevo contrato social global» incluya al Estado, a las empresas privadas y a los ciudadanos, y así se facilite un nuevo proceso constitucional multifacético e inclusivo (Celeste, 2021). Pues no resulta realista pensar que el Estado pueda prescindir de las tecnológicas que son propietarias de las tecnologías y del big data, o prescindir de los usuarios, que deben hacer valer su poder: son dueños de sus datos personales y en internet todos los datos son finalmente datos personales. Sin datos no son posibles los algoritmos ni la IA, hasta ahora. Luego, se puede concluir que los algoritmos y la IA son del usuario (también). A la persona le pertenecen (igualmente). Pues el progresivo splinternet no ha venido a armonizar los derechos de privacidad y de información, sino, por el contrario, a ejercer más control sobre ambos, sobre la información y losdatos.