RESUMEN

Este trabajo aborda la regulación, práctica y problemática del perfilado ideológico en relación con la protección de datos, teniendo en consideración tanto el RGPD como la regulación específica adoptada en España mediante la reforma de la LOREG. En primer lugar, se explica en qué consiste el perfilado ideológico y su metodología a partir de experiencias recientes, para, posteriormente, hacer referencia a la inacabada respuesta jurídica y su admisibilidad en el marco del Estado de partidos. Finalmente, se plantean garantías y salvaguardas técnico-jurídicas que contribuirían a dimensionar la aplicación de esta técnica, y se reflexiona acerca de la posible sobredimensión de su impacto sobre la democracia y las decisiones electorales a la luz de campañas recientes, como las realizadas por Cambridge Analytica.

Palabras clave: Big data; inteligencia artificial; perfilado ideológico; campañas electorales; protección de datos; Cambridge Analytica.

ABSTRACT

This paper deals with the regulation, practice and problems of political profiling in relation to data protection, taking into consideration both the RGPD and the specific regulation adopted in Spain through the reform of the LOREG. Firstly, it explains what political profiling consists of and its methodology based on recent experiences. Secondly, it refers to the lack of a adequated legal response and its admissibility within the framework of the State of Parties. Finally, the paper proposes technical and legal safeguards that will help to measure the application of this technique, and reflects on the possible overdimensioning of its impact on the democratic system and electorate decisions in the light of recent campaigns, such as those conducted by Cambridge Analytica.

Keywords: Big Data; artificial intelligence; political profiling; electoral campaigns; data protection; Cambridge Analytica.

Cómo citar este artículo / Citation: Hernández Peña, J. C. (2022). Campañas electorales, big data y perfilado ideológico. Aproximación a su problemática desde el derecho fundamental a la protección de datos. Revista Española de Derecho Constitucional, 124, 41-‍73. doi: https://doi.org/10.18042/cepc/redc.124.02

SUMARIO
  1. RESUMEN
  2. ABSTRACT
  3. I. INTRODUCCIÓN
  4. II. CAMPAÑAS ELECTORALES Y PERFILADO IDEOLÓGICO
    1. 1. Recolección de datos de naturaleza política (y algunos riesgos de vulneración de la normativa de protección de datos)
    2. 2. Perfilado y microsegmentación electoral. El big data y la analítica avanzada. ¿Armas de destrucción matemática? Y psicografía
    3. 3. Intervención mediante microsegmentación de mensajes. Personalización de la política y riesgo de desinformación
  5. III. LA RESPUESTA JURÍDICA AL PERFILADO IDEOLÓGICO DESDE EL DERECHO FUNDAMENTAL A LA PROTECCIÓN DE DATOS
    1. 1. La inacabada regulación comunitaria del perfilado ideológico
    2. 2. La inconstitucional regulación del perfilado ideológico en la reforma de la LOREG
  6. IV. ACERCA DE LA ADMISIBILIDAD DEL PERFILADO IDEOLÓGICO EN EL MARCO DEL ESTADO DE PARTIDOS
  7. V. APROXIMACIÓN A GARANTÍAS Y SALVAGUARDAS QUE REDUZCAN LOS RIESGOS DEL PERFILADO IDEOLÓGICO CON MIRAS A PROTEGER EL DERECHO FUNDAMENTAL A LA PROTECCIÓN DE DATOS
  8. VI. EL RECONOCIMIENTO DE UN LÍMITE ABSOLUTO AL PERFILADO IDEOLÓGICO: LA VERTIENTE NEGATIVA DE LA LIBERTAD IDEOLÓGICA
  9. VII. REFLEXIÓN FINAL: ¿SE ESTÁN SOBREDIMENSIONANDO LA INFLUENCIA Y EL DEBATE ACERCA DEL PERFILADO IDEOLÓGICO, OBTURANDO LA DEMOCRACIA Y LOS DERECHOS FUNDAMENTALES?
  10. NOTAS
  11. Bibliografía

I. INTRODUCCIÓN[Subir]

Las campañas irregulares basadas en big data y analítica avanzada realizadas por Cambridge Analytica (CA) llevaron a autoridades de distintas jurisdicciones a realizar investigaciones relacionadas con vulneraciones de la normativa de protección de datos y la regulación electoral. La preocupación alcanzaba, también, posibles afectaciones de derechos fundamentales o el riesgo de socavar los fundamentos básicos de los sistemas democráticos.

No obstante, la utilización de técnicas estadísticas o analítica de datos en campañas electorales es muy anterior. Aprovechar el avance del big data o técnicas de inteligencia artificial no es más que el paso siguiente de un proceso de asimilación permanente de las tecnologías que se inició con la radio en los años veinte, incorporó la televisión en los cincuenta e internet desde finales de los años noventa. El surgimiento y la penetración de las redes sociales vendrían a apuntalar un nuevo estadio que, unido a la popularización de las técnicas del big data, el abaratamiento de la potencia computacional y la cesión inadvertida de ingentes cantidades de datos por los usuarios, generaría un movimiento tectónico que borraría las asentadas y aceptadas fórmulas de transacción de la información política, introduciendo elementos que han generado enorme perplejidad ante los que la regulación no debe permanecer inerme.

Los expertos centran la campaña electoral de Barack Obama de 2008 cómo el inicio de este cataclismo que podría erosionar las bases del sistema electoral y de la democracia (‍Rubio, 2011: 330-‍331), aunque la campaña del brexit y la presidencial norteamericana de 2016 se diferencian en cuanto al nivel de complejidad técnica y opacidad que informes de diversas autoridades han intentado dilucidar. A esto hay que sumar las consideraciones éticas y, más importante aún, la vulneración reiterada del insuficiente marco protector global de la privacidad, que en buena medida dejaba el control de los datos en manos de la autorregulación de las empresas dominantes del sector. Quizá esta combinación de elementos es la que ha generado tanta fascinación mediática respecto al uso del microtargeting y el perfilado ideológico, así como un enorme debate acerca de la influencia en los resultados electorales, desatando respuestas regulatorias de diverso alcance.

La reforma incorporada en la ley española de protección de datos, posteriormente recurrida y anulada por el Tribunal Constitucional español, es el capítulo local del reto que presenta este naciente estadio de alienación tecnológica y concentración de poder en el mercado datos, cuyos efectos —se argumenta— amenazan con irradiarse sobre los fundamentos mismos de la democracia. Esto invita al análisis, así como a la discusión sosegada, acerca de la respuesta regulatoria a una de las manifestaciones más cuestionadas de esta transformación: el perfilado aplicado a electores con fines electorales. Para ello debemos conocer cómo funcionan el perfilado y la microsegmentación electorales a efectos de acertar respecto a su regulación, así como dimensionar su impacto y ajustar las medidas de intervención a la realidad del avance tecnológico, las exigencias del Estado de derecho y la protección de los derechos fundamentales.

Nuestro foco de atención, aclaramos, serán los partidos políticos, y no las grandes plataformas que también podrían realizar perfilados y ponerlos a disposición de partidos, organizaciones y candidatos. La problemática jurídica que deriva de la actuación de estos intermediarios se aleja de nuestro enfoque, y aconseja un análisis separado que no podemos abordar en este momento, tanto por la extensión limitada de nuestro estudio como porque la respuesta jurídica —a nuestro juicio— debe darse a nivel comunitario, cuestión que aún se está pergeñando en el marco de iniciativas recientes, como la propuesta del nuevo paquete digital europeo.

II. CAMPAÑAS ELECTORALES Y PERFILADO IDEOLÓGICO[Subir]

El perfilado ideológico se relaciona estrechamente con el microtargeting, y tiene como objetivo ganar en influencia estratégica e inclinar el voto de los electores. Supone el desarrollo de una serie de fases que incluyen la recolección de información personal de los votantes, con el objetivo de enviar mensajes personalizados (‍Zuiderveen et al., 2018: 82). El big data y la analítica avanzada de datos —se sostiene— permiten afinar en la perfilación de usuarios e incorporar incluso elementos o puntos de información obtenidos a partir de inferencias derivadas de puro poder computacional. El resultado, o al menos su reclamo públicamente anunciado, es alcanzar una elevadísima precisión al depurar audiencias de nicho. Esto permitiría, bien activar la base de votantes de un partido, bien personalizar mensajes para persuadir a votantes indecisos. También permitiría desactivar o desmotivar, con el mensaje adecuado, a la base electoral de partidos contendientes.

Estas promesas han llevado a sostener que, con la mediación de Cambridge Analytica, se manipuló el referéndum que llevó a la salida del Reino Unido de la UE, o que Donald Trump obtuviera la presidencia de Estados Unidos, simplificando buena parte de las complejas causas que explican ambos resultados.

No obstante, ni el microtargeting ni los intentos de segmentación de mensajes, resultan ajenos a las campañas electorales de los últimos lustros, si bien tejidas con mimbres más simples. La metodología que se aplica se ha desarrollado desde la ciencia y la comunicación política, incorporando técnicas de machine learning o deep learning testadas en el ámbito tecnológico-empresarial, añadiendo, así, grados de sofisticación y teórica efectividad respecto a la propaganda electoral generalizada. La acumulación masiva y la permeabilidad social respecto a la cesión de datos facilitarían este cambio cualitativo y derivarían en una ruptura respecto a la predicción tradicional basada en modelos diseñados a partir de variables generales.

El proceso de perfilado y microsegmentación de mensajes no está exento de complejidad, y requiere del desarrollo de tres fases. En primer lugar, la construcción de una infraestructura de datos con información de los posibles electores; en segundo término, un proceso de perfilado de usuarios y predicción basado en modelos estadísticos avanzados, y, finalmente, una fase centrada en la comunicación con los usuarios. Las dos primeras fases se centran en el target de los electores que interesan de cara a la campaña, y la última, en la intervención mediante el envío de mensajes específicos que animen o desactiven el voto. Como se ve, el proceso no se agota con el perfilado, aunque en España el debate político y jurídico, así como la repercusión mediática, se haya centrado sobre todo en este aspecto. Por otra parte, y a efectos de dimensionar y clarificar el impacto de las prácticas desarrolladas por Cambridge Analytica de cara a reformular o aquilatar marcos regulatorios futuros, destacaremos algunos aspectos patológicos de sus campañas al hilo de la explicación general.

1. Recolección de datos de naturaleza política (y algunos riesgos de vulneración de la normativa de protección de datos)[Subir]

La recolección de datos en las campañas electores responde a un proceso incremental. Esto es, se parte de bases de datos que se van actualizando a lo largo de distintas contiendas con miras a aumentar el conocimiento de los votantes. En algunos países, como Estados Unidos, el núcleo de las bases de datos lo constituye información pública, que se complementa con información comercial. En España, por el contrario, la Ley Orgánica 5/1985, de 19 de junio, del Régimen Electoral (LOREG), regula el acceso a los datos censales (art. 41.5), permitiendo a los candidatos proclamados obtener una copia del censo del distrito en un formato que admita tratamientos informáticos[2].

Desde el punto de vista de la protección de datos, la utilización de información pública no supone excesivos problemas, si bien no son extraños los conflictos durante el período electoral, como recuerda García Mahamut (‍2015: 314), aunque, al considerarse tratamiento de datos, se somete a los principios generales del RGPD y resto de regulación aplicable. Por otra parte, el acceso a este tipo de datos no aporta ninguna ventaja comparativa, puesto que todos los partidos, teóricamente, podrían tener acceso a ellos. En el caso de España, esto se debe a que la regulación electoral responde a un modelo de igualdad de oportunidades (‍Sánchez Muñoz, 2007: 23).

Distinto es el caso del enriquecimiento posterior de esos datos, bien se haga mediando cesión de los propios electores, bien recurriendo a empresas dedicadas a la intermediación en el mercado de datos. Aquí no es baladí señalar que, si el proceso deriva en tratamientos ilegales, las autoridades nacionales están habilitadas para imponer las sanciones correspondientes.

Ante la popularidad de las técnicas de big data, este proceso de recopilación y enriquecimiento de datos ha alcanzado niveles sin precedentes[3], con un elevado riesgo de vulneración de las regulaciones de protección de datos. En el caso de campañas como las de Cambridge Analytica, por la obtención ilegítima de datos no estructurados de Facebook, como demostraron las investigaciones desarrolladas en distintas jurisdicciones.

Esto, cabe señalar, fue también consecuencia de la ineficacia y vulnerabilidad del modelo de autorregulación defendido por los operadores dominantes del mercado de datos[4], construido sobre el paradigma del «Jardín Vallado». Conforme a este, el acceso a datos de usuarios se sujeta a restricciones definidas y solo se ofrecen de manera desagregada en el marco de acuerdos comerciales o se usan para la contratación de publicidad que gestiona la propia corporación.

No obstante, para sortear estas restricciones, a Cambridge Analytica le fue suficiente con recurrir a medidas de elusión de escasa complejidad. Para tales fines, le bastó con explotar abusivamente las cláusulas de apertura de datos cedidos con fines de investigación científica.

En el caso de las presidenciales americanas, recurrió a una empresa intermediaria especializada en estudios de mercado online (Qualtrics), que ofreció una pequeña retribución a usuarios a cambio de completar cuestionarios de personalidad vinculados al test OCEAN. Los participantes eran informados de que serían parte de un estudio científico, y debían acceder a los cuestionarios identificándose con sus cuentas de Facebook. Una vez que accedían se exigía el consentimiento para un tratamiento amplísimo de los datos, incluyendo los datos de su red de contactos. Con este ardid, consiguieron dos objetivos. Por una parte, generaron una base de datos con información psicográfica para hacer el perfilado ideológico, y, por otro, crearon un «semillero», que permitió escalar el número de puntos de información desde las poco más de 200 000 personas que respondieron a los cuestionarios hasta los 30 millones de usuarios.

Poca argumentación exige señalar que esta estratagema supuso una meridiana vulneración de la normativa de protección de datos con independencia del prisma jurisdiccional con el que se enfoque. Por tanto, conviene recordar que estamos ante un supuesto patológico que, si bien invita a tomar medidas regulatorias para aquilatar el marco normativo, no debe tomarse como el estándar habitual del proceso de recolección de datos en las contiendas electorales europeas, ni el paradigma que justifique una estridente y obturante regulación.

2. Perfilado y microsegmentación electoral. El big data y la analítica avanzada. ¿Armas de destrucción matemática? Y psicografía[Subir]

La siguiente fase se centra directamente en el tratamiento de los datos. Supone utilizar la base de datos para construir un modelo de predicción del comportamiento y preferencias políticas de los electores, extrayendo inferencias a partir de los datos recopilados. En esta fase, se busca clasificar o agrupar a los individuos en un punto concreto del espectro político, a partir de características comunes. Para ello se utilizan scores que arrojan una probabilidad, pero que no están exentas de errores (falsos positivos o negativos).

Cabe señalar que el perfilado o segmentación de electores no es especialmente novedoso en el ámbito político. La disrupción de las campañas recientes radica en la predicción de preferencias de voto a partir de modelos estadísticos mucho más complejos. No se excluyen modelos estadísticos generalizados, pero se complementan con técnicas y algoritmos, como el clustering, que permite afinar clasificaciones a partir de características no evidentes, resultado de poder algorítmico.

Parte de la información de los electores se puede inferir de su huella digital, especialmente de datos depositados en redes sociales (likes en Facebook, retuits de Twitter, etc.), pero también de informaciones más asépticas que pueden correlacionarse con preferencias políticas mediante la construcción de modelos complejos. Es decir, a partir de manifestaciones sin inmediato contenido político sería posible extraer información latente, correlacionarla con la de usuarios de características similares, e inferir preferencias de naturaleza política o el espectro político con el que más simpatizan (‍Kosinski et al., 2013: 5802-‍5805), eludiendo las restricciones del RGPD respecto a datos sensibles. Esto es un aspecto controvertido que exige ciertas cautelas.

Por otra parte, retomando el caso de Cambridge Analytica, un aspecto que merece mención es la incorporación en su modelo predictivo de técnicas psicográficas. Estos análisis parten de una aproximación psicológica de la personalidad a partir del test OCEAN[5]. Este test reduce los rasgos de la personalidad en cinco dimensiones básicas universales (denominadas «cinco grandes»): apertura, responsabilidad, extraversión, amabilidad y neuroticismo o inestabilidad emocional. A partir de estos rasgos, y una serie de elementos definitorios (adjetivos, facetas y escalas), pueden realizarse análisis de personalidad mediante cuestionarios validados.

Ahora, aunque la psicografía se vale de fundamentos y conceptos asentados de la psicología, es ante todo una técnica de segmentación de mercados implementada en el campo del marketing. Su fin es analizar estos rasgos de la personalidad, para, posteriormente, enriquecerlos con puntos de información que reflejen estilos de vida y valores. Se pretende entender las razones que motivan a los consumidores a adquirir determinados productos o servicios, así como los mecanismos que desencadenan estas decisiones. Por tanto, resulta tan importante identificar y segmentar a los consumidores o usuarios como diseñar un mensaje que apele a rasgos de personalidad que les movilicen.

Bajo este prisma, y en lo que a nosotros refiere, las decisiones de voto de los ciudadanos podrían teóricamente correlacionarse con su estilo de vida, valores y ciertos rasgos de personalidad, y utilizarse para persuadir el sentido de su voto. Su efectividad radicaría en valerse de los rasgos predominantes de la personalidad para persuadir a grupos de ciudadanos mediante mensajes microsegmentados que activen su mecanismo de decisión electoral.

Ahora bien, hay que señalar que el método que subyace a este proceso de perfilado nace de la propia red social, que desarrolló y patentó una metodología predictiva basada en las interacciones de sus usuarios[6]. Kosinski et al. (‍2013: 5805) lo descubrieron y asociaron a la huella digital de Facebook, con miras a inferir rasgos de personalidad y correlacionarlos con opiniones políticas, religión u orientación sexual. Sobre estos cimientos, Cambridge Analytica completó su ardid.

Como se señaló, del proceso de recopilación de datos se obtenían los resultados de los test psicológicos de 200 000 voluntarios, y la información de Facebook para enriquecer los datos psicográficos y desarrollar su modelo predictivo. De los terceros que formaban parte de la red de contactos de los voluntarios obtenían datos de identificación, demográficos, y, más importante aún, información para realizar inferencias psicográficas, como likes de mensajes, personajes públicos, marcas o programas de televisión de interés.

El modelo predictivo correlacionaba rasgos de personalidad e inclinaciones políticas, extrayendo scores de personalidad vinculadas a los denominados cinco grandes. Con base en estas scores de personalidad, se procedía a su agrupación y microsegmentación, y se decidía sobre su intervención en la fase siguiente del proceso.

3. Intervención mediante microsegmentación de mensajes. Personalización de la política y riesgo de desinformación[Subir]

Obtenido el perfilado ideológico, se procede a la intervención. En esta fase, se diseñan mensajes que se adapten a las preocupaciones o rasgos dominantes, y se envían mensajes —teóricamente— muy afinados para influir en los electores. Estos mensajes estarían vinculados a temas de especial interés o preocupación para cada nicho específico. Resulta obvio señalar que aquí jugará un papel importante el contexto político y social, así como las limitaciones que impongan las regulaciones electorales.

Ahora bien, realizar microtargeting para grupos electorales no es novedoso. No obstante, realizar el proceso de perfilado correlacionando scores de personalidad obtenidas a partir de información extremadamente heterogénea, obtenida ilegítimamente con total desprecio a las restricciones del modelo autorregulador de Facebook y las normativas occidentales de protección de datos, con el fin de enviar mensajes microsegmentados que se han calificado como desinformación descarnada y sistemática, parece ser mérito atribuible a Cambridge Analytica.

En este sentido, una vez identificados y microsegmentados los votantes, se seleccionaban temas por los que mostraran especial sensibilidad (inmigración, control de armas, sanidad, etc.). Se diseñaban mensajes que encajaran con los rasgos de personalidad predominantes y se enviaban a través de Facebook, en no pocas ocasiones mediante los denominados dark post. Este tipo de publicaciones permanecían ocultas para el resto de usuarios no segmentados, y no se registraban en las páginas de Facebook de los anunciantes, por lo que se minimizaba la transparencia, así como cualquier posibilidad de debatir acerca de su veracidad.

Respecto a la aplicación de técnicas psicográficas en el diseño de mensajes, algunas pistas pueden rastrearse en internet. El quid radicaría en identificar rasgos de personalidad dominantes o extremos, que inclinaran o activaran el proceso de decisión electoral. Recogiendo la explicación del director general de CA, Alexander Nix, los perfiles con elevado grado de neuroticismo y responsabilidad responderían mejor a mensajes racionales que exploten el miedo. Aquellos con un bajo factor O (apertura a nuevas experiencias), pero elevado factor A (amabilidad), serían más receptivos a mensajes centrados en la familia y en las tradiciones. Así, para promover el derecho a poseer armas —tema central de las campañas norteamericanas—, en el primer caso, el mensaje se centraría en la imagen de un criminal irrumpiendo en la propiedad de un ciudadano y la protección que ofrecen para defender a su familia. En el segundo caso, el mensaje buscaría explotar la tradición —arraigada en algunos países— de los padres que enseñan a sus hijos a disparar desde edades tempranas, considerándolo un medio para transmitir valores relacionados con la libertad o la disciplina.

Finalmente, en el marco de algunos procesos electorales también se llevaron a cabo campañas de desinformación. No obstante, parece razonable sostener que ambos procesos no están ni deben considerarse, necesariamente, relacionados. Esto es, pueden utilizarse mensajes con información cierta diseñados a partir de la explotación de rasgos de personalidad para mejorar su efectividad y contribuir a diluir la ola de permanente infoxicación a la que estamos sometidos. También pueden ser resultado de estrategias dirigidas a manipular la información que reciben los usuarios y poner en riesgo el funcionamiento de la sociedad democrática. Ambos fenómenos no deben confundirse, y su tratamiento jurídico debe ser independiente.

III. LA RESPUESTA JURÍDICA AL PERFILADO IDEOLÓGICO DESDE EL DERECHO FUNDAMENTAL A LA PROTECCIÓN DE DATOS[Subir]

Como es sabido, la protección de datos está sometida a una doble regulación. Por una parte, el Reglamento General de Protección de Datos (RGPD), que configura el marco común a nivel comunitario, y la Ley Orgánica 3/2018, de 5 de diciembre, de Protección de Datos Personales y Garantía de los Derechos Digitales (LOPDGDD), con eficacia interna. Como ha recordado el TC, en la Sentencia 76/2019, de 22 de mayo, ambas «configuran conjuntamente, de forma directa o supletoria, el desarrollo del derecho fundamental a la protección de datos que exigen los arts. 18.4 y 81.1 CE» (FJ 3).

La regulación del perfilado ideológico no está exenta de esta dinámica normativa. Poco cabe añadir respecto a la eficacia directa del Reglamento General de Protección de Datos, o las interacciones entre ambos dispositivos, aspectos que exceden los objetivos de este trabajo[7].

1. La inacabada regulación comunitaria del perfilado ideológico[Subir]

La norma comunitaria no reguló de manera exhaustiva el perfilado ideológico, aunque sí estableció el marco general del perfilado. Tampoco lo prohibió expresamente, y dejó en manos del legislador interno determinar si esta figura exigía un marco específico, así como las condiciones admisibles para su aplicación. El RGPD se encargó, principalmente, de lo referente a la exigencia de base jurídica para la recopilación y tratamiento, y de resolver ausencias normativas internas.

Dicho esto, y como punto de partida, la recopilación y tratamiento de datos personales por partidos, asociaciones políticas y similares está sujeta a la normativa comunitaria[8], como también a los límites establecidos por la CE y la regulación interna de protección de datos. Esto es así porque la definición de datos personales que recoge el RGPD —y que asume el legislador nacional— es amplia y con intención de omnicomprensividad[9]. Abarca cualquier tipo de información que identifique o permita identificar a una persona física (art. 4.1).

El perfilado y la microsegmentación electoral encajan en esta definición, y alcanza también —al menos, desde nuestra opinión— la información inferida acerca de preferencias políticas recurriendo a técnicas de analítica avanzada (e. g., machine learning o deep learning). Además, esta actividad supone recopilación y tratamiento de datos de categorías especiales[10], por lo que se somete a cautelas y salvaguardas adicionales que reflejan un estándar de protección más elevado, ex art. 9 RGPD.

Cabe enfatizar que el reglamento comunitario no proscribe la recopilación ni el tratamiento de datos personales de naturaleza política realizados por partidos o asociaciones políticas, aunque los somete a un régimen particular que extrema las salvaguardas y garantías. En este sentido, establece una excepción a la prohibición general de tratamiento de datos de categorías especiales (considerando 56 RGPD), pero que vincula a una necesidad exigible para el funcionamiento del sistema democrático, sujeta, además, a autorización normativa de los Estados miembros[11].

El refuerzo garantista también se refleja en la aplicación más estricta del marco normativo general y su interpretación restrictiva. Así ocurre, por ejemplo, respecto a la aplicación de principios como el de limitación en la finalidad, que acota los usos ulteriores y, además, eleva el examen del estándar de compatibilidad[12].

Por otra parte, la recopilación y el tratamiento deben radicarse necesariamente en una base jurídica legítima que respete los principios de necesidad y proporcionalidad[13], tal como exige el art. 8 del CEDH. No obstante, esta restricción puede levantarse si se otorga consentimiento del afectado. También encontrarían cobijo en el cumplimiento de una misión legal o si se sustentan en razones de interés público, siempre que esto sea establecido en una norma jurídica que igualmente se ajuste a los señalados principios de necesidad y proporcionalidad. De las bases jurídicas recogidas en el art. 6 RGPD, razonablemente puede concluirse que solo resultan admisibles el tratamiento con fines de perfilado ideológico basado en el consentimiento de los electores, o que se justifique en un tratamiento necesario para la realización de una misión de interés público.

En relación con el consentimiento[14], dos aspectos problemáticos reducen su aplicación por razones jurídicas y prácticas. Así, el art. 9.2.a exige que el consentimiento sea específico para el tratamiento de datos de categorías especiales, comunicando, además, los fines concretos (‍Voigt y Von dem Bussche, 2017: 112). Parece razonable sostener que los ciudadanos, previsiblemente, rechazarían otorgar su consentimiento para tratamientos tan profundos e intrusivos que afecten a datos ideológicos. A esto hay que sumar que el legislador nacional ha optado por no levantar la prohibición del tratamiento de datos de categorías especiales basado exclusivamente en el consentimiento del interesado para este tipo de supuestos (art. 9.1 LOPDGDD), cuestión que, además, exige cobertura en alguno de los supuestos del art. 9.2 RGPD.

Entendemos que el rechazo a levantar la prohibición obedece a que hacerlo supondría introducir riesgos excesivos para los afectados del tratamiento. También porque podrían derivarse problemas de legitimidad o incluso llegar a cuestionarse si el consentimiento se ha otorgado libremente, como exige el art. 7.4 RGPD. Tal sería el caso si el tratamiento excediera los datos necesarios, especialmente en supuestos de tratamientos realizados por intermediarios[15]. Esto explica también que la LOPDGDD, finalmente, intentara refugiar la habilitación del perfilado ideológico en la existencia de una necesaria misión de interés público, como veremos seguidamente.

2. La inconstitucional regulación del perfilado ideológico en la reforma de la LOREG[Subir]

Como hemos señalado, la base jurídica admisible para que el legislador orgánico regulara el perfilado ideológico solo podría justificarse en la existencia de una misión de interés público. Esta base jurídica la recoge el art. 9.2.g RGPD. El interés público al que hace referencia ha de conectarse con la previsión del considerando 56 del propio Reglamento, esto es, el funcionamiento del Estado democrático puede exigir que se recopilen y traten datos relacionados con opiniones políticas, aunque sujetos a restricciones y salvaguardas.

Lo dicho exige, por una parte, la mediación de una norma jurídica que concrete las circunstancias y justificaciones del interés público invocado (‍García Sanz, 2019: 136), extremo al que pretendía darse cumplimiento con la reforma de la LOREG, como veremos seguidamente. Por otra, que esa norma determine, con garantías adecuadas y suficientes, el marco en el que se podría realizar el tratamiento. Entre otros aspectos, la justificación del tratamiento excepcional, el arco temporal en que se admite, los sujetos autorizados y posibles límites[16].

La justificación de lo que podría considerarse necesario para el «funcionamiento del sistema democrático» se relaciona con la identificación y formación de la voluntad popular (‍García Sanz, 2019: 154). Esta formación de la voluntad popular requiere, a efectos de nuestro ámbito, la mediación de los partidos, que podrían tratar los datos de manera directa o bien encargando su tratamiento, siempre que hayan presentado candidaturas y participen en la contienda electoral.

Temporalmente se circunscriben a las actividades electorales mediante actos de campaña electorales dirigidos a la captación de votos, y en el período habilitado a tales efectos en aplicación de la LOREG. Respecto a esto último, cabe recordar, con García Mahamut (‍2015: 312), que en el caso español la legislación electoral no define ni regula todos los medios utilizados en campañas electorales. El perfilado ideológico es uno de los que se encontraban ayunos de regulación, pero que se intentó normar mediante la reforma de la LOREG recogida por la disposición final tercera de la LOPDGDD[17].

Aunque la propuesta recogía como motivación evitar casos como el de Cambridge Analytica, la redacción inicial legitimaba ampliamente el tratamiento de opiniones políticas por parte de los partidos. Además, admitía la elaboración sistemática y exhaustiva de perfiles electorales, así como el envío de propaganda mediante microsegmentación. Debido a que la propuesta soliviantó a parte de los grupos políticos de la Cámara, así como a la opinión pública, fue edulcorada recogiéndose en los términos del art. 58.bis de la LOREG. No obstante, la redacción final de manera excesivamente laxa consideraba amparada en interés público la recopilación y tratamiento de cualesquiera datos relativos a opiniones políticas realizadas por partidos políticos siempre que se hiciera en el marco de actividades electorales (art. 58.bis.1).

Una vez aprobada, el artículo fue objeto de recurso de inconstitucionalidad promovido por el Defensor del Pueblo. Los argumentos del recurrente se centraron especialmente en que las técnicas de perfilado o microtargeting plantean riesgos ineludibles. En propias palabras del defensor, «la posibilidad, o más bien la certeza como acredita el todavía reciente asunto de Cambridge Analytica, de la utilización de estas técnicas para modular, cuando no manipular, opiniones políticas evidencia la necesidad de que las garantías normativas y las limitaciones legales sean contundentes, precisas y efectivas» (recurso del Defensor del Pueblo, FJ 1).

Pese a lo que comentaremos posteriormente, compartimos la preocupación del alto comisionado de las Cortes, así como la apremiante necesidad de un marco regulatorio efectivo, aunque ajustándolo a las posibilidades reales de la tecnología, que alcance a todos los actores responsables y sin obturar su desarrollo irrazonablemente.

El recurso sostiene, entre otros argumentos, la vulneración del contenido esencial del derecho a la protección de datos personales (art. 18.4), en conexión con el derecho a la libertad ideológica (art. 16) y el derecho a la participación política (art. 23.1), debido a que el legislador nacional hacía referencias a la recopilación de datos sujetos a garantías adecuadas, pero con dejación de la mínima concreción exigida por la doctrina pacífica y lineal del Tribunal Constitucional. La ausencia de desarrollo supondría la vulneración del contenido esencial del derecho a la protección de datos, y las exigencias propias de la reserva de ley, al estar constreñido un derecho fundamental.

Para el Defensor, la libertad ideológica también se vería vulnerada, dado que el perfilado puede suponer la inferencia de preferencias políticas. De ahí que considerara que la norma lo afectaba en su vertiente negativa (FJ 5); y un razonamiento similar mantiene respecto al art. 23 CE. La participación política deriva en la elección libre de los representantes de los electores, y esta libre elección «difícilmente puede darse en el entorno tecnológico en el que las modernas técnicas de análisis de conducta sobre la base del tratamiento masivo de datos y la inteligencia artificial permiten procedimientos complejos orientados a modificar, forzar o desviar la voluntad de los electores y sin que estos sean conscientes de ello» (FJ 6). Este cambio tecnológico, por tanto, justificaría modificar la doctrina restrictiva del Tribunal acerca de la manipulación electoral, y declarar la inconstitucionalidad de la norma, al afectar en su vertiente negativa el derecho a la participación política.

Aunque discrepamos con parte de los razonamientos sostenidos por el Defensor del Pueblo, que admiten ciertas matizaciones, no cabe duda de que las razones son de suficiente gravedad para ameritar su revisión por el máximo tribunal, que admitió el recurso a trámite y lo resolvió declarando la inconstitucionalidad parcial de la norma.

El alto tribunal centró la controversia en liza en la vulneración del derecho fundamental a la protección de datos personales y en la reserva de ley, ante la renuncia del legislador a completar el marco normativo.

Entendemos que, por exceder su misión, el Tribunal no se pronuncia sobre la legalidad del perfilado ideológico o la microsegmentación, como tampoco lo hace respecto a las garantías adecuadas para dar cumplimiento al canon de constitucionalidad. Tampoco se pronuncia completamente acerca de las justificaciones admisibles en atención a la especial posición de los partidos políticos, que tanto la CE como la propia la doctrina del TC reconocen.

Se trata de cuestiones que merecen cierta atención, y respecto a las que realizaremos algunas reflexiones en los apartados siguientes.

IV. ACERCA DE LA ADMISIBILIDAD DEL PERFILADO IDEOLÓGICO EN EL MARCO DEL ESTADO DE PARTIDOS[Subir]

La admisibilidad del perfilado ideológico exige el análisis de algunas aristas. Así, debemos reflexionar acerca de justificaciones que pudieran resistir el canon de constitucionalidad, sin descuidar la peculiaridad de los partidos políticos, a los que la propia Constitución encarga funciones vinculadas al correcto funcionamiento del sistema democrático.

Por otra parte, la restricción del derecho fundamental a la protección de datos exige la intermediación de fines particulares de entidad suficiente. En este sentido, la STC 76/2019, de 22 de mayo, constata como la dejación del legislador impidió examen alguno de constitucionalidad sobre este aspecto. Pero también hay que considerar entre las coordenadas de valoración que el Tribunal no rechaza expresamente, ni de la letra o sentido de la sentencia puede extraerse una prohibición absoluta del perfilado ideológico. Más aún para el Tribunal, la sentencia no puede llevar a sospechar que una restricción del derecho a la protección de datos como la analizada persiga una finalidad per se inconstitucional, o que la recopilación y el tratamiento de los datos con contenido político supongan siempre una lesión de los derechos de los particulares (FJ 7).

De ahí que exista margen para reflexionar sobre el papel y los riesgos del perfilado y la microsegmentación de mensajes, aparejándolos a las funciones que corresponden a los partidos en el marco del Estado democrático.

La regulación de los partidos políticos, así como el especial papel que atribuye la propia constitución en su art. 6, ha sido objeto de estudio por la doctrina (‍Martínez Cuevas, 2006; ‍Presno Linera, 2000; ‍Morodo Leoncio y Murillo de la Cueva, 1996), y depurada por la jurisprudencia del Tribunal Constitucional, por lo que poco cabe añadir. Se les reconoce naturaleza asociativa y, por tanto, están amparados por el art. 22 CE (STC 85/1986, de 25 de junio, FJ 2; STC 26/1995, de 6 de marzo, FJ 3), aunque con matizaciones y bajo un régimen constitucional específico que desarrolla el legislador orgánico (‍Gómez Montoro, 2004: 127). Estas matizaciones, que se explican por su carácter instrumental al servicio de la democracia, enervan el alcance de su libertad de autoorganización y les someten a principios democráticos (STC 56/1995, de 6 de marzo, FJ 3), pero también les confieren una especial posición, dados los cometidos atribuidos en el Estado de partidos[18].

La jurisprudencia del Tribunal Constitucional reconoce su especial relevancia constitucional (STC 18/1984, de 7 de febrero, FJ 3), que asimila a una cierta función pública a la que anuda no solo limitaciones, sino también determinados privilegios (STC 3/1981, de 2 de febrero, FJ 2). Estas funciones, de clara trascendencia política, las apuntala con el máximo rango el art. 6 CE: expresión del pluralismo político, concurrencia en la formación y manifestación de la voluntad popular, e instrumento de participación política, en perfecta sintonía con las que recoge el Consejo de Europa y la Comisión de Venecia[19].

La proyección práctica y trascendental de estas funciones en el ejercicio democrático fue tempranamente recogida por la mejor doctrina. Como señala García-Pelayo (‍1986: 74), es menester la mediación de los partidos políticos para actualizar los principios democráticos. Representan un cauce idóneo para garantizar la manifestación de la voluntad ciudadana y, en definitiva, la democracia en las condiciones actuales.

En este sentido, ejercen un importante rol de movilización del electorado (Blais, 2008: 17-‍21), que puede encontrar conexión con el perfilado ideológico. Desde esta perspectiva, la microsegmentación electoral puede resultar positiva para el sistema democrático en la medida que incrementaría la competencia electoral, estimulando, a la vez, la participación electoral, o, al menos, contribuyendo a reducir la apatía de los votantes. Encontramos aquí una primera justificación que apoyaría la admisión del perfilado ideológico, siempre sujeta a garantías adecuadas, como exige la jurisprudencia del TC y el Tribunal de Estrasburgo.

Por otra parte, la racionalidad democrática exige que los electores dispongan de información para ejercer el derecho al sufragio activo. Aunque los efectos de la comunicación política en el voto se siguen discutiendo, en las democracias occidentales se espera que los partidos políticos contribuyan con los medios de comunicación a poner en disposición de los electores información sobre los asuntos públicos, así como su oferta de soluciones o alternativas legítimas. En el mercado político de ideas, a los partidos corresponde simplificar los complejos problemas sociales y exponerlos a la población, aunque, generalmente, los orienten hacia su electorado preponderante (‍García-Pelayo, 1986: 80). Este rol es un instrumento más para garantizar el pluralismo político, así como cauce necesario para concurrir en la formación y manifestación de la voluntad ciudadana. Nuevamente, el perfilado puede contribuir a alcanzar estos fines legítimos, al agregar la información que resulta de interés para los electores y reducir el ruido que produce el aturdimiento informativo contemporáneo.

Un aspecto más rico en matices, y que requiere mayor reflexión, es el atinente a la microsegmentación de mensajes. De partida, asumimos que esta microsegmentación no debe per se considerarse siempre perniciosa para la democracia, a pesar de que el discurso generalizado haya recalado en señalar algunos efectos perversos que, como es obvio, no desdeñamos. No obstante, desde una perspectiva objetiva, la segmentación de votantes y, en consecuencia, el envío de mensajes ajustados a sus intereses en un entorno de extremo ruido mediático pueden ofrecer algunas ventajas cuya utilidad puede valorarse con miras a aquilatar el siempre criticado sistema democrático, así como el rol de medios de comunicación y partidos políticos en la transmisión de información valiosa para los electores. Esta información puede servir de acicate para movilizar a los votantes, para informarles acerca de sus preferencias electorales y programas de los partidos, y, en consecuencia, para tomar decisiones electorales informadas.

Desde esta perspectiva, la microsegmentación de los mensajes puede amplificar efectos positivos (‍Zuiderveen et al., 2018: 85). En primer lugar, permite enviar mensajes de la agenda política que puedan resultar de mayor interés para cada segmento de votantes. Los electores pueden verse animados a informarse y participar en el proceso electoral contando con mayor información disponible (‍Hall Jamieson, 2013: 429), lo que podría ser de especial interés de cara a votantes con claro desinterés político o que los medios de comunicación tradicionales no alcanzan.

Aunado a esto, la microsegmentación puede suponer una ventaja para ganar en diversidad en el mercado electoral de ideas (‍Zuiderveen et al., 2018: 86). Como es sabido, tanto los partidos políticos como los electores cuentan con una capacidad limitada para exponer y explorar sus propuestas. Los partidos presentan programas acotados que recogen la mayor cantidad de intereses y preocupaciones de los votantes, pero con un tratamiento muy limitado. Por su parte, los votantes deciden su elección admitiendo esas asimetrías informativas, incluso respecto a temas que les afectan de manera sensible. Bajo el paraguas de los medios tradicionales, no es posible amplificar el discurso y establecer diálogos de tópicos relevantes para un número reducido de votantes. La microsegmentación, sumada a la ubicuidad de los medios y redes online, permite superar estas limitaciones.

Por tanto, la microsegmentación acompasando las legítimas funciones de los partidos políticos vertería ventajas para el proceso democrático y contribuiría también a facilitar la información a la que acceden los electores en el mercado de las ideas, y, en último término, fomentaría la pluralidad y el diálogo democrático.

En sentido opuesto, no obstante, deben reconocerse las posibles patologías que se le asocian y que no resultan fútiles. Así, en primer lugar, el microtargeting puede contribuir a la manipulación electoral[20]. Este ha sido el reclamo que ha seguido al caso Cambridge Analytica, y el argumento central del recurso de inconstitucionalidad del Defensor del Pueblo. Si a esto sumamos la posibilidad de minimizar la transparencia y el debate, ocultando las publicaciones valiéndose de medios subrepticios que ofrecen las propias corporaciones tecnológicas del mercado de datos (e. g., dark post de Facebook), la posibilidad de rebatir la veracidad de los contenidos y el debate democrático se desvanece. La propia dinámica de los medios y redes online no solo permite que este tipo de campañas se desarrollen por los partidos, sino también por terceros simpatizantes, con la anuencia o desconocimiento de las organizaciones políticas (‍Hall Jamieson, 2013: 431-‍432). Esto contribuye no solo a diluir las restricciones financieras impuestas por la normativa electoral, sino que, además, permite de facto el sostenimiento de campañas paralelas que pueden dirigirse desde fuera de la propia circunscripción.

Por otra parte, plantea el riesgo de agudizar infrarrepresentaciones existentes[21] o ilegítimos redlining[22] de grupos electorales, al propiciar un marco de maximización del análisis economicista del voto (‍Barocas, 2012: 33); y deriva en la excesiva fragmentación del mensaje electoral, llevando a confusión o sobredimensionando la percepción de los electores respecto a la importancia de determinados temas, perdiéndose el panorama general y el complejo juego de compromisos electorales que asumen los partidos políticos, especialmente en regímenes parlamentarios.

Finalmente, la microsegmentación de mensajes también puede generar desinformación, polarización del electorado o propagación de discursos contrarios a los valores democráticos. La desinformación, como ha destacado la Comisión Europea, no solo promueve ideas radicales o extremistas, sino que erosiona la confianza de los ciudadanos en las instituciones y en los medios de comunicación, perjudicando en el camino la democracia, al obstaculizar su capacidad de tomar decisiones informadas[23].

No obstante, desde el plano regulatorio, cabe destacar que el problema de la manipulación y la desinformación no se agota en la protección de datos[24]. La acertada propuesta regulatoria de la UE pasa por promover medidas dirigidas a fomentar la transparencia y la rendición de cuentas en el ecosistema informativo, pero sin comprometer la libertad de expresión ni dar pie a injerencias inadmisibles de naturaleza política que afecten a las libertades informativa, de expresión o ideológica, o reduzcan la libertad y pluralismo de los medios de comunicación[25], y, en definitiva, supongan el riesgo de permear la censura de contenidos.

En resumen, el microtargeting puede reforzar la movilización electoral y facilitar que los electores tomen decisiones informadas[26], pero, al mismo tiempo, genera riesgos de manipulación, desinformación y pérdida de transparencia que pueden afectar a la salud del sistema democrático. En descargo se señala que las críticas parten de reducir la capacidad de los ciudadanos para contrastar información, así como evitar voluntariamente su exposición a la información —por ejemplo—, no accediendo o bloqueando la información recibida. En otras palabras, asumen un impacto decisivo de las burbujas de información[27], cuestionadas, como veremos más adelante.

Aunque nos veamos inclinados a proponer la regulación del perfilado ideológico, bajo la sujeción de garantías como las que comentaremos posteriormente, la valoración última de sus riesgos y ventajas corresponde al legislador, como depositario de la voluntad popular, que debe aquilatarlo eligiendo, además, entre un modelo en el que preponderen, bien la neutralidad del Estado y la menor interferencia sobre el mercado de ideas, bien la democracia militante, que no es extraña a la tradición europea y se ha ensayado en otros ámbitos con los que existen ciertos puntos de conexión[28]. La prisa por introducir la regulación mediante la fórmula elegida por el legislador orgánico privó a la figura de un debate saludable con miras a regular, o en su caso proscribir, el perfilado ideológico y conjurar el imparable reto que la vigente y absoluta orfandad regulatoria no puede contener.

V. APROXIMACIÓN A GARANTÍAS Y SALVAGUARDAS QUE REDUZCAN LOS RIESGOS DEL PERFILADO IDEOLÓGICO CON MIRAS A PROTEGER EL DERECHO FUNDAMENTAL A LA PROTECCIÓN DE DATOS[Subir]

El Tribunal Constitucional ha establecido que, incluso ante supuestos de recopilación y tratamiento que cuenten con base jurídica y cobijo en fines legítimos, es menester la mediación de garantías adecuadas que reduzcan o mitiguen los efectos intrusivos sobre el derecho a la protección de datos. La presencia de estas garantías, que derivan del Convenio 108, como depositario común de los valores fundamentales de los miembros del Consejo de Europa (STC 254/1993, de 20 de julio, FJ 4), son requisito necesario para la adecuada protección del derecho y su reconocimiento e identidad constitucional (STC 292/2000, de 30 de noviembre, FJ 10). Su no previsión o adopción equivale llanamente a la vulneración del derecho (STC 143/1994, de 9 de mayo de 1994, FJ 7), al constituir una injerencia, de similar gravedad a la que causarían intromisiones ilegítimas en su contenido esencial (STC 76/2019, de 22 de mayo, FJ 6).

La propia sentencia del Tribunal Constitucional relativa al perfilado ideológico dibuja las líneas que debe atender el legislador a efectos de no vulnerar la reserva de ley. Aunque reconoce que la solución que adopte el legislador no sería definitiva, y parece admitir la incorporación de una cláusula de adaptación para responder a riesgos no previsibles, recoge algunos lineamientos aplicables a todos los supuestos. A efectos de nuestro estudio, solo nos resulta de especial interés hacer referencia a la naturaleza de los datos, por una parte, y, por otra, abordar —así sea someramente— posibles medidas que, al menos a título ejemplificativo o especulativo, pudieran conjurar riesgos de abusos o el ilícito tratamiento que preocupan al alto tribunal, en atención a que estamos ante un supuesto que podría derivar en tratamientos a gran escala de categorías especiales de datos, así como un riesgo importante para los derechos fundamentales.

Respecto a lo primero, el perfilado y la microsegmentación electorales llevan de suyo el tratamiento de datos que el RGPD califica como categorías especiales, y que exige cautelas y salvaguardas adicionales de conformidad con su art. 9. Precisan adoptar un estándar de protección más elevado, puesto que comprenden datos especialmente sensibles para los afectados, y cuyo tratamiento podría suponer un riesgo para sus derechos y libertades fundamentales (considerando 50 RGPD). Se incluyen, entre otros, datos que revelen el origen étnico o racial, convicciones religiosas o filosóficas, opiniones políticas o de afiliación sindical, datos relativos a la salud, y aquellos relativos a orientaciones sexuales.

Al perfilado ideológico le son inherentes la recopilación y el tratamiento de datos de naturaleza política, bien sea por registrar manifestaciones directas de los electores, bien por obtenerlos mediante las problemáticas técnicas de machine learning o deep learning, que permiten extraer inferencias acerca de inclinaciones políticas. En cualquier caso, la consecuencia es la misma, la obligación de recoger medidas que supongan un plus de protección, dada la gravedad de los riesgos y afectaciones ante tratamientos ilegítimos.

La cuestión se centra, por tanto, en la adecuación de las medidas y salvaguardas, que debía establecer a modo de muro de contención el legislador nacional, tal como exige el RGPD para los Estados que hagan uso del margen de apreciación recogido en el art. 9.2.g al levantar la prohibición de tratamiento de categorías especiales.

Como hemos mencionado, la reforma de la LOREG no se detuvo a dar cumplimiento a este extremo, lo que dio pie al Tribunal Constitucional para declarar la inconstitucionalidad del art. 58.bis.1. No obstante, el regulador español de protección de datos se pronunció sobre las salvaguardas admisibles en la Circular 1/2019, que está en sintonía con la interpretación sistemática del RGPD, y, en particular, de las exigencias del art. 9.2.g. También se pueden extraer criterios y algunas medidas del Código de Buenas Prácticas para Proyectos Big Data (‍AEPD, 2017), adoptado también por el regulador interno, y que podría resultar aplicable por cercanía en cuanto a técnicas y riesgos.

Así pues, y con ánimo meramente propositivo, sujeto a los límites que admite este trabajo, las mínimas medidas exigibles deberían partir de incorporar la privacidad desde el diseño, ya recogido por el art. 25 RGPD. Este principio se traduce en una serie de prácticas dirigidas a todos los participantes en la recopilación y tratamiento de los datos, que, en definitiva, reducirían los riesgos para la privacidad y la consecuente vulneración del derecho a la protección de datos[29]. De manera concreta, la circular de la AEPD exige que se adopten medidas técnicas y de organización, tanto en el momento del tratamiento como en fases anteriores, como sería la decisión respecto a los medios que utilizar para desarrollarlo.

Más allá de lo previsto por el regulador nacional (pseudonimización, agregación, etc.), puede acudirse también a la división de controles de seguridad que se han depurado en las ciencias informáticas y recoge, entre otras, la norma ISO 27002. Esta alude a controles de carácter físico (para, e. g., evitar el acceso indiscriminado a dispositivos con información sensible), o controles de carácter técnico, que admiten un nutrido grupo de técnicas como el encriptado, el uso de tarjetas inteligentes, listas de control, etc. También contribuirían a aquilatar la protección de los datos y la reducción de riesgos, medidas relacionadas con la seguridad lógica de los dispositivos y la información sensible, dentro de lo que podrían incluirse, especialmente, aquellas dirigidas a restringir la accesibilidad de la información[30].

Por otra parte, además de las mínimas obligaciones exigibles relacionadas con el nombramiento de un delegado de protección de datos (art. 37 RGPD) y el registro de actividades de tratamiento (art. 30 RGPD), sería imprescindible exigir la realización de una evaluación de impacto en la protección de datos, en atención al art. 35 RGPD. En este sentido, el modelo europeo de protección de datos adopta un enfoque basado en el análisis y mitigación del riesgo residual que admite la adopción de medidas compensatorias (‍AEPD, 2018). Dada la posible gravedad de los riesgos y consecuencias para los ciudadanos afectados, parece razonable elevar el estándar de protección y exigir de manera preceptiva y vinculante consulta ante el regulador interno a efectos de verificar si el tratamiento y las medidas adoptadas son suficientes, restringiendo la recopilación y el tratamiento a la obtención de respuesta favorable.

Si se obtuvieran datos de terceros, y en atención a casos como los comentados, es razonable exigir garantías adicionales respecto a que los datos utilizados cumplan con la normativa de protección de datos y, en particular, con el principio de licitud, que derivaría en la comprobación de que se cuenta y documenta con una base de legitimación ajustada a derecho. También ejerce una función garantista la suscripción de un contrato, atendiendo las previsiones del art. 28.3 RGPD, en caso de que el tratamiento se externalizara en un encargado de tratamiento.

Una mención, así sea somera, merece el ámbito temporal de aplicación de las medidas. Así, y siguiendo la referida circular de la AEPD, el nombramiento del delegado de protección de datos, la evaluación de impacto, las consultas a las agencias de protección de datos y la suscripción del contrato entre responsables y encargados de tratamiento deberían realizarse antes del comienzo del período electoral. Al iniciarse dicho período, como no podría ser de otra forma, deben extremarse las obligaciones de información y cumplimiento de la normativa de protección de datos. Una vez terminado, deben bloquearse, primero, y suprimirse, después, los datos personales tratados, siguiendo para ello los estándares técnicos más elevados.

Finalmente, aunque el propio RGPD recoge el haz de derechos para garantizar los intereses de los ciudadanos (acceso, oposición, limitación del tratamiento, etc.), su protección también debe extremarse exigiendo a los partidos políticos, o sus intermediarios, instrumentar mecanismos simples y transparentes para su ejercicio. A tales efectos, el refuerzo de las competencias supervisoras y sancionadoras del regulador interno parece aconsejable.

VI. EL RECONOCIMIENTO DE UN LÍMITE ABSOLUTO AL PERFILADO IDEOLÓGICO: LA VERTIENTE NEGATIVA DE LA LIBERTAD IDEOLÓGICA[Subir]

Como fuera señalado, uno de los reclamos habituales de las campañas data-driven y del perfilado ideológico radica en la posibilidad de predecir tendencias políticas y de voto a partir de modelos estadísticos y de datos complejos. También en línea con lo explicado anteriormente, se sostiene que, a partir de la huella digital de los electores, depositada, por ejemplo, en redes sociales, se podrían inferir sus opiniones o preferencias ideológicas.

Estos rastros pueden ser las expresas manifestaciones políticas de los usuarios (likes en Facebook, retuits de Twitter, etc.), pero también informaciones y opiniones asépticas que pudieran correlacionarse con preferencias políticas. Es decir, y esto es el elemento que exige mayores cautelas, a partir de manifestaciones sin inmediato contenido político sería posible extraer información latente, correlacionarla con la de usuarios de características similares, e inferir el espectro político con el que más simpatizan, eludiendo, así, las restricciones del RGPD y la normativa interna respecto a datos de categorías especiales.

No exige una gravosa argumentación sostener la inconstitucionalidad de este tipo de prácticas, más allá de su discutible efectividad y acierto, a la que haremos referencia posteriormente.

Como ha recordado la doctrina (‍Rollnert Liern, 2002: 84-‍86), tanto el Tribunal Constitucional como el Tribunal Europeo de Derechos Humanos reconocen el carácter bidimensional de la libertad ideológica. La dimensión interna, que se podría identificar con la libertad de pensamiento, y la externa, que se refleja en la manifestación voluntaria mediante acciones o palabras de las propias creencias. Por tanto, el derecho no solo ampara un agere licere, la posibilidad de expresar las propias creencias en el marco de los límites establecidos por las obligaciones constitucionales y legales, sino también un acotamiento negativo que proscribe la obligación de declarar sobre la propia conciencia o creencias (STC 19/1985, de 13 de febrero, FJ 2). Dicho más llanamente, la vertiente negativa recogida en el art. 16.2 CE cobija «el secreto o silencio sobre las ideas o posiciones políticas propias, sin ser objeto de coacción o perturbación alguna antes o después de su proclamación o modificación, ni derivada del silencio libremente elegido» (STC 76/2019, de 22 de mayo, FJ 5)[31].

Los poderes públicos vendrían a ser, bien sujetos pasivos directos de la libertad ideológica, imposibilitados para vulnerar este derecho fundamental, bien mediato en caso de que la vulneración provenga de particulares, asumiendo la obligación de tutela. En cualquier caso, recaen en estos las obligaciones positivas dirigidas a garantizar el ejercicio del derecho tanto en su vertiente agere licere como en su fuero negativo de no exteriorización (‍Rollnert Liern, 2002: 92 y ss.). En el caso del art. 58.bis.1, es meridianamente claro que el legislador hizo dejación y actuó con cierta negligencia al no proscribir de manera expresa las inferencias de creencias políticas o ideológicas, mediante modelos analíticos avanzados.

Es cierto que la prohibición deriva de la propia Constitución y de la jurisprudencia pacífica del TC, y que alcanza también a sujetos de relevancia constitucional, como son los partidos políticos, así como a las relaciones entre particulares sobre los que recae el deber negativo de abstenerse de cualquier actuación que vulnere el art. 16.1 CE (STC 101/1983, de 18 de noviembre, FJ 3), pero es razonable exigir la expresa declaración del legislador, dada la grosera vulneración del ordenamiento constitucional, así como de las restricciones del RGPD. Esta era, por otra parte, la solución que había previsto el art. 5.2 de la Circular 1/2019 de la Agencia Española de Protección de Datos, y que, desde nuestro punto de vista, era menester que el Tribunal proscribiera de manera radical, y debe mantenerse en cualquier propuesta futura como límite absoluto al perfilado ideológico.

VII. REFLEXIÓN FINAL: ¿SE ESTÁN SOBREDIMENSIONANDO LA INFLUENCIA Y EL DEBATE ACERCA DEL PERFILADO IDEOLÓGICO, OBTURANDO LA DEMOCRACIA Y LOS DERECHOS FUNDAMENTALES?[Subir]

Preguntarse acerca de la influencia real de las campañas data-driven y la microsegmentación electoral no resulta estéril a efectos de valorar su admisibilidad por el legislador orgánico o la proporcionalidad de restricciones frente a riesgos o intromisiones sobre los derechos fundamentales.

Un sector de la doctrina ha denunciado una cierta tendencia a sobredimensionar la influencia de campañas como las de Cambridge Analytica (‍Hersh, 2018: 2). La razón de este planteamiento hiperbólico se sintetiza en tres motivos: en primer lugar, por regla general, a los ciudadanos les interesa más conocer las posibilidades que ofrecen los avances tecnológicos, en lugar de sus limitaciones; en segundo término, una vez que los resultados electorales se publican, surge el interés por determinar en qué se basó el éxito del partido ganador, y las referencias a las últimas tecnologías o sofisticación de las campañas suelen ser buenos argumentos, y, finalmente, las empresas y consultores que participan en las contiendas tienden a hinchar su influencia para obtener clientes futuros. Por tanto, algunas de las afirmaciones sobre la efectividad e influencia de este tipo de campañas pueden considerarse más cercanas al deseo que la realidad, y admiten algunas matizaciones o, al menos, una cierta reflexión. En este sentido, la eficacia de las campañas big data y el impacto real de la microsegmentación han sido cuestionados. Por una parte, se ha puesto en duda el rigor de los modelos, y, por ende, su verdadera influencia en las decisiones electorales, que, como mínimo, se habría sobreestimado (‍Baldwin-Philippi, 2017: 631).

Pese a que los medios de comunicación hacen llamativas declaraciones sobre el casi omnipotente poder de empresas y estrategas para manipular el voto de los ciudadanos, lo cierto es que los principios que rigen la construcción de los modelos han sido desarrollados durante décadas, y como todo modelo estadístico complejo, están sujetos a limitaciones.

En este caso, contar con cantidades de información tan elevadas puede dificultar la construcción y acierto del modelo predictivo, no solo porque incrementa los riesgos legales, sino porque genera riesgos de overfitting. La dimensionalidad de los datos, por tanto, debe reducirse, eliminando características o extrayendo las que sean comunes a un grupo de variables, y, en este proceso de expansión y reducción, puede afectarse a la efectividad del modelo construido.

Algo similar puede decirse respecto a la calidad de los datos. A efectos de un modelo de análisis, no toda información resulta relevante ni aporta utilidad, pese al deseo de estrategas de recopilar cientos o miles de datos. Los datos comerciales usados para enriquecer las campañas pueden ser erróneos y, en consecuencia, afectar a los resultados del modelo predictivo (‍Hersh, 2015: 169). Además, la gran mayoría de información comercial no puede relacionarse con inclinaciones políticas, o, en muchos casos, su correlación no solo termina siendo extravagante, sino espuria. Como resultado, este tipo de campañas no añaden información verdaderamente relevante, o su efectividad no es mayor que la predicción obtenida a partir de encuestas electorales (‍Baldwin-Phillipi, 2017: 631).

A esto hay que sumar, en el contexto europeo, que el exceso de información introduce nuevos problemas legales ante la previsible vulneración de los principios de limitación en los fines y minimización de datos, recogidos por el RGPD (‍Hernandez Peña, 2020: 299-‍305).

Es innegable que se deben valorar y conjurar los riesgos tecnológicos a límites admisibles para la salud del sistema democrático. Pero también es razonable mantener una aproximación cauta y un tanto escéptica, a partir de todo el conocimiento asentado respecto al funcionamiento de los modelos predictivos o del comportamiento social. Así, y por dimensionar lo señalado con un ejemplo, parece más razonable sostener que la información que aportan las encuestas electorales posee mayor solidez y capacidad predictiva que la predicha a partir de algunos likes de Facebook obtenidos con metodologías experimentales. A su vez, tampoco es descabellado señalar que los likes de usuarios directamente relacionados con partidos o tendencias políticas en una red social (‍Kristensen et al., 2017: 4) pueden aportar información más sólida que la predilección por comprar vaqueros de una marca cuya correlación puede resultar menos clara, a pesar de que esto último genere titulares más espectaculares en los medios de comunicación.

De cara a valorar el diseño y alcance de la regulación, debe considerarse que, contrario a la extendida creencia del poder de acierto de estos modelos, la predicción que desarrollan sigue siendo probabilística, y, por tanto, sujeta a falsos positivos. El modelo estadístico dará una respuesta, en este caso una score resultado del perfilado ideológico, pero no debe obviarse que no se trata de la única respuesta posible, o que la respuesta se busca a partir de un modelo construido. Esto quiere decir que, si el modelo está incorrectamente construido, se cometieron errores de especificación, o, sin más, está sesgado buscando respuestas predeterminadas, las predicciones simplemente serán erróneas, y su capacidad de influencia, reducida, cuando no nula.

Otro tanto puede decirse respecto a la combinación de estos modelos con técnicas psicográficas. Se han cuestionado tanto la efectividad del perfilado como su capacidad para influir en la decisión de los votantes. Incluso Kogan (‍2018: 4), uno de los participantes clave del entramado de Cambridge Analytica, reconoció su ineficacia ante autoridades públicas. En términos simples, el acierto de esta técnica era solo un poco más elevado del que podría obtenerse de una elección aleatoria. Autores que han investigado extensamente con predicciones y modelos electorales también han cuestionado las débiles correlaciones que soportan la aplicación de técnicas psicográficas (‍Hersh, 2018: 5-‍6). Lo mismo han sostenido expertos matemáticos que han intentado replicar los experimentos de Cambridge Analytica (‍Sumpter, 2018: 57).

Desde nuestra perspectiva, y a efectos de su regulación, debe valorarse lo dicho respecto a la limitada influencia del perfilado ideológico, y no desdeñar los posibles efectos positivos para la propia democracia. Por tanto, consideramos que no debería prohibirse per se su utilización, ni su regulación debe aparejarse, sin más, a la desinformación que plantea matices diferenciados.

En opinión contraria a la mantenida por el Defensor del Pueblo en su recurso de inconstitucionalidad, consideramos razonable sostener que debería valorarse detenidamente si los riesgos del perfilado y la microsegmentación son suficientes para modificar la asentada opinión del Tribunal Constitucional respecto a la excepcionalidad para admitir la posibilidad de que «un mensaje tenga capacidad suficiente para forzar o desviar la voluntad de los electores, dado el carácter íntimo de la decisión del voto» (STC 136/1999, de 20 de julio, FJ 16).

Es incuestionable que el derecho debe reducir o conjurar posibles riesgos, especialmente si colisionan con derechos fundamentales. Sin embargo, su intervención debe ser comedida y meditada, dando cuenta, en primer lugar, de la realidad de las cosas que se pretende regular, identificando los verdaderos riesgos potenciales de aquellos que representan futuribles remotamente realizables o sobredimensionan las posibilidades de la propia técnica con fines discutibles.

La coyuntura actual se asemeja a la de otras revoluciones tecnológicas que afectaron el concepto de privacidad y los medios de desarrollo de las campañas electorales. En el siglo xix, Warren y Brandeis (‍1890: 195) advertían sobre los riesgos de la fotografía y las empresas periodísticas para la libertad. En el siglo xx se cuestionó, en sentido similar, el surgimiento y expansión de los medios de comunicación de masas, primero con el cine y la radio, y, posteriormente, con la televisión.

Estos avances fueron domesticados por la regulación y la sociedad, y la extensión de sus efectos y riesgos, aquilatados a su justa dimensión[32]. El revuelo acerca de la reforma de la LOREG es, en parte, tributario de este mismo exagerado optimismo acerca de la técnica, en este caso el big data y la analítica avanzada, y su capacidad para vencer y reducir la voluntad del individuo.

NOTAS[Subir]

[1]

La investigación que ha dado lugar a estos resultados ha sido impulsada por la Obra Social “la Caixa” y la Fundación Bancaria Caja Navarra, en colaboración con el Centro Asociado a la UNED de Tudela. También se enmarca en el proyecto de investigación «Problemas jurídicos que plantea el uso de Blockchain», Ministerio de Ciencia, Innovación y Universidades, Programa Estatal de I+D+i Orientada a los Retos de la Sociedad, referencia RTI2018-100946-B-10. Agradezco a los revisores sus valiosos comentarios y recomendaciones para mejorar el manuscrito.

[2]

Más allá de esto, el derecho español carece de una regulación pormenorizada que afronte la utilización intensiva de datos en las contiendas electorales. El anulado art. 58.1.bis de la LOREG incorporó brevemente a España entre los países que contaban con un modelo de regulación específico.

[3]

Se ha sostenido que Cambridge Analytica recopiló miles de datos de enorme heterogeneidad que incluían historiales de compras online, información de buscadores y, muy especialmente, datos extraídos de Facebook referentes a 230 millones de personas (‍Isaak y Hanna, 2018: 57).

[4]

Cabe dejar constancia de que, cuando hablamos de autorregulación, no queremos referir que no exista normativa vinculante aplicable. Como es bien sabido, existe, tanto en Europa como en Estados Unidos. No obstante, junto con esta coexisten modelos internos de autorregulación que voluntariamente se imponen las empresas, dentro de los que es habitual contemplar ciertas cláusulas de apertura de acceso a los datos para fines de interés público o social, como es el caso de investigación científica.

[5]

Sobre el test OCEAN, es canónico el trabajo de McCrae y John (‍1992: 175).

[6]

Véase patente US8825764B2, Determining user personality characteristics from social networking system communications and characteristics.

[7]

Sobre esto, véase, entre otros, García Mahamut (‍2019: 95).

[8]

Así lo ha señalado claramente la propia Comisión Europea (‍2018: 3), que textualmente ha recogido en sus directrices Free and Fair elections lo siguiente: «The General Data Protection Regulation applies to all actors active in the electoral context such as European and national political parties (hereinafter: “political parties”), European and national political foundations (hereinafter: “foundations”), platforms, data analytics companies and public authorities responsible for the electoral process». Es la misma posición que mantienen actores relevantes como el Supervisor Europeo de Protección de Datos (‍2018: 5): «Political parties processing voter data in the EU fall within the scope of the GDPR». A nivel interno, una conclusión similar se desprende de decisiones recientes de la Agencia Española de Protección de Datos, como el procedimiento sancionador PS/00051/2020, o el informe de su Gabinete Jurídico N/REF: 210070/2018.

[9]

No obstante, Hoffmann-Riem (‍2018: 140-‍142) propone su reforma y extensión a efectos de incrementar la protección.

[10]

Sobre el concepto y significado de estas categorías, véase, entre otros, Rebollo Delgado (‍2010: 578).

[11]

La excepción se justifica por el legislador comunitario en la concurrencia de un interés público que legitima suficientemente su tratamiento. En este sentido, informe N/Ref 210070/2018, Gabinete Jurídico de la Agencia Española de Protección de Datos, p. 6.

[12]

Esta es la interpretación del Supervisor Comunitario, según se extrae del Dictamen 03/2013, p. 25, del Grupo de Trabajo del artículo 29, asumido por el Supervisor Europeo de Protección de Datos. Misma conclusión deriva, por otra parte, del análisis sistemático del RGPD, que solo admite su tratamiento excepcional.

[13]

Como es sabido, la construcción del derecho a la protección de datos en conexión con el derecho a la privacidad se cimienta sobre la inadmisión de interferencias salvo que sean exigidas por la ley o se consideren necesarias en el marco de una sociedad democrática. Esto dio pie a la exigencia de base jurídica para el tratamiento de los datos, que actualmente recoge en el art. 6 del RGPD. Han abordado este aspecto desde diversas perspectivas, entre otros, Lucas Murillo (‍1990), Serrano Pérez (‍2003), Garriga Domínguez (‍2009), Aguado Renedo (‍2010).

[14]

El WP29 ha recogido las directrices para interpretar el alcance y limitaciones del consentimiento. Véase Grupo de trabajo del artículo 29, Directrices sobre el consentimiento en el sentido del Reglamento (UE) 2016/679, versión del 10 de abril de 2018 (reconocidas y asumidas posteriormente por el Comité Europeo de Protección de Datos, EDPB).

[15]

Nuevamente, aunque no es el objeto específico de este trabajo, este aspecto podría predicarse y debe ser objeto de análisis en la futura normativa comunitaria que regule a los intermediarios y plataformas digitales.

[16]

Algunos de estos aspectos se abordan en epígrafes siguientes, por lo que en este momento daremos cobertura solo a algunos de ellos.

[17]

La reforma se introdujo durante la tramitación parlamentaria, mediante la enmienda 331 propuesta por el Partido Socialista, y generó un gran revuelo entre algunos partidos políticos y medios de comunicación.

[18]

Sobre el surgimiento y significado de esta construcción, véase García-Pelayo (‍1986: 29 y ss.). También el TC ha hecho referencia a este aspecto en la STC 3/1981, de 2 de febrero, FJ 1.

[19]

Al respecto, OSCE/ODIHR y Comisión de Venecia, Guidelines On Political Party Regulation (2010), apdo. 10.

[20]

La Comisión Europea ha expresado esta preocupación, especialmente mediante el uso de publicidad segmentada que aproveche las vulnerabilidades de los individuos. Véase, Free and Fair Elections. Commission Guidance on the Application of Union Data Protection Law in the Electoral Context. COM (2018) 638 final, p. 8.

[21]

Ha alertado sobre las nuevas tecnologías y los riesgos de la infra- y sobrerrepresentación Cotino Hueso (‍2011: 234-‍237).

[22]

Así, Kreiss (‍2012: 73-‍74) destaca que —al menos en la política norteamericana— es habitual la práctica del redlining electoral.

[23]

Así lo ha destacado la Comunicación de la Comisión Europea, COM (‍2018), 236 final, La lucha contra la desinformación en línea, p. 1.

[24]

Esta es la conclusión del Supervisor Europeo de Protección de Datos. EDPS, Opinion 3/2018, pp. 13-‍17. También la de los relatores especiales sobre libertad de expresión de Naciones Unidas y los sistemas regionales de protección de derechos humanos, que han abogado por incorporar un enfoque basado en derechos humanos. Véase la Declaración conjunta sobre libertad de expresión y noticias falsas, desinformación y propaganda de la ONU, OSCE, CIDH y la Comisión Africana de Derechos Humanos, de 3 de marzo de 2017. La misma opinión comparte el Grupo de Alto Nivel de la Comisión Europea sobre fake news y desinformación online en su informe A multi-dimensional approach to disinformation, de 12 de marzo de 2018.

[25]

Esta es también la opinión que sostiene la Declaración conjunta sobre libertad de expresión y noticias falsas, ya citada, apdo. 3.b.

[26]

Cómo señalara Madison, el derecho a elegir a los miembros del Gobierno constituye la esencia de un Gobierno libre y responsable. El valor y eficacia de este derecho depende del conocimiento acerca de los méritos y deméritos de los candidatos, y la posibilidad de discutir acerca de ellos, en igualdad de condiciones.

[27]

Es decir, los algoritmos estarían dirigiendo y filtrando la información que los usuarios recibimos con el objetivo de ajustarla a nuestros gustos o perfiles, actuando como una suerte de editores encubiertos que pueden condicionar nuestra percepción de la realidad. Sobre el filtro burbuja o burbujas de información, véase Pariser (‍2011).

[28]

Sobre estos modelos y su aplicación al discurso del odio, véase Alcacer Guirao (‍2015: 48 y ss.).

[29]

El principio exige que se adopten medidas preventivas y no meramente reactivas, anticipándose a las pérdidas de privacidad. Además, exige, entre otros, que la protección de la privacidad esté embebida en el diseño, y no se considere un añadido más que afecte a la funcionalidad de los modelos. Finalmente, exige considerar la primacía de la privacidad del usuario, así como adoptar una política de transparencia que facilite el ejercicio de derechos de los afectados (‍AEPD, 2017: 20-‍21).

[30]

Aunque no lo establezca la AEPD, consideramos que, a efectos de ser más garantistas, podría recurrirse a modelos como el de Brewer-Nash, también conocido como modelo de murallas chinas, que restringen el acceso a la información y ofrecen elevados niveles de confidencialidad.

[31]

Cabe señalar que esta conclusión fue sostenida también por el Gabinete Jurídico de la Agencia Española de Protección de Datos en su informe N/REF: 2100070/2018, apdo. 3.d. Igualmente parece deducirse del referido recurso presentado por el Defensor del Pueblo (FJ 5).

[32]

Sobre los efectos limitados de los medios de comunicación en las campañas, véase Crespo Martínez y Moreno Martínez (‍2015: 81 y ss.).

Bibliografía[Subir]

[1] 

Agencia Española de Protección de Datos. (2017). Código de Buenas Prácticas en Protección de Datos para proyectos Big Data. Agencia Española de Protección de Datos.

[2] 

Agencia Española de Protección de Datos. (2018). Guía práctica para las evaluaciones de impacto en la protección de los datos sujetas al Reglamento General de Protección de Datos.

[3] 

Aguado Renedo, C. (2010). La protección de los datos personales ante el Tribunal Constitucional español. Cuestiones Constitucionales. Revista Mexicana de Derecho Constitucional, 23, 3-‍25. Disponible en: https://doi.org/10.22201/iij.24484881e.2010.23.5929.

[4] 

Alcacer Guirao, R. (2015). Víctimas y disidentes. El «discurso del odio» en EE. UU. y Europa. Revista Española de Derecho Constitucional, 103, 45-‍86.

[5] 

Baldwin-Philippi, J. (2017). The Myths of Data-Driven Campaigning. Political Communication, 34 (4), 627-633. Disponible en: https://doi.org/10.1080/10584609.2017.1372999.

[6] 

Barocas, S. (2012). The price of precision: Voter microtargeting and its potential harms to the democratic process. En Proceedings of the first edition workshop on Politics, elections and data (pp. 31-‍36). New York: Association for Computing Machinery. Disponible en: https://doi.org/10.1145/2389661.2389671.

[7] 

Comisión Europea (2018). 638 Commission Guidance on the application of Union data protection law in the electoral context (pp. 1-‍13). Contribution to the leaders’ meeting, September 2018.

[8] 

Cotino Hueso, L. (2011). Tratamiento jurídico y normativo de la democracia, participación y transparencia electrónicas: presente y perspectivas. En J. Barrat, I. Esteve y R. Fernández Rivera (coords.). Derecho de sufragio y participación ciudadana a través de las nuevas tecnologías (pp. 289-‍315). Cizur Menor: Civitas Thomson Reuters.

[9] 

Crespo Martínez, I. y Moreno Martínez, C. (2015). Los efectos de la comunicación política en el comportamiento electoral. Revista de Derecho electoral, 20, 76-‍110.

[10] 

García Mahamut, R. (2015). Partidos políticos y derecho a la protección de datos en campaña electoral: Tensiones y conflictos en el ordenamiento español. Teoría y Realidad Constitucional, 35, 309-338. Disponible en: https://doi.org/10.5944/trc.35.2015.14921

[11] 

García Mahamut, R. (2019). Del Reglamento General de Protección de Datos a la Ley 3/2018, de protección de datos personales y garantías de los derechos digitales. En R. García Mahamut y B. Tomás Ballén (eds.). El Reglamento General de Protección de Datos: Un enfoque nacional y comparado. Especial referencia a la Ley 3/2018 de protección de datos y garantía de los derechos digitales (pp. 95-‍131). Valencia: Tirant lo Blanch.

[12] 

García Sanz, R. M. (2019). La difícil relación del instituto de la opinión pública y los procesos de comunicación pública en Internet: La desinformación desafiando las garantías constitucionales. Revista de Derecho Político, 106, 77-‍104. Disponible en: https://doi.org/10.5944/rdp.106.2019.26148.

[13] 

García-Pelayo, M. (1986). El Estado de partidos. Madrid: Alianza.

[14] 

Garriga Domínguez, A. (2009). Tratamiento de datos personales y derechos fundamentales. Madrid: Dykinson.

[15] 

Gómez Montoro, A. J. (2004). Asociación, Constitución, Ley: sobre el contenido constitucional del derecho de asociación. Madrid: Centro Estudios Políticos y Constitucionales.

[16] 

Hall Jamieson, K. (2013). Messages, Micro-Targeting, and New Media Technologies. The Forum, 11 (3), 419-‍435. Disponible en: https://doi.org/10.1515/for-2013-0052.

[17] 

Hernández Peña, J. C. (2020). Decisiones algorítmicas de perfilado: Régimen y garantías jurídicas. Revista Española de Derecho Administrativo, 203, 281-‍322.

[18] 

Hersh, E. (2015). Hacking the Electorate. How Campaigns Perceive Voters. Cambridge: Cambridge University Press. Disponible en: https://doi.org/10.1017/CBO9781316212783.

[19] 

Hersh, E. (2018). Hearing before the United States Senate. Committee on the Judiciary. Written Testimomy, 16-‍05-2018. Disponible en: https://bit.ly/3sjDSUi.

[20] 

Hoffmann-Riem, W. (2018). Big Data: desafíos también para el Derecho. Cizur Menor: Civitas.

[21] 

Isaak, J. y Hanna, M. J. (2018). User Data Privacy: Facebook, Cambridge Analytica, and Privacy Protection. Computer, 51 (8), 56-‍59. Disponible en: https://doi.org/10.1109/MC.2018.3191268.

[22] 

Kogan, A. (2018). Written evidence submitted by Aleksandr Kogan. Text Submitted to The Digital, Culture, Media and Sport Committee of the UK Parliament. Disponible en: https://bit.ly/3AWIL9M.

[23] 

Kosinski, M., Stillwell, D. y Graepel, T. (2013). Private traits and attributes are predictable from digital records of human behavior. Proceedings of the National Academy of Sciences, 110 (15), 5802-‍5805. Disponible en: https://doi.org/10.1073/pnas.1218772110.

[24] 

Kreiss, D. (2012). Yes We Can (Profile You): A Brief Primer on Campaigns and Political Data. Stanford Law Review, 64, 70-‍74.

[25] 

Kristensen, J. B., Albrechtsen, T., Dahl-Nielsen, E., Jensen, M., Skovrind, M. y Bornakke, T. (2017). Parsimonious data: How a single Facebook like predicts voting behavior in multiparty systems. Plos One, 12 (9), 1-‍12. Disponible en: https://doi.org/10.1371/journal.pone.0184562.

[26] 

Lucas Murillo, P. (1990). El derecho a la autodeterminación informativa. Madrid: Tecnos.

[27] 

Martínez Cuevas, M. D. (2006). Régimen jurídico de los partidos políticos. Madrid: Marcial Pons.

[28] 

McCrae, R. R. y John, O. P. (1992). An Introduction to the Five-Factor Model and its Applications. Journal of Personality, 60 (2), 175-‍215. Disponible en: https://doi.org/10.1111/j.1467-6494.1992.tb00970.x.

[29] 

Morodo Leoncio, R. y Murillo de la Cueva, P. L. (1996). Art. 6. Los partidos políticos. En O. Alzaga Villamil (dir.). Comentarios a la Constitución española de 1978 (pp. 301-‍389). Madrid: Cortes Generales.

[30] 

Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You. New York: The Penguin Press.

[31] 

Presno Linera, M. A. (2000). Los partidos y las distorsiones jurídicas de la democracia. Madrid: Ariel.

[32] 

Rebollo Delgado, L. (2010). Origen y fundamento de la protección de datos: Datos especialmente protegidos. En A. Troncoso Reigada (dir.). Comentario a la Ley Orgánica de Protección de Datos de Carácter Personal (pp. 578-‍597). Cizur Menor: Civitas-Thomson Reuters.

[33] 

Rollnert Liern, G. (2002). La libertad ideológica en la jurisprudencia del Tribunal Constitucional (1980-‍2001). Madrid: Centro Estudios Políticos y Constitucionales.

[34] 

Rubio Núñez, R. (2011). Nuevas tendencias de regulación del uso de las nuevas tecnologías en campaña electoral. En J. Barrat, I. Esteve y R. M. Fernández Rivera. Derecho de sufragio y participación ciudadana a través de las nuevas tecnologías (pp. 313-‍333). Madrid: Civitas-Thomson Reuters.

[35] 

Sánchez Muñoz, O. (2007). La igualdad de oportunidades en las campañas electorales. Madrid: Centro Estudios Políticos y Constitucionales.

[36] 

Serrano Pérez, M. M. (2003). El derecho fundamental a la protección de datos. Derecho español y comparado. Madrid: Civitas.

[37] 

Sumpter, D. (2018). Outnumbered: From Facebook and Google to fake news and filter-bubbles. The algorithms that control our lives. London: Bloomsbury Sigma. Disponible en: https://doi.org/10.5040/9781472947451.

[38] 

Supervisor Europeo de Protección de Datos (2018). Opinion 3/2018, European Data Protection Supervisor (pp. 1-‍31). Opinion on online manipulation and personal data.

[39] 

Voigt, P. y Von dem Bussche. A. (2017). The EU General Data Protection Regulation. A Practical Guide. Cham: Springer. Disponible en: https://doi.org/10.1007/978-3-319-57959-7.

[40] 

Warren, S. y Brandeis, L. (1890). The Right to Privacy. Harvard Law Review, 4 (5), 193-‍220. Disponible en: https://doi.org/10.2307/1321160.

[41] 

Zuiderveen, B. F., Möller, J., Kruikemeier, S., Ó Fathaigh, R., Irion, K., Dobber, T. y De Vreese, C. (2018). Online Political Microtargeting: Promises and Threats for Democracy. Utrecht Law Review, 14 (1), 82-‍96. Disponible en: https://doi.org/10.18352/ulr.420.