RESUMEN

Pese a que los consejos consultivos sectoriales existen en España desde hace décadas, se desconoce si entre ellos existen grandes diferencias en cuanto a su funcionamiento y resultados. Esta investigación busca contribuir empíricamente a un mejor conocimiento de la realidad de dichos mecanismos y establecer si alguno de los casos analizados podría ser considerado como exitoso y modélico. Utilizando hasta cinco dimensiones de evaluación, compararemos las puntuaciones obtenidas por cada consejo en base a indicadores objetivos (diseño institucional) y subjetivos (satisfacción de sus participantes). Los resultados indican que ningún caso de la muestra sería un claro ejemplo de éxito. A su vez, queda patente que los consejos de una determinada temática (educación) y nivel territorial (autonómico) son, en conjunto y de forma significativa, los que mejores puntuaciones alcanzan.

Palabras clave: consejos consultivos, democracia participativa, innovaciones democráticas, España, evaluación.

ABSTRACT

Despite the fact that sectorial advisory councils have existed in Spain for decades, it is unknown whether there are major differences between them in terms of their functioning and results. This research seeks to contribute to a better empirical understanding of the reality of these mechanisms and to establish whether any of the cases analyzed could be considered as successful and exemplary. Using up to five dimensions of evaluation, the scores obtained by each council based on objective (institutional design) and subjective indicators (satisfaction of its participants) will be compared. The results indicate that none of the cases in the sample is a clear example of success. At the same time, it is evident that the councils focused on a specific theme (education) and a specific territorial level (the regional one) achieve, on the whole and significantly, the best scores.

Keywords: advisory councils, participatory democracy, democratic innovations, Spain, evaluation.

Cómo citar este artículo / Citation: Fernández-Longo, H. (2023). Una evaluación multidimensional de los consejos consultivos españoles: evidencias de la búsqueda infructuosa del caso modélico. Revista Española de Ciencia Política, 61, 187-‍210. Doi: https://doi.org/10.21308/recp.61.08

SUMARIO
  1. RESUMEN
  2. ABSTRACT
  3. INTRODUCCIÓN
  4. DE UN MARCO TEÓRICO A UNA EVALUACIÓN MULTIDIMENSIONAL
    1. Inclusividad
    2. Juicio informado
    3. Control popular
    4. Transparencia
    5. Eficiencia
  5. METODOLOGÍA
    1. Operacionalización
  6. RESULTADOS
  7. CONCLUSIONES
  8. NOTAS
  9. Referencias
  10. Anexo 1. Conjunto de datos Diseño
  11. Anexo 2. Conjunto de datos Satisfacción

INTRODUCCIÓN[Subir]

En los últimos años asistimos a un proceso de refortalecimiento de la participación ciudadana en la toma de decisiones públicas. Medidas como los planes de Gobierno Abierto[1] contemplan la potenciación de «espacios institucionalizados de encuentro y diálogo entre todos los actores públicos y sociales implicados en materia de gobierno abierto» (‍Ministerio de Política Territorial y Función Pública, 2020: 12). Entre ellos encontramos a los consejos consultivos que, surgidos al compás de la Transición, son las instituciones participativas más frecuentes en España (‍Font, 2020).

Esta nota de investigación busca contribuir al conocimiento de estos mecanismos, existentes en diferentes niveles territoriales y en los que la ciudadanía es consultada sobre políticas específicas. Se definen por su existencia formal y el reconocimiento por la Administración pública, su vocación de permanencia y la presencia ciudadana en su composición. Mediante su evaluación responderemos a varios interrogantes: ¿podría afirmarse la existencia de una dinámica según la cual algunos consejos alcanzan mejores resultados que otros? ¿Qué factores pueden determinarlo? Entre los casos evaluados, ¿detectamos alguno similar a lo que podría catalogarse como un consejo ideal? La investigación dará respuesta a si algún caso destaca objetivamente por cumplir la «promesa subyacente» que Navarro (‍2008: 84) atribuye a los canales participativos: tender un «puente democrático» participativo entre administración pública y ciudadanía.

Sin un criterio uniforme, la ciencia política ha afrontado la evaluación de los mecanismos participativos conformando una «caja de herramientas» (‍Rodríguez y Ajangiz, 2007: 185) con indicadores elaborados para diversos fines y realidades. Iniciativas recientes como el proyecto LATINNO, que persigue una «evaluación comparativa» (‍Pogrebinschi y Ross, 2019: 325) entre innovaciones democráticas latinoamericanas, constituyen abordajes sistemáticos de gran escala, útiles para conocer el desempeño de estas instituciones. Nuestra evaluación persiste en el afán comparativo y se inspira en un marco teórico —extendido en este campo— basado en dimensiones o «bienes democráticos» (‍Smith, 2009). Este autor trataba de capturar ventajas y limitaciones de las innovaciones democráticas, sin llegar a medir el funcionamiento de casos concretos. Nuestro trabajo mantendrá constante el diseño institucional básico (consejos) para fijarnos en cómo los detalles organizativos que varían entre ellos desembocan en diferentes funcionamientos y resultados. Utilizaremos diversos indicadores para averiguar en qué medida los consejos cumplen con lo que de ellos espera la teoría democrática, concretada en la aproximación de Smith (íd.). Consideraremos casos exitosos o modélicos aquellos con evaluaciones positivamente destacadas en todas las dimensiones.

Emplearemos una muestra grande, heterogénea y que reúne tres tipos de consejos sectoriales. Cada caso se evaluará mediante un bloque objetivo, según sus diseños institucionales (normativas) más otro subjetivo, basado en una encuesta de satisfacción a sus miembros[2]. Crearemos rankings para ambas esferas y estudiaremos qué relación mantienen para luego descubrir qué consejos lideran cada dimensión y qué patrones detectamos. Nuestros resultados evidencian las dificultades para señalar un consejo ideal en la muestra, si bien hallaremos indicios suficientes para afirmar que un grupo de consejos con unos rasgos comunes tiende, en mayor medida que otros, a acercarse a cumplir aquella aspiración.

Tras justificar nuestro marco teórico, en el apartado metodológico describimos las muestras e indicadores utilizados. En la sección de resultados exploramos si existe una dinámica de consejos mejor y peor puntuados y también qué relaciones existen entre los bloques evaluativos. Presentaremos los resultados desde lo global (agregaremos los consejos por temática) hacia lo individual, respondiendo así al interrogante principal: si algún caso destaca positivamente en todas las dimensiones analizadas.

DE UN MARCO TEÓRICO A UNA EVALUACIÓN MULTIDIMENSIONAL[Subir]

La consolidación de los mecanismos participativos empuja a la investigación comparada (‍Rodríguez y Ajangiz, 2007; ‍Navarro, 2008; ‍Galais et al., 2013; ‍Christensen, 2020) a buscar instrumentos para valorar si su funcionamiento responde a los ideales de calidad democrática que los fundan. Varios referentes teóricos proponen marcos para evaluarlos. Tal es el caso de Fung, cuyas tres dimensiones analíticas (los participantes, su comunicación y toma de decisiones conjunta y la influencia de dichas decisiones) integran la noción de «cubo de la democracia» (‍Fung, 2006: 65). Otra propuesta influyente proviene de Smith (‍2009), quien trabajando con seis dimensiones (y subdimensiones), ofrece una gran riqueza explicativa y facilita la operativización de los aspectos evaluables. Nosotros trasladaremos su sistema a un mecanismo (consejos) cuya realidad y funcionamiento no es ampliamente conocido[3].

Siguiendo el enfoque de Smith, tendremos la ventaja de comparar únicamente entre consejos —mecanismos de una misma naturaleza—, redundando ello en mayor precisión evaluativa. Para conseguirlo, establecemos unos «patrones de comparación específicos y operacionalizables, que permitan elaborar indicadores de rendimiento» (‍Navarro, 2008: 88) y, además, siguiendo la estrategia utilizada entre otros por Carr y Halvorsen (‍2001), Rowe et al. (‍2004) o Fobé et al. (‍2013), utilizaremos un bloque de indicadores basado en una encuesta de satisfacción a participantes junto con el bloque de indicadores de diseño.

El marco teórico lo constituyen seis dimensiones o «bienes democráticos» (‍Smith, 2009). Junto a las de «inclusividad», «juicio informado», «control popular» y «transparencia», Smith refiere a otras dos de tipo institucional —«eficiencia» y «transferibilidad»[4]—, útiles para determinar cuán «practicables» (ibid.: 13) son las instituciones participativas. A continuación, se definen dichas dimensiones:

Inclusividad[Subir]

Referida a la forma en que la igualdad política es materializada en dos aspectos de la participación: presencia y voz (ibid: 12), lo que implica atender al grado de presencia de la Administración pública en la institución, a los procedimientos de selección de participantes, a las «posibilidades que el diseño les ofrece para su contribución» (ibid: 163) y a su posibilidad de influir en el output de la institución («voz»).

Juicio informado[Subir]

Capacidad de la ciudadanía para hacer juicios informados y reflexivos mediante el conocimiento y la comprensión de los detalles de los asuntos sobre los que tratan (ibid: 24). Esta dimensión no será descompuesta en dos subdimensiones, interesándonos especialmente centrar la atención en las posibilidades de que se genere el grado de información adecuado para las personas participantes, determinante decisivo de un juicio formado.

Control popular[Subir]

Medida en que la ciudadanía puede influir y controlar de forma efectiva el proceso de toma de decisiones en distintas fases del proceso (ibid., 23). Se traduce en dos aspectos clave: el control de agenda (iniciativa del consejo para seleccionar temas y su abordaje) y el control de outputs o resultados (mecanismos de seguimiento), ya en la fase de implementación de la política objeto de consulta.

Transparencia[Subir]

Primero, y en relación con los participantes, se requiere que tengan una comprensión clara de las condiciones de su participación (transparencia interna). Además, el proceso necesita ser abierto a un público más amplio, esto es, «publicidad» o transmisión de información acerca de la institución y sus decisiones a la sociedad (ibid., 25): transparencia externa.

Eficiencia[Subir]

Es necesario tener en cuenta los «costes y beneficios cívicos» (ibid., 26), pero también la efectividad percibida del diseño institucional (íd.). Entendemos que a menor cantidad de recursos invertida más baja su efectividad, pues los recursos (personal y presupuesto para nuestro caso) son la herramienta clave para superar los costes de participación (tiempo y esfuerzo). Kweit y Kweit afirman que estos costes son «inevitables» y añaden al tiempo y esfuerzo invertidos los «costes de oportunidad» (‍1987: 196) o beneficios de los que se ven privados los participantes por la inversión de su tiempo. Además, debemos considerar sus intereses percibidos[5], siendo cruciales ideas como el «prestigio y reconocimiento comunitarios» para ellos y las instituciones representadas (ibid., 64), asociadas a los resultados (idea de utilidad) que su participación genere. Tras presentar el diseño metodológico, explicaremos cómo hemos operacionalizado cada dimensión para los bloques diseño y satisfacción.

METODOLOGÍA[Subir]

Los resultados proceden de una base de datos (n = 2013) elaborada para un estudio multinivel de los consejos consultivos de la Administración pública española, que comprendió los niveles: nacional, regional (las diecisiete CC. AA.) y municipal (las ciudades más pobladas, incluyendo aquellas con más de 250 000 habitantes o que rebasasen los 175 000, siempre que fueran capitales provinciales)[6]. Primero se mapearon los consejos con informaciones como su denominación, temática, nivel territorial y contacto, partiendo de sus sitios web. Cuando no fue posible encontrar datos online, fueron solicitados a las Administraciones. De este marco muestral se extrajo una submuestra, seleccionando consejos que versasen sobre políticas públicas diversas y con características dispares para obtener una muestra representativa del espectro de consejos. Entre ellos fueron analizados los educativos (consejos con arraigo y relativos a una política tradicional), los medioambientales (menos asentados y diferenciados por su composición y grado de institucionalización) y los de inmigración (novedosos en el tiempo y centrados en políticas públicas cuyo núcleo es la identidad). También se estudiaron los consejos distritales en cuanto ejemplo de consejos territoriales. De los 101 casos que cumplían con estos criterios serían excluidos 31 por estar inactivos y/o por el rechazo a colaborar, lo que resultó en una muestra final de 70 consejos.

Para cada consejo fueron codificados aspectos de sus documentos normativos (actas, reglamentos) con información sobre infraestructura, objetivos, composición, organización y métodos de trabajo. Se añadieron codificaciones sobre su presencia en internet para obtener indicadores de visibilidad y transparencia (base Diseño)[7]. Posteriormente fue enviado un cuestionario online a sus miembros (base Satisfacción), preguntándoles acerca del funcionamiento de los consejos y su grado de satisfacción como participantes. El trabajo de campo se completó entre noviembre de 2017 y marzo de 2018. En 27 casos la Administración facilitó el contacto directo con las personas encuestadas, con una tasa de respuesta del 30 % de los miembros. En los otros 43 casos la Administración medió en la aplicación del cuestionario a través de los coordinadores de los consejos, lo que dio lugar a una tasa de respuesta menor: se obtuvo alguna respuesta en el 78 % de consejos y de un 13 % del total de consejeros. Debemos advertir que contar solo con las respuestas de quiénes desearon participar implica asumir que lo han hecho los miembros más comprometidos y activos, si bien encontramos entre ellos a los más críticos pero también los más complacientes. No obstante, se aminora el sesgo de autoselección utilizando las medias y no las respuestas individuales directas de los participantes. Además, siguiendo a investigaciones anteriores (‍Font et al., 2016), fue buscada la proporcionalidad entre representantes de la ciudadanía y Administraciones, ajustándonos a la realidad de estos espacios. La investigación prescinde de los quince consejos distritales de la muestra dada su particular naturaleza —territorial y submunicipal— y su no comparabilidad con los sectoriales. Para evitar sesgos, otros siete consejos fueron excluidos por el excesivo protagonismo de los perfiles de la Administración pública en las respuestas al cuestionario[8]. Así, la muestra utilizada es de 48 consejos (tabla 1) y 421 participantes encuestados.

Tabla 1.

Distribución de los consejos por ámbito temático y nivel territorial

Temática / Ámbito Municipio Región Estado (Total)
Educación 6 15 1 22
Inmigración 3 5 1 9
Medio Ambiente 3 11 3 17
(Total) 12 31 5 48

Fuente: elaboración propia.

Operacionalización[Subir]

Para cada dimensión, incorporamos indicadores de diseño (normativa) y satisfacción (encuesta)[9], encajando las variables en las definiciones de las dimensiones teóricas y controlando su variabilidad (excluyendo indicadores que apenas mostraban variación por concentrarse casi todos los casos en una única categoría de respuesta). El conjunto de indicadores Diseño incorpora diez variables, dos por dimensión (anexo 1), mientras que el de Satisfacción incorpora veinticinco —cinco por dimensión, al existir mucha más información en la encuesta— (anexo 2). Para la dimensión inclusividad se tuvo en cuenta el nivel de autonomía de los cargos (si presidente y vicepresidente son o no designados por la Administración) y la proporción en que la sociedad civil está presente en sus órganos. A mayor presencia del componente Administración pública, menos inclusivo consideramos el consejo. La encuesta aborda ítems como el papel del presidente en el debate, las posibilidades de interacción y representatividad existentes (presencia) y el margen para intervenir (voz).

En la dimensión juicio informado, utilizamos el indicador presencia de expertos y expertas en los principales órganos para saber en qué medida los participantes disponen de información de calidad. Hemos considerado que los «expertos» y «representantes de universidades y centros de investigación» son perfiles idóneos para proveer al consejo de información, por su conocimiento técnico y neutralidad. En la encuesta fueron preguntados los participantes por la calidad y cantidad de información recibida, su disponibilidad y su potencial para la deliberación y el consenso. Por su parte, la dimensión control popular es analizada comprobando si en la normativa se declara como objetivo expreso a las políticas públicas y si prevé, para las autoridades, la obligatoriedad de consulta al consejo (control agenda). Se evalúa, también, si las normas reconocen como vinculantes las recomendaciones y si hay previstos mecanismos de seguimiento (control outputs). Todos ellos son indicadores de que el diseño institucional prevé que los ciudadanos tengan un «control efectivo sobre importantes aspectos del proceso de toma de decisiones» (‍Smith, 2009: 22) y de que «velen por la ejecución de las decisiones tomadas» (‍Seller, 2004: 124). Ambas subdimensiones también son abordadas en la encuesta.

En cuanto a la dimensión transparencia, utilizamos dos indicadores de transparencia interna (si son contemplados procedimientos de modificación de las normas o estructura del consejo y si se especifican los canales de comunicación con las autoridades) y dos de transparencia externa (si reglamentariamente los plenarios son públicos y si el consejo tiene cuenta en Facebook o Twitter). Además, empleamos un indicador mixto para valorar la publicidad que el consejo ofrece de sus actos y resultados, de qué forma se presenta en internet y si su información es actualizada. En la encuesta también se contemplan diversos aspectos de la proyección hacia el interior y hacia el exterior de la idea de transparencia. Por último, la dimensión eficiencia examina los recursos del consejo según especifique su normativa o, en su defecto, su sitio web: si tiene un presupuesto independiente y equipo propio y también su capacidad (prevista formalmente) de generar una gama de resultados: informes, reportes, etc. Cobra relevancia aquí lo subjetivo, esto es, las valoraciones que realizan los participantes en términos de eficiencia, referidas a cuán gravosa les resulta su implicación (reuniones, solicitudes de participación) y a las percepciones sobre esta, cumplimiento de un deber cívico y reconocimiento.

Asignamos las puntuaciones de modo que cada consejo aspira a obtener un máximo de 5 puntos por dimensión, lo que equivaldría al diseño institucional ideal. Cinco puntos por dimensión es también la puntuación máxima según la valoración de los encuestados. Un consejo con máximas puntuaciones en ambos bloques sería así un consejo ideal, con óptimos diseño y niveles de satisfacción.

RESULTADOS[Subir]

Profundizaremos en nuestros datos con cuatro grandes pasos. Primero, comprobaremos si existe una dinámica general y concluyente de consejos que ofrecen mejores y peores resultados. Segundo, examinaremos globalmente los resultados en las cinco dimensiones y en su doble componente diseño-satisfacción. Esto facilitará la identificación de factores asociados a mejores o peores valoraciones de cada consejo individual, fijándonos especialmente en la temática del consejo, pero sin perder de vista el nivel territorial al que pertenece. Finalmente, valoraremos si algún caso podría considerarse ideal o modélico, o cuáles se aproximarían a conseguirlo.

En la primera mirada a la relación entre las cinco dimensiones, las observaremos de forma global. Para los análisis posteriores, las descompondremos secuencialmente mediante rankings de puntuaciones en diseño y satisfacción. Agregando ambas puntuaciones, extraeremos los grupos de consejos destacados en cada dimensión. ¿Nos encontramos un escenario con consejos con buenos resultados de forma integral o, por contra, los consejos se han especializado en resolver bien solo algunos aspectos, desatendiendo otros? La tabla 2 apunta a un escenario más similar al primero: asistimos a una dinámica general de consejos próximos y otros alejados del modelo ideal.

Tabla 2.

Correlaciones entre puntuaciones globales de las dimensiones (Pearson C.)

Dimensiones Inclusividad J. informado C. popular Transparencia Eficiencia
Inclusividad 1 ,105 ,367[*] ,478[**] ,551[**]
Juicio informado ,105 1 ,350[*] ,353[*] ,312[*]
Control popular ,367[*] ,350[*] 1 ,406[**] ,528[**]
Transparencia ,478[**] ,353[*] ,406[**] 1 ,748[**]
Eficiencia ,551[**] ,312[*] ,528[**] ,748[**] 1
[*]

La correlación es estadísticamente significativa al nivel 0,05 (bilateral).

[**]

La correlación es estadísticamente significativa al nivel 0,01 (bilateral).

Fuente: elaboración propia.

Todas las dimensiones correlacionan entre sí positivamente, en un rango que oscila entre correlaciones débiles y no significativas (0,11) hasta otras muy elevadas (0,75), pero donde nueve de las diez correlaciones son estadísticamente significativas. En todo caso, para la de juicio informado observamos una más débil significación, explicable por el indicador elegido para esta dimensión de proporción de expertos (establecida por cada consejo), con una elevada variabilidad entre casos.

Ahora podemos fijarnos en lo que ocurre en el interior de cada una de ellas. La tabla 3 relaciona los componentes diseño y satisfacción de cada dimensión mediante correlaciones. La constatación principal sintoniza con anteriores trabajos, órganos consultivos que ya habían señalado una relativa inconsistencia entre dificultades institucionales y un elevado grado de satisfacción de buena parte de los participantes (‍Sarasa y Guiu, 2001; ‍Fobé et.al, 2013). En nuestro caso, solo en dos dimensiones existe una correlación significativa (pero no espectacularmente alta) entre ambos bloques, mientras que en otras dos es cercana a cero y en una es incluso levemente negativa (pero no significativa). Realidad normativa y satisfacción van pues por caminos diferentes y será preciso recordarlo para mirar ambas esferas de forma independiente.

Tabla 3.

Correlaciones entre puntuaciones Diseño-Satisfacción (por dimensiones)

Dimensión Pearson C.
Inclusividad 0,235[**]
Juicio informado 0,019
Control popular 0,005
Transparencia 0,364[**]
Eficiencia -0,09
[**]

La correlación es estadísticamente significativa al nivel 0,01 (bilateral).

Fuente: elaboración propia.

Analizamos ahora una primera fotografía del conjunto de los consejos. En la figura 1 se representan, comparativamente, el ideal y la realidad. Un consejo ideal estaría representado gráficamente con la forma de un pentágono (línea exterior), esto es, con máximas puntuaciones para todas las dimensiones. Por contra, en nuestra representación de los promedios del total de casos observamos que los polígonos de sus puntuaciones diseño y satisfacción (líneas interiores azul y naranja, respectivamente) aparecen alejados del ideal.

Las puntuaciones resultan superiores en el aspecto subjetivo para todas las dimensiones. Como hemos visto, pese a que los diseños suelen ser mejorables, las experiencias participativas son valoradas, en general, positivamente. En este punto conviene tener presente que algunos ítems de la encuesta abordan preguntas cuyas respuestas están más directamente determinadas por el diseño institucional —apelando a mecanismos formalizados—, dándose esto precisamente en las dos dimensiones (inclusividad y transparencia) para las cuales comprobábamos existe una cierta correlación entre bloques (véanse en el anexo 2, por ejemplo, ítems como satisfacción con el grado de diversidad de la composición del plenario o claridad del proceso consultivo).

Figura 1.

Ideal y realidad: promedios de puntuaciones del total de consejos de la muestra

media/image1.jpeg

Fuente: elaboración propia.

Empleando ahora un enfoque agregado —por temática— para el examen de las puntuaciones, queda patente que los consejos medioambientales evaluados se caracterizan por unas puntuaciones pobres en diseño y que únicamente destacan positivamente en juicio informado, por una diferencial presencia de personas expertas en su seno. Las puntuaciones en satisfacción son más elevadas, sobre todo, para sus dimensiones inclusividad y eficiencia. Sus promedios de puntuaciones están alejados del ideal (véase en la figura 2, sobre todo, lo reducido del polígono de las puntuaciones diseño).

Figura 2.

Promedios de puntuaciones según temática (medioambientales)

media/image2.jpeg

Fuente: elaboración propia.

Figura 3.

Promedios de puntuaciones según temática (inmigración)

media/image3.jpeg

Fuente: elaboración propia.

Respecto al conjunto de consejos de inmigración (figura 3), también sus puntuaciones promedio indican una generalizada pobreza en su diseño, especialmente para las dimensiones juicio informado y control popular. En cuanto a la percepción que tienen sus integrantes, el de transparencia es el aspecto más negativamente valorado, siendo más complacientes sus respuestas en las dimensiones inclusividad y juicio informado.

Por último, son los educativos los mejor puntuados. En diseño, su punto más sólido es la eficiencia (4,20 puntos de promedio), mientras que los encuestados destacan —al igual que sucedía en los consejos de las otras temáticas— su inclusividad (3,70 puntos de promedio). En la figura 4 se aprecia que, en conjunto, los consejos educativos son los que más se acercan más a reproducir la figura del pentágono, síntoma de favorables puntuaciones en todas las dimensiones. Resulta factible pensar, pues, que este conjunto comprenderá los casos más próximos al ideal.

Figura 4.

Promedios de puntuaciones según temática (educación)

media/image4.jpeg

Fuente: elaboración propia.

A continuación, se analizan individualmente los casos mejor posicionados en ambos bloques. Las disposiciones normativas contemplarán en mayor o menor medida un diseño orientado a garantizar las cinco dimensiones de calidad democrática estudiadas. Analizando resultados, de los 25 puntos que un consejo puede acumular en diseño, el máximo obtenido es 20 (Consejo Escolar de la Comunidad de Madrid). En los primeros puestos (gráfico 1) encontramos únicamente consejos educativos (y de nivel autonómico), excepción hecha del Consejo de Protección de la Naturaleza de Aragón. En las posiciones más bajas se agrupan la mayoría de los medioambientales y de inmigración, con nulas puntuaciones en una o varias dimensiones, es decir, su diseño se parece menos al ideal normativo adaptado de Smith (‍2009).

Gráfico 1.

Puntuaciones totales obtenidas por los consejos en diseño

media/image5.jpeg

Fuente: elaboración propia.

Gráfico 2.

Puntuaciones totales obtenidas por los consejos en satisfacción

media/image6.jpeg

Fuente: elaboración propia.

Atendiendo ahora a la percepción de los encuestados, la distribución varía notablemente en el orden de los casos y también en la uniformidad observada en la distribución (gráfico 2). Como vemos, la distribución de las puntuaciones totales basadas en la encuesta tiene menor amplitud, oscilando entre los 11,64 y los 18,98 puntos. Liderando esta clasificación ya no solo encontramos a los consejos educativos, sino también a los de otras temáticas. Aunque decae la presencia de los educativos en las mejores posiciones, esta es aún notable. De ellos, el mejor puntuado es el autonómico extremeño. Por su parte, el mejor calificado de los de inmigración es el bilbaíno —un consejo local—, con 18,67 puntos de 25 posibles. De los medioambientales destaca el de La Rioja, con una puntuación total de 17,84.

Hemos comprobado que estos mecanismos pueden estar bien diseñados, pero no generar satisfacción —y de ahí las diferencias entre clasificaciones—, pero ¿podemos señalar un grupo de consejos que se aproximen a dicho ideal en mayor medida que el resto? ¿Cómo comprobarlo? Descartada la posibilidad de señalar un consejo absolutamente modélico, identificaremos aquellos con mayor regularidad de buenas puntuaciones en ambos bloques[10]. Para ello, elaboramos tablas clasificatorias por dimensión[11], dispuestas según las puntuaciones agregadas (diseño más satisfacción), de modo que para cada dimensión los casos con mejores puntuaciones son los situados en los cuartiles superiores. Tomando en cuenta dichas mejores puntuaciones[12], fueron recontadas las presencias de cada caso en esos primeros cuartiles (tabla 4)[13].

Ninguno emerge entre los mejor posicionados en todas las dimensiones, pero un conjunto de siete casos destaca en al menos tres, cumpliendo los patrones ya mencionados: son educativos y de nivel autonómico. Por delante de todos, los más cercanos a la idea de modélico son los consejos educativos extremeño y manchego, que sobresalen en cuatro de las cinco dimensiones. Pese a que el extremeño (figura 5) tiene una baja puntuación en juicio informado (debido a la escasa presencia de personas expertas en su seno), sus personas encuestadas se mostraron satisfechas con los ítems relativos a esta dimensión. Por su parte, el educativo manchego, que en principio cumplía con los estándares para coliderar todas las dimensiones, resultó excluido del primer cuartil en la dimensión eficiencia, pues su puntuación para esta dimensión en el bloque satisfacción resultó ligeramente menor que la puntuación promedio de todos los casos. Este último consejo es el más cercano a coliderar todas las dimensiones, muy cercano por ello al ideal (figura 6).

Tabla 4.

Recuento de presencias en los primeros cuartiles de los rankings por dimensión

Consejo / Dimensión Inclusividad J. informado C. popular Transparencia Eficiencia
Escolar Extremadura
Escolar la Mancha
Escolar Aragón
Escolar Andalucía
Escolar Asturias
Escolar Baleares
Escolar Canarias
Escolar Municipal Barcelona
Escolar C. y León
Escolar Catalunya
Escolar Com. Madrid
Escolar Euskadi
Escolar Municipal Murcia
Escolar Navarra
Consejo Protección Naturaleza de Aragón

Fuente: elaboración propia.

Figura 5.

Puntuaciones Consejo Escolar de Extremadura

media/image7.jpeg

Fuente: elaboración propia.

Figura 6.

Puntuaciones Consejo Escolar de Castilla-La Mancha

media/image8.jpeg

Fuente: elaboración propia.

CONCLUSIONES[Subir]

En esta investigación hemos evaluado los consejos sectoriales españoles partiendo de una muestra de casos —pertenecientes a distintos temáticas y niveles territoriales— y utilizando dos bloques evaluativos diferentes. Una primera conclusión es que, además de apreciar una dinámica reveladora de la existencia de unos consejos próximos y otros alejados del modelo ideal, la relación entre las puntuaciones obtenidas en ambos bloques evaluativos es prácticamente inexistente. Esto encaja con algunas investigaciones previas que comprobaron desigualdades en los niveles de satisfacción, situación justificada por Seller debido a las «diferentes expectativas subjetivas esperadas en relación a los beneficios objetivos conseguidos por los actores participantes» (‍2008: 21). Así, un consejo con un diseño robusto puede no funcionar correctamente, generando insatisfacción entre sus participantes.

Ninguno de los casos puede considerarse como modélico. Si bien un pequeño grupo puntúa mejor en algunas dimensiones, ninguno sobresale en todas. Los rankings revelan que la temática del consejo, unida a su nivel territorial, determinan los resultados. Los consejos educativos se imponen frente al resto por influencia de la puntuación obtenida gracias a su diseño, más que por el componente satisfacción. El marco legislativo común del que parten los consejos educativos españoles de nivel autonómico explica que tengan las mismas atribuciones «y semejantes modos de funcionamiento» (‍Mandingorra, 2015: 19), uniformidad que se ha visto reflejada en los resultados de esta evaluación. Los dos casos con mejores resultados son, precisamente, los consejos escolares autonómicos manchego y extremeño, posicionados entre los mejor puntuados hasta en cuatro dimensiones.

Los consejos de inmigración, cuyo recorrido es más reciente y tienen un diseño institucional menos desarrollado, puntuaron bajo especialmente en el aspecto informativo (escasa presencia experta) y en control popular, reflejando una baja capacidad de influencia-control. Sus integrantes valoraron positivamente, sobre todo, la dimensión inclusividad. El balance sobre los medioambientales resulta negativo, en sintonía con investigaciones previas (‍Alarcón et al., 2020). Pese a que alguno (sobre todos, destaca el Consejo para la Protección de la Naturaleza de Aragón, véase tabla 4) aparece entre los mejor puntuados, observamos un panorama general en el que los esfuerzos en diseño parecen orientarse al aspecto informativo (otorgan importancia a la presencia de expertos), quedando desprovistos aspectos clave como la inclusividad y la transparencia.

Hay varios aspectos en los que sería necesario mejorar y profundizar esta línea de trabajo. Primero, la selección de indicadores y su ajuste a la teoría política entraña una dificultad de base en el esfuerzo de adaptación del marco conceptual a la realidad de los consejos. En segundo lugar, se evidenciaron divergencias entre los bloques evaluativos, por lo que en varias dimensiones hay ausencia o inexistencia de correlación entre puntuaciones. Aunque ya hemos visto que este resultado aparece en trabajos anteriores, su contundencia genera cierta inquietud. Las diferencias entre las percepciones de los participantes reflejan el «ambiente político competitivo» en el que se desenvuelven los consejos, cuyos resultados provienen de múltiples fuentes (stakeholders) con diferentes «demandas de legitimidad» (‍Van Damme et al., 2011). Así, coincidimos con la visión de aquellos investigadores para quienes el concepto de calidad democrática «consta de dos necesarios e interdependientes componentes: el de oportunidad-estructura […] y el ciudadano, referido a cómo los ciudadanos pueden insuflar vida dentro de aquellas oportunidades» (‍Mayne y Geissel, 2016: 634). Por ello, se antojan interesantes futuras evaluaciones centradas en los perfiles y expectativas de quienes participan, para averiguar qué está sucediendo cuando buenos diseños no se traducen en valoraciones positivas y por qué también ocurre lo contrario.

Respecto a la variable nivel territorial, su relevancia en los resultados es indudable. Investigaciones previas (‍Brugué et al., 2021) ya subrayaron su efecto a nivel subjetivo (según se desciende de nivel administrativo, percepción más positiva de su funcionamiento). Aquí hemos comprendido que esta variable también debe ser contemplada para comparar entre diseños institucionales. El carácter cuantitativo de esta investigación implica que generalmente se impongan los consejos educativos regionales, con normativas similares y mayor grado de formalización. Aspirar a obtener evaluaciones más precisas en esta línea de estudios de n-grande requiere que futuras evaluaciones se planteen comparativas estrechas entre casos de un mismo nivel para profundizar en sus dinámicas de funcionamiento diferenciales y combinar las aproximaciones cuantitativas y cualitativas para alcanzar el propósito.

Por último, y retomando nuestro objetivo principal, resultaría interesante un análisis exhaustivo de diversos aspectos y dinámicas propias para ver qué diferencia a los consejos que han resultado más cercanos al ideal del resto e identificar así prácticas virtuosas aplicables en otros casos. Sería muy enriquecedor, para profundizar en el conocimiento de estos mecanismos, afrontar nuevas evaluaciones sobre consejos de temáticas diferentes a las analizadas. De este modo podrían identificarse más claramente los factores explicativos (cuáles son y en qué medida) que vinculan las características de la temática con los resultados de sus consejos.

NOTAS[Subir]

[1]

Impulsados trienalmente, desde 2012, desde la Administración General del Estado.

[2]

En adelante, bloques evaluativos «diseño» y «satisfacción».

[3]

Algunas excepciones a este patrón son las aportaciones de Navarro (‍1999), Sarasa y Guiu (‍2001) y Blanco (‍2009). En los últimos años se han generado esfuerzos como de los planes de Gobierno Abierto —ya hemos citado el último de ellos—, impulsados para colmar esta laguna.

[4]

Excluimos esta última dimensión, pues definida por Smith como un criterio de comprobación de la «capacidad que tienen los diseños institucionales para operar en distintos contextos —escala, sistema político, temática—» (‍2009: 26-‍27) resulta útil a nivel teórico, pero no procede en esta investigación.

[5]

Es el de eficiencia un criterio multidimensional para cuya medición se apela en gran medida a lo subjetivo, siendo utilizados «entrevistas, cuestionarios, o encuestas —entre otros instrumentos— en la mayor parte de investigaciones que miden este criterio» (‍Rowe et al., 2004: 546).

[6]

Ello permitió alcanzar una mayor diversidad geográfica, evitando centrarse solamente en poblaciones que conforman áreas metropolitanas, situación que nos alejaría de aquella diversidad.

[7]

El trabajo de codificación fue realizado por tres miembros del equipo coordinados y con criterios unificados.

[8]

Se excluyeron los casos cuyo porcentaje de respuestas obtenidas fue desproporcionadamente protagonizado por miembros de la Administración pública (cuando más de un 60 % de las respuestas para un caso provienen de dichos perfiles).

[9]

Siendo nuestra unidad de análisis el consejo, la puntuación correspondiente a satisfacción participante es calculada mediante los promedios de las valoraciones realizadas por los encuestados en cada consejo.

[10]

Para ello, los hemos ordenado individualmente para cada una de las dimensiones (agregando puntuaciones de diseño y satisfacción).

[11]

No se incluyen en el texto, pero se encuentran, bajo demanda, a disposición del lector.

[12]

Desechamos aquellos casos que, pese a figurar en los primeros cuartiles de las clasificaciones agregadas (diseño + satisfacción), obtenían una puntuación inferior al promedio de la distribución en uno de los componentes. Así, descartábamos que uno de los componentes pudiese alterar en exceso la puntuación agregada.

[13]

En la tabla figuran exclusivamente los quince casos con puntuaciones destacadas en al menos tres de las dimensiones.

[14]

Recodificación por intervalos para asignar el rango de puntuaciones (0-‍2,5): [<= 0,2800 = 0; 0,2801- 0,3910 = 0’5; 0,3911- 0,5020 = 1; 0,5021 - 0,6130 = 1’5; 0,6131 - 0,7240 = 2; => 0,7241= 2,5].

[15]

[Representantes de asociaciones + representantes de sindicatos + representantes de organizaciones empresariales] / n.º total de miembros plenario.

[16]

[Representantes de asociaciones + representantes de sindicatos + representantes de organizaciones empresariales] / n.º total de miembros principal cuerpo ejecutivo]. En caso de presencia e información para ambas en sendos órganos, fue tomada en cuenta la media, previa a la asignación de los valores-puntuación. Para aproximadamente 1/3 de los casos sin cuerpo ejecutivo se tomó la información disponible, generalmente en el plenario.

[17]

Misma metodología aplicada que en notas anteriores. En este caso, de cara a obtener una mayor fiabilidad de la recodificación y asignación de puntuaciones (0-‍5), se dispuso de esta forma: [0’0000-0’0270 = 0; 0’0323-0’0536 = 1; 0’0588-0’1000 = 2; 0,’ 053-‍0’1379 = 3; 0’1400-0’1500 = 4; > 0’1500 = 5].

[18]

Disponibilidad o no online de las convocatorias de reuniones, actas e informes y recomendaciones emitidos.

[19]

Presencia online según que el sitio sea independiente, perteneciente a un dominio de una institución matriz, constituya una sección en otro sitio institucional o no exista.

[20]

Informes anuales; Reportes ad-hoc; Propuestas; Informes de diagnóstico.

[21]

En el cuestionario fueron planteadas preguntas de escala de cuatro, cinco y seis categorías de respuesta. En aras de la claridad expositiva, detallamos todos los tipos posibles de respuestas, con la respectiva puntuación asignada:

  • a)Muy en desacuerdo / en desacuerdo / algo en desacuerdo / ni de acuerdo ni en desacuerdo / algo de acuerdo / de acuerdo / muy de acuerdo [0; 0’166; 0’333; 0’5; 0’666; 0’833; 1]

  • b)Nunca / casi nunca / a veces / a menudo / casi siempre / siempre [0; 0’2; 0’4; 0’6; 0’8]

  • c)En absoluto importante / no importante / ni importante ni no importante / bastante importante / absolutamente importante [0; 0’25; 0’50; 0’75; 1].

[22]

Para la combinación de las cinco variables (n=421, 5 ítems) A.Cronbach: 0,711.

[23]

A.Cronbach: 0,807.

[24]

A.Cronbach: 0,707.

[25]

A.Cronbach: 0,525.

[26]

A.Cronbach: 0,282.

Referencias[Subir]

[1] 

Alarcón, Pau, José Luis Fernández-Martínez y Joan Font. 2020. «Comparing Environmental Advisory Councils: How They Work and Why it Matters», Sustainability, 12, 4286: Disponible en: https://doi.org/10.3390/su12104286.

[2] 

Blanco, Ismael. 2009. «Las consecuencias de la participación: evaluación del Consejo Municipal de Bienestar Social de Barcelona», en Marc Parés (coord.), Participación y calidad democrática. Evaluando las nuevas formas de democracia participativa. Barcelona: Ariel.

[3] 

Brugué, Quim, Joan Font y Jorge Ruiz. 2021. «The Closer, the Better? Comparing Advisory Councils at Different Government Levels», Administration and Society, 53 (6): 844-‍871. Disponible en: https://doi.org/10.1177/0095399720971601.

[4] 

Carr, Deborah S. y Kathleen Halvorsen. 2001. «An evaluation of three democratic, community-based approaches to citizen participation: Surveys, conversations with community groups, and community dinners», Society and Natural Resources, 14 (2): 107-‍126. Disponible en: https://doi.org/10.1080/089419201300000526.

[5] 

Christensen, Henrik. 2020. «How citizens evaluate participatory processes: A conjoint analysis», European Political Science Review, 12 (2): 239-‍253. Disponible en: https://doi.org/10.1017/S1755773920000107.

[6] 

Fobé, Ellen, Marleen Brans, Diederik Vancoppenolle y Jan Van Damme. 2013. «Institutionalized Advisory Systems: An Analysis of Member Satisfaction of Advice Production and Use across 9 Strategic Advisory Councils in Flanders (Belgium)», Policy and Society: Journal of Public, Foreign and Global Policy, 32: 225-‍240. Disponible en: https://doi.org/10.1016/j.polsoc.2013.07.004.

[7] 

Font, Joan. 2020. «Los consejos como espacios deliberativos: El caso español», en Joaquín B. Torrella et al. (ed.), ¿Una nueva democracia para el siglo xxi? CLACSO. Disponible en: https://doi.org/10.2307/j.ctv1gm01b0.17.

[8] 

Font, Joan, Sara Pasadas y Graham Smith. 2016. «Tracing the Impact of Proposals from Participatory Processes: Methodological Challenges and Substantive Lessons», Journal of Public Deliberation, 12 (1): 1-‍25. Disponible en: https://delibdemjournal.org/article/id/515/.

[9] 

Fung, Archon. 2006. «Varieties of Participation in Complex Governance», Public Administration Review, 66: 66-‍75. Disponible en: https://doi.org/10.1111/j.1540-6210.2006.00667.x.

[10] 

Galais, Carolina, Clemente J. Navarro y Paloma Fontcuberta. 2013. «La calidad de los procesos participativos locales: indicadores y factores explicativos contextuales. El caso de Andalucía», Revista Española de Ciencia Política, 32: 65-‍87. Disponible en: https://recyt.fecyt.es/index.php/recp/article/view/37588.

[11] 

Kweit, Mary G. y Robert W. Kweit. 1987. «Citizen participation: Enduring issues for the next century», National Civil Review, 76 (3): 191-‍198. Disponible en: https://doi.org/10.1002/ncr.4100760302.

[12] 

Mandingorra, Jesús. 2015. La participación ciudadana en la educación. Estudio comparado de los Consejos Escolares Autonómico [tesis]. Nando Rosales, Julio (dir.), Universidad Católica de San Vicente Mártir, Valencia.

[13] 

Mayne, Quinton y Brigitte Geissel. 2016. «Putting the demos back into the concept of democratic quality», International Political Science Review, 37 (5): 634-‍644. Disponible en: https://doi.org/10.1177/0192512115616269.

[14] 

Ministerio de Política Territorial y Función Pública, Gobierno de España. 2020. IV Plan de Gobierno Abierto. España. Secretaría General Técnica. Centro de Publicaciones.

[15] 

Navarro, Clemente J. 1999. El sesgo participativo. Madrid: Editorial CSIC.

[16] 

Navarro, Clemente J. 2008. «Los rendimientos de los mecanismos de participación: propuesta de sistema de evaluación y aplicación al caso de los presupuestos participativos», Revista del CLAD Reforma y Democracia, 40: 81-‍102. Disponible en: https://www.redalyc.org/articulo.oa?id=357533671004.

[17] 

Pogrebinschi, Thamy y Melisa Ross. 2019. «El abordaje metodológico del Proyecto LATINNO para la investigación sobre innovaciones democráticas. Contribuciones y desafíos», GIGAPP Estudios Working Papers, 6 (129): 323-‍336.

[18] 

Rodríguez, Gorka y Rafael Ajangiz. 2007. «Descentralización municipal y participación ciudadana: evaluación de una experiencia consolidada», Revista Española de Ciencia Política, 17: 181-‍197.

[19] 

Rowe, Gene, Roy Marsh y Lynn J. Frewer. 2004. «Evaluation of a deliberative conference», Science, Technology and Human Values, 29 (1): 88-‍121. Disponible en: https://journals.sagepub.com/doi/10.1177/0162243903259194.

[20] 

Sarasa, Sebastián y Jordi Guiu. 2001. «El Consejo Municipal de Bienestar Social en Barcelona», en Joan Font (coord.), Ciudadanos y decisiones públicas. Barcelona: Ariel.

[21] 

Seller, Enrique P. 2004. «La participación ciudadana en el ámbito local, eje transversal del trabajo social comunitario», Alternativas, Cuadernos de Trabajo Social, 12: 103-‍137. Disponible en: https://doi.org/10.14198/ALTERN2004.12.6.

[22] 

Seller, Enrique P. 2008. «Mecanismos de participación ciudadana en los servicios sociales municipales. Las realidades de la Región de Murcia», Cuadernos de Trabajo Social, 21: 7-‍25. Disponible en: https://revistas.ucm.es/index.php/CUTS/article/view/CUTS0808110007A.

[23] 

Smith, Graham. 2009. Democratic innovations. Cambridge University Press. Disponible en: https://doi.org/10.1017/CBO9780511609848.

[24] 

Van Damme, Jan, Marleen Brans y Ellen Fobé. 2011. «Balancing Expertise, Societal Input and Political Control in the Production of Policy Advice. A comparative study of education councils in Europe», Haldus-kultuur-Administrative Culture, 12 (2), 126-‍145. Disponible en: http://www.eunec.eu/sites/www.eunec.eu/files/attachment/files/article_hkac.pdf.

Anexo 1. Conjunto de datos Diseño [Subir]

Dimensión Variables Indicadores y asignación de puntuaciones
Inclusividad Autonomía cargos respecto a Administración +1,25 si el presidente no fue designado por la Administración +1,25 si el vicepresidente no fue designado por la Administración
Presencia sociedad civil en principales órganos +0-1,25[14] proporción presencia de la Sociedad Civil[15] en el plenario / +0-1,25 proporción presencia de la Sociedad Civil en el principal cuerpo ejecutivo[16]
Juicio informado Presencia expertos en consejo +0-2,5 proporción de expertos en plenario +0-2,5 proporción de expertos en ejecutivo[17]
Control popular Capacidad control agenda +1,25 si las políticas públicas son un objetivo declarado en normativa +1,25 si las autoridades están obligadas a consultar
Capacidad control outputs +1,25 si las recomendaciones son vinculantes
+1,25 si existen mecanismos de seguimiento
Transparencia Interna +0,833 si la normativa contempla procedimientos de modificación de normas/estructura
+0,833 si las reglas especifican canales de comunicación con autoridades
Externa +0’833 si los plenarios son públicos
+0’833 si el consejo dispone de alguna red social
Indicador Mixto +[0-0,833] publicidad de los productos del consejo[18]
+[0-0,833] tipo de presencia en Internet[19] y contenidos actualizados
Eficiencia Costes (recursos) +1,25 si el consejo tiene un presupuesto independiente / +1,25 si el consejo tiene un equipo propio
Beneficios cívicos +[0-2,5] producción de resultados[20]

Fuente: elaboración propia.

Anexo 2. Conjunto de datos Satisfacción[Subir]

Dimensión Variables Indicadores y asignación de puntuaciones [21]
Inclusividad 1. Debate bien estructurado por el presidente
2. Uno o más miembros dominan la discusión y se hace difícil participar
3. Composición del plenario políticamente diversa
4. ¿Principales stakeholders representados en el plenario?
Muy en desacuerdo >> muy de acuerdo [0; 0’166; 0’333; 0’5; 0’666; 0’833; 1]
5. Los miembros tienen derecho a expresar sus opiniones (voz)[22] Nunca >> siempre [0;0’2; 0’4; 0’6; 0’8; 1]
Juicio informado 1. La información es suficiente para tomar buenas decisiones
2. Información diversa e imparcial
3. La información es proporcionada cuando es solicitada
Muy en desacuerdo >> muy de acuerdo [0; 0’166; 0’333; 0’5; 0’666; 0’833; 1]
4. Los miembros alcanzan el consenso
5. La interacción lleva a comprender las posiciones de otros[23]
Nunca > siempre [0; 0’2; 0’4; 0’6; 0’8; 1]
Control popular 1. Recomendación por iniciativa del Consejo
2. La consulta guarda relación con los principales asuntos políticos
3. Como efecto del consejo, el contenido de la política cambia
Nunca >> siempre [0; 0’2; 0’4; 0’6; 0’8; 1]
4. La recomendación ha sido tenida en cuenta Muy en desacuerdo >> muy de acuerdo [0; 0’166; 0’333; 0’5; 0’666; 0’833; 1]
5. ¿Se dispone de mecanismos de seguimiento del impacto de las recomendaciones?[24] Sí / no [1 / 0]
Transparencia 1. El proceso consultivo resulta claro
2. Proceso de toma de decisiones limpio y transparente
3. Los medios prestan atención a la materia de consulta
4. Debate público en torno a la recomendación
5. Los gobernantes utilizan la recomendación para legitimar sus decisiones[25]
Muy en desacuerdo >> muy de acuerdo [0; 0’166; 0’333; 0’5; 0’666; 0’833; 1]
Nunca >> siempre [0; 0’2; 0’4; 0’6; 0’8]
Eficiencia 1. Se celebran demasiadas reuniones
2. Recibo demasiadas solicitudes para participar en distintos procesos
3. Sentimiento fuerte de implicación en el proceso
4. Cumplimiento de un deber cívico como factor para participar
Muy en desacuerdo >> muy de acuerdo [0; 0’166; 0’333; 0’5; 0’666; 0’833; 1]
5. Un factor muy importante para participar es el reconocimiento de la organización que se representa[26] En absoluto importante >> absolutamente importante [0, 0’25; 0’50; 0’75; 1]

Fuente: elaboración propia.

Biografía[Subir]

[a]

Licenciado en Derecho (Universidad de Oviedo), graduado en Sociología (UNED, Premio Extraordinario Fin de Grado) y en el Máster en Comunicación, Cultura, Sociedad y Política (UNED). Es beneficiario de un contrato FPU desde 2019 e integra su actividad en el grupo DEMOCRETS (IESA-CSIC). Su línea de investigación versa sobre la renovación y calidad de las instituciones democráticas, con especial énfasis en las formas de intervención de la ciudadanía en los asuntos públicos y los espacios participativos donde aquella se despliega. Ha colaborado en varios proyectos de investigación centrados en estos mecanismos, entre ellos dos de ámbito nacional: «Democracia asociativa: ¿autonomía responsable, sesgo participativo o círculo vicioso?» e «Ideologías e instituciones participativas, ¿qué relaciones?».