Equivalencias entre los indicadores de la herramienta SELFIE y el marco DigCompEdu a partir de la técnica Delphi

 

 

 

Equivalences between SELFIE indicators and DigCompEdu framework based on Delphi technique

 

 

Icono

Descripción generada automáticamente Dña. Jacoba Munar-Garau. Becaria de FPU-CAIB. Universidad de las Islas Baleares, España

Icono

Descripción generada automáticamente Dr. Jorge Oceja-Castañedo. Profesor ayudante doctor. Universidad de las Islas Baleares, España

Icono

Descripción generada automáticamente Dr. Jesús Salinas-Ibáñez. Catedrático de Universidad. Universidad de las Islas Baleares, España

 

 

Recibido: 2023/07/09 Revisado: 2023/09/13 Aceptado: 2023/11/15 Preprint: 2023/11/30 Publicado: 2024/01/07

 

 

Cómo citar este artículo:

Munar-Garau, J., Oceja-Castañedo, J., & Salinas-Ibáñez, J. (2024). Equivalencias entre los indicadores de la herramienta SELFIE y el marco DigCompEdu a partir de la técnica Delphi [Equivalences between SELFIE indicators and DigCompEdu framework based on Delphi technique]. Pixel-Bit. Revista de Medios y Educación, 69, 131-168. https://doi.org/10.12795/pixelbit.101775

 

 

RESUMEN

SELFIE es una de las herramientas más populares para determinar la competencia digital de los centros educativos a partir de la información generada por equipos directivos, alumnos y docentes. Sin embargo, no existe información sobre en qué medida este instrumento y los informes que genera aportan información específica sobre la competencia digital de los docentes según las áreas e indicadores establecidos en DigCompEdu. A través de un Delphi modificado de dos rondas con 19 expertos, se intentó averiguar qué indicadores de la herramienta SELFIE (y en qué medida) se corresponden con los indicadores de DigCompEdu y qué relación existe entre las ocho áreas establecidas en SELFIE y las seis áreas del marco DigCompEdu. Los resultados revelan correspondencias entre los indicadores, especialmente en áreas como la enseñanza y la evaluación. Además, demuestra que las áreas de ambos modelos están interrelacionadas, lo que sugiere que los datos generados a través de la herramienta SELFIE aportan información sobre la competencia digital específica de los docentes de un centro. El texto aboga por continuar localizando y diseñando instrumentos que puedan medir la competencia digital de centros y docentes de una manera válida y rigurosa.

 

 

ABSTRACT

SELFIE is one of the most popular tools for assesing the digital competence of schools based on information provided by principals, students and teachers. However, there is no information on how instrument and their reports provide specific information on the digital competence of teachers according to the areas and indicators established in DigCompEdu. Through a modified two-round Delphi with 19 experts, this works tries to find out which indicators of SELFIE (and to what extent) correspond to the DigCompEdu items and what relationship exists between the eight areas established in SELFIE and the six areas of the DigCompEdu framework. The results reveal numerous correspondences between items, especially in areas such as teaching and assessment. Furthermore, it shows that the areas of both models are interrelated, suggesting that the data generated through SELFIE could provide information on the specific digital competences of teachers in a particular school. The text suggests to keep identifying and designing instruments that can measure the digital competence of schools and teachers in a valid and rigorous manner.

 

 

PALABRAS CLAVES· KEYWORDS

Competencia digital, juicio de expertos, DigCompEdu, SELFIE, desarrollo profesional docente

Digital competence, expert judgement, DigCompEdu, SELFIE, teacher’s professional development

 

 

1. Introducción

Desarrollo del enfoque competencial en el contexto europeo. De la competencia a la competencia digital docente.

El enfoque competencial se ha consolidado en la Unión Europea a través de distintos eventos y decisiones estratégicas. Uno de los hitos más importantes fue la adopción, por parte del Consejo Europeo en 2001, del informe de la Comisión titulado Futuros objetivos precisos de los sistemas educativos y que incluía en su punto 1.2 la necesidad de promover la adquisición de las competencias necesarias para alcanzar una sociedad basada en el conocimiento. La definición de la Comisión Europea (2004, p.6) de las competencias clave es la siguiente:

 

“Las competencias claves representan un paquete multifuncional y transferible de conocimientos, capacidades y actitudes que todos los individuos necesitan para su desarrollo y realización personal, inclusión y empleabilidad”.

 

Dado que desde entonces los distintos territorios y centros educativos asumen esta definición, el Parlamento y el Consejo Europeo recogen en 2006 el informe de la Comisión Marco europeo de referencia para las competencias clave del aprendizaje permanente, el cual se resume en un documento de carácter más divulgativo publicado el año siguiente (Comisión Europea, 2007). Estos dos documentos son los primeros en los que se recogen ocho competencias claves, definiéndose la competencia digital de la siguiente manera:

 

“La competencia digital entraña el uso seguro y crítico de las tecnologías de la sociedad de la información (TSI) para el trabajo, el ocio y la comunicación. Se sustenta en las competencias básicas en materia de TIC: el uso de ordenadores para obtener, evaluar, almacenar, producir, presentar e intercambiar información, y comunicarse y participar en redes de colaboración a través de Internet” (p.7).

 

Más recientemente, la recomendación del Consejo de 22 de mayo de 2018 actualiza dicha definición estableciendo lo siguiente:

 

“La competencia digital implica el uso seguro, crítico y responsable de las tecnologías digitales para el aprendizaje, en el trabajo y para la participación en la sociedad, así como la interacción con estas. Incluye la alfabetización en información y datos, la comunicación y la colaboración, la alfabetización mediática, la creación de contenidos digitales (incluida la programación), la seguridad (incluido el bienestar digital y las competencias relacionadas con la ciberseguridad), asuntos relacionados con la propiedad intelectual, la resolución de problemas y el pensamiento crítico” (p. 9).

 

Aunque al tratarse de una competencia ha de ser adquirida por todas las personas y en el marco del aprendizaje a lo largo de la vida, la competencia digital de los docentes en activo resulta clave de cara a evaluar la calidad de los sistemas educativos (Gisbert et al., 2016). Por ello, el Centro Común de Investigación (CCI) de la Comisión Europea desarrolló el marco DigCompEdu. Dicho marco recoge y describe la competencia digital que han de poseer los docentes a través de veintidós indicadores o ítems organizados en seis áreas (Redecker, 2020).

 

Figura 1

Marco DigCompEdu

Diagrama

Descripción generada automáticamente

 

Aprovechando el trabajo realizado, el CCI desarrolló de forma paralela un marco que sirviera para evaluar, no solo las competencias intrapersonales, sino la competencia de las organizaciones e instituciones educativas. El DigCompOrg (Kampylis, 2015) persigue tal objetivo estableciendo ocho dimensiones divididas en dieciséis variables.

 

Figura 2

Marco DigCompOrg

Gráfico, Diagrama, Gráfico de proyección solar

Descripción generada automáticamente

 

Basándose en estos marcos, diversos autores han realizado trabajos que incluyen cuestiones como la formación inicial del profesorado por parte de las universidades (Cabero et al., 2023) o el impacto de los factores demográficos en la adquisición de la competencia digital (Palacios et al., 2023).

 

1.1. Instrumentos para la evaluación de la competencia digital y antecendentes para su construcción

El diseño de instrumentos oficiales de evaluación ha estado condicionado por los mencionados marcos (DigCompOrg y DigCompEdu) existiendo en la actualidad dos herramientas (SELFIE -iniciales de Self-reflection on Effective Learning by Fostering the use of Innovative Educational technologies- y SELFIE for teachers respectivamente). Mientras que la primera mide la competencia digital de los centros a partir de la información de equipos directivos, alumnos y docentes, SELFIE for teachers informa a los docentes sobre su competencia a través de una autoevaluación.

 Diversos autores han desarrollado otras herramientas para la evaluación y acreditación de la competencia digital docente en particular en el ámbito español (Álvarez & Gisbert, 2015; Cabero & Palacios, 2020; García-Hartacho et al., 2021; Rodríguez et al., 2016; Tourón et al., 2018). Entre éstas, el descontinuado Portafolio digital docente desarrollado por el Instituto Nacional de Tecnologías Educativas y de Formación del Profesorado (INTEF) (https://portfolio.intef.es/), informaba del nivel concreto de competencia en base a las evidencias que adjuntaban los docentes: blogs , certificaciones obtenidas, etc. No obstante, más allá de la autoevaluación que puedan hacer los docentes, la capacidad de identificar líneas de mejora en cada centro es fundamental para desarrollar políticas educativas basada en evidencias.  Esta capacidad podría lograrse mediante la adopción y aplicación de un marco de autoevaluación escolar que haga hincapié en la responsabilidad de los centros (Creemers et al., 2013; Hofman, et al., 2010).

SELFIE se desarrolló para proporcionar a los centros educativos un instrumento que permita medir los puntos fuertes y débiles de su uso de las tecnologías competencias digitales de los profesores (Costa et al., 2021). Se trata de una de las 11 iniciativas establecidas en el Plan de Acción de Educación Digital adoptado por la Comisión Europea (2018) para promover la autoevaluación de las prácticas educativas digitales e innovadoras en el contexto escolar. Disponible en las 24 lenguas oficiales de la Unión Europea, recoge de forma anónima las opiniones de estudiantes, profesores y líderes escolares de cada centro. Para diseñar SELFIE (véase Castaño-Muñoz et al., 2018 para detalles sobre su fiabilidad, consistencia y validez) se realizó un análisis de las herramientas previamente desarrolladas en Europa (Kampylis et al., 2016) tales como Opeka y Ropeka en Finlandia (Tanhua-Piiroinen & Viteli, 2017) y Digital Schools of Distinction en Irlanda (O'Leary, 2018).

Diversos estudios sobre SELFIE (Panesi et al., 2020) se han centrado en describir la herramienta y el proceso de autorreflexión asociado y en identificar las similitudes y diferencias con iniciativas similares. Los resultados revelan que SELFIE es uno de los pocos instrumentos que incluye la participación integral de los alumnos en la evaluación realizan los centros (Kampylis et al., 2016, 2019; Castaño-Muñoz et al., 2018). Otros estudios de investigación (Szûcs, 2019; Bocconi et al., 2020) arrojan luz sobre cómo SELFIE es útil para abordar la innovación digital de una organización educativa. Jeladze y Pata (2018) demuestran que la autorreflexión de la escuela al aplicar SELFIE ayuda a los profesionales que emplean tecnologías a tener un mejor conocimiento sobre su progreso en este ámbito.

En una línea similar, el presente estudio se basa en trabajos previos de los autores (Munar-Garau et al., 2023), orientados a generar un mapa de la competencia digital docente a raíz de la crisis sanitaria. No se trató en aquel momento de evaluar las estrategias y experiencias desarrolladas, sino de conocer cuál era la realidad de la implementación de los recursos digitales y los entornos tecnológicos en las escuelas así como el desempeño de los equipos docentes, en este caso en las Islas Baleares. Por ello se optó en dichos trabajos por SELFIE (https://education.ec.europa.eu/es/selfie) en lugar de SELFIE for teachers (https://education.ec.europa.eu/es/selfie-for-teachers) al considerarse importante la visión del equipo directivo y los alumnos además de la de los propios docentes.

La tabla 1 sintetiza las principales diferencias entre ambos instrumentos.

 

Tabla 1

Diferencias entre las herramientas SELFIE (para los centros) y SELFIE para docentes

 

SELFIE

SELFIE para docentes

Forma de administración

Gestionada por un administrador que distribuye las preguntas a los agentes participantes

Autónoma

Marco en el que se sustenta

DigCompOrg

DigCompEdu

Agentes participantes

Miembros del equipo directivo, docentes, alumnado

Docentes a título individual

Información generada

Diagnóstico del centro respecto a su competencia digital como institución orientado a la toma de decisiones

Nivel de competencia digital personal

 

Dado que SELFIE para docentes es un instrumento de uso personal y anónimo, en el ámbito de la investigación educativa es más común acceder, tras la solicitud de los permisos oportunos, a los informes que los colegios generan tras la aplicación de la herramienta SELFIE. Sin embargo, no existe información sobre en qué medida estos informes sirven para determinar la competencia digital de los docentes según las áreas e indicadores establecidos en DigCompEdu. Por ello, el objetivo principal del trabajo es generar información sobre las equivalencias entre los ítems de la herramienta SELFIE y los indicadores de DigCompEdu averiguando, además, si existe relación entre las áreas de ambos modelos. Esto permitirá, entre otras cuestiones, averiguar en qué medida la información pública generada con SELFIE en los centros puede aportar información sobre la competencia digital de sus docentes.

Utilizando la técnica Delphi se intentará dar respuesta a las siguientes preguntas de investigación:

 

(P1) ¿Qué indicadores de la herramienta SELFIE se corresponden con los indicadores de DigCompEdu según los criterios de los expertos?

(P2) ¿Qué relación existe, entre las ocho áreas establecidas en SELFIE y las seis áreas del marco DigCompEdu en función del número de correspondencias detectadas entre indicadores?

 

2. Metodología

2.1. Diseño de investigación

La metodología empleada para dar respuesta a las preguntas de investigación fue un Delphi modificado de dos rondas con 19 expertos. No se trata, por lo tanto de un diseño de investigación en el sentido tradicional (experimental, correlacional o descriptivo) sino que se busca obtener la valoración y consenso de los expertos respecto a una cuestión.

Franc (2021) menciona que el principal objetivo de esta técnica es lograr el consenso alrededor de un tema sobre el cual, en el momento en que comienza la aplicación, aún no existe dicho acuerdo. Según Franc, permite superar los problemas típicamente presentes en los grupos de discusión, tales como los liderazgos excesivos, la presión del grupo o el ruido generado.

En este trabajo se utiliza un Delphi modificado (Linstone & Turoff, 1975) de dos rondas con 19 expertos, según el cual pueden sustituirse las primeras fases por técnicas cualitativas similares como los grupos de discusión o entrevistas. En este caso, la primera validación se dio a través de un grupo de discusión con miembros del departamento en el que se encuadra el trabajo. Esto permitió comprobar la funcionalidad del instrumento, así como su usabilidad y el tiempo requerido para completarlo. El feedback recogido sirvió para ajustar el aspecto visual de la herramienta y optimizar la forma de presentación.

Para facilitar el trabajo de los expertos a la hora de diseñar el instrumento se creó una tabla de doble entrada. La fila superior horizontal presentaba los indicadores del marco DigCompEdu agrupados por áreas mientras que la columna vertical mostraba los del cuestionario SELFIE también agrupados por áreas (ver tabla). Se solicitó a los expertos que valoraran en cada casilla de cruce en qué medida, de 1 a 5, existía relación entre los distintos elementos siendo 1 “Apenas existe relación” y 5 “Existe una fuerte relación”. Además, se ofrecía la posibilidad de dejar la casilla en blanco si consideraban que no existía ninguna relación.

 

2.2. Informantes y criterios de selección a partir del coeficiente de competencia experta

Diversos autores han señalado la importancia de esta fase (Powell, 2003). En particular Cabero e Infante (2014) mencionan algunos criterios que pueden ser utilizados para seleccionar a los expertos. Entre ellos mencionan cuestiones como su conocimiento y experiencia, su voluntad y disponibilidad, su compromiso o su capacidad para mantener una comunicación efectiva. En este caso los criterios establecidos fueron los siguientes:

 

Amplia experiencia en el ámbito de la tecnología educativa y, en la medida de lo posible, con conocimiento de los sistemas de acreditación de la competencia digital

Docente e investigador universitario

Manejo del castellano como lengua de comunicación

 

Se seleccionó una muestra inicial (n = 30) con profesorado de universidades de España (n = 17), Chile (n = 3), Portugal (n = 2), Colombia (n = 2), Perú (n = 1), Costa Rica (n =1), Andorra (n = 1), México (n = 1), Argentina (n = 1) y Uruguay (n = 1). Tras un primer contacto por correo electrónico, 21 expertos se comprometieron a participar en el proyecto, de los cuales 20 completarían la primera ronda. De éstos, 19 completaron, además, un cuestionario de competencia experta diseñado siguiendo el modelo de Cabero y Barroso (2013). Finalmente, la segunda ronda fue completada por estos 19 expertos.

Para valorar el coeficiente de competencia experta se solicitó a cada participante que completara dos cuestiones. Por una parte, que valoraran de 0 a 10 el grado de conocimiento que consideraba poseer acerca de la tecnología educativa y de la competencia digital docente. Este valor, multiplicado por 0,1 (con la intención de que se mueva entre 0 y 1) representaría su coeficiente de conocimiento (Kc).

Por otra parte, para conocer sus fuentes, se les pidió que indicarán en qué medida, de 1 a 3, cada uno de los siguientes elementos había influido en su conocimiento:

 

Análisis teóricos realizados por el experto

Experiencia

Estudio de trabajos sobre el tema, de autores españoles

Estudio de trabajos sobre el tema, de autores extranjeros

Conocimiento acerca del estado del problema en el extranjero

Intuición del experto

 

2.3. Análisis del coeficiente de competencia experta

Tras otorgar distintos valores a cada elemento siguiendo el modelo de Cabero y Barroso (2013) la suma de dichas puntuaciones daría lugar al coeficiente de argumentación (Ka) que sería de nuevo un valor entre 0 y 1.

Una vez obtenidos estos datos, la fórmula para obtener el coeficiente de competencia experta es K=½(Kc+Ka) para que también este último valor se mueva en un rango de 0 y 1.

 

Tabla 2

Coeficiente de conocimiento, coeficiente de argumentación y coeficiente de competencia experto total. Valores medios y desviación típica

 

Kc (coeficiente de conocimiento)

Ka (coeficiente de argumentación)

K
(total)

Media

.836

.933

.885

Desviación típica

.103

.097

.100

 

La puntuación media obtenida (M = .836) indica que los niveles de experticia de los informantes son altos. Las puntuaciones individuales (en todos los casos K ≥ .7) muestran que todos ellos están en condiciones de participar en el estudio.

Una vez confirmada la pertinencia de los informantes se solicitó el consentimiento de participación a través del correo electrónico. En el correo se explicó el contexto y sentido principal del trabajo, el número de ocasiones en las que requeriríamos su participación, la forma de proceder y el tiempo estimado para completar cada ronda. Asimismo, se les invitó a firmar y devolver por correo electrónico el consentimiento informado. 19 participaron en todas las fases, lo cual según los criterios de Skulmonski et al., (2007) se presenta como un número válido.

 

2.4. Desarrollo del Delphi

Los correos para el desarrollo de la primera ronda se enviaron en febrero de 2023, recibiéndose las últimas respuestas en marzo de 2023. A partir de éstas se establecieron los valores medios de cada cruce, así como los niveles de consenso en cada caso utilizando el rango intercuartílico (IQR). De esta manera construimos una nueva tabla con dichos valores en la cual, para facilitar el trabajo de los informantes, eliminamos aquellos con una puntuación media baja (M ≤ 2.5). En dicha tabla se mostraban en verde los casos en los que existía consenso (IQR ≤ 1) dándoles a los expertos la opción de volver a puntuar todos los ítems no eliminados basándose en la nueva información. La nueva ronda tuvo lugar en abril y se completó en mayo de 2023. Con la información obtenida se construyó una tabla con las correspondencias entre los indicadores de SELFIE y los indicadores de DigCompEDU que para los expertos fueran particularmente significativas (M ≥ 4.5) y alrededor de las cuales se hubiera generado consenso (IQR ≤ 1).

Finalmente, para dar respuesta a la segunda pregunta de investigación se construyó una tabla de doble entrada con las ocho áreas de SELFIE (en la izquierda) y las distintas áreas de DigCompEDU (superior) para incluir en cada cruce el número de indicadores en los cuales, según los expertos, existe una gran correspondencia (M ≥ 4.5) dándose, además, altos niveles de consenso (IQR ≤ 1). Esto nos permitiría, utilizando un código de colores, representar cómo es la relación entre las áreas del instrumento SELFIE y del marco DigCompEDU.

 

3. Resultados

3.1. Rondas

3.3.1. Primera ronda

Los resultados de la primera ronda están disponibles en este enlace.

Ya desde este primer momento aparecieron relaciones con medias altas y grandes niveles de consenso. La siguiente tabla muestra aquellas relaciones en las que la media fue igual o superior a 4.5 (M ≥ 4.5) y el rango intercuartílico inferior a 1 (IQR ≤ 1).

 

Tabla 3

Medias (M) sobre la correspondencia entre los ítems de SELFIE y DigCompEDU, y los niveles de consenso (IQR) obtenidos tras la primera ronda

SELFIE (Liderazgo)

Áreas e indicadores de DigCompEdu

M

IQR

 

 

 

 

En nuestro centro respetamos los derechos de autor y las licencias de uso al utilizar tecnologías digitales para la enseñanza y el aprendizaje

(2) Protección, gestión e intercambio de contenidos digitales

4.69

0

SELFIE (Colaboración e interconexión)

Áreas e indicadores de DigCompEdu

M

IQR

En nuestro centro utilizamos tecnologías digitales al colaborar con otras organizaciones

 

(1) Colaboración profesional

4.53

1

En nuestro centro colaboramos con otros centros y/u organizaciones para apoyar el uso de tecnologías digitales

(1) Colaboración profesional

4.56

.75

SELFIE (Desarrollo Profesional Continuo)

Áreas e indicadores de DigCompEdu

M

IQR

Nuestro equipo directivo reflexiona con nosotros sobre nuestras necesidades de DPC en lo relativo a la enseñanza con tecnologías digitales

(1) Práctica reflexiva

4.59

0

Nuestro equipo directivo nos ayuda a intercambiar experiencias dentro del centro sobre la enseñanza con tecnologías digitales

(1) Práctica reflexiva

4.63

.25

(1) Desarrollo profesional continuo

4.69

1

SELFIE (Pedagogía: apoyo y recursos)

Áreas e indicadores de DigCompEdu

M

IQR

Busco recursos educativos digitales de internet

(2) Selección de recursos digitales

4.89

0

Creo recursos digitales para reforzar mi método de enseñanza

(2) Creación y modificación de recursos digitales

4.94

0

Utilizo tecnologías digitales para la comunicación relativa al centro educativo

(1) Comunicación organizativa

4.59

0

SELFIE (Pedagogía: prácticas aplicadas)

Áreas e indiicadores de DigCompEdu

M

IQR

Utilizo tecnologías digitales para facilitar la colaboración entre el alumnado

(3) Aprendizaje colaborativo

4.94

0

SELFIE (Prácticas de evaluación)

Áreas e indicadores de DigCompEdu

M

IQR

Utilizo tecnologías digitales para evaluar las habilidades de los alumnos

(4) Estrategias de evaluación

4.89

0

Utilizo tecnologías digitales para facilitar retroalimentación adecuada al alumnado

(4) Estrategias de evaluación

4.50

1

(4) Retroalimentación, programación y toma de decisiones

5

0

Utilizo tecnologías digitales para que el alumnado reflexione sobre su aprendizaje

(3) Aprendizaje autorregulado

4.71

0

(4) Estrategias de evaluación

4.5

1

(4) Retroalimentación, programación y toma de decisiones

4.75

0

Utilizo tecnologías digitales para que el alumnado pueda realizar observaciones sobre el trabajo de sus compañeros

(3) Aprendizaje colaborativo

4.53

1

(4) Estrategias de evaluación

4.79

0

(4) Retroalimentación, programación y toma de decisiones

4.5

1

Nuestro equipo directivo me ayuda a utilizar tecnologías digitales para fines de evaluación

(4) Estrategias de evaluación

4.6

.5

Utilizo datos digitales sobre los alumnos concretos para mejorar su experiencia de aprendizaje

(4) Analíticas de aprendizaje

4.67

.75

(4) Retroalimentación, programación y toma de decisiones

4.77

0

SELFIE (Competencias digitales del alumnado)

Áreas e indicadores de DigCompEdu

M

IQR

En nuestro centro el alumnado aprende a actuar de manera segura en internet

(6) Uso responsable

4.79

0

En nuestro centro el alumnado aprende a actuar de manera responsable en internet

(6) Uso responsable

5

0

En nuestro centro el alumnado aprende a comprobar si la información que encuentra en internet es fiable y precisa

(6) Información y alfabetización mediática

5

0

En nuestro centro el alumnado aprende a crear contenidos digitales

(6) Creación de contenido digital

4.94

0

En nuestro centro el alumnado aprende a comunicarse utilizando tecnologías digitales

(6) Comunicación y colaboración digital

4.95

0

En nuestro centro el alumnado aprende a codificar o programar

(6) Creación de contenido digital

4.57

1

En nuestro centro el alumnado aprende a resolver problemas técnicos que surgen al utilizar tecnologías digitales

(6) Resolución de problemas digitales

4.94

0

 

Esta primera ronda nos sirvió para identificar relaciones potencialmente válidas (n = 77) a partir de niveles en las medias (M ≥ 4.5) y los consensos con un rango intercuartílico inferior a 1 (IQR ≤ 1).

 

3.3.2 Segunda ronda

A continuación, volvimos a contactar con los participantes (n = 20) por correo electrónico para compartir los resultados de la primera ronda. En esta ocasión bloqueamos las celdas con medias bajas (M ≤ 2,5). Además, con un código de colores, indicamos cuáles eran las relaciones en las que existían consensos significativos dándoles, en cualquier caso, la opción de puntuar todas las celdas de nuevo. Los resultados obtenidos (n = 19) pueden verse en este enlace.

La siguiente tabla muestra todas las relaciones en las que la media es igual o superior a 4.5 (M ≥ 4.5) y el rango intercuartílico inferior a 1 (IQR ≤ 1) tras la segunda ronda.

 

Tabla 4

Medias (M) sobre la correspondencia de los ítems de SELFIE y de DigCompEdu y los niveles de consenso obtenido tras la segunda ronda

SELFIE (Liderazgo)

Áreas e indicadores de DigCompEdu

M

IQR

(*) Nuestro equipo directivo involucra al profesorado en el desarrollo de la estrategia digital del centro

(1) Colaboración profesional

4.55

1

(*) Cuento con el apoyo de nuestro equipo directivo a la hora de probar nuevas formas de enseñanza con tecnologías digitales

(1) Colaboración profesional

4.71

.64

En nuestro centro respetamos los derechos de autor y las licencias de uso al utilizar tecnologías digitales para la enseñanza y el aprendizaje

(2) Selección de recursos digitales

4.75

1

(2) Creación y modificación de recursos digitales

4.62

.45

(2) Protección, gestión e intercambio de contenidos digitales

4.96

0

SELFIE (Colaboración e interconexión)

Áreas e indicadores de DigCompEdu

M

IQR

(*) En nuestro centro evaluamos nuestros progresos en materia de enseñanza y aprendizaje con tecnologías digitales

(4) Estrategias de evaluación

4.6

1

(4) Analíticas de aprendizaje

4.8

.75

(4) Retroalimentación, programación y toma de decisiones

4.6

1

(*) En nuestro centro debatimos sobre las ventajas y desventajas de la enseñanza y el aprendizaje con tecnologías digitales

(1) Práctica reflexiva

4.71

.62

En nuestro centro utilizamos tecnologías digitales al colaborar con otras organizaciones

(1) Colaboración profesional

4.72

.4

En nuestro centro colaboramos con otros centros y/u organizaciones para apoyar el uso de tecnologías digitales

(1) Colaboración profesional

4.54

.56

SELFIE (Desarrollo Profesional Continuo)

Áreas e indicadores de DigCompEdu

M

IQR

Nuestro equipo directivo nos ayuda a intercambiar experiencias dentro del centro sobre la enseñanza con tecnologías digitales

(1) Práctica reflexiva

4.7

.43

(1) Desarrollo profesional continuo

4.68

.45

SELFIE (Pedagogía: apoyo y recursos)

Áreas e indicadores de DigCompEdu

M

IQR

Busco recursos educativos digitales de internet

(2) Selección de recursos digitales

4.85

.19

Creo recursos digitales para reforzar mi método de enseñanza

(2) Creación y modificación de recursos digitales

4.99

0

Utilizo tecnologías digitales para la comunicación relativa al centro educativo

(1) Comunicación organizativa

4.93

.15

SELFIE (Pedagogía: prácticas aplicadas)

Áreas e indicadores de DigCompEdu

M

IQR

Utilizo tecnologías digitales para facilitar la colaboración entre el alumnado

(3) Aprendizaje colaborativo

4.97

.12

SELFIE (Prácticas de evaluación)

Áreas e indicadores de DigCompEdu

M

IQR

Utilizo tecnologías digitales para evaluar las habilidades de los alumnos

(4) Estrategias de evaluación

4.88

.12

 

(4) Retroalimentación, programación y toma de decisiones

5

0

Utilizo tecnologías digitales para que el alumnado reflexione sobre su aprendizaje

(3) Aprendizaje autorregulado

4.64

.25

(4) Estrategias de evaluación

4.52

.43

(4) Retroalimentación, programación y toma de decisiones

4.63

.47

Utilizo tecnologías digitales para que el alumnado pueda realizar observaciones sobre el trabajo de sus compañeros

(4) Estrategias de evaluación

4.83

.17

(4) Retroalimentación, programación y toma de decisiones

4.57

.5

Nuestro equipo directivo me ayuda a utilizar tecnologías digitales para fines de evaluación

(4) Estrategias de evaluación

4.68

.29

(*) Utilizo datos digitales sobre alumnos concretos para mejorar su experiencia de aprendizaje

(4) Analíticas de aprendizaje (*)

4.79

.33

(4) Retroalimentación, programación y toma de decisiones (*)

4.81

.18

(5) Personalización (*)

4.73

.46

SELFIE (Competencias digitales del alumnado)

Áreas e indicadores de DigCompEdu

M

IQR

En nuestro centro el alumnado aprende a actuar de manera segura en internet

(6) Uso responsable

4.94

.22

En nuestro centro el alumnado aprende a actuar de manera responsable en internet

(6) Uso responsable

4.99

.04

En nuestro centro el alumnado aprende a comprobar si la información que encuentra en internet es fiable y precisa

(6) Información y alfabetización mediática

5

0

(*) En nuestro centro el alumnado aprende a dar crédito al trabajo de otras personas que ha encontrado en internet

(6) Creación de contenido digital (*)

4.9

.38

En nuestro centro el alumnado aprende a crear contenidos digitales

(6) Creación de contenido digital

4.9

0

En nuestro centro el alumnado aprende a comunicarse utilizando tecnologías digitales

(6) Comunicación y colaboración digital

4.99

.04

En nuestro centro el alumnado aprende a codificar o programar

(6) Creación de contenido digital

4.6

.38

En nuestro centro el alumnado aprende a resolver problemas técnicos que surgen al utilizar tecnologías digitales

(6) Resolución de problemas digitales

4.94

.04

Nota.

El número entre paréntesis muestra el área de DigCompEDU al que pertenece cada indicador: (1) Compromiso profesional, (2) Contenidos digitales, (3) Enseñanza y aprendizaje, (4) Evaluación y retroalimentación, (5) Empoderamiento de los estudiantes y (6) Desarrollo de la competencia digital de los estudiantes.
(*) Indicadores descartadas en la primera ronda por medias inferiores a 4,5 y añadidas tras la segunda ronda al subir la media y obtenerse consenso.

Indicadores eliminados en la segunda ronda al bajar la media obtenida o por desaparición de consenso (ver Tabla 3):
- Desarrollo profesional continuo
     - Nuestro equipo directivo reflexiona con nosotros sobre nuestras necesidades de DPC en lo relativo a la enseñanza con tecnologías digitales. (1) Práctica reflexiva. (M = 4.35) (IQR = 0.86)
- Prácticas de evaluación:
     - Utilizo tecnologías digitales para facilitar retroalimentación adecuada al alumnado (4) Estrategias de evaluación. (M = 4.27) (IQR = 1)
     - Utilizo tecnologías digitales para que el alumnado pueda realizar observaciones sobre el trabajo de sus compañeros (3) Aprendizaje colaborativo. (M = 4.05) (IQR = 0.37)
     - Utilizo datos digitales sobre los alumnos concretos para mejorar su experiencia de aprendizaje
          - (4) Analíticas de aprendizaje. (M = 4.37) (IQR =0.5)
          - (4) Retroalimentación, programación y toma de decisiones. (M = 4.36) (IQR = 0.45)

 

3.2. Respuesta a las preguntas de investigación

3.2.1. Respuesta a P1

La segunda ronda sirvió, por lo tanto, para dar respuesta a la primera pregunta de investigación. En particular, pudimos comprobar cómo en la mayoría de las ocasiones, las relaciones mostradas en la tabla 1 se consolidaron, aunque no todas las relaciones de la primera ronda se mantuvieron (de hecho, se reducen en número total) apareciendo, además, relaciones nuevas. No obstante, los datos muestran consistencia entre ambas rondas. En particular, se añaden algunas relaciones al alcanzar los umbrales de consenso o a los valores medios establecidos (n = 4), mientras que otras desaparecen (n = 2). Los resultados finales muestran que se dan medias elevadas (M ≥ 4.5) con altos niveles de consenso (IQR ≤ 1) en un número importante de relaciones (n = 28).

 

3.2.2. Respuesta a P2

Para dar respuesta a la segunda pregunta de investigación se construyó una tabla de doble entrada que incluyera las ocho áreas de SELFIE (en la izquierda) y las distintas áreas de DigCompEdu (superior). El número en cada cruce corresponde a la cantidad de indicadores en los cuales, según los expertos, existe una gran correspondencia (M ≥ 4.5) dándose, además, altos niveles de consenso (IQR ≤ 1). Una mayor intensidad del color representa que esas dos áreas comparten un mayor número de indicadores.

La siguiente tabla (Tabla 5) muestra agrupados por dimensiones los números finales de relaciones.

 

Tabla 5

Áreas de SELFIE y del marco DigCompEDU entre las que existe una relación significativa si atendemos al número de indicadores con una elevada correspondencia y con altos niveles de consenso

 

(1)

(2)

(3)

(4)

(5)

(6)

Total

Liderazgo

2

3

0

0

0

0

5

Colaboración e interconexión

3

0

0

3

0

0

6

Infraestructura y equipamiento

0

0

0

0

0

0

0

Desarrollo profesional continuo

2

0

0

0

0

0

2

Pedagogía: Apoyo y recursos

1

2

0

0

0

0

3

Pedagogía: Prácticas aplicadas

0

0

1

0

0

0

1

Prácticas de evaluación

0

0

1

9

1

0

11

TOTAL

9

5

2

12

1

0

28

Nota.

La tabla muestra las ocho áreas de SELFIE (izquierda) y las áreas de DigCompEDU (superior). Los números de cada cruce muestran a la cantidad de indicadores que se corresponden (M ≥ 4,5) y en los cuales se da consenso (IQR ≤ 1).
(1) Compromiso profesional, (2) Contenidos digitales, (3) Enseñanza y aprendizaje, (4) Evaluación y retroalimentación, (5) Empoderamiento de los estudiantes y (6) Desarrollo de la competencia digital de los estudiantes

 

4. Discusión

En primer lugar, comprobamos que existen un número importante de indicadores de DigCompEdu que se corresponden con ítems de la herramienta SELFIE (n = 67). Algunas relaciones son particularmente importantes como las que existen entre los ítems En nuestro centro respetamos los derechos de autor y las licencias de uso al utilizar tecnologías digitales para la enseñanza y el aprendizaje (SELFIE -Liderazgo-) y Protección, gestión e intercambio de contenidos digitales (DigCompEdu -Contenidos digitales-) (M = 4.96; IQR = 0) o Creo recursos digitales para reforzar mi método de enseñanza (SELFIE -Pedagogía: apoyos y recursos-) y Creación y modificación de recursos digitales (DigCompEdu -Contenidos digitales-) (M = 4.99; IQR = 0).

Aunque estas relaciones podrían parecen lógicas atendiendo a la formulación de los indicadores, ya de por sí muy similares en su construcción, también se dan otras no tan evidentes como Utilizo tecnologías digitales para facilitar la colaboración entre el alumnado (SELFIE -Pedagogía: Prácticas aplicadas-) y Aprendizaje colaborativo (DigCompEdu -Enseñanza y Aprendizaje-) (M = 4.97; IQR = .12) o Utilizo datos digitales sobre alumnos concretos para mejorar su experiencia de aprendizaje (SELFIE -Prácticas de evaluación-) y Retroalimentación, programación y toma de decisiones (DigCompEdu -Evaluación y retroalimentación-) (M = 4.81; IQR = .18).

Estas relaciones no se dan sólo entre indicadores, ya que las áreas de los dos modelos parecen estar relacionadas. Esto es evidente a nivel de nomenclatura en casos como Prácticas de evaluación en SELFIE y Evaluación y retroalimentación en DigCompEdu. El trabajo confirma, por ejemplo, que entre estas dos áreas se dan 18 relaciones directas, algunas con medias y niveles de consenso particularmente elevados. Esto ocurre, por ejemplo, entre el ítem de SELFIE En nuestro centro el alumnado aprende a resolver problemas técnicos que surgen al utilizar tecnologías digitales y el indicador DigCompEdu Resolución de problemas digitales (M = 4.94; IQR = .04) o entre el ítem de SELFIE En nuestro centro el alumnado aprende a actuar de manera responsable en internet y el indicador Uso responsable.

Las relaciones entre las áreas son también importantes entre Competencias digitales del alumnado (SELFIE) y Desarrollo de la competencia digital de los estudiantes (DigCompEdu) (n = 10), Colaboración e interconexión (SELFIE) y Compromiso profesional (DigCompEdu) (n = 8) y, en menor medida entre otras como Liderazgo y compromiso profesional (SELFIE) y Colaboración e Interconexión (SELFIE) (n = 5) o Desarrollo profesional continuo y Compromiso profesional (DigCompEdu) (n = 5).

Si bien algunos resultados del trabajo podrían parecer lógicos al presentar determinadas áreas de SELFIE y DigCompEdu nombres similares, las relaciones invitan a pensar de una manera más transversal. Por ejemplo, partiendo de las seis áreas de DigCompEdu, podríamos analizar qué áreas e ítems de SELFIE podrían aportarnos información sobre cada una de ellas:

1)             Compromiso profesional: Según los resultados, la medida en la que los docentes de un centro se comportan como profesionales podría estar informada y condicionada por los niveles de Colaboración e interconexión en SELFIE (i.e: En nuestro centro debatimos sobre las ventajas y desventajas de la enseñanza y el aprendizaje con tecnologías digitales). Esto coincidiría con lo apuntado por San Fabián (2006) cuando subraya la relación entre estos dos ámbitos. También, aunque en menor medida, por elementos vinculados al liderazgo (i.e: Nuestro equipo directivo involucra al profesorado en el desarrollo de la estrategia digital del centro), cuestión apuntada por Lázaro y Gisbert (2015) o las opciones que se le dan para el desarrollo profesional continuo (i.e: Tengo acceso a posibilidades de aprendizaje en lo relativo a la enseñanza y el aprendizaje con tecnologías digitales) tal y como indican Tejada Fernández y Pozos Pérez (2018) al señalar la necesidad de reajustar la formación continua en función de las competencias digitales que han de tener los docentes según el marco normativo.

2)             Contenidos digitales: La capacidad para seleccionar y crear contenidos digitales por parte de los docentes podría estar informada por ítems de la categoría Pedagogía: Apoyos y recursos de SELFIE. Este tipo de relaciones son bastante explícitas, ya que los ítems que conforman el apartado son particularmente descriptivos (i.e: Creo recursos digitales para reforzar mi método de enseñanza). Aunque en menor medida, el liderazgo en los centros (i.e: En nuestro centro respetamos los derechos de autor y las licencias de uso al utilizar tecnologías digitales para la enseñanza y el aprendizaje) vuelve a tener importancia en línea con lo apuntado por Pablos Pons et al. (2010) cuando señala que el equipo directivo puede favorecer las condiciones adecuadas para fomentar esta creación y selección de contenidos.

3)             Enseñanza y aprendizaje: La dimensión pedagógica podría estar informada por elementos de las áreas Pedagogía: Prácticas aplicadas (i.e: Utilizo tecnologías digitales para adaptar mi método de enseñanza a las necesidades individuales del alumnado) y Prácticas de evaluación de SELFIE (i.e: Utilizo tecnologías digitales para que el alumnado reflexione sobre su aprendizaje). Estas relaciones subrayan cómo entre las piezas más importantes de todo proceso didáctico se encuentran la definición de metodologías y el establecimiento de estrategias de evaluación.

4)             Evaluación y retroalimentación. La capacidad de los docentes para evaluar y dar feedback de calidad se refleja directamente en múltiples ítems del área de SELFIE Prácticas de evaluación y, en menor medida, en algunos del apartado Colaboración e interconexión (i.e: En nuestro centro evaluamos nuestros progresos en materia de enseñanza y aprendizaje con tecnologías digitales). De hecho, varios elementos de SELFIE aparecen en la literatura científica como variables clave a la hora de realizar una evaluación de calidad, como ocurre con Utilizo tecnologías digitales para facilitar retroalimentación adecuada al alumnado, cuestión apuntada por Espinoza Freire (2021).

5)             Empoderamiento de los estudiantes. Aunque no es el área que ofrece más conexiones, la capacidad de empoderar a los estudiantes podría estar informada por ítems de SELFIE pertenecientes a los apartados Pedagogía: Prácticas aplicadas (i.e: Utilizo tecnologías digitales para adaptar mi método de enseñanza a las necesidades individuales del alumnado) y, en menor medida, por otros de Prácticas de evaluación (i.e: Utilizo datos digitales sobre alumnos concretos para mejorar su experiencia de aprendizaje).

6)             Competencia digital del alumnado. La capacidad de los docentes para desarrollar en sus alumnos la competencia digital podría estar informada por múltiples ítems del área de SELFIE Competencias digitales del alumnado (i.e: En nuestro centro el alumnado aprende a crear contenidos digitales). En este caso la relación es prácticamente directa y diversas variables de los ítems de SELFIE darían pistas sobre cómo promover la competencia digital del alumnado. Los resultados estarían alineados con la asunción de que la promoción de la competencia digital del alumnado es un elemento más dentro de la competencia digital docente (Gisbert et al., 2016).

 

5. Conclusiones

El presente trabajo aporta información sobre las posibles equivalencias entre los indicadores de las áreas de DigCompEdu y los ítems de la herramienta SELFIE, para confirmar si los datos obtenidos de los centros tras la aplicación de dicha herramienta informan sobre la competencia digital de sus docentes. Aunque algunos trabajos han explorado en qué medida los resultados de SELFIE aportan información sobre distintas cuestiones educativas (Hippe & Jakubowski, 2022), ésta seguía siendo una cuestión sin resolver. Esperamos, por lo tanto, que el trabajo resulte de utilidad a aquellos investigadores y profesionales de la educación que, teniendo acceso a reportes generados con SELFIE, quieran obtener información sobre la competencia digital específica de los docentes de un centro.

El estudio tiene diversas limitaciones. A pesar del reconocimiento de la técnica Delphi como una forma válida para generar consensos, la selección de los expertos puede tener cierto sesgo al no tratarse de una muestra aleatoria sino seleccionada ad hoc por los autores del trabajo. Algunos autores han señalado otros problemas vinculados con esta metodología, como el que los resultados están basados en opiniones en lugar de evidencias, el que el consenso no implique veracidad o, a nivel general, la falta de datos sobre su validez. Keeney et al. (2011) explican que el método no es un reemplazo ni de las revisiones científicas rigurosas ni de la investigación original y su uso se recomienda cuando el problema no sugiere la utilización de técnicas específicas de análisis, como ocurre en este caso.

A su vez, podría cuestionarse por qué es necesario el establecimiento de las correspondencias buscadas en este trabajo cuando existe un instrumento específico que informa sobre competencia digital de los docentes (SELFIE para docentes). Sin embargo, se trata de una herramienta privada de autoevaluación mientras que SELFIE puede compartirse de manera pública por los centros, lo que facilita su uso en proyectos de investigación realizados desde el ámbito académico.

Dada la importancia de la competencia digital de los docentes en nuestro contexto educativo, es necesario continuar localizando y diseñando instrumentos que puedan medirla de una manera válida y rigurosa. Las revisiones de distintos autores (García Ruiz et al., 2023; Jiménez Hernández et al., 2021; Rodríguez-García et al., 2019) podrían ser un punto de partida sobre el que continuar trabajando.

La permeabilidad de nuestro mundo a lo digital convierte en una exigencia la alfabetización digital de los docentes de todos los niveles educativos. Esperamos por ello que el presente trabajo sirva para obtener diagnósticos certeros y, sobre todo, contribuya a mejorar la competencia digital de los profesionales de la educación.

 

6. Financiación

Este trabajo ha sido financiado por la Comunitat Autònoma de les Illes Balears a través 519 de la Direcció General de Recerca, Innovació i Transformació Digital, con fondos derivados 520 del Impuesto de Tasas Turísticas y Turismo Sostenible ITS2017-006 (PDR2020/49).

 

 

 

Equivalences between SELFIE indicators and DigCompEdu framework based on Delphi technique

 

1. Introduction

Development of the competence framework in Europe: from competence to digital competence in teaching

The European Union has established a competence framework through different events and strategic decisions. One of the most important milestones was the European Council’s 2001 decision to adopt the European Commission’s report The Concrete Future Objectives of Education Systems. Point 1.2 in the report included the need to promote the acquisition of all necessary skills to attain a knowledge-based society. The European Commission defines key skills as follows (2004, p.6):

 

“Key competences represent a multifunctional and transferable set of knowledge, skills/abilities and aptitudes that all individuals need for personal accomplishment and development, inclusion and employability.”

 

Since then, different regions and educational institutions have taken this approach leading the European Parliament and Council to adopt the Commission’s 2006 report: European Reference Framework for Key Competences for Lifelong Learning. The report was summarised in a more accessible document released the following year (European Commission, 2007).

These documents set out eight competences, including digital competence, defined as follows:

 

“Digital competence involves the confident and critical use of Information Society Technology (IST) for work, leisure and communication. It is underpinned by basic skills in ICT: the use of computers to retrieve, assess, store, produce, present and exchange information, and to communicate and participate in collaborative networks via the Internet” (p.7).

 

However, since this concerns a skill, it needs to be acquired by all individuals within the framework of lifelong learning. Thus, digital competence of practising teachers is key to assessing the quality of education systems (Gisbert et al., 2016). In this sense, the Joint Research Centre (JRC) of the European Commission has developed the DigCompEdu framework. The framework includes and defines teachers’ digital competence through 22 fundamental variables structured into six areas (Redecker, 2020).

 

 

Figure 1

DigCompEdu Framework

 

Taking advantage of previous work, the JRC developed a parallel framework not only to assess intra-personal skills but also the competences of educational organisations and institutions. The DigCompOrg framework (Kampylis, 2015) pursues this objective by establishing eight elements structured into 16 sub-elements.

 

Figure 2

DigCompOrg Framework

 

Based on these frameworks, several authors have carried out research targeting issues such as initial teacher training (Cabero et al., 2023) or the impact of demographic factors on the acquisition of digital competence (Palacios et al., 2023)

 

1.1. Instruments for assessing digital competence

The design for official assessment tools has been determined by the DigCompOrg and DigCompEdu frameworks, and there are currently two official instruments (SELFIE—Self-reflection on Effective Learning by Fostering the Use of Innovative Educational Technologies —and SELFIE for Teachers, respectively). The first measures digital competence at schools based on information from management teams, students, and teachers, whilst the second measures teacher competence through self-assessment.

These are not the only instruments and several authors have developed other tools to assess and certify teachers’ digital competence (e.g. in Spain, Álvarez & Gisbert, 2015; Cabero & Palacios, 2020; García-Hartacho et al., 2021; Rodríguez et al., 2016; Tourón et al., 2018), most being designed as self-assessment tools. One now-discontinued tool, the Portafolio digital docente (Digital Teacher Portfolio) from the National Institute for Education Technologies and Teacher Training (INTEF) (https://portfolio.intef.es/) provided the specific skill level based on evidence submitted by teachers themselves: blogs produced, certifications awarded, etc.

Beyond providing teachers with self-assessment tools, the ability to spot needs and priorities for improvement in schools is essential for successfully developing an evidence-based education policy. This could be attained by adopting and implementing a school self-assessment framework that emphasises the school’s responsibility for quality (Creemers et al., 2013; Hofman, et al., 2010).

SELFIE (Costa et al., 2021) was developed to provide schools with a tool to measure strengths and weaknesses when it came to teachers’ use of digital technology. This is one of the 11 initiatives set out in the Digital Education Action Plan adopted by the European Commission (2018) to promote self-assessment for digital and innovative education practice at schools. SELFIE is available in the 24 official EU languages, and it anonymously sets out the opinions of students, teachers and school leaders regarding how technology is used in their schools.

Solid research underpins the tool since it is based on the European Framework for Digitally Competent Educational Organisations (DigComp). In order to draft SELFIE (see Castaño-Muñoz et al., 2018 for details on data reliability, consistency and validity), several tools developed and/or used in Europe were analysed (Kampylis et al., 2016), including Opeka and Ropeka in Finland (Tanhua-Piiroinen & Viteli, 2017) and Digital Schools of Distinction in Ireland (O'Leary, 2018).

Until now, studies on SELFIE have largely focused on describing the tool and the associated self-reflection process, as well as identifying similarities and differences regarding other initiatives (Panesi et al., 2020). These studies found SELFIE to be one of the few instruments designed for comprehensive student participation in digital self-assessment at schools (Kampylis et al., 2016, 2019; Castaño-Muñoz et al., 2018).

Other research (Szûcs, 2019; Bocconi et al., 2020) sheds light on how SELFIE meets the need to approach aspects of digital innovation across all educational organisation levels. Jeladze and Pata (2018) show how data generated from self-reflection processes at schools using SELFIE helps those using digital technology to gain greater insight into their progress. This spotlights significant differences in digital competence levels between different schools.

The present article is based on data obtained by the authors in previous works that aimed to measure and promote teacher digital competency (TDC) map (linked to developing professional identity) after the recent health crisis (Munar et al., 2023). In this sense, it was not originally concerned with assessing developed strategies and skills, but rather with gaining a deeper awareness on how digital resources were really implemented and what was the situation of technology environments at schools, as well as the performance level of teachers in the Balearic Islands.

Data obtained in SELFIE as opposed to the self-assessment tool for teachers (SELFIE for Teachers) was selected for producing a map of digital competence geared towards digital transformation. In this vein, gaining a perspective on the skills of management teams, students and teachers was preferred over teachers’ individual self-perception.

Thus, SELFIE tool in this study refers to the instrument for measuring school competence (https://education.ec.europa.eu/es/selfie) as opposed to SELFIE for Teachers (https://education.ec.europa.eu/es/selfie-for-teachers), which measures individual teacher competence based on self-assessment.

Table 1 summarises the main differences between the two tools.

 

Table 1

Similarities and differences between SELFIE tools for centres and teachers

 

SELFIE

SELFIE for Teachers

Method of administration

Managed by an administrator who distributes the questions to participating stakeholders

Independent

Underlying framework

DigCompOrg

DigCompEdu

Participating stakeholders

Management teams, teachers and students

Teachers on an individual basis

Information obtained

A diagnostic of the schools’ digital competence as an institution geared towards decision-making

Personal digital competence level

 

Since SELFIE for teachers is an anonymous personal tool, educational research more commonly accesses reports produced by schools after implementing SELFIE (after requesting permission).

Nonetheless, there is no information on how these reports could be used to determine teachers’ digital competence according to the areas and indicators set out in DigCompEdu. Therefore, the initial problem guidingthis research is the lack of information on possible equivalences between items in the SELFIE tool and DigCompEdu indicators.

An attempt will therefore be made to answer the following research questions through the Delphi method:

(Q1) Which SELFIE tool indicators match the DigCompEdu indicators according to expert criteria?

(Q2) What is the relationship between the eight areas in SELFIE and the six areas in the DigCompEdu framework if we consider the number of indicators that show correlations, according to the experts?

 

2. Methodology

2.1. Research design

The Delphi method selected as the working methodology, was carried on in two rounds with 19 experts. Even though, it isn’t a traditional research design (experimental, correlational, descriptive), it aims to find experts’ consensus regarding a given subject.

Franc (2021) states that its main objective is achieving consensus on a topic where no agreement exists prior to using the Delphi method. According to Franc, it overcomes some common problems in discussion groups, such as excessive leadership, group pressure or general noise.

In order to verify the instrument’s functionality, usability and the time required to fill it in, a pilot trial was run with researchers at the home university. This feedback was used to adjust and optimise the tool.

This study uses a modified Delphi (Linstone & Turoff, 1975) which replaces the first round with similar qualitative techniques, such as discussion groups or interviews. In this instance, methodological validation was provided by the discussion group In which the research is framed.

A double entry table was created to support the work of the experts. The top horizontal row sets out the elements in the DigCompEdu framework grouped by area, whilst the vertical column showed the items from the SELFIE questionnaire, also grouped by area (view table). Experts were asked to score each checkbox from 1 to 5 to state whether if there was a link between the different elements, where 1 equalled “Almost no link” and 5 “A strong link”. Moreover, the box could be left blank if they believed no link existed.

Selection of informants and defining the expert competence coefficient

Several authors have highlighted the important of this stage (Powell, 2003). In particular, Cabero and Infante (2014) outline certain possible criteria to select experts, including their knowledge and experience, willingness and availability, engagement, and capacity to sustain effective communication. Criteria for this study were as follows:

·         Broad experience in the field of educational technology and, as far as possible, knowledge of digital competence certifying systems.

·         Being a university lecturer and researcher.

·         The ability to use Spanish as a vehicular language.

An initial sample was selected (n = 30) from university lecturers in Spain (n = 17), Chile (n = 3), Portugal (n = 2), Colombia (n = 2), Peru (n = 1), Costa Rica (n = 1), Andorra (n = 1), Mexico (n = 1), Argentina (n = 1) and Uruguay (n = 1). After initial e-mail contact, 21 experts agreed to take part in the project, with 20 completing the first round. Moreover, 19 filled in an expert competence questionnaire designed in accordance with Cabero and Barroso’s model (2013). Finally, 19 experts completed the second round.

In order to assess the expert competence coefficient, each participant was asked to fill in two questionnaires. On the one hand, they had to score their perceived knowledge of educational technology and teacher digital competence from 0 to 10. This score was multiplied by 0.1 (with the aim of keeping it between 0 and 1) to obtain their knowledge coefficient (Kc).

On the other hand, to discover the sources behind this knowledge, they were asked to indicate to what extent each of the following elements had impacted their knowledge on a scale from 1 to 3:

·         Theoretical analyses undertaken by the expert

·         Experience

·         Analysing work on the topic by Spanish authors

·         Analysing work on the topic by foreign authors

·         Their own knowledge about the issue overseas

·         Expert intuition.

 

2.2. Expert competence coefficient analysis

After giving each element different scores in line with Cabero and Barroso’s model (2013), the sum of all scores provided the argumentation coefficient (Ka), again with a value between 0 and 1.

After Then the formula for obtaining the expert competence coefficient was K=½(Kc+Ka), so that this letter value would sit in a range of 0 and 1.

 

Table 2

Knowledge, argumentation and total expert competence coefficients. Average values and standard deviation

 

Kc (knowledge coefficient)

Ka (argumentation coefficient)

K
(total)

Average

.836

.933

.885

Standard deviation

.103

.097

.100

 

The average score (M = .836) indicates that informants’ expertise levels are high. Individual scores (in all instances, K ≥ .7) show they are all suitable to take part in the study.

Firstly, consent was requested from all participants via e-mail. The same e-mail explained the context and main direction of the work, the number of times their participation would be required, what was the procedure and the estimated time to complete each round. In turn, and where if they accepted to participate, they were asked to sign and return an informed consent form via e-mail. A total of 19 researchers confirmed their participation, which represents a valid number, in accordance Skulmonski et al. criteria (2007).

 

2.3. Delphi development

The e-mails to implement the first round were sent in February 2023, and the last responses were received back in March 2023. Based on these, the average values for each checkbox were set, as well as the consensus levels in each instance by using the interquartile range (IQR). Consequently, we put together a new table with these values and eliminating those with a low average score (M ≤ 2.5) to aid the informants’ work. The table displayed the instances of consensus in green (IQR ≤ 1), providing experts with the option to re-score all items based on the new information. The new round took place in April and was completed by May 2023. The new information was used to produce a table with the correspondence between SELFIE and DigCompEDU indicators that were particularly significant for the experts (M ≥ 4.5), and around which consensus arose (IQR ≤ 1).

Finally, and in order to provide a response to answer the second research question, a double-entry table was produced with the eight SELFIE areas (to the left) and the different DigCompEDU areas (at the top) to include the number of indicators in each checkbox where a high correspondence existed, according to the experts, (M ≥ 4.5), as well as demonstrating high consensus levels (IQR ≤ 1). A colour code was used to enable us to show the link between SELFIE areas and the DigCompEDU framework.

 

3. Analysis and results

3.1. Rounds

3.1.1. Round One

The first-round results are available at the following link.

At this stage, links appeared showing high averages combined with high consensus levels. The following table shows all links where the average was equal to or above 4.5 (M ≥ 4.5) and an interquartile range below 1 (IQR ≤ 1).

 

Table 3

Averages (M) for correspondence between SELFIE and DigCompEDU items, and consensus levels (IQR), obtained after the first round

SELFIE (Leadership)

DigCompEdu areas and variables

M

IQR

At our centre we respect copyright and user licences when using digital technology for teaching and learning

(2) Managing, protecting, sharing digital resources

4.69

0

SELFIE (Collaboration and Networking)

DigCompEdu areas and variables

M

IQR

At our centre we use digital technology when collaborating with other organisations

 

(1) Professional collaboration

4.53

1

At our centre we collaborate with other centres and/or organisations to support the use of digital technology

(1) Professional collaboration

4.56

.75

SELFIE (Continuing Professional Development)

DigCompEdu areas and variables

M

IQR

Our management team thinks about our CPD needs alongside us in terms of teaching with digital technology

(1) Reflective practice

4.59

0

Our management team supports us in sharing experiences at the centre on teaching with digital technology

(1) Reflective practice

4.63

.25

(1) Continuing professional development

4.69

1

SELFIE (Pedagogy: Supports and Resources)

DigCompEdu areas and variables

M

IQR

I search for digital educational resources on the internet

(2) Selecting digital resources

4.89

0

I create digital resources to bolster my teaching method

(2) Creating and modifying digital resources

4.94

0

I use digital technology for communication regarding the education centre

(1) Organisational communication

4.59

0

SELFIE (Pedagogy: Implementation in the Classroom)

DigCompEdu areas and variables

M

IQR

I use digital technology to help student collaboration

(3) Collaborative learning

4.94

0

SELFIE (Assessment Practices)

DigCompEdu areas and variables

M

IQR

I use digital technology to assess students’ abilities

(4) Assessment strategies

4.89

0

I use digital technology to facilitate appropriate feedback for students

(4) Assessment strategies

4.50

1

(4) Feedback, planning and decision-making

5

0

I use digital technology so that students reflect on their learning

(3) Self-regulated learning

4.71

0

(4) Assessment strategies

4.5

1

(4) Feedback, planning and decision-making

4.75

0

I use digital technology so that students are able to make observations about their classmates’ work

(3) Collaborative learning

4.53

1

(4) Assessment strategies

4.79

0

(4) Feedback, planning and decision-making

4.5

1

Our management team supports me in using digital technology for assessment purposes

(4) Assessment strategies

4.6

.5

I use digital data about specific students to improve their learning experience

(4) Analysing evidence

4.67

.75

(4) Feedback, planning and decision-making

4.77

0

SELFIE (Student Digital Competence)

DigCompEdu areas and variables

M

IQR

Students at our centre learn how to use internet safely

(6) Responsible use

4.79

0

Students at our centre learn how to use internet responsibly

(6) Responsible use

5

0

Students at our centre learn how to check whether information on the internet is reliable and accurate

(6) Information and media literacy

5

0

Students at our centre learn how to create digital content

(6) Content creation

4.94

0

Students at our centre learn how to communicate using digital technology

(6) Communication and digital collaboration

4.95

0

Students at our centre learn how to code or program

(6) Content creation

4.57

1

Students at our centre learn how to solve technical problems that come up when using digital technology

(6) Problem-solving

4.94

0

 

 

This first round helped us identify potentially valid links (n = 77) based on average levels (M ≥ 4.5) and consensus with an interquartile range below 1 (IQR ≤ 1).

 

3.1.2. Round Two

We then contacted participants (n = 20) once again by e-mail to share the results from the first round. This time, we blocked the cells with low averages (M ≤ 2.5). Moreover, we colour-coded the checkboxes to indicate the links with significant consensus. Regardless of this, we also gave them the option the score all the checkboxes again. The results (n = 19) can be viewed at the following link.

The following table shows all links where the average was equal to or above 4.5 (M ≥ 4.5) and an interquartile range below 1 (IQR ≤ 1) after the second round.

 

Table 4

Averages (M) for the correspondence between SELFIE and DigCompEDU items, and consensus levels, obtained after the second round

SELFIE (Leadership)

DigCompEdu areas and variables

M

IQR

(*) Our management team includes teachers in the development of the centre’s digital strategy

(1) Professional collaboration

4.55

1

(*) I get support from our management team when trying new teaching methods with digital technology

(1) Professional collaboration

4.71

.64

At our centre we respect copyright and user licences when using digital technology for teaching and learning

(2) Selecting digital resources

4.75

1

(2) Creating and modifying digital resources

4.62

.45

(2) Managing, protecting, sharing digital resources

4.96

0

SELFIE (Collaboration and Networking)

DigCompEdu areas and variables

M

IQR

(*) At our centre we assess our progress in teaching and learning with digital technology

(4) Assessment strategies

4.6

1

(4) Analysing evidence

4.8

.75

(4) Feedback, planning and decision-making

4.6

1

(*) At our centre we discuss the advantages and disadvantages of teaching and learning with digital technology

(1) Reflective practice

4.71

.62

At our centre we use digital technology when collaborating with other organisations

(1) Professional collaboration

4.72

.4

At our centre we collaborate with other centres and/or organisations to support the use of digital technology

(1) Professional collaboration

4.54

.56

SELFIE (Continuing Professional Development)

DigCompEdu areas and variables

M

IQR

Our management team supports us in sharing experiences at the centre on teaching with digital technology

(1) Reflective practice

4.7

.43

(1) Continuing professional development

4.68

.45

SELFIE (Pedagogy: Supports and Resources)

DigCompEdu areas and variables

M

IQR

I search for digital educational resources on the internet

(2) Selecting digital resources

4.85

.19

I create digital resources to bolster my teaching method

(2) Creating and modifying digital resources

4.99

0

I use digital technology for communication regarding the education centre

(1) Organisational communication

4.93

.15

SELFIE (Pedagogy: Implementation in the Classroom)

DigCompEdu areas and variables

M

IQR

I use digital technology to help student collaboration

(3) Collaborative learning

4.97

.12

SELFIE (Assessment Practices)

DigCompEdu areas and variables

M

IQR

I use digital technology to assess students’ abilities

(4) Assessment strategies

4.88

.12

 

(4) Feedback, planning and decision-making

5

0

I use digital technology so that students reflect on their learning

(3) Self-regulated learning

4.64

.25

(4) Assessment strategies

4.52

.43

(4) Feedback, planning and decision-making

4.63

.47

I use digital technology so that students are able to make observations about their classmates’ work

(4) Assessment strategies

4.83

.17

(4) Feedback, planning and decision-making

4.57

.5

Our management team supports me in using digital technology for assessment purposes

(4) Assessment strategies

4.68

.29

(*) I use digital data about specific students to improve their learning experience

(4) Analysing evidence (*)

4.79

.33

(4) Feedback, planning and decision-making (*)

4.81

.18

(5) Personalisation

4.73

.46

SELFIE (Student Digital Competence)

DigCompEdu areas and variables

M

IQR

Students at our centre learn how to use internet safely

(6) Responsible use

4.94

.22

Students at our centre learn how to use internet responsibly

(6) Responsible use

4.99

.04

Students at our centre learn how to check whether information on the internet is reliable and accurate

(6) Information and media literacy

5

0

(*) Students at our centre learn how to give credit to work by other people on the internet

(6) Content creation (*)

4.9

.38

Students at our centre learn how to create digital content

(6) Content creation

4.9

0

Students at our centre learn how to communicate using digital technology

(6) Communication and digital collaboration

4.99

.04

Students at our centre learn how to code or program

(6) Content creation

4.6

.38

Students at our centre learn how to solve technical problems that come up when using digital technology

(6) Problem-solving

4.94

.04

N.B.

The number in brackets shows the DigCompEDU area where each variable belongs: (1) Professional engagement; (2) Digital resources; (3) Teaching and learning; (4) Assessment; (5) Empowering learners and (6) Facilitating learners’ digital competence.
(*) Variables discarded in the first round due to averages lower than4.5 and added after the second round due to a higher average and consensus.
Variables present after the first round which were eliminated in the second as the average fell or no consensus was reached. Average (IQR) (see Table 3):
- Continuing professional development
     - Our management team thinks about our CPD needs alongside us in terms of teaching with digital technology. (1) Reflective practice. 4.35 (.86)
- Assessment practices:
     - I use digital technology to facilitate appropriate feedback for students (4) Assessment strategies. 4.27 (1)
     - I use digital technology so that students are able to make observations about their classmates’ work (3) Collaborative learning. 4.05 (.37)
     - I use digital data about specific students to improve their learning experience
          - (4) Analysing evidence. 4.37 (.5)
          - (4) Feedback, planning and decision-making. 4.36 (.45)

 

3.2. Answers to the research questions

3.2.1. Answer to Q1

The second round provided a response to the first research question. Specifically, we were able to verify that the links shown in table 1 strengthened in most instances, although not all links from the first round remained (indeed, the total fell diminishes) and, moreover, new links appeared. Nevertheless, the data show consistency across both rounds. In particular, certain links were added as the consensus thresholds or previously obtained averages were surpassed (n = 4), whilst others disappeared (n = 2). The final results demonstrate high averages (M ≥ 4.5) with high consensus levels (IQR ≤ 1) in a substantial number of links (n = 28).

 

3.2.2. Answer to Q2

A double-entry table was produced to  answer the second research question and it included the eight SELFIE areas (on the left) and the different DigCompEDU areas (at the top). The number in each checkbox corresponds to the number of indicators where the experts deem there to be high correspondence (M ≥ 4.5), in addition to high consensus levels (IQR ≤ 1). A deeper colour means the two areas share a higher number of indicators.

The following table shows the final number of links grouped by elements.

 

Table 5

SELFIE and DigCompEDU framework areas with a significant link if we consider the indicators with high correspondence and high consensus levels

 

(1)

(2)

(3)

(4)

(5)

(6)

Total

Leadership

2

3

0

0

0

0

5

Collaboration and Networking

3

0

0

3

0

0

6

Infrastructure and Equipment

0

0

0

0

0

0

0

Continuing Professional Development

2

0

0

0

0

0

2

Pedagogy: Supports and Resources

1

2

0

0

0

0

3

Pedagogy: Implementation in Classroom

0

0

1

0

0

0

1

Assessment Practices

0

0

1

9

1

0

11

TOTAL

9

5

2

12

1

0

28

N.B.

The table shows the eight SELFIE areas (on the left) and the DigCompEDU areas (at the top). The number in each checkbox corresponds to the number of indicators where the experts deem there to be high correspondence (M ≥ 4,5), in addition to high consensus levels (IQR ≤ 1).
(1) Professional engagement; (2) Digital resources; (3) Teaching and learning; (4) Assessment; (5) Empowering learners and (6) Facilitating learners’ digital competence.

 

4. Discussion

In this work we have verified the existence of many DigCompEdu indicators which correspond to items in the SELFIE tool (n = 67). Certain links are particularly important, such as those between the following items: At our centre we respect copyright and user licences when using digital technology for teaching and learning (SELFIE: Leadership) and Managing, protecting, sharing digital resources (DigiCompEdu: Digital Content) (M = 4.96; IQR = 0), or I create digital resources to bolster my teaching method (SELFIE: Pedagogy: Supports and Resources) and Creating and modifying digital resources (DigCompEdu: Digital Content) (M = 4.99; IQR = 0).

Although these links seem logical given the highly similar wording of the indicators, others were not as evident, such as: I use digital technology to help student collaboration (SELFIE: Pedagogy: Implementation in Classroom) and Collaborative learning (DigCompEdu: Teaching and Learning) (M = 4.97; IQR = 0.12), or I use digital data about specific students to improve their learning experience (SELFIE: Assessment Practices) and Feedback, planning and decision-making (DigCompEdu: Assessment and Feedback) (M = 4.81; IQR = 0.18).

These links not only occur between items; indeed, areas in both models also seem to be clearly linked. This is evident in regarding terminology, for instance SELFIE’s Assessment Practices and DigCompEdu’s Assessment and Feedback. The present study confirms 18 direct links between these two areas, some with particularly high averages and consensus levels, e.g. the SELFIE item Students at our centre learn how to solve technical problems that come up when using digital technology and the DigCompEdu Problem-solving indicator (M = 4.94; IQR = 0.04), or the SELFIE item Students at our centre learn how to use internet responsibly and the Responsible use indicator.

Links between areas are also important: Student Digital Competence (SELFIE) and Facilitating learners’ digital competence (DigCompEdu) (n = 10), Collaboration and Networking (SELFIE) and Professional engagement (DigCompEdu) (n = 8), and to a lesser extent, Leadership and Collaboration and Networking (SELFIE) and Professional engagement (DigCompEdu) (n = 5) or Continuing Professional Development (SELFIE) and Professional engagement (DigCompEdu) (n = 5).

Though these results may seem logical given the near-identical names of some SELFIE and DigCompEdu areas, certain data demonstrate links that call for a more cross-cutting approach. For example, based on the six DigCompEdu areas, we could analyse which SELFIE areas and items provide us with information on each:

1)  Professional engagement: according to the results, the way teachers at a given school conduct themselves professionally could be informed and conditioned by the Collaboration and Networking levels in SELFIE (i.e., At our centre we discuss the advantages and disadvantages of teaching and learning with digital technology). This would align with San Fabián (2006) insights about the link between these two areas. Moreover, albeit to a lesser extent, we should consider elements linked to leadership (i.e. Our management team includes teachers in the development of the centre’s digital strategy)—an issue highlighted by Lázaro and Gisbert (2025)—or the options provided for continuing professional development (i.e. I have access to learning opportunities related to teaching and learning with digital technology), as indicated by Tejada Fernández and Pozos Pérez (2018) regarding the need to realign training based on the demanded teachers’ digital skills  in line with the regulatory framework.

2)  Digital content: teachers’ ability to select and create digital content could be informed by items in the Pedagogy: Supports and Resources category in SELFIE. These types of links are what we could term as explicit, since items are particularly descriptive (i.e. I create digital resources to bolster my teaching method). To a lesser extent, centre leadership (i.e. At our centre we respect copyright and user licences when using digital technology for teaching and learning) is again important, in line with Pablos Pons et al. (2010) who highlight the role of management teams in promoting suitable conditions to foster content selection and creation..

3)  Teaching and learning: the pedagogical aspect could be informed by elements in the areas of Pedagogy: Implementation in Classroom (i.e. I use digital technology to adapt my teaching method to individual student needs) and Assessment Practices in SELFIE (i.e. I use digital technology so that students reflect on their learning). As well as being conditioned by  SELFIE items , these links underline two of the most important items across the teaching process: defining methodologies and establishing assessment strategies.

4)  Assessment and feedback: teachers’ ability to assess and provide quality feedback is directly referenced in several items in the SELFIE Assessment Practices area and, to a lesser extent, in the Collaboration and Networking section (i.e. At our centre we assess our progress in teaching and learning with digital technology). Indeed, several SELFIE elements appear in studies as key variables when performing quality assessments, such as I use digital technology to facilitate appropriate feedback for students—an issue highlighted by Espinoz Freire (2021) due to its significance for learning.

5)  Student empowerment: although this area is not the one with most connections, the ability to empower students could be informed by certain SELFIE items in Pedagogy: Implementation in Classroom (i.e. I use digital technology to adapt my teaching method to individual student needs) and, to a lesser extent, Assessment Practices (i.e. I use digital technology so that students reflect on their learning).

6)  Students’ digital competence: teachers’ ability to develop digital skills amongst students could be informed by many items in the SELFIE area of Student Digital Competence (i.e. Students at our centre learn how to create digital content). In this instance, the link is also explicit and several variables for the SELFIE items would provide possible indications on how to promote students’ digital competence. These results are aligned with the idea that promoting students’ digital competence is a further element in teacher digital competence (Gisbert et al., 2016).

 

5. Conclusions

The present work provides insight into the possible equivalences between DigCompEdu area indicators and SELFIE tool items. In this sense, the data obtained from schools through SELFIE can inform on the digital competence of their teachers as a whole. Although some other works have explored how SELFIE results provide information on several issues (Hippe & Jakubowski, 2022), this remained an unresolved issue.

The Delphi method was used over different rounds to achieve this goal and to respond our two research questions.

The present study has several limitations. Despite the Delphi method being recognised as a valid technique to generate consensus, the selection of experts may have a certain bias since it is not based on a random sample, but rather an ad hoc approach taken by the researchers. Certain authors have pointed out further problems associated with this methodology, such as results being based on opinions rather than evidence, consensus not implying veracity or, at a general level, the lack of data on its validity. Keeney et al. (2011) explain that the method is not a replacement for either rigorous scientific reviews or original research; rather, its use is recommended when the problem does not point to specific analysis techniques, as is the case here.

In turn, one could ask why it is necessary to establish the correspondence sought by this study when there is a specific tool reporting on teachers’ digital competence (SELFIE for Teachers). However, this is a personal self-assessment tool whilst SELFIE can be shared publicly by schools and even be used in academic research projects, as it happened with NUM_PROYECT.

Given the importance of teachers’ digital competence in our education system, we need to continue localising and designing tools that provide valid and rigorous assessment. Reviews undertaken by different authors (García Ruiz et al., 2023; Jiménez Hernández et al., 2021; Rodríguez-García et al., 2019) could be a starting point for how we can move forward.

The porous nature of today’s world in the digital realm makes digital literacy a requirement for teachers at all education levels. Thus, we hope the present study is useful for obtaining accurate diagnostics and, especially, for improving the competence of education professionals.

 

6. Funding

This study was funded by the Autonomous Region of the Balearic Islands through the Directorate General for Research, Innovation and Digital Transformation, with funds from the Sustainable Tourism Tax ITS2017-006 (PDR2020/49).

 

References

Álvarez, J., & Gisbert, M. (2015). Information literacy grade of Secondary School teachers in Spain. Beliefs and self-perceptions. [Grado de alfabetización informacional del profesorado de Secundaria en España: Creencias y autopercepciones]. Comunicar, 45, 187-194. https://doi.org/10.3916/C45-2015-20

Bocconi, S., Panesi, S., & Kampylis, P. (2020). Fostering the digital competence of schools: piloting SELFIE in the Italian education context. IEEE - Revista Iberoamericana de Tecnologias del Aprendizaje, 15(4). http://doi.org10.1109/RITA.2020.3033228

Cabero, J., & Barroso, J. (2013). La utilización del juicio de experto para la evaluación de tic: el coeficiente de competencia experta. Bordón. Revista De Pedagogía, 65(2), 25–38. https://doi.org/10.13042/brp.2013.65202

Cabero-Almenara, J., Gutiérrez-Castillo, J. J., Barroso-Osuna, J. M., & Palacios-Rodríguez, A. (2023). Digital teaching compentence according to the DigComEdu framework. Comparative study in differente latin american universities. Journal of New Approaches in Educational Research, 12(2), 276-291. https://doi.org/10.7821/naer.2023.7.1452 

Cabero, J., & Infante, A. (2014). Empleo del método Delphi y su empleo en la investigación en comunicación y educación. Edutec. Revista Electrónica De Tecnología Educativa, (48), 1-16. https://doi.org/10.21556/edutec.2014.48.18

Cabero J., & Palacios-Rodríguez, A. (2020). Marco Europeo de Competencia Digital Docente «DigCompEdu» y cuestionario «DigCompEdu Check-In». EDMETIC. Revista de Educación Mediática y TIC, 9(1), 213–234. https://doi.org/10.21071/edmetic.v9i1.12462

Castaño-Muñoz, J., Costa, P., Hippe, R., & Kampylis, P. (2018). “Within-school differences in the views on the use of digital technologies in Europe: evidence from the SELFIE tool,” in EDULEARN18 Proceedings, eds L. Gómez Chova, A. López Martínez, and I. Candel Torres, (Valencia: IATED Academy), 10417–10426. http://doi.org.10.21125/edulearn.2018.2528

Comisión Europea. (2007). Competencias clave para el aprendizaje permanente. Un marco de referencia Europeo. http://www.mecd.gob.es/dctm/ministerio/educacion/mecu/movilidad-europa/competenciasclave.pdf?documentId=0901e72b80685fb1

Comisión Europea. (2018). Communication from the Commission to the European Parliament the Council the European Economic and Social Committee and the Committee of the Regions on the Digital Education Action Plan (COM(2018) 22 final). Luxembourg: Publications Office of the European Union. https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A52020DC0624

Comisión Europea. (2018). Recomendación del Consejo de 22 de mayo de 2018 relativa a las competencias clave para el aprendizaje permanente. Luxembourg: Publications Office of the European Union. https://eur-lex.europa.eu/legal-content/ES/TXT/PDF/?uri=CELEX:32018H0604(01)&from=SV

Comisión Europea. (2004). Recomendación del Parlamento europeo y del Consejo sobre las competencias clave para el aprendizaje permanente.  https://www.europarl.europa.eu/meetdocs/2004_2009/documents/com/com_com(2005)0548_/com_com(2005)0548_es.pdf

Costa, P., Castaño-Muñoz, J., & Kampylis, P. (2021). Capturing schools' digital capacity: Psychometric analyses of the SELFIE self-reflection tool. Computers & Education, 162, 104080. https://doi.org/10.1016/j.compedu.2020.104080

Creemers, B. P. M., Kyriakides, L., & Antoniou, P. (2013). A dynamic approach to school improvement: Main features and impact. School Leadership and Management, 33(2), 114–132. https://doi.org/10.1080/13632434.2013.773883

Espinoza Freire, E. E. (2021). Importancia de la retroalimentación formativa en el proceso de enseñanza-aprendizaje. Revista Universidad y Sociedad, 13(4), 389-397.

Fernández, J. T., & Pérez, K. V. P. (2018). Nuevos escenarios y competencias digitales docentes: hacia la profesionalización docente con TIC. Profesorado, revista de currículum y formación del profesorado, 22(1), 25-5. https://doi.org/10.30827/profesorado.v22i1.9917

Franc, J. (2021, Febrero 14). Delphi Studies. Medstatsstudies. Logistic Solutions in Medical Research. http://www.medstatstudio.com

García-Ruiz, R., Buenestado-Fernández, M., & Ramírez-Montoya, M.S. (2023). Evaluación de la Competencia Digital Docente: instrumentos, resultados y propuestas.  Revisión sistemática de la literatura.  Educación XXI, 26(1), 273-301. https://doi.org/10.5944/educxx1.33520

Garzón-Artacho, E., Sola-Martínez, T., Trujillo-Torres, J.M., & Rodríguez García, A.M.(2021). Competencia digital docente en educación de adultos: un estudio en un contexto español [Digital competence in adult education: a study in a Spanish context]. Pixel-Bit.Revista de Medios y Educación,62, 209-234. https://doi.org/10.12795/pixelbit.89510

Gisbert, M., González, J. & Esteve, F. (2016). Competencia digital y competencia digital docente: una panorámica sobre el estado de la cuestión. RIITE. Revista Interuniversitaria de Investigación en Tecnología Educativa, 0, 74-83. http://dx.doi.org/10.6018/riite/2016/257631

Hippe, R. and Jakubowski, Μ. (2022). Is student digital competence shaped by schools or individual factors? Insights from SELFIE using multilevel models. Luxembourg: Publications Office. Cedefop working paper, No 14. http://data.europa.eu/doi/10.2801/00684

Hofman, R. H., Hofman, W. H., & Gray, J. M. (2010). Institutional contexts and international performances in schooling: Comparing patterns and trends over time in international surveys. European Journal of Education, 45(1), 153–173.

Jeladze, E., & Pata, K. (2018). The model of self-organization in digitally enhanced schools. IxD A 39, 61–77. https://doi.org/10.55612/s-5002-039-003

Jiménez Hernández, D., Muñoz Sánchez, P., & Sánchez Giménez, F. S. (2021). La Competencia Digital Docente, una revisión sistemática de los modelos más utilizados. RiiTE Revista Interuniversitaria de Investigación en Tecnología Educativa, (10), 105–120. https://doi.org/10.6018/riite.472351

Kampylis, P., Devine, J., Punie, Y., & Newman, T. (2016). “Supporting schools to go digital: from conceptual model towards the design of a self-assessment tool for digital-age learning,” in ICERI Proceedings, eds L. G. Chova, A. L. Martínez, and I. Candel Torres, (València: IATED Digital Library), 816–825. http://doi.org/10.21125/iceri.2016.1185

Kampylis, P., Punie, Y., & Devine, J. (2015). Promoting effective digital-age learning. A European framework for digitally-competent educational organizations. Joint Research Centre. https://publications.jrc.ec.europa.eu/repository/handle/JRC98209

Kampylis, P., Hodsno, D., Petkova, S., Hippe, R., Cachia, R., Sala, A., Wikert, L., Castano Munoz, y J., Punie, Y. (2019) SELFIE Forum. Teaching and Learning in the Digital Age. (No. JRC 117482). Joint Research Centre. https://publications.jrc.ec.europa.eu/repository/handle/JRC117482

Keeney, S., McKenna, H. A., & Hasson, F. (2011). The Delphi technique in nursing and health research. John Wiley & Sons. http://doi.org/10.1002/9781444392029

Lázaro Cantabrana, J. L., & Gisbert, M. (2015). El desarrollo de la competencia digital docente a partir de una experiencia piloto de formación en alternancia en el Grado de Educación. Educar, 51 (2), 321-348. https://doi.org/10.5565/rev/educar.725

Linstone, H. A. & Turoff, M. (1975). The Delphi method: Techniques and applications. Reading, MA: Addison Wesley Publishing. http://doi.irg/10.2307/3150755

Munar-Garau, J., Salinas Ibáñez, J. & Perez-Garcías, A. (2023). Indicadores para un mapa de la competencia digital docente a partir de SELFIE en las Islas Baleares en Ortega, D. (Ed), Educación y Sociedad: claves interdisciplinares, 1341-1351. Octaedro.

O’Leary, R. (2018). Digital Schools of distinction Feasibility Report. Digital Schools of Europe. http://www.digitalschoolseurope.eu/wp-content/uploads/2018/10/Feasibility-Report.pdf

Pablos Pons, J. de, Colás Bravo, M. P., & González Ramírez, T. (2010). Factores facilitadores de la innovación con TIC en los centros escolares: Un análisis comparativo entre diferentes políticas educativas autonómicas. Revista de educación, 352, 23-51. http://hdl.handle.net/11162/79366

Palacios-Rodríguez, A., Guillén-Gámez, F. D., Cabero-Almenara, J., & Gutiérrez-Castillo, J. J. (2023). Teacher Digital Competence in the education levels of Compulsory Education according to DigCompEdu: The impact of demographic predictors on its development. Interaction Design & Architecture(s) Journal, 57, 115-132. https://doi.org/10.55612/s-5002-057-007

Panesi S, Bocconi S, & Ferlino L. (2020). Promoting Students' Well-Being and Inclusion in Schools Through Digital Technologies: Perceptions of Students, Teachers, and School Leaders in Italy Expressed Through SELFIE Piloting Activities. Frontiers in Psychology, 11. https://doi.org/10.3389/fpsyg.2020.01563

Powell, C. (2003), The Delphi technique: myths and realities. Journal of Advanced Nursing, 41, 376-382. https://doi.org/10.1046/j.1365-2648.2003.02537.x

Redecker, C. (2020). Marco europeo para la competencia digital de los educadores: DigCompEdu. https://doi.org/10.2760/159770

Rodríguez, D. M., de Jubera, M. M. S., Campión, R. S., & de Luis, E. C. (2016). Diseño de un instrumento para evaluación diagnóstica de la competencia digital docente: formación flipped classroom. DIM: Didáctica, Innovación y Multimedia, (33), 1-15. https://raco.cat/index.php/DIM/article/view/306791

Rodríguez-García, A. M., Raso, A. & Ruiz-Palmero, J. (2019). Competencia digital, educación superior y formación del profesorado: un estudio de meta-análisis en la web of science. Pixel-Bit. Revista de Medios y Educación, 54, 65-81. https://doi.org/10.12795/pixelbit.2019.i54.04

San Fabián Maroto, J. L. (2006). La coordinación docente: condiciones organizativas y compromiso profesional.https://redined.educacion.gob.es/xmlui/bitstream/handle/11162/94422/00820123015454.pdf?sequence=1

Skulmoski, G.J., Hartman, F.T. & Krahn, J. (2007). The Delphi Method for Graduate Research. Journal of Information Technology Education: Research, 6(1), 1-21. Informing Science Institute. https://www.jite.org/documents/Vol6/JITEv6p001-021Skulmoski212.pdf

Szûcs, A. (2019). Digital education: from hype and disappointment to change. Opus et Educatio. 5(4), 386–396. https://doi.org/10.3311/ope.280

Tanhua-Piiroinen, E., & Viteli, J. (2017). “Opeka and Ropeka, the self-assessing services for teachers and principals,” in Lecture Notes in Computer Science: Vol. 10474. Data Driven Approaches in Digital Education, eds E. Lavoué, H. Drachsler, K. Verbert, J. Broisin, and M. Pérez-Sanagustín, (Cham: Springer), 602–605. http://10.1007/978-3-319-66610-5_72

Tejada Fernández, J., & Pozos Pérez, K. V. (2018). Nuevos escenarios y competencias digitales docentes: Hacia la profesionalización docente con TIC. Profesorado, Revista De Currículum Y Formación Del Profesorado22(1), 25–51. https://doi.org/10.30827/profesorado.v22i1.9917

Tourón, J., Martín, D., Asencio, N., Pradas, A., & Íñigo, C. (2018). Validación de constructo de un instrumento para medir la competencia digital docente de los profesores (CDD) / Construct validation of a questionnaire to measure teachers’ digital competence (TDC). Revista Española de Pedagogía, 76(269), 25–54. https://doi.org/10.22550/REP76-1-2018-02