La Competencia Digital Docente.

Diseño y validación de una propuesta formativa

 

 

Teaching Digital Competence. A training proposal desing and validation

 

 

Icono

Descripción generada automáticamente Mg. Andrés Santiago Cisneros-Barahona. Profesor Titular. Universidad Nacional de Chimborazo, Ecuador. Investigador de Universidad. Universitat Rovira i Virgili, España

Icono

Descripción generada automáticamente Dr. Luis Marqués-Molías. Catedrático de Universidad. Universitat Rovira i Virgili, España

Icono

Descripción generada automáticamente Dr. Nicolay Samaniego-Erazo. Profesor Principal. Universidad Nacional de Chimborazo, Ecuador

Icono

Descripción generada automáticamente Dña. Catalina Mercedes Mejía-Granizo. Banco Guayaquil, Ecuador

 

 

 

 

 

 

Recibido: 2023/03/06 Revisado:2023/06/22 Aceptado:2023/07/08 Preprint:2023/08/19 Publicado:2023/09/01

 

Cómo citar este artículo:

Cisneros Barahona, A.S., Marqués Molías, L., Samaniego Erazo, N., & Mejía Granizo, C.M. (2023). La Competencia Digital Docente. Diseño y validación de una propuesta formativa [Teaching Digital Competence. A training proposal desing and validation.]. Pixel-Bit. Revista de Medios y Educación, 68, 7-41. https://doi.org/10.12795/pixelbit.100524

 

 

RESUMEN

En la actualidad existe una brecha digital provocada por la incapacidad de los individuos para aprovechar al máximo las oportunidades que la internet y las Tecnologías Digitales (TD) proporcionan. En la Educación Superior esta brecha se relaciona a una formación que es insuficiente para alcanzar el nivel de desarrollo de la Competencia Digital Docente (CDD) requerido. El objetivo de esta investigación es diseñar una propuesta formativa para fortalecer la Competencia Digital (CD) de docentes universitarios. A través de un proceso de juicio de expertos, con un estudio Delphi de dos iteraciones, un grupo de especialistas en el campo de la tecnología educativa validó la propuesta. Una versión afinada fue desarrollada en consideración de estas observaciones, que incluye aspectos relevantes como la mentoría, la retroalimentación y el soporte para alcanzar los objetivos estratégicos institucionales. Para la mayoría de los indicadores y dimensiones de la propuesta el estadístico de Fleiss muestra una concordancia de jueces “casi perfecta”. En el futuro, se plantear ejecutar estudios similares para mejorar el nivel de la CD de estudiantes; además de generar acciones formativas específicas en función de variables como edad, experiencia, formación, género, situación laboral, tiempo de dedicación, entre otros.

 

 

ABSTRACT

Today, a digital gap occurs due to individuals’ incapability to take full advantage of the opportunities that the internet and the Information and Communication Technologies (ICT) facilitate. In Higher Education, this gap is related to a scarce training on the required development of Teaching Digital Competence (TDC) level. The objective of this research is to provide a training proposal to upgrade university teachers Digital Competence (DC). Throughout an expert judgment process and a two iterations Delphi study, a group of educational technology specialists validated this proposal. A fine training proposal version was developed after taking into consideration the judges’ observation, it includes relevant aspects such as mentoring, feedback and support, with the aim to achieve the institutional strategic objectives. For the majority of the proposal indicators and dimensions, the Fleiss statistic shows an "almost perfect" judges’ agreement. The emphasis on further similar studies will be placed on the students’ DC level of improvement and on the development on specific training based on variables such as age, experience, education, gender, work situation, time of dedication, among others.

 

 

PALABRAS CLAVES· KEYWORDS

Universidad; Formación de docentes; Alfabetización digital; TIC; Tecnologías digitales

University; Teacher Education; Digital literacy; ITC; Digital Technologies

 

 

1. Introducción

La pandemia del virus SARS-CoV-2 (Covid-19) ha llevado a las instituciones de educación superior a redoblar sus esfuerzos para incorporar las TD en sus programas y aulas que tradicionalmente se llevaban a cabo de manera presencial. En la actualidad, las universidades están buscando implementar políticas y metodologías que les permitan ofrecer sus cursos en modalidad no presencial. Sin embargo, durante la ejecución de estos esfuerzos se han enfrentado a varios obstáculos, especialmente relacionados con la falta de formación del cuerpo docente y el bajo nivel de Competencia Digital (CD).

En la literatura científica, se encuentran diversos términos que identifican a la CD, sin embargo, es incorrecto definir el concepto de manera unívoca (Biel & Ramos, 2019a; Gallardo Echenique, 2013; Marqués-Molías et al., 2016); es mejor que se entienda como una forma de alfabetización múltiple y compleja, que integra valores, creencias, conocimientos, habilidades y actitudes en los ámbitos tecnológicos, informativos y comunicativos (Gisbert Cervera & Esteve Mon, 2011). Asimismo, las CDD son un conjunto de habilidades, actitudes y conocimientos que permiten a un educador utilizar la tecnología para apoyar el aprendizaje de sus estudiantes, al diseñar y transformar las prácticas en el aula (Hall et al., 2014).

Existen estudios que han abordado la presencia de múltiples marcos de referencia para evaluar la CD (Cisneros-Barahona et al., 2022; Palau et al., 2019; Verdú-Pina et al., 2022); que han definido dimensiones, estándares, indicadores y componentes relevantes (Almås & Krumsvik, 2008; Beetham et al., 2009; Butcher, 2019; Caena & Redecker, 2019; Campo et al., 2013; CDEST, 2002; Elliot et al., 2011; INTEF, 2017; ISTE, 2000, 2008; Lázaro-Cantabrana & Gisbert-Cervera, 2015; Redecker, 2017; Trilling, 2002), la comprensión del nivel de desarrollo varía significativamente según el contexto y la rúbrica (Sánchez-Caballé et al., 2020a).

A pesar de que actualmente hay un acceso ilimitado a la información y a las oportunidades proporcionadas por internet y las TD, no todos los individuos están preparados para aprovechar al máximo estas posibilidades. La brecha digital se ha convertido en un obstáculo para lograr un desarrollo inclusivo y equitativo, ya que aquellos que carecen de CD experimentan desventajas significativas en términos de acceso a empleo, educación, servicios y participación ciudadana. Esto se debe a que el desarrollo de estas habilidades fortalece el perfil profesional en el mercado laboral y es crucial para adaptarse a las demandas de esta era rica en tecnología (Juárez Arall & Marqués Molías, 2019).

El sistema educativo también reconoce la brecha entre las habilidades exigidas al docente y la insuficiente y poco efectiva formación académica recibida (Biel & Ramos, 2019a). Al respecto existen estudios que denotan la existencia de niveles bajos de CD (Esteve-Mon et al., 2020; Silva Quiroz & Miranda Arredondo, 2020a).

De igual forma se destaca publicaciones que dan cuenta de las relaciones existentes entre la CD, con variables como la edad, el género, los años de experiencia, la formación, la actitud hacia las TD, el nivel de estudios, la confianza, el nivel socioeconómico, entre otros (Cabero-Almenara et al., 2020; Palau et al., 2019; Paz Saavedra & Gisbert Cervera, 2023; Silva et al., 2019). No obstante, en general, se observa una actitud positiva por parte de los profesores hacia el uso de herramientas tecnológicas en las actividades de enseñanza y aprendizaje (EA)(Zhao et al., 2020a).

La Universidad Nacional de Chimborazo (Unach) es una institución ecuatoriana reconocida y acreditada por el Consejo de Aseguramiento de la Calidad de la Educación Superior (CACES), ubicada en la región central del país. La universidad está compuesta por 4 facultades y ofrece 31 programas de grado, respaldados por 2 centros y 4 campus. Además, oferta 41 programas de posgrado y tiene una matrícula que supera los 13.000 estudiantes. La Institución cuenta con alrededor de 700 profesores, quienes desempeñan un papel fundamental en el funcionamiento del centro educativo (Universidad Nacional de Chimborazo, 2022).

En el año 2023 la institución ha incursionado en una oferta académica con modalidad en línea (Universidad Nacional de Chimborazo, 2023), al respecto se ha ejecutado una primera etapa de investigación para definir el nivel de desarrollo de la CD desde la perspectiva del profesorado durante el segundo periodo académico del año 2022. Los resultados de este diagnóstico revelan que más del 60% del personal académico no supera en el nivel “Medio” de CDD propuesto el marco de referencia “COMDID A”.

A partir de los referentes teóricos y de la definición de los niveles de desarrollo, el propósito de esta segunda etapa de investigación es diseñar una propuesta de plan de curso de capacitación para fortalecer el nivel de desarrollo de la CDD en la Unach. Además, de validar la propuesta a través de un juicio de expertos implementado con un estudio Delphi de dos iteraciones, con la participación de especialistas en el ámbito tecnológico educativo.

 

2. Metodología

La investigación inició con una revisión sistemática de la literatura (SLR), para garantizar la calidad metodológica se siguió la Guía de publicación Preferred Reporting Items for Systematic Reviews and Meta-Analyses - PRISMA (Urrutia & Bonfill, 2010). Se realizó un análisis de la producción científica obtenida de las bases de datos Web of Science (WoS) y Scopus. Para delimitar la investigación, se utilizaron conceptos clave, con el objetivo de contar con un vocabulario controlado de descriptores (Tous & Salim Mattar, 2012). Los resultados abarcan los estudios publicados desde el año 2012 hasta julio de 2022.

A través de un enfoque metodológico mixto, empleando el diseño explicativo secuencial (DEXPLIS) (Cohen et al., 2018; Creswell, 2014), se dividió la investigación en dos etapas.

En la primera etapa (cuantitativa), se recolectaron y analizaron datos sobre el nivel de desarrollo de la CD de los profesores de la Unach, durante el segundo periodo académico del año 2022, bajo el marco de referencia “COMDID A”. Este instrumento es ideal para este objetivo, debido a que está diseñado para el contexto latinoamericano.

Los resultados de la primera etapa se utilizaron para informar a la segunda etapa (cualitativa) (Figura 1), se diseñó una propuesta de plan de curso de capacitación, que fue validada por especialistas en el campo de la tecnología educativa, a través de un proceso de juicio de expertos, implementado con un estudio Delphi de dos iteraciones. La propuesta tiene como objetivo fortalecer el nivel de desarrollo de la CDD en la Universidad Nacional de Chimborazo.

 

Figura 1

Esquema de diseño de investigación mixto empleado, Diseño Explicativo Secuencial (DEXPLIS)

 

Para establecer la estructura y contenido de la acción formativa, se considera el Sistema de Gestión de la Calidad (SGC) de la Unach (Universidad Nacional de Chimborazo, 2017), a través del proceso de formación del personal académico, que forma parte del Macroproceso denominado “Gestión de la formación” (Universidad Nacional de Chimborazo, 2021a). El SGC de la Unach procura ser una plataforma de mejora continua que garantiza la prestación de servicios institucionales de calidad a los usuarios y partes interesadas.

 

·         Macroproceso: Gestión de formación

·         Proceso: Gestión académica

·         Subproceso: Capacitación y actualización profesional del personal académico

·         Procedimiento: Capacitación interna del personal académico

·         Documentación del subproceso: Plan de curso de capacitación

·         Formatos de documentos: Plan de curso de capacitación

·         Código de documento: UNACH-RGF-01-06-01.06(Universidad Nacional de Chimborazo, 2021b)

 

El subproceso denominado “Capacitación y actualización profesional del personal académico”, con código: UNACH-PGF-01-06 bajo el Macroproceso de “Gestión de Formación” y bajo el proceso “Gestión académica”, tiene por objeto “Gestionar la participación, capacitación y desarrollo de carrera, actualización y complemento del conocimiento, habilidades y actitudes del personal académico de la UNACH, según las deficiencias e insuficiencias en su desempeño, sus intereses individuales y las necesidades estratégicas de desarrollo institucional”, y define el formato de documento denominado “Plan de curso de capacitación” con código UNACH-RGF-01-06-01.06 (Universidad Nacional de Chimborazo, 2021a).

Con el objetivo de organizar la información y optimizar el proceso ha implementado un juicio de expertos siguiendo una ordenada estructura de pasos (Escobar-Pérez & Cuervo-Martínez, 2008):

 

1.    Definir el objetivo del juicio de expertos

2.    Selección a los jueces

3.    Especificar tanto las dimensiones como los indicadores

4.    Explicar el objetivo de la propuesta de plan de curso de capacitación

5.    Establecer los pesos diferenciales de las dimensiones de la propuesta de plan de curso de capacitación

6.    Diseño de planillas

7.    Calcular la concordancia entre jueces

8.    Elaboración de las conclusiones del juicio

 

Para obtener una estimación confiable con un nivel de confianza del 95% (Burguet Lago & Burguet Lago, 2020; García & Fernández, 2008), se considera apropiado contar con al menos 15 expertos (Gable & Wolf, 1993; Lynch, 1973; Witkin & Altschuld, 1995). Para la selección de los jueces se utilizan dos mecanismos. El primero se denomina Biograma de Experto (Tabla 1) y se fundamenta en el cumplimiento de los siguientes aspectos: ser profesor del sistema de educación superior ecuatoriano, tener un grado de cuarto nivel, ser un profesional de las Tic (Tecnologías de la Información y Comunicación) o afines, ser un profesor que emplea frecuentemente las Tic, haber publicado artículos científicos sobre los contenidos relacionados con las Tic o ser docente de acciones formativas para profesores (Cabero-Almenara et al., 2021). El segundo mecanismo se obtiene al aplicar el Coeficiente de Competencia Experta (CCE) como una estrategia de selección (Burguet Lago & Burguet Lago, 2020; Cabero-Almenara et al., 2021; López-Gómez, 2017; Martínez Sariol et al., 2018). El CCE permite evaluar la competencia y experiencia de los potenciales jueces en el área específica de estudio. Al combinar los dos mecanismos, aseguramos la participación de expertos calificados y con experiencia relevante, garantizando calidad y pertinencia en sus opiniones en el proceso de evaluación.

 

Tabla 1

Biograma

Marque con una “X” en la casilla que corresponda

 

 

 

 

Pregunta

SI

NO

a)    ¿La institución a la que pertenece es parte del sistema de educación superior? (SES) *

 

 

b)    El campo de conocimiento de su profesión es en Tic ¿o afines? (CCP) *

 

 

c)    En su labor docente. ¿Usa frecuentemente las Tic? (UFT) *

 

 

d)    ¿Ha escrito artículos científicos sobre contenidos tratados en las Tic o afines? (ACT) *

 

 

e)    ¿Ha impartido acciones formativas a otros profesores? (AFP) *

 

 

 

 

El coeficiente K o CCE se obtiene a partir de la autopercepción que el experto tiene sobre el conocimiento del tema planteado, y se calcula con la fórmula . Esta puntuación se mide con una escala de 0 a 1, determinándose los niveles de alta, media y baja competencia (a partir de 0,8 puntos se considera un nivel alto de competencia experta) (Cabero-Almenara et al., 2021).

·         Kc es el coeficiente de conocimiento (Tabla 2), que se obtiene de la valoración que realiza el propio experto en la escala creciente de 0 a 10, multiplicado por .1, sobre el tema de investigación planteado (Cabero-Almenara et al., 2021; Martínez Sariol et al., 2018)

Tabla 2

Indicadores y valores relacionados de Kc

Por favor, marque el grado de conocimiento e información que posee sobre el objetivo de la investigación o sobre el objetivo de la propuesta de plan de curso de capacitación.

Utilice una escala del 0 al 10, donde 0 representa la ausencia total de conocimiento y 10 indica un conocimiento completo del tema.

0

1

2

3

4

5

6

7

8

9

10

 

 

 

 

 

 

 

 

 

 

 

 

·         Ka es el coeficiente de argumentación (Tabla 3), que se obtiene a partir de una serie de auto asignaciones por parte de experto de puntuaciones a distintas fuentes de argumentación en las que se basa su experticia conforma a la Tabla 4 (García & Fernández, 2008; Martínez Sariol et al., 2018).

·          

Tabla 3

Indicadores y valores relacionados de Ka (Molero-Aranda et al., 2022).

Por favor, marque el grado de influencia que cada una de las fuentes que se presentan a continuación ha tenido en su conocimiento y criterios sobre el objetivo de la investigación o sobre el objetivo de la propuesta de plan de curso de capacitación.

 

Grado de influencia de las fuentes en sus criterios

Fuentes de argumentación

Alto

Medio

Bajo

Formación (inicial y permanente)

.20

.15

.10

Experiencia obtenida por su actividad profesional

.50

.40

.25

Participación y/o colaboración en proyectos de investigación o innovación

.05

.05

.03

Análisis teóricos sobre el tema

.03

.02

.02

Intuición sobre el tema abordado

.22

.18

.10

Total

1.00

.80

.50

 

El cálculo de K emplea la metodología para la elaboración de pronósticos científico-técnicos, aprobada en febrero de 1971 por el Comité Estatal para la Ciencia y la Técnica de Rusia, que interpreta los valores a partir de estas definiciones:

 

·    

·    

·    

 

3. Análisis y resultados

La versión inicial de la propuesta de plan de curso de capacitación (Anexo 1), se sustenta en la determinación del conocimiento de la CDD y en la definición del nivel de desarrollo de la CD detectada en los profesores de la Unach. Esta propuesta se adapta al formato de documento denominado “Plan de curso de capacitación” con código “UNACH-RGF-01-06-01.06(Universidad Nacional de Chimborazo, 2021b), que es utilizado por la institución para la planificación de acciones formativas del personal académico; garantizando así el cumplimiento de las normas de calidad y el enfoque de mejora continua establecidos en el SGC de la Unach (Universidad Nacional de Chimborazo, 2021a).

El proceso de validación de la propuesta de plan de curso se realiza a través de un estudio Delphi, que incluye dos iteraciones de juicio de expertos. Para el análisis estadístico se trasladó la información al programa SPSS, IBM Versión 28, aplicando la prueba no paramétrica de Kappa de Fleiss, para evaluar el grado de acuerdo entre expertos que juzgan a un instrumento, independientemente con criterios de medida (Falotico & Quatto, 2015; McHugh, 2012). El valor mínimo del estadístico es 0 y el máximo es 1 (Pérez et al., 2007), la interpretación se ejecuta conforme a la escala definida en la Tabla 4 (Landis & Koch, 1977) y se obtiene la Tabla 6.

Tabla 4

Valoración de coeficiente de Kappa (Landis & Koch, 1977)

Coeficiente de Kappa de Fleiss

Fuerza de concordancia

.00

Pobre

.10 – .20

Leve

.21 – .40

Aceptable

.41 – .60

Moderada

.61 – .80

Consistente

.80- 1.00

Casi perfecta

 

En la primera iteración, se utiliza una plantilla de juicio de expertos inicial (Anexo 2) que sigue una estructura dimensional, en función de las categorías de relevancia, claridad, coherencia, suficiencia y adecuación, utilizando una escala 1 al 4, siendo 1 equivalente a “no cumple con el criterio”, 2 “nivel bajo”, 3 “nivel moderado” y máximo 4 que corresponde a “nivel alto”. No se asignan pesos diferentes a cada dimensión en esta evaluación; se obtiene como resultado de este proceso un informe de las observaciones de los expertos (Anexo 3) y una segunda versión de la propuesta de plan de curso de capacitación (Anexo 4). En la segunda iteración, se hace uso de una nueva plantilla de juicio de expertos (Anexo 5), para evaluar la propuesta formativa en función de la categoría satisfacción, utilizando la misma estructura dimensional, escala y pesos de la iteración 1. De la segunda iteración se obtiene la versión final de la propuesta de plan de curso de capacitación (Anexo 6).

En la primera iteración se enviaron 30 solicitudes a especialistas en la temática para participar en el juicio de expertos. La Tabla 5 recoge los resultados obtenidos de los 21 expertos potenciales que atendieron el pedido y que se sometieron a la prueba. Se seleccionaron a 19 especialistas para participar en el estudio Delphi que cumplieron con los requerimientos especificados por medio del Biograma y del CCE. En la Tabla 6, se puede apreciar el estadístico de Kappa de Fleiss de los datos obtenidos en esta iteración. Para la segunda iteración se envió solicitudes únicamente a los 19 expertos seleccionados, teniendo respuesta de parte de 18 de ellos.

 

Tabla 5

Indicadores y valores relacionados de Kc.

Cod. Experto

Título

SES

CCP

UTI

ACT

AFP

Kc

Ka

K

01_EBP

Doctor

Si

Si

Si

Si

Si

1.00

1.00

1.00

02_EBA

Doctor

Si

Si

Si

Si

Si

1.00

1.00

1.00

03_LCA

Doctor

Si

Si

Si

Si

Si

.80

.80

.80

04_PCZ

Máster

Si

Si

Si

Si

Si

1.00

1.00

1.00

05_JDA

Máster

Si

Si

Si

Si

Si

1.00

1.00

1.00

06_EHM

Doctor

Si

Si

Si

Si

Si

.90

1.00

.95

07_BHC

Doctor

Si

Si

Si

Si

Si

1.00

1.00

1.00

08_RIJ

Doctor

Si

Si

Si

Si

Si

1.00

1.00

1.00

09_CJG

Doctor

Si

Si

Si

Si

Si

1.00

1.00

1.00

10_PMN

Máster

Si

Si

Si

Si

Si

1.00

1.00

1.00

11_MNV

Doctor

Si

Si

Si

Si

Si

.80

.95

.88

12_MOA

Doctor

Si

Si

Si

Si

Si

1.00

1.00

1.00

13_XQL

Doctor

Si

Si

Si

Si

Si

.90

1.00

.95

14_DRH

Máster

Si

Si

Si

Si

Si

.90

1.00

.95

15_PRR

Doctor

Si

Si

Si

Si

Si

.90

1,00

.95

16_LSV

Máster

Si

Si

Si

Si

Si

1.00

1.00

1.00

17_DTL

Doctor

Si

Si

Si

Si

Si

1,00

.99

1,00

18_PVO

Máster

Si

Si

Si

Si

Si

1.00

1.00

1.00

19_HVY

Máster

Si

Si

Si

Si

Si

1.00

.96

.98

20_MJE

Doctor

Si

Si

Si

Si

Si

1.00

1.00

1.00*

21_JEP

Máster

Si

Si

Si

No*

Si

.80

.93

.86**

 

Tabla 6

Acuerdo global. Kappa de evaluadores múltiples de Fleiss

Coeficiente de Fleiss

Error estándar

    z

Sig.

Dimensión Total RE

.836

.014

60.951

0.000

Dimensión 1 RE

.789

.079

9.983

0.000

Dimensión 2 RE

.789

.079

9.983

0.000

Dimensión 3 RE

.000

.042

23.664

0.000

Dimensión 4 RE

.697

.058

11.954

0.000

Dimensión Total CL

0.908

.014

62.932

0.000

Dimensión 1 CL

1.000

.091

10.954

0.000

Dimensión 2 CL

1.000

.091

10.954

0.000

Dimensión 3 CL

1.000

.042

23.664

0.000

Dimensión 4 CL

.697

.058

11.954

0.000

Dimensión Total CO

.868

.014

61.831

0.000

Dimensión 1 CO

.789

.079

9.983

0.000

Dimensión 2 CO

1.000

.091

10.954

0.000

Dimensión 3 CO

1.000

.042

23.664

0.000

Dimensión 4 CO

.697

.058

11.954

0.000

Dimensión Total SU

.809

.013

60.292

0.000

Dimensión 1 SU

.789

.079

9.983

0.000

Dimensión 2 SU

1.000

.091

10.954

0.000

Dimensión 3 SU

.789

.037

21.566

0.000

Dimensión 4 SU

.697

.058

11.954

0.000

Dimensión Total AD

.696

.013

55.060

0.000

Dimensión 1 AD

.646

.074

8.762

0.000

Dimensión 2 AD

1.000

.091

10.954

0.000

Dimensión 3 AD

.660

.034

19.696

0.000

Dimensión 4 AD

.697

.058

11.954

0.000

 

 

 

4. Discusión

El método mixto secuencial DESXPLIS permite que los resultados recopilados y analizados en la fase cuantitativa se utilicen para informar a la fase cualitativa (Cohen et al., 2018; Creswell, 2014; Hernández Sampieri et al., 2014). En este contexto. a partir de la SLR (Cisneros-Barahona et al., 2023; Cisneros-Barahona et al. 2023; Cisneros-Barahona et al., 2022; Cisneros-Barahona et al., 2023) y de los resultados del diagnóstico del nivel de CDD en la Unach, se desarrolló una propuesta de plan de curso de capacitación inicial, que posteriormente fue validada por un grupo de expertos en el ámbito de la tecnología educativa en el contexto ecuatoriano mediante un estudio Delphi de dos iteraciones.

El impacto y los beneficios de las tecnologías digitales (TD) en el ámbito educativo demandan nuevas habilidades por parte de los docentes (Cabero-Almenara et al., 2021). En el contexto de la educación superior, los profesores no están suficientemente preparados para aprovechar las oportunidades de aprendizaje digital, lo que implica que la mera inversión tecnológica no es suficiente para garantizar la preparación de los estudiantes (Tejedor et al., 2020). Ante esta nueva realidad, los profesores universitarios están obligados a adquirir nuevas competencias en docencia, investigación y gestión (Cuadrado et al., 2020b; Vallejo & Aguayo, 2021a).

Los hallazgos de este estudio coinciden con investigaciones similares previas, las cuales destacan la necesidad de implementar acciones formativas que fortalezcan y actualicen el nivel de desarrollo de las CDD (Amhag et al., 2019; Arango et al., 2020; Basantes-Andrade et al., 2020; Biel & Ramos, 2019; Gutiérrez-Castillo et al., 2017; Nascimbeni, 2020; Vallejo & Aguayo, 2021a; Zhao et al., 2020). Especialmente, se requiere capacitación en TD y en su integración curricular para mejorar la dimensión pedagógica de la CD (Ayale-Pérez & Joo-Nagata, 2019; Mutiani et al., 2021; Rodríguez-Hoyos et al., 2021; Silva Quiroz & Miranda Arredondo, 2020b). En esta indagación, se reconoce también que las instituciones de educación superior tienen una gran oportunidad para mejorar el perfil profesional de los estudiantes a través de la capacitación del personal docente (Juárez Arall & Marqués Molías, 2019; Ruiz Cabezas et al., 2020; Sánchez-Caballé et al., 2020b).

El juicio de expertos es una técnica que involucra a un grupo de personas con experiencia y conocimientos especializados para emitir juicios y opiniones fundamentadas sobre un objeto o tema en particular. En el ámbito educativo, esta técnica se emplea por ejemplo para obtener la perspectiva de expertos en la selección de bloques de contenido que deben incluirse en un entorno de formación virtual o en un material multimedia (Cabero Almenara & Llorente Cejudo, 2013). En esta investigación esta técnica ha permitido recopilar información de manera sistemática, con la garantía de que las opiniones son consideradas objetivamente para tener una visión integral y fundamentada del objeto de estudio, que da como resultado la versión definitiva del plan de curso de capacitación.

Utilizando la técnica cualitativa del juicio de expertos junto con el análisis cuantitativo. se evalúa la propuesta de acción formativa. Se aplica el estadístico de Kappa de Fleiss como índice de concordancia (Escobar-Pérez & Cuervo-Martínez, 2008), el cual es especialmente útil cuando se solicita a los expertos asignar rangos a los ítems, como en este caso donde se aplica una escala de 1 a 4 (Escurra, 1998). Este índice permite conocer el grado de asociación entre los conjuntos de rangos asignados. Se aprecia que el estadístico de Fleiss muestra una concordancia “casi perfecta” para la mayoría de los indicadores y dimensiones, en los criterios relevancia, claridad, coherencia, suficiencia y adecuación (Landis & Koch, 1977). No existen coeficientes de concordancia por debajo de las escalas “consistente” y “casi perfecta”. Con el objetivo de mejorar la propuesta formativa, este estadístico permite verificar de manera cuantitativa lo que registraron de manera cualitativa los expertos, se observa que la media de los coeficientes es de .834 con una desviación estándar de .131 (dato que evidencia que el acuerdo Inter jueces es elevado).

Los criterios relevancia, claridad, coherencia, suficiencia y adecuación de la dimensión 4 relacionadas con el indicador alcanzables de la acción formativa presentan la fuerza de concordancia en escala “consistente”; al igual que el criterio adecuación de las dimensiones 1, 3 y 4.

 

5. Conclusiones

En la elaboración de la propuesta. se toma como referencia la rúbrica COM-DID A para guiar el logro de los niveles de desarrollo de la CD, específicamente los niveles “Medio-Experto”, en el cuerpo académico (Lázaro-Cantabrana et al., 2018; Lázaro-Cantabrana & Gisbert-Cervera, 2015). Esto asegura que la propuesta de plan de curso de capacitación está alineada con los estándares establecidos y proporciona las herramientas necesarias para mejorar la CD de los docentes en el contexto latinoamericano.

Una de las estrategias más utilizadas para evaluar las TD en el ámbito de la tecnología educativa es el juicio de expertos. Esta técnica abarca desde la evaluación de cuestionarios hasta la evaluación de recursos tecnológicos (Cabero-Almenara et al., 2021). El juicio de expertos es ampliamente utilizado debido a su teórica calidad de respuesta, la posibilidad de obtener valoraciones en profundidad, su facilidad de implementación, su flexibilidad para recopilar información de manera variada, y su utilidad para evaluar conocimientos sobre contenidos y temas difíciles, complejos, novedosos o poco estudiados (Cabero Almenara & Llorente Cejudo, 2013).

Los profesores necesitan de habilidades digitales para responder de manera efectiva a las demandas complejas de la sociedad (Pérez, 2015). En un mundo globalizado, el perfil profesional del docente de educación superior se caracteriza por poseer las CDD (Cateriano-Chavez et al., 2021). Al evaluar el nivel de CD de los docentes de la Unach, se observa que más del 60% de la planta académica no supera el nivel “Medio” de CD, de acuerdo con el marco de referencia COMDIA A. Estos resultados ponen de manifiesto la urgencia de implementar acciones formativas orientadas a fortalecer estas habilidades digitales. Es imperativo tomar medidas concretas para mejorar el nivel de CD, dotando a los docentes de las herramientas y recursos necesarios para enfrentar los desafíos que plantea el entorno digital en la educación.

La implementación de la metodología de diseño explicativo secuencial permite alcanzar una alta efectividad de la propuesta, debido a la ejecución por fases de la investigación. El estudio previo sobre la definición del nivel de desarrollo de las CDD otorga una alta adaptación a la acción formativa para el contexto requerido. Asimismo, la utilización secuencial de técnicas cualitativas y cuantitativas le confieren a la investigación una gran consistencia.

Para que las universidades puedan abordar los desafíos de la educación superior en el siglo XXI, es necesario reducir la brecha existente entre el nivel de desarrollo deseado de las CDD y el nivel percibido y detectado. Esto se logra a través de inversiones en propuestas formativas que fomenten cambios en el proceso de enseñanza y aprendizaje, y que motiven a todos los actores involucrados a mantenerse actualizados de manera constante (Cuadrado et al., 2020b; García-Vandewalle García et al., 2021; Garita-González et al., 2019; Guillén-Gámez et al., 2021; Laurente-Cárdenas et al., 2020; Meum et al., 2021; Rodríguez-García et al., 2019; Sales et al., 2020; Santos et al., 2021; Silva Quiroz & Miranda Arredondo, 2020b; Tejedor et al., 2020)

La propuesta de plan de curso diseñada no se concibe simplemente como una acción instrumental, sino que tiene como objetivo principal integrar las TD como recursos didácticos en el proceso de enseñanza y aprendizaje. Esto está en línea con estudios que destacan la necesidad de actualizar los conocimientos tecnológicos, recibir capacitación en las nuevas tendencias tecnológico-educativas, así como continuar formándose en la integración de herramientas mediadas por la tecnología y la identificación de materiales educativos digitales (Pardo Baldoví et al., 2020).

Los jueces expertos destacan aspectos diferenciadores y relevantes en la propuesta formativa; el uso de los formatos del SGC de la Unach concede a la propuesta de formación de una gran autonomía y contextualización; la mentoría para los participantes viabiliza la consolidación de los procesos de enseñanza y aprendizaje al interno del aula y de los espacios tecnológicos; la posibilidad de ajuste a través de la evaluación del curso proporciona retroalimentación y mejora continua a la formación; el aporte de la propuesta para alcanzar los objetivos estratégicos institucionales permite generar indicadores de impacto; la propuesta promueve valores como la igualdad de oportunidades de acceso a las acciones formativas. calidad de servicio. adecuación a usuarios específicos, entre otros.

En el futuro, se propone utilizar la triangulación como un enfoque integral para recopilar y analizar información en el campo de la tecnología educativa. Además, se plantea la posibilidad de emplear la minería de datos educativos (Cisneros-Barahona et al., 2021; Uvidia & Cisneros Barahona, 2017; Uvidia-Fassler et al., 2017, 2018, 2020), con el fin de identificar inferencias valiosas derivadas de estudios que emplean metodologías mixtas. Estos enfoques permitirán evaluar tanto la CD de los estudiantes como otros aspectos relevantes en el contexto del Sistema de Educación Superior. Finalmente, a través de esta investigación se puede generar acciones formativas de carácter específico para un determinado sector de la planta académica en función variables como la edad, experiencia, formación, género, situación laboral, centro al que pertenecen los profesores, tiempo de dedicación, entre otros.

 

6. Documentación subyacente

·         Zenodo: Documentación subyacentes para “La Competencia Digital Docente. Diseño y validación de una propuesta formativa. Teaching Digital Competence. A training proposal desing and validation”. https://doi.org/10.5281/zenodo.8316175  

 

El proyecto contiene la siguiente documentación subyacente:

·         Anexo 1 (Anex 1. UNACH-RGF-01-06-01.06 PLAN DE CURSO DE CAPACITACIÓN - CDD_Versión inicial) Propuesta de plan de curso de capacitación, versión inicial.

·         Anexo 2 (Anex 2. Plantilla JUICIO DE EXPERTOS iteración 1) Plantilla de juicio de expertos, versión iteración 1.

·         Anexo 3 (Anex 3. UNACH-RGF-01-06-01.06 PLAN DE CURSO DE CAPACITACIÓN - CDD informe iteración 1) Informe de las observaciones de los expertos, iteración 1.

·         Anexo 4 (Anex 4. UNACH-RGF-01-06-01.06 PLAN DE CURSO DE CAPACITACIÓN - CDD versión 2) Propuesta de plan de curso de capacitación, versión 2.

·         Anexo 5 (Anex 5. Plantilla JUICIO DE EXPERTOS iteración 2) Plantilla de juicio de expertos, versión iteración 2.

·         Anexo 6 (Anex 6. UNACH-RGF-01-06-01.06 PLAN DE CURSO DE CAPACITACIÓN - CDD versión 3) Propuesta de plan de curso de capacitación, versión final.

La documentación está disponible bajo los términos de la Creative Commons Attribution 4.0 International license (CC-BY 4.0).

 

7. Financiación

La presente investigación se ha desarrollado como parte de la Tesis Doctoral titulada "Fortalecimiento de la Competencia Digital Docente: Definición del nivel y diseño de una propuesta de plan de curso de capacitación en la Universidad Nacional de Chimborazo" en la Universidad Rovira i Virgili de Tarragona, España. Contó con el apoyo del Doctorado en Tecnología Educativa, liderado por el grupo Investigación Aplicada en Educación y Tecnología (ARGET 2021SGR00707). Además, fue financiado por la Fundación Carolina, la Universitat Rovira i Virgili y la Universidad Nacional de Chimborazo.


 

 

 

Teaching Digital Competence. A training proposal desing and validation

 

1. Introduction

The SARS-CoV-2 (COVID-19) pandemic forced many higher education institutions to increase their efforts to incorporate Digital Technology (DT) in programs and classrooms that traditionally adopted face-to-face on-campus interaction. Now, universities are seeking to implement policies and teaching methodologies that will enable them to offer their courses remotely. However, during the implementation of these efforts, they have faced various obstacles, primarily related to the lack of teacher training and low levels of Digital Competence (DC).

In the scientific literature, it is found a varied DC terminology. However, it would be inaccurate to define DC as a linear, unambiguous concept (Biel & Ramos, 2019a; Gallardo Echenique, 2013; Marqués-Molías et al., 2016). Far more rigorous is to intent to present it as a form of multiple and complex literacy that integrates values, beliefs, knowledge, abilities, and attitudes in technological, informative, and communicative environments (Gisbert Cervera & Esteve Mon, 2011). Additionally, TDC involves a mix of abilities, attitudes, and knowledge that enable educators to use technology to support their students by the redesign and transformation of practices in the classroom (Hall et al., 2014).

Various studies have emphasized the existence of multiple reference frames to assess DC (Cisneros-Barahona et al., 2022; Palau et al., 2019; Verdú-Pina et al., 2022), where dimensions, standards, indicators and relevant components have been defined (Almås & Krumsvik, 2008; Beetham et al., 2009; Butcher, 2019; Caena & Redecker, 2019; Campo et al., 2013; CDEST, 2002; Elliot et al., 2011; INTEF, 2017; ISTE, 2000, 2008; Lázaro-Cantabrana & Gisbert-Cervera, 2015; Redecker, 2017; Trilling, 2002). According to the context and rubric, the DC level of development understanding varies significantly (Sánchez-Caballé et al., 2020a).

In despite of the fact that there may exist an unlimited access to information and to the opportunities that the Internet and DT offer, not all individuals are capable to take full advantage of these accessibilities. Digital gap has become an obstacle to achieve inclusive and equitable development, since those who lack DC expertise my face significant disadvantages in terms of employability, education, services, and civil engagement access. Therefore, these skills mentioned above, may strengthen one's professional profile in the labour market and it is fundamental to fulfil the current adaptations demanded in a such technology-rich age (Juárez Arall & Marqués Molías, 2019).

The educational system also recognizes the gap between the skills required to teachers and the scarce and lack of practical academic training received (Biel & Ramos, 2019a). As well as various other studies have pointed out the existence of low DC levels (Esteve-Mon et al., 2020; Silva Quiroz & Miranda Arredondo, 2020a).

Relatedly, other publications stress the relationship between DC and variables such as age, gender, years of experience, training, attitudes toward DT, confidence, and socioeconomic status, among others (Cabero-Almenara et al., 2020; Palau et al., 2019; Paz Saavedra & Gisbert Cervera, 2023; Silva et al., 2019). Nevertheless, it is also highlighted teachers' positive attitude toward the adoption and use of technological tools in teaching and learning (TL) activities (Zhao et al., 2020a).

The Universidad Nacional de Chimborazo (UNACH) is a recognized Ecuadorian institution accredited by the Consejo de Aseguramiento de la Calidad de la Educación Superior (CACES), located downtown the country. The university comprises four faculties and offers 31 undergraduate degree programs, supported by two canters and four campuses. Additionally, it offers 41 master’s degree programs and boasts an enrolment of more than 13,000 students. The institution employs around 700 professors who play a fundamental role in the university performance (Universidad Nacional de Chimborazo, 2022).

In 2023, this institution launched an online academic program (Universidad Nacional de Chimborazo, 2023), and a first phase research has been done toward this respect to diagnose the teachers' perspective on their DC level of development during the second academic period of 2022. Results of this study showed that more than 60% of the academic faculty members do not attain the mid-range TDC level according to the "COMDID-A" framework standard. 

The purpose of this second research phase, is to design a course training proposal plan to strengthen the level of TDC development at UNACH, based on the theoretical references and on the DC levels of development definition. Additionally, the present research aims to validate the proposal through an experts' judgment in double-iteration Delphi study, where the specialists belong to the educational technology field.

 

2. Methodology

The first research phase was done through a systematic literature review (SLR), the Preferred Reporting Items for Systematic Reviews and Meta-Analyses (PRISMA) publication guide was applied to ensure the quality of the methodology (Urrutia & Bonfill, 2010). An analysis of the scientific production retrieved from Web of Science (WoS) and Scopus databases was carried out. Key concepts were used to define the limits of the study to rely on a controlled vocabulary of descriptors (Tous & Salim Mattar, 2012). Results include studies published between 2012 and July 2022. 

The research was divided into two phases through the application of a mixed method approach and an explanatory sequential design (ESD) (Cohen et al., 2018; Creswell, 2014).

In the first phase (quantitative), data regarding to the DC level of development among UNACH professors was collected and analysed during the second academic period of 2022 applying the “COMDID A” framework. This instrument is ideal for this purpose as it has been adapted to the Latin American context.

Results of the first phase constitute the input of the second phase (qualitative) (Figure 1). Then, a course plan of training proposal was designed and validated by educational technology specialists, based on an expert process with a double-iteration Delphi study. The proposal aims to strengthen the DC level of development at the Universidad Nacional de Chimborazo.

Figure 1

Mixed research methodology Diagram, Explanatory Sequential Design (ESD)

 

To establish the structure and content of the training action, this project refers to the UNACH Quality Management System (QMS) (Universidad Nacional de Chimborazo, 2017), specifically through the teacher training process which is part of the Macroprocess “Training Management” (Universidad Nacional de Chimborazo, 2021a). The UNACH QMS attempts to be a continuous improvement platform that guarantees the institutional quality services availability to users and concerned parties. 

 

·         Macroprocess: Training management

·         Process: Academic management

·         Subprocess: Faculty staff training and professional development

·         Method: Faculty personnel Internal training

·         Subprocess Documentation: Training course plan.

·         Document Formats: Training course plan

·         Document Code: UNACH-RGF-01-06-01.06 (Universidad Nacional de Chimborazo, 2021b).

 

The subprocess titled “Academic Faculty Training and Professional Development,” code UNACH-PGF-01-06, under the Macro process “Training Management” and under the process “Academic Management” aims to “Manage the participation, training and professional development, as the academic faculty at UNACH update and adaptation in terms of knowledge, skills, and attitudes, according to the lacks and inadequacies in their performance, their individual interests, and the strategic institutional development needs”, the document format titled is define as “Training Course Plan,” with the code UNACH-RGF-01-06-01.06 (Universidad Nacional de Chimborazo, 2021a).

An experts’ judgement has been implemented through a well-organised steps structure, to organise information and boost the (Escobar-Pérez & Cuervo-Martínez, 2008):

 

1. Define the experts’ judgement objective.

2. Select the experts to participate.

3. Specify both the dimensions and the indicators.

4. Explain the objectives for the training course plan.

5. Establish the differential weights regarding to the training course plan proposal dimensions.

6. Template design.

7. Calculate the agreement among judges.

8. Elaboration of the judgment conclusions.

 

To obtain a reliable estimate with a 95% of (Burguet Lago & Burguet Lago, 2020; García & Fernández, 2008), it is considered appropriate to have at least 15 experts (Gable & Wolf, 1993; Lynch, 1973; Witkin & Altschuld, 1995). To select the judges, it was stablished two mechanisms. The first one is called Expert Biogram (Table 1), and it is based on the accomplishment of the following aspects: be a professor in the Ecuadorian higher system, have a fourth-level degree, be an ICT- related content professor, be a professor who frequently uses ICT, be a professional who has published scientific articles on ICT-related content or be a teachers’ training actions professor (Cabero-Almenara, Barroso-Osuna, Palacios-Rodríguez, et al., 2021). The second mechanism is obtained by applying the Expert´s Competence Coefficient (K/ECC), as a selection strategy (Burguet Lago & Burguet Lago, 2020; Cabero-Almenara et al., 2021; López-Gómez, 2017; Martínez Sariol et al., 2018). The ECC allows to evaluate the competence and experience of the potential judges in the specific area of study. Through the two mechanisms combination, we ensure the relevant experience qualified experts participation, and it guarantees their qualified and relevant opinion through the evaluation process. 

 

Table 1

Biogram

Tick with an “X” in the appropriate box

 

 

 

Question

YES

NO

f)     Are you an Ecuadorian Higher System professor? (SES) *

 

 

g)    Are you an ICTs – related content professional? (CCP) *

 

 

h)    Do you frequently use ICTs in your teaching work? (UFT) *

 

 

i)      Have you published articles ICTs – related content scientific? (ACT) *

 

 

j)      Have you ever been a training action teacher? (AFP) *

 

 

 

The coefficient K or ECC is obtained from the self-perception that the expert has about the knowledge of the topic raised and is calculated by the formula . This score is measured on a scale from 0 to 1, determining the high, medium, and low competence level (from 0.8 points it is considered a high level of expert competence) (Cabero-Almenara et al., 2021).

 

·         Kc is the knowledge coefficient (Table 2), which is obtained from the assessment made by the expert on the increasing scale from 0 to 10, multiplied by 1, about the research topic stated (Cabero-Almenara, Barroso-Osuna, Palacios-Rodríguez, et al., 2021; Martínez Sariol et al., 2018).

 

Table 2

Indicators and related values of Kc

Please, tick the degree of knowledge and information that you have about the research objective or about the objective of the training course plan proposal.

Use the scale from 0 to 10, where 0 represents no knowledge at all and 10 indicates whole knowledge of the topic.

0

1

2

3

4

5

6

7

8

9

10

 

 

 

 

 

 

 

 

 

 

 

 

·         Ka is the argumentation coefficient (Table 3), which is obtained from a series of self-assignments by expert of scores to different argumentations sources on which his expertise is based, according to Table 4 (García & Fernández, 2008; Martínez Sariol et al., 2018).

 

Table 3

Indicators and related values of Ka (Molero-Aranda et al., 2022)

Please indicate each source level of impact presented below, based on your understanding and evaluation about the research objective or the objective of the training course plan proposal.

Degree of influence of the sources on your criteria

Sources of argumentation

High

Medium

Low

Training (initial or ongoing)

.20

.15

.10

Experience obtained by your professional activity

.50

.40

.25

Participation and/or collaboration in research or innovation projects

.05

.05

.03

Theorical analysis on the subject

.03

.02

.02

Intuition about the topic addressed

.22

.18

.10

Total

1.00

.80

.50

 

The estimate of K uses the methodology for the elaboration of scientific-technical forecasts, approved in February 1971 by the State Committee for Science and Technology of Russia, which interprets the value based on the following definitions:

·    

·    

·    

 

3. Analysis and results

The initial version of the training course plan proposal (Annex 1) is based on the TDC knowledge determination and on the DC level of development definition identified on UNACH professors. This proposal is adapted to the document format called “Training course plan” coded “UNACH-RGF-01-06-01.06(Universidad Nacional de Chimborazo, 2021b), which is used by the institution to plan academic staff training actions. To guarantee the quality standards accomplished and the continuous upgrading approach established in the UNACH QMS (Universidad Nacional de Chimborazo, 2021a).

The course plan proposal validation process was carried out through a Delphi Study, which includes two expert judgment iterations. For the statistical analysis, the information was transferred to the SPSS program, IBM version 28, by the non-parametric Feiss Kappa Test to evaluate the between experts’ degree of agreement who judge an instrument independently with measurement criteria (Falotico & Quatto, 2015; McHugh, 2012). The minimum value of the statistic is 0, and the maximum is 1 (Pérez et al., 2007), the interpretation is executed according to the scale defined in chart 4 (Landis & Koch, 1977), and it is obtained in table 6.

 

Table 4

Kappa coefficient assessment (Landis & Koch, 1977)

     Fleiss Kappa Coefficient

Match strength

 

 

.00

Poor

.10 – .20

Mild

.21 – .40

Acceptable

.41 – .60

Moderate

.61 – .80

Consistent

.80- 1.00

Almost perfect

 

In the first iteration, an initial expert judgment template was used (Annex 2) that follows a dimensional structure based on the categories of relevance, clarity, coherence, sufficiency, and adequacy, using a scale from 1 to 4, where 1 represents "does not meet the criteria”, 2 “low level”, 3 “moderate level" and a maximum of 4 to "high level". Different weights are not assigned to each dimension in this evaluation. An experts’ observation report was obtained as a result of the process (Annex 3), and a second version of the training course plan proposal (Annex 4). In the second iteration, a new expert judgment template was used (Annex 5) to evaluate the training proposal based on category satisfaction using the same iteration1dimensional structure, scale, and weights. The final version of the training course plan proposal was obtained from the second iteration (Annex 6).

In the first interaction, 30 requests were sent to specialists in the subject to participate in the judgment. Table 5 shows the results from the 21 probable experts who responded and did the test. Nineteen specialists who met the Biogram and ECC specified requirements were selected to participate in the Delphi study. Table 6 shows the Fleiss Kappa statistic of the data obtained in this interaction. For the second iteration, requests were sent only to the 19 selected experts, 18 answered. 

 

Table 5

Kc Indicators and related values

Expert Code

Title

SES

CCP

UTI

ACT

AFP

Kc

Ka

K

01_EBP

Doctor

Yes

Yes

Yes

Yes

Yes

1.00

1.00

1.00

02_EBA

Doctor

Yes

Yes

Yes

Yes

Yes

1.00

1.00

1.00

03_LCA

Doctor

Yes

Yes

Yes

Yes

Yes

.80

.80

.80

04_PCZ

Master

Yes

Yes

Yes

Yes

Yes

1.00

1.00

1.00

05_JDA

Master

Yes

Yes

Yes

Yes

Yes

1.00

1.00

1.00

06_EHM

Doctor

Yes

Yes

Yes

Yes

Yes

.90

1.00

.95

07_BHC

Doctor

Yes

Yes

Yes

Yes

Yes

1.00

1.00

1.00

08_RIJ

Doctor

Yes

Yes

Yes

Yes

Yes

1.00

1.00

1.00

09_CJG

Doctor

Yes

Yes

Yes

Yes

Yes

1.00

1.00

1.00

10_PMN

Master

Yes

Yes

Yes

Yes

Yes

1.00

1.00

1.00

11_MNV

Doctor

Yes

Yes

Yes

Yes

Yes

.80

.95

.88

12_MOA

Doctor

Yes

Yes

Yes

Yes

Yes

1.00

1.00

1.00

13_XQL

Doctor

Yes

Yes

Yes

Yes

Yes

.90

1.00

.95

14_DRH

Master

Yes

Yes

Yes

Yes

Yes

.90

1.00

.95

15_PRR

Doctor

Yes

Yes

Yes

Yes

Yes

.90

1,00

.95

16_LSV

Master

Yes

Yes

Yes

Yes

Yes

1.00

1.00

1.00

17_DTL

Doctor

Yes

Yes

Yes

Yes

Yes

1,00

.99

1,00

18_PVO

Master

Yes

Yes

Yes

Yes

Yes

1.00

1.00

1.00

19_HVY

Master

Yes

Yes

Yes

Yes

Yes

1.00

.96

.98

20_MJE

Doctor

Yes

Yes

Yes

Yes

Yes

1.00

1.00

1.00*

21_JEP

Master

Yes

Yes

Yes

No*

Yes

.80

.93

.86**

 

Table 6

Comprehensive agreement. Fleiss´s multi-rater Kappa

Fleiss coefficient

Standard Error

    z

Sig.

RE Total Dimension

.836

.014

60.951

0.000

RE Dimension 1

.789

.079

9.983

0.000

RE Dimension 2

.789

.079

9.983

0.000

RE Dimension 3

.000

.042

23.664

0.000

RE Dimension 4

.697

.058

11.954

0.000

CL Total Dimension

0.908

.014

62.932

0.000

CL Dimension 1

1.000

.091

10.954

0.000

CL Dimension 2

1.000

.091

10.954

0.000

CL Dimension 3

1.000

.042

23.664

0.000

CL Dimension 4

.697

.058

11.954

0.000

CO Total Dimension

.868

.014

61.831

0.000

CO Dimension 1

.789

.079

9.983

0.000

CO Dimension 2

1.000

.091

10.954

0.000

CO Dimension 3

1.000

.042

23.664

0.000

CO Dimension 4

.697

.058

11.954

0.000

SU Total Dimension

.809

.013

60.292

0.000

SU Dimension 1

.789

.079

9.983

0.000

SU Dimension 2

1.000

.091

10.954

0.000

SU Dimension 3

.789

.037

21.566

0.000

SU Dimension 4

.697

.058

11.954

0.000

AD Total Dimension

.696

.013

55.060

0.000

AD Dimension 1

.646

.074

8.762

0.000

AD Dimension 2

1.000

.091

10.954

0.000

AD Dimension 3

.660

.034

19.696

0.000

AD Dimension 4

.697

.058

11.954

0.000

 

4. Discussion

The ESD sequential mixed method allows the quantitative phase collected and analysed results to be used to inform the qualitative phase (Cohen et al., 2018; Creswell, 2014; Hernández Sampieri et al., 2014). In this context, from the SLR (Cisneros-Barahona, et al., 2023; Cisneros-Barahona et al., 2023; Cisneros-Barahona et al., 2022; Cisneros-Barahona, et al., 2023) and with the UNACH TDC level diagnosis results, a training course plan proposal was developed (initial), afterward validated by an educational technology field experts group in the Ecuadorian context through a two iterations Delphi study.

 Digital technologies (DT) impact and benefits in the educational field required new skills from teachers (Cabero-Almenara et al., 2021). In the higher education context, teachers are not suitably prepared to take advantage of digital learning opportunities, this implies that the mere investment in technology is not enough to guarantee students training (Tejedor et al., 2020). Before with this reality, university professors must acquire new competences in teaching, research, and management (Cuadrado et al., 2020b; Vallejo & Aguayo, 2021a).

Findings of this study match with previous similar research, which highlights the need to implement training actions that strengthen and update the TDC level of development (Amhag et al., 2019; Arango et al., 2020; Basantes-Andrade et al., 2020; Biel & Ramos, 2019; Gutiérrez-Castillo et al., 2017; Nascimbeni, 2020; Vallejo & Aguayo, 2021a; Zhao et al., 2020). It is required training specifically in DT and about its curricular integration to improve the DC pedagogical dimension (Ayale-Pérez & Joo-Nagata, 2019; Mutiani et al., 2021; Rodríguez-Hoyos et al., 2021; Silva Quiroz & Miranda Arredondo, 2020b). In this study, it is also recognized that higher education institutions have an excellent opportunity to improve the student’s professional profile through the teaching staff training (Juárez Arall & Marqués Molías, 2019; Ruiz Cabezas et al., 2020; Sánchez-Caballé et al., 2020b).

Experts’ judgment is a technique that involves a group of people with expertise and specialized knowledge to stipulate well-versed judgments and opinions about a particular subject or topic. In the educational field, this technique is used, for instance, to obtain the experts' perspective to select content blocks that must be included in an environment or multimedia virtual training (Cabero Almenara & Llorente Cejudo, 2013). In this study, the experts’ judgment technique allowed to collect information systematically and guaranteed that the opinions were impartially considered to have a widespread and well-founded vision of the study objective, which resulted in the final version of the training course plan.

The training action proposal was evaluated throughout the expert’s judgment qualitative techniques along with quantitative analysis. The Fleiss Kappa statistic was applied as a concordance index (Escobar-Pérez & Cuervo-Martínez, 2008), it is especially useful when experts are asked to assign ranks to the items, as in this case where a scale from 1 to 4 was applied (Escurra, 1998). This index allows to acknowledge the degree of association between the sets of assigned ranges. It is stated that the Fleiss statistic shows an "almost perfect" concordance from most of the relevance, clarity, coherence, efficiency, and adequacy criteria indicators and dimensions (Landis & Koch, 1977). No concordance coefficients were below the scales "consistent" and "almost perfect”. To improve the proposal, this statistic allows to quantitatively corroborate what was qualitatively recorded by experts. It is observed that the coefficients average is .834 with a standard deviation of .131 (data shows that the agreement between judges is high). 

The dimension 4 relevance, clarity, coherence, sufficiency, and adequation criteria related to the reachable training action indicator, presented the strength of agreement on a "consistent” scale; as well as in the dimensions 1, 3, and 4 adequacy criterion.

 

5. Conclusions

In the proposal design, the COMDID-A rubric was taken as a reference to guide the DC levels of development achievement, specifically the academic stuff DC "Medium-Expert" levels (Lázaro-Cantabrana et al., 2018; Lázaro-Cantabrana & Gisbert-Cervera, 2015). This ensures that the training course plan proposal was aligned with the established standards and provides the necessary tools to improve the teachers DC in the Latin American Context.

One of the most widely used strategies to evaluate DT in the field of educational technology is expert judgment. This technique ranges from evaluating questionnaires to evaluating technological resources (Cabero-Almenara, et al., 2021). The experts' judgment is widely used due to its theoretical response quality, the possibility to draw in-depth assessment, its simple implementation, its flexibility to collect information in a variety of ways, and its usefulness to evaluate knowledge regarding challenging, complex, novel, or little-studied content and topics (Cabero Almenara & Llorente Cejudo, 2013)

Teachers need digital skills to efficiently answer society's complex demands (A. Pérez, 2015). In a globalized world, the higher education teacher professional profile is characterized by the TDC attainment (Cateriano-Chavez et al., 2021). According to the COMDIA-A reference framework, when assessing the UNACH teachers DC level, it is observed that more than 60% of the academic staff does not exceed the "Medium" DC level. These results show the urgency of implementing training actions to strengthen these digital skills. It is imperative to take concrete measures to improve the DC level by providing teachers with the necessary tools and resources to face the challenges posed by the digital environment in education.

The application of the sequential explanatory design method endorsed the high proposal effectiveness due to the phased research execution. The previous study on the TDC level of development definition grants a high adaptation to the formative action for the required context. Likewise, the qualitative and quantitative techniques sequential use gives the research great consistency. 

For universities to handle higher education challenges in the 21st century, it is necessary to reduce the gap between the desired TDC level of development and the perceived and detected level. This is achieved through training proposals investments that promote changes in the teaching and learning process; and that motivate all the actors involved to stay constantly updated (Cuadrado et al., 2020b; García-Vandewalle García et al., 2021; Garita-González et al., 2019; Guillén-Gámez et al., 2021; Laurente-Cárdenas et al., 2020; Meum et al., 2021; Rodríguez-García et al., 2019; Sales et al., 2020; Santos et al., 2021; Silva Quiroz & Miranda Arredondo, 2020b; Tejedor et al., 2020).

The designed course plan proposal is not only a simply instrumental action, but its main objective is to integrate DT as a didactic resource in the teaching and learning process. This agrees with studies that highlight the need to update technological knowledge, receive training in the new technological-educational trends, as well as continue training in the integration of technology-mediated tools and the identification of digital educational materials (Isabel Pardo Baldoví et al., 2020).

The expert judges highlighted differentiating and relevant aspects in the training proposal; the use of the UNACH QMS formats gives the training proposal significant autonomy and contextualization; the mentoring for all the participants enables the consolidation of the teaching and learning processes within the classroom and in technological spaces; the possibility of adjustment through the course evaluation provides feedback and continuous improvement to the training; the contribution of the proposals to achieve the institutional strategic objectives allows generating impact indicators; The proposal promotes values such as equal access opportunities to training activities, quality of service, adaptation to specific users, among others.

In the future, it is proposed to use triangulation as a comprehensive approach to collect and analyse information in the educational technology field. In addition, it is suggested to possibly apply the educational data mining (Cisneros-Barahona et al., 2021; Uvidia & Cisneros Barahona, 2017; Uvidia-Fassler et al., 2017, 2018, 2020), to identify valuables inferences derived from studies that use mixed methodologies. These approaches will enable us to evaluate the students' DC and other relevant aspects in the context of the Higher Educational System. Finally, through this research, it is possible to generate training actions of a specific nature for a particular sector of the academic staff depending on variables such as age, experience, training, gender, employment situation, the centre to which the teachers belong, and the job timetable, among others.

 

6. Documentation availability

·         Zenodo: Underlying data for ‘La Competencia Digital Docente. Diseño y validación de una propuesta formativa. Teaching Digital Competence. A training proposal desing and validation. https://doi.org/10.5281/zenodo.8316175

 

The project contains the following underlying documentation:

·         Anex 1 (Anex 1. UNACH-RGF-01-06-01.06 PLAN DE CURSO DE CAPACITACIÓN - CDD_Versión inicial) Training Course Plan Proposal, initial version.

·         Anex 2 (Anex 2. Plantilla JUICIO DE EXPERTOS iteración 1) Template for expert judgement, version iteration 1.

·         Anex 3 (Anex 3. UNACH-RGF-01-06-01.06 PLAN DE CURSO DE CAPACITACIÓN - CDD informe iteración 1) Report of experts' comments, iteration 1.

·         Anex 4 (Anex 4. UNACH-RGF-01-06-01.06 PLAN DE CURSO DE CAPACITACIÓN - CDD versión 2) Training Course Plan Proposal, version 2.

·         Anex 5 (Anex 5. Plantilla JUICIO DE EXPERTOS iteración 2) Template for expert judgement, version iteration 2.

·         Anex 6 (Anex 6. UNACH-RGF-01-06-01.06 PLAN DE CURSO DE CAPACITACIÓN - CDD versión 3) Training Course Plan Proposal, final versión.

 

Documentation are available under the terms of the Creative Commons Attribution 4.0 International license (CC-BY 4.0).

 

7. Funds

The present research has been developed as part of the Doctoral thesis entitled “Fortalecimiento de la Competencia Digital Docente: Definición del nivel y diseño de una propuesta de plan de curso de capacitación en la Universidad Nacional de Chimborazo” at the Rovira i Virgili University in Tarragona, Spain. It received support from the Doctoral Program in Educational Technologies, led by the research group Applied Research in Education and Technology (ARGET 2021SGR00707). Additionally, it was funded by the Fundación Carolina , Universitat Rovira i Virgili and the Universidad Nacional de Chimborazo.

 

References

Almås, A. G., & Krumsvik, R. (2008). Digitally literate teachers in leading edge schools in Norway. Journal of In-Service Education, 33(4), 479–497. https://doi.org/10.1080/13674580701687864

Amhag, L., Hellström, L., & Stigmar, M. (2019). Teacher Educators’ Use of Digital Tools and Needs for Digital Competence in Higher Education. Journal of Digital Learning in Teacher Education, 35(4), 203–220. https://doi.org/10.1080/21532974.2019.1646169

Arango, D. A. G., Fernández, J. E. V., Rojas, Ó. A. C., Gutiérrez, C. A. E., Villa, C. F. H., & Grisales, M. A. B. (2020). Digital competence in university teachers: Evaluation of relation between attitude, training and digital literacy in the use of ict in educational environments | Competencia digital en docentes universitarios: Evaluación de relación entre actitud, formaci. RISTI - Revista Iberica de Sistemas e Tecnologias de Informacao, 2020(E29), 538–552.

Ayale-Pérez, T., & Joo-Nagata, J. (2019). The digital culture of students of pedagogy specialising in the humanities in Santiago de Chile. Computers and Education, 133(January), 1–12. https://doi.org/10.1016/j.compedu.2019.01.002

Basantes-Andrade, A., Cabezas-González, M., & Casillas-Martín, S. (2020). Digital competences relationship between gender and generation of university professors. International Journal on Advanced Science, Engineering and Information Technology, 1, 205–211. https://doi.org/10.18517/ijaseit.10.1.10806

Beetham, H., McGill, L., & Littlejohn, A. (2009). Thriving in the 21st century : the report of the LLiDA project ( Learning Literacies for the Digital Age ): Competency frameworks A JISC funded study. June, 1–24.

Biel, L. A., & Ramos, E. Á. (2019a). Digital teaching competence of the university professor 3.0. Caracteres, 8(2), 205–236. https://bit.ly/3arv0aB

Biel, L. A., & Ramos, E. Á. (2019b). Digital teaching competence of the university professor 3.0 | La competencia digital docente del profesor universitario 3.0. Caracteres, 8(2), 205–236.

Burguet Lago, I., & Burguet Lago, N. (2020). Empleo del excel para el procesamiento de los criterios de expertos mediante el método de evaluación de comparación por pares. 3C TIC: Cuadernos de Desarrollo Aplicados a Las TIC, 9(4), 17–43. https://doi.org/10.17993/3ctic.2020.94.17-43

Butcher, N. (2019). Marco de competencias docentes en materia de TIC UNESCO. https://unesdoc.unesco.org/ark:/48223/pf0000371024/PDF/371024spa.pdf.multi

Cabero Almenara, J., & Llorente Cejudo, M. del C. (2013). The expert’s judgment application as a technic evaluate Information and Communication Technology (ICT). Revista de Tecnología de Información y Comunicación En Educación, 7(2), 11–22. https://dialnet.unirioja.es/servlet/articulo?codigo=4857163

Cabero-Almenara, J., Barroso-Osuna, J., Gutiérrez-Castillo, J.-J., & Palacios-Rodríguez, A. (2021). The Teaching Digital Competence of Health Sciences Teachers. A Study at Andalusian Universities (Spain). International Journal of Environmental Research and Public Health, 18(5), 2552. https://doi.org/10.3390/ijerph18052552

Cabero-Almenara, J., Barroso-Osuna, J., Palacios-Rodríguez, A., & Llorente-Cejudo, C. (2021). Evaluation of university t-MOOC on teaching digital competences through expert judgment according to the DigCompEdu Framework. Revista de Educación a Distancia, 21(67). https://doi.org/10.6018/RED.476891

Cabero-Almenara, J., Barroso-Osuna, J., Rodríguez-Gallego, M., & Palacios-Rodriguez, A. (2020). Digital Competence for Educators. The case of Andalusian universities. Aula Abierta, 49(4), 363–371. https://doi.org/10.17811/rifie.49.3.2020.363-372

Caena, F., & Redecker, C. (2019). Aligning teacher competence frameworks to 21st century challenges: The case for the European Digital Competence Framework for Educators ( Digcompedu). European Journal of Education, 54(3), 356–369. https://doi.org/10.1111/ejed.12345

Campo, F., Segovia, R., Martínez, P., Rendón, H., & Calderón, G. (2013). Competencias TIC para el desarrollo profesional docente. In Ministerio de Educación del Gobierno de Colombia.

Cateriano-Chavez, T. J., Rodríguez-Rios, M. L., Patiño-Abrego, E. L., Araujo-Castillo, R. L., & Villalba-Condori, K. O. (2021). Digital skills, methodology and evaluation in teacher trainers | Competencias digitales, metodología y evaluación en formadores de docentes. Campus Virtuales, 10(1), 153–162.

CDEST. (2002). Raising the standards: a proposal for the development of an ICT competency framework for teachers. In 2022. https://catalogue.nla.gov.au/Record/2187366

Cisneros-Barahona, A., Marqués Molías, L., Samaniego-Erazo, N., Uvidia-Fassler, M. I., Castro-Ortiz, W., & Villa-Yánez, H. (2023, February 8). Digital competence, faculty and higher education: Bibliometrics from the Web of Science. Human Review. International Humanities Review / Revista Internacional de Humanidades, 16(5). https://doi.org/10.37467/revhuman.v12.4680

Cisneros-Barahona, A., Marqués-Molías, L., Samaniego-Erazo, G., Uvidia-Fassler, M., & De la Cruz-Fernández, G. (2023). Bibliometric Mapping of Scientific Literature Located in Scopus on Teaching Digital Competence in Higher Education. In O. S. and R. M. R. and D. C. A. and L.-E. W. Botto-Tobar Miguel and Gómez (Ed.), Trends in Artificial Intelligence and Computer Engineering (pp. 167–180). Springer Nature Switzerland.

Cisneros-Barahona, A., Marqués-Molías, L., Samaniego-Erazo, G., Uvidia-Fassler, M., De la Cruz-Fernández, G., & Castro-Ortiz, W. (2022). Teaching Digital Competence in Higher Education. A Comprehensive Scientific Mapping Analysis with Rstudio. Communications in Computer and Information Science, 14–31. https://doi.org/10.1007/978-3-031-18347-8_2

Cisneros-Barahona, A., Marqués-Molías, L., Samaniego-Erazo, G., Uvidia-Fassler, M., De la Cruz-Fernández, G., & Castro-Ortiz, W. (2023). Teaching Digital Competences in University Professors: A Meta-analysis and Systematic Literature Review in Web of Science. In M. and M. L. S. and T.-C. P. and D. B. Botto-Tobar Miguel and Zambrano Vizuete (Ed.), Applied Technologies (pp. 61–74). Springer Nature Switzerland.

Cisneros-Barahona, A., Marqués-Molías, L., Samaniego-Erazo, N., Uvidia-Fassler, M., Castro-Ortiz, W., & Rosas-Chávez, P. (2022, December 27). Digital competence of university teachers. An overview of the state of the art. HUMAN REVIEW. International Humanities Review / Revista Internacional de Humanidades, 11(Monográfico), 1–25. https://doi.org/10.37467/revhuman.v11.4355

Cisneros-Barahona, A., Uvidia-Fassler, M., Samaniego-Erazo, G., Dumancela-Nina, G., & Casignia-Vásconez, B. (2021). Complementary Admission Processes Implemented by Ecuadorian Public Universities Promote Equal Opportunities in Access: An Analysis Through Knowledge Discovery in Databases. Advances in Intelligent Systems and Computing, 1273 AISC, 208–222. https://doi.org/10.1007/978-3-030-59194-6_18

Cohen, L., Manion, L., & Morrison, K. (2018). Research Methods in Education (Vol. 8).

Creswell, J. W. (2014). Research-Design_Qualitative-Quantitative-and-Mixed-Methods-Approaches.

Cuadrado, A. M. M., Sánchez, L. P., & Torre, M. J. de la. (2020a). Las competencias digitales docentes en entornos universitarios basados en el Digcomp. Educar Em Revista, 36, 1–21. https://doi.org/10.1590/0104-4060.75866

Cuadrado, A. M. M., Sánchez, L. P., & Torre, M. J. de la. (2020b). Teachers digital competences in Digcomp-based university environments. Educar Em Revista, 36, 1–21. https://doi.org/10.1590/0104-4060.75866

Elliot, J., Gorichon, S., Irigoin, M., & Maurizi, M. (2011). Competencias y Estándares TIC para la Profesión Docente. http://www.enlaces.cl/libros/docentes/files/docente.pdf

Escobar-Pérez, J., & Cuervo-Martínez, Á. (2008). Validez de contenido y juicio de expertos: Una aproximación a su utilización. Avances En Medición, 6, 27–36. https://www.researchgate.net/publication/302438451

Escurra, L. M. (1998). Siegel, S. & Castellan, N. J. (1995). Estadística no paramétrica, aplicada a las ciencias de la conducta. 4a. edición. México: Editorial Trillas.

Esteve-Mon, F. M., Llopis-Nebot, M. A., & Adell-Segura, J. (2020). Digital Teaching Competence of University Teachers: A Systematic Review of the Literature. IEEE Revista Iberoamericana de Tecnologias Del Aprendizaje, 15(4), 399–406. https://doi.org/10.1109/RITA.2020.3033225

Falotico, R., & Quatto, P. (2015). Fleiss’ kappa statistic without paradoxes. Quality and Quantity, 49(2), 463–470. https://doi.org/10.1007/s11135-014-0003-1

Gable, R., & Wolf, M. (1993). Instrument Development in the Affective Domain: Measuring Attitudes and  Values in Corporate and  School Settings (Springer Science). Kluwer Academic.

Gallardo Echenique, E. (2013). Competencia digital: revisión integradora de la literatura. Revista de Ciencias de La Educación Academicus, 1(3), 56–62. http://www.ice.uabjo.mx/images/academicus/Numero_3/Art7.pdf

García, L., & Fernández, S. J. (2008). Procedimiento de aplicación  del trabajo creativo en grupo de expertos. Ingeniería Energética, XXIXX(2), 46–50. http://www.redalyc.org/articulo.oa?id=329127758006

García-Vandewalle García, J. M., García-Carmona, M., Trujillo Torres, J. M., & Moya Fernández, P. (2021). Analysis of digital competence of educators (DigCompEdu) in teacher trainees: the context of Melilla, Spain. Technology, Knowledge and Learning. https://doi.org/10.1007/s10758-021-09546-x

Garita-González, G., Gutierrez-Durán, J.-E., & Godoy-Sandoval, V. (2019). Percepción docente sobre las competencias digitales y la mediación pedagógica aplicadas en la elaboración de materiales didácticos de la Cátedra de Administración de la Universidad Estatal a Distancia (UNED). Revista Electrónica Calidad En La Educación Superior, 10(1), 125–159. https://doi.org/10.22458/caes.v10i1.2181

Gisbert Cervera, M., & Esteve Mon, F. (2011). Digital Leaners: la competencia digital de los estudiantes universitarios. La Cuestión Universitaria, 7(May), 48–59.

Guillén-Gámez, F. D., Cabero-Almenara, J., Llorente-Cejudo, C., & Palacios-Rodríguez, A. (2021). Differential Analysis of the Years of Experience of Higher Education Teachers, their Digital Competence and use of Digital Resources: Comparative Research Methods. Technology, Knowledge and Learning. https://doi.org/10.1007/s10758-021-09531-4

Gutiérrez-Castillo, J.J., Cabero-Almenara, J., & Estrada-Vidal, L. I. (2017). Design and validation of an instrument for evaluation of digital competence of University student | Diseño y validación de un instrumento de evaluación de la competencia digital del estudiante universitario. Espacios, 38(10), 16.

Hall, R., Atkins, L., & Fraser, J. (2014). Dening a self-evaluation digital literacy framework for secondary educators: the DigiLit Leicester project. Research in Learning Technology, 22(1063519), 1–17.

Hernández Sampieri, R., Fernández Collado, C., & Baptista Lucio, P. (2014). Metodología de la investigación. McGRAW-H.

INTEF. (2017). Marco Común de Competencia Digital Docente. https://bit.ly/3Pg61pi

Isabel Pardo Baldoví, M., Suelves, D. M., & Isabel Vidal Esteve, Ma. (2020). The use of edublog in initial teachers training: An experience of a teaching innovation project. International Conference on Higher Education Advances, 2020-June, 75–83. https://doi.org/10.4995/HEAd20.2020.10983

ISTE. (2000). The ISTE National Educational Technology Standards (NETS•S) and Performance Indicators for Students Essential Conditions Necessary conditions to effectively leverage technology for learning Shared Vision. www.iste.org/permissions/.

ISTE. (2008). Crosswalk: Future Ready Librarians Framework and ISTE Standards for Educators. September.

Juárez Arall, J., & Marqués Molías, L. (2019). Aspectos de la competencia digital para la empleabilidad//Digital competence aspects for employability. REOP - Revista Española de Orientación y Psicopedagogía, 30(2), 67. https://doi.org/10.5944/reop.vol.30.num.2.2019.25339

Landis, J. R., & Koch, G. G. (1977). The Measurement of Observer Agreement for Categorical Data. Biometrics, 33(1), 159–174. https://www.jstor.org/stable/2529310

Laurente-Cárdenas, C. M., Rengifo-Lozano, R. A., Asmat-Vega, N. S., & Neyra-Huamani, L. (2020). Desarrollo de competencias digitales en docentes universitarios a través de entornos virtuales: experiencias de docentes universitarios en Lima. Eleuthera, 22(2), 71–87. https://doi.org/10.17151/eleu.2020.22.2.5

Lázaro-Cantabrana, J. L., & Gisbert-Cervera, M. (2015). Elaboración de una rúbrica para evaluar la competencia digital del docente. UT. Revista de Ciències de l’Educació. http://revistes.publicacionsurv.cat/index.php/ute

Lázaro-Cantabrana, J. L., Gisbert-Cervera, M., & Silva-Quiroz, J. E. (2018). Una rúbrica para evaluar la competencia digital del profesor universitario en el contexto latinoamericano. Edutec. Revista Electrónica de Tecnología Educativa, 63. https://doi.org/10.21556/edutec.2018.63.1091

López-Gómez, E. (2017). El método Delphi en la investigación actual en educación: Una revisión teórica y metodológica. Educación XX1, 21(1), 17–40. https://doi.org/10.5944/educxx1.20169

Lynch, M. D. (1973). Multidimensional Measurement with the D Statistic and the Semantic Differential.

Marqués-Molías, L., Esteve-González, V., Holgado-Garcia, J., Cela-Ranilla, J., & Sánchez-Caballé, A. (2016). Student perceptions of ePortfolio as competence assessment during the practical training period for early childhood and primary school teaching. Proceedings of the European Conference on E-Learning, ECEL, 2016-Janua(1), 777–781.

Martínez Sariol, E., Travieso Ramos, N., Sarago del Campo, N., Urbina Laza, O., & Martínez Ramírez Irasbel. (2018). Identificación de las competencias específicas de los profesionales de enfermería en la atención al neonato en estado grave. MEDISAN, 22(2).

McHugh, M. L. (2012). Interrater reliability: the kappa statistic. Biochemia Medica, 22(2), 276–282.

Meum, T. T., Koch, T. B., Briseid, H. S., Vabo, G. L., & Rabben, J. (2021). Perceptions of digital technology in nursing education: A qualitative study. Nurse Education in Practice, 54, 103136. https://doi.org/10.1016/j.nepr.2021.103136

Molero-Aranda, T., Lázaro-Cantabrana, J. L., & Cervera, M. G. (2022). A Technological Solution for People with Intellectual Disabilities in Emergency Situations. REICE. Revista Iberoamericana Sobre Calidad, Eficacia y Cambio En educación, 20(2), 65–83. https://doi.org/10.15366/reice2022.20.2.004

Mutiani, M., Supriatna, N., Abbas, E. W., Rini, T. P. W., & Subiyakto, B. (2021). Technological, Pedagogical, Content Knowledge (TPACK): A Discursions in Learning Innovation on Social Studies. The Innovation of Social Studies Journal, 2(2), 135. https://doi.org/10.20527/iis.v2i2.3073

Nascimbeni, F. (2020). Empowering University Educators for Contemporary Open and Networked Teaching. In Lecture Notes in Educational Technology. https://doi.org/10.1007/978-981-15-4276-3_8

Palau, R., Usart, M., & Ucar Carnicero, M. J. (2019). The digital competence of teachers in music conservatories. A study of self-perception in Spain. Revista Electronica de LEEME, 44, 24–41. https://doi.org/10.7203/LEEME.44.15709

Paz Saavedra, L. E., & Gisbert Cervera, M. (2023). Autopercepción del profesorado universitario sobre la competencia digital docente. Educar, 1–19. https://doi.org/10.5565/rev/educar.1614

Pérez, A. (2015). Alfabetización y competencias digitales en el marco de la evaluación educativa: Estudio en docentes y alumnos de Educación Primaria en Castilla y León. Universidad de Salamanca.

Pérez, M. M., Riba, N. P., Carlos Ortiz Sagristà, J., Martinez, A., & Götzens García, V. (2007). Human Anatomy: reactions of first year medical students to the dissection room. In Educación Médica 10(2).

Redecker, C. (2017). European framework for the digital competence of educators: DigCompEdu. In Joint Research Centre (JRC) Science for Policy report. https://doi.org/10.2760/159770

Rodríguez-García, A.-M., Raso Sánchez, F., & Ruiz-Palmero, J. (2019). Competencia digital, educación superior y formación del profesorado: un estudio de meta-análisis en la web of science. Pixel-Bit, Revista de Medios y Educación, 54, 65–82. https://doi.org/10.12795/pixelbit.2019.i54.04

Rodríguez-Hoyos, C., Fueyo Gutiérrez, A., & Hevia Artime, I. (2021). Competencias digitales del profesorado para innovar en la docencia universitaria. Analizando el uso de los dispositivos móviles. Pixel-Bit, Revista de Medios y Educación, 61, 71–97. https://doi.org/10.12795/pixelbit.86305

Ruiz Cabezas, A., Castañar Medina Domínguez, M., Pérez Navío, E., & Medina Rivilla, A. M. (2020). Formación del Profesorado Universitario en la Competencia Digital. Pixel-Bit, Revista de Medios y Educación, 58, 181–215. https://doi.org/10.12795/pixelbit.74676

Sales, D., Cuevas-Cerveró, A., & Gómez-Hernández, J.-A. (2020). Perspectives on the information and digital competence of Social Sciences students and faculty before and during lockdown due to Covid-19. El Profesional de La Información, 29(4), 1–20. https://doi.org/10.3145/epi.2020.jul.23

Sánchez-Caballé, A., Gisbert-Cervera, M., & Esteve-Mon, F. (2020a). The digital competence of university students: a systematic literature review. Aloma: Revista de Psicologia, Ciències de l’Educació i de l’Esport, 38(1), 63–74. https://doi.org/10.51698/aloma.2020.38.1.63-74

Sánchez-Caballé, A., Gisbert-Cervera, M., & Esteve-Mon, F. (2020b). The digital competence of university students: a systematic literature review. Aloma: Revista de Psicologia, Ciències de l’Educació i de l’Esport, 38(1), 63–74. https://doi.org/10.51698/aloma.2020.38.1.63-74

Santos, C. C., Pedro, N. S. G., & Mattar, J. (2021). Avaliação do nível da proficiência nas competências digitais dos docentes do ensino superior em Portugal. Educação (UFSM), 46(1). https://doi.org/10.5902/1984644461414

Silva, J., Usart, M., & Lázaro-Cantabrana, J.-L. (2019). Teacher’s digital competence among final year Pedagogy students in Chile and Uruguay. Comunicar, 27(61), 33–43. https://doi.org/10.3916/C61-2019-03

Silva Quiroz, J., & Miranda Arredondo, P. (2020a). Presencia de la competencia digital docente en los programas de formación inicial en universidades públicas chilenas. Revista de Estudios y Experiencias En Educación, 19(41), 149–165. https://doi.org/10.21703/rexe.20201941silva9

Silva Quiroz, J., & Miranda Arredondo, P. (2020b). Presencia de la competencia digital docente en los programas de formación inicial en universidades públicas chilenas. Revista de Estudios y Experiencias En Educación, 19(41), 149–165. https://doi.org/10.21703/rexe.20201941silva9

Silva Quiroz, J., & Miranda Arredondo, P. (2020c). Presencia de la competencia digital docente en los programas de formación inicial en universidades públicas chilenas. Revista de Estudios y Experiencias En Educación, 19(41), 149–165. https://doi.org/10.21703/rexe.20201941silva9

Tejedor, S., Cervi, L., Pérez-Escoda, A., & Jumbo, F. T. (2020). Digital literacy and higher education during COVID-19 lockdown: Spain, Italy, and Ecuador. Publications, 8(4), 1–17. https://doi.org/10.3390/publications8040048

Tous, M. G., & Salim Mattar, V. (2012). The keys of the key words in scientific articles. Revista MVZ Córdoba, 17(2), 7–9.

Trilling, B. (2002). 21st CENTURY STUDENT OUTCOMES. http://www.p21.org/our-work/p21-framework

Universidad Nacional de Chimborazo. (2017). Sistema de Gestión de la Calidad: Manual de calidad Unach. bit.ly/3pp4OEr

Universidad Nacional de Chimborazo. (2021a). Subproceso: Capacitación y actualización profesional del personal académico. bit.ly/3I3n5xH

Universidad Nacional de Chimborazo. (2021b). UNACH-RGF-01-06-01.06: Formato de plan de curso de capacitación.

Universidad Nacional de Chimborazo. (2022). Plan Estratégico Institucional 2022-2026. bit.ly/42wZvkd

Universidad Nacional de Chimborazo. (2023). Resolución de aprobación.

Urrutia, G., & Bonfill, X. (2010). PRISMA declaration: A proposal to improve the publication oy systematic reviews and meta-analyses. In Medicina Clínica (Vol. 135, Issue 11, pp. 507–511). http://es.cochrane.org/sites/es.cochrane.org/files/public/uploads/PRISMA_Spanish.pdf

Uvidia, M., & Cisneros Barahona, A. (2017). Análisis de data mining para la toma de decisiones en la unidad de nivelación y admisión a nivel universitario. April.

Uvidia-Fassler, M., Cisneros-Barahona, A., Ávila-Pesántez, D., & Rodríguez Flores, I. (2018). Moving towards a methodology employing knowledge discovery in databases to assist in decision making regarding academic placement and student admissions for universities. Communications in Computer and Information Science, 798, 215–229. https://doi.org/10.1007/978-3-319-72727-1_16

Uvidia-Fassler, M., Cisneros-Barahona, A., Samaniego-Erazo, G., Dumancela-Nina, G., & Villacrés-Cevallos, P. (2020). Application of Knowledge Discovery in Data Bases Analysis to Predict the Academic Performance of University Students Based on Their Admissions Test. In Advances in Intelligent Systems and Computing (Vol. 1066). https://doi.org/10.1007/978-3-030-32022-5_45

Uvidia-Fassler, M., Cisneros-Barahona, A., & Viñan-Carrera, J. (2017). Minería de Datos de la Evaluación Integral del Desempeño Académico de la Unidad de Nivelación. Descubre, 44–54.

Vallejo, A. P., & Aguayo, B. B. (2021a). Digital Competences in European University Teaching Staff: Teaching and Guidance. In Advances in Intelligent Systems and Computing: Vol. 1367 AISC (pp. 3–11). https://doi.org/10.1007/978-3-030-72660-7_1

Vallejo, A. P., & Aguayo, B. B. (2021b). Digital Competences in European University Teaching Staff: Teaching and Guidance. In Advances in Intelligent Systems and Computing: Vol. 1367 AISC. https://doi.org/10.1007/978-3-030-72660-7_1

Verdú-Pina, M., Usart, M., & Grimalt-Álvaro, C. (2022). Report on the process for evaluating and certifying Teacher Digital Competence An international perspective. https://observacomdid.com/wp-content/uploads/2022/03/Informe-CDD_ENG.pdf

Witkin, B. R., & Altschuld, J. W. (1995). Planning and conducting needs assessments : a practical guide. Sage Publications.

Zhao, Y., Sánchez-Gómez, M. C., & Pinto-Llorente, A. M. (2020a). Digital Competence in higher education:A case study of teachers’ perception of working with technologies. ACM International Conference Proceeding Series, 206–210. https://doi.org/10.1145/3434780.3436561

Zhao, Y., Sánchez-Gómez, M. C., & Pinto-Llorente, A. M. (2020b). Digital Competence in higher education:A case study of teachers’ perception of working with technologies. ACM International Conference Proceeding Series, 206–210. https://doi.org/10.1145/3434780.3436561