Validación de una escala del Modelo Ampliado de Aceptación de la Tecnología en el contexto dominicano

 

 

Validation of a scale of the Extended Technology Acceptance Model in the dominican context

 

 

 Dr. Clemente Rodríguez-Sabiote. Profesor Titular de Universidad. Universidad de Granada, España

 Dña. Ana Teresa Valerio-Peña. Directora Académica. Instituto Superior de Formación Docente, ISFODOSU, República Dominicana

 D. Roberto Batista-Almonte. Coordinado del área de Ciencias Sociales del Recinto Emilio Prud´Homme, Instituto Superior de Formación Docente, ISFODOSU, República Dominicana

 

 

 

 

Recibido: 2023/03/21 Revisado: 2023/05/04 Aceptado: 2023/06/19 Preprint: 2023/07/04 Publicado: 2023/09/01

 

Cómo citar este artículo:

Rodríguez-Sabiote, C., Valerio-Peña, A. T., & Batista-Almonte, R. (2023). Validación de una escala del Modelo Ampliado de Aceptación de la Tecnología en el contexto dominicano [Validation of a scale of the Extended Technology Acceptance Model in the dominican context]. Pixel-Bit. Revista de Medios y Educación, 68, 217-244. https://doi.org/10.12795/pixelbit.100352 

 

 

RESUMEN

El fin del presente artículo ha sido adaptar y validar una Escala del Modelo Ampliado de Aceptación de la Tecnología para su utilización en el contexto universitario de República Dominicana. La muestra ha ascendido a 327 estudiantes pertenecientes a diversas instituciones de educación superior de carácter público y privado de la República Dominicana. Se han aplicado sendos análisis factoriales, exploratorio (AFE) y confirmatorio (AFC), análisis de fiabilidad e invarianza factorial para comprobar la equivalencia por género. El AFE reveló la pentadimensionalidad de la escala confirmada posteriormente por el AFC implementado. La fiabilidad como consistencia interna también ha resultado muy alta. Finalmente, la invarianza fac­torial denota que la estructura factorial es similar en hombres vs mujeres. Podemos concluir, que la escala es consistente, valida e invariante para determinar el aprendizaje percibido en entornos virtuales de enseñanza-aprendizaje dentro del modelo ampliado de aceptación de la tecnología en el contexto dominicano.

 

 

 

ABSTRACT

The purpose of this article was to adapt and validate a Scale of Extending the Technology Acceptance Model for use in the university context of the Dominican Republic. The sample consisted of 327 students from various public and private higher education institutions in the Dominican Republic. An exploratory factor analysis (EFA) and a confirmatory factor analysis (CFA), reliability analysis and factorial invariance analysis were applied to check the equivalence by gender. The EFA revealed the pentadimensionality of the scale, which was subsequently confirmed by the implemented CFA. Reliability as internal consistency was also very high. Finally, factorial invariance denotes that the factor structure is similar in male vs. female. We can conclude that the scale is consistent, valid and invariant for determining perceived learning in virtual teaching-learning environments within extending technology acceptance model in the Dominican context.

 

 

 

PALABRAS CLAVES· KEYWORDS

Entornos virtuales de enseñanza-aprendizaje, modelo ampliado de aceptación de la tecnología, propiedades psicométricas, educación superior, estudiantes.

Virtual teaching-learning environments, extending the technology acceptance model, psychometric properties, higher education, students.

 

 

1. Introducción

Los Entornos Virtuales de Enseñanza-Aprendizaje[1] son ya una realidad extendida que se ha visto reforzada, adicionalmente, a causa de la pandemia de la Covid-19 y las nuevas necesidades educativas (Área-Moreira et al., 2020) surgidas tras esta emergencia mundial. Es aquí donde está el origen de la presente de investigación al tratar de ser un aporte que complemente la literatura científica ya existente acerca de los entornos virtuales de enseñanza-aprendizaje, pero dentro del contexto provocado por la crisis de la Covid-19 en el alumnado que cursa sus estudios en educación superior en la República Dominicana.

Como referente tomaremos la adaptación y validación de un instrumento de recogida de información conformado entorno a una serie de dimensiones (utilidad percibida, facilidad de uso, norma subjetiva e intención de uso) relacionadas con el aprendizaje percibido en los contextos de los EVEA. Así, la presente investigación estaría basada en un modelo teórico explicativo constituido a partir del modelo de la aceptación de la tecnología (TAM) y variantes posteriores como piedras angulares de nuevos modelos y metodologías pedagógicas dentro de los EVEA.

 

2. Revisión de la literatura

Existen una gran cantidad y diversidad de estudios que evidencian una mayor presencia de nuevas metodologías y aprendizajes activos, entre los más recientes destacamos los de Mohamed (2021); Rodríguez-Sabiote et al. (2020); Roitsch et al. ( 2021) y Tan et al. (2021). En este contexto y debido a la crisis provocada por la pandemia de la Covid-19 la población mundial se ha visto obligada a sufrir periodos de confinamiento. Concretamente en el ámbito educativo, el efecto más importante ha sido sustituir la presencialidad de las aulas en escuelas, institutos, universidades y otros centros de formación por aulas y entornos virtuales. De este modo, se han acelerado los procesos que ya estaban en marcha y muchos de esos cambios e innovaciones, que por la nueva realidad se habían instaurado en nuestro día a día, finalmente, han llegado para quedarse. Como resultado, tanto el estudiantado, como el profesorado se han visto obligados a una adaptación al aprendizaje en línea y a una educación a distancia en un breve espacio de tiempo que está dando lugar a un nuevo modelo educativo en la denominada era post-Covid (Lockee, 2021).

Ante este panorama cobran una gran fuerza y presencia los EVEA entendidos como “una aplicación informática diseñada para facilitar la comunicación pedagógica entre los participantes en un proceso educativo, sea este completamente a distancia, presencial, o de una naturaleza mixta, que combina ambas modalidades en diversas proporciones” (Adell et al., 2004, p.4). Es por todo ello, que se consideran una alternativa de gran potencial y funcionalidad al poder combinar de manera eficaz y eficiente lo tecnológico y lo pedagógico, posibilitando la realización de actividades y tareas de aprendizaje de las distintas materias en entornos o salas virtuales en donde tanto alumnado como profesorado visualizan y acceden a los diferentes recursos didácticos (Báez-Estrada y Ossandón Núñez, 2015; Cabero-Almenara et al., 2022). Sin embargo, no debemos ignorar que no todo son bondades y que existen voces críticas hacia los EVEA. Con Saza-Garzón (2016) mostramos algunas de esas problemáticas de los EVEA y destacamos, en primer lugar, la llamada brecha digital (digital gap). Esta problemática puede afectar, tanto al alumnado, cuyas condiciones económicas les privan de los elementos tecnológicos necesarios para el buen devenir de un proceso de enseñanza-aprendizaje en entornos virtuales, como al profesorado con menos competencias tecnológicas; por no hablar de la actitud previa de dicho profesorado hacia las Tecnologías de la Información y la Comunicación (TIC´s) y de cómo dicha actitud podría ayudar a percibir de manera más positiva los EVEA (Barroso-Osuna et al.,2018; Cabero-Almenara y Llorente-Cejudo, 2020); Ruiz-Aquino et. al., 2022).  En segundo lugar, destacamos el compromiso ético y axiológico al que debe adherirse el alumnado relacionado con sus prácticas de enseñanza para no caer en la deshonestidad académica (Hodgkinson et al., 2016 y Zolfaghari, 2016). Finalmente, destacamos la Calidad más allá del aprendizaje percibido. En este sentido, son muchas las críticas enfocadas hacia si realmente el alumnado aprende lo necesario desde un entorno virtual en comparación a lo que se pueda aprender en el tradicional espacio presencial (Ferreras-García et al., 2022; Cabero-Almenara et al.,2022).

Llegados a este punto debemos detenernos en la compresión que el alumnado tiene sobre estos entornos educativos y la influencia que estos ejercen sobre ellos. Así, deben tenerse en cuenta los diferentes factores o variables que recopilan Urquidi-Martín et al. (2019), y que pueden ser determinantes a la hora de influir en el aprendizaje percibido de manera positiva.

·         Utilidad percibida: se trata de una variable que mide la percepción que tienen los usuarios sobre la probabilidad subjetiva de que mediante la utilización de una serie de herramientas específicas mejore e incremente su productividad o rendimiento en un contexto determinado y valorando las consecuencias de su comportamiento (Davis, 1989).

·         Facilidad de uso: dicha variable se entiende como que el grado en el que los usuarios consideran el uso de una innovación concreta no tiene que conducir, irremediablemente, a ningún esfuerzo añadido (Davis, 1989).

·         Norma subjetiva: Conjunto de presiones sociales que se ejercen desde personas relevantes al alumnado que recibe sus clases en un EVEA con el objetivo de que estos usuarios realicen una determinada acción o comportamiento. Abdullah and Ward (2016) determinaron una correlación positiva y estadísticamente significativa entre la Norma Subjetiva y los factores Utilidad Percibida e Intención de Uso en el contexto del e-learning.

·         Intención de uso: esta última variable trata de medir la percepción que el usuario tiene sobre el uso que va a realizar de una innovación y su probable utilidad. De este modo, los EVEA pueden suponer para los estudiantes un mayor compromiso con su propio proceso de aprendizaje (Deng &Tavares, 2013).

 

Todo lo anterior se sustenta epistemológicamente en el modelo de aceptación tecnológica (TAM) propuesto por Davis (1989) y del que ya avanzamos con anterioridad algunos rasgos distintivos. El modelo TAM  está basado, por una parte, en la teoría de la acción razonada (Theory of Reasoned Action-TRA-) de Azjen and Fishbein (1980) y en la posterior teoría del comportamiento planteado (Theory of Planned Behavior-TBA-) de Azjen (1985) que incorporaba, entre otras dimensiones, la norma subjetiva. Acorde con estas teorías, el comportamiento de las personas se puede predecir por las intenciones y por sus actitudes. El TAM proporciona una base teórica para comprender y evaluar la aceptación de los usuarios hacia las nuevas tecnologías y permite desarrollar e implementar mejores sistemas. Este modelo presenta como variables, las anteriormente reseñadas, menos la norma subjetiva (tomada de la TBA), es decir, utilidad percibida, facilidad de uso, actitudes hacia el uso e intención de uso. Esquemáticamente podría describirse mediante la siguiente figura.

 

Figura 1

Modelo de Aceptación de la Tecnología

Fuente: Davis (1989)

 

3. Metodología

3.1 Participantes

El tamaño muestral de la presente investigación asciende a 327 estudiantes de 12 universidades o instituciones de educación superior de carácter público y privado de la República Dominicana. Por género 258 son mujeres y el resto, es decir, 69 son hombres con edades comprendidas entre los 17 y los 54 años (M=25.05, DT=6.79). El tipo de muestreo utilizado no obedece a ningún tipo de muestreo específico, dado que el instrumento administrado ha sido puesto a disposición de la población de referencia en su modalidad en línea. La población de la que se parte está conformada, aproximadamente, por unas 580000 unidades muestrales (estudiantes que cursan estudios superiores en la República Dominica en el curso 2020-2021, último curso del que se tienen datos). Para este estudio, en concreto, hemos calculado un tamaño muestral configurado por los siguientes parámetros: nivel de significación (1-α) = 0.95; error muestral=±5% y proporciones desconocidas p=q=0.5. Una vez establecido el tamaño muestral en aproximadamente N=385 unidades muestrales se ha administrado el instrumento mediante la modalidad online. La atricción muestral asciende, por tanto, a 51 unidades (15.59%), que en cualquier caso no debe preocuparnos puesto que lo realmente capital es fijarse en la proporción de participantes por variables (STV: subject to variables). A este respecto debemos destacar que, en nuestro caso particular, el cociente resultante STV= 16.35 (327/20). Si bien el valor mínimo de STV es relativo, según el autor-a consultado-a, un valor mínimo de 10 es aconsejable (Garson, 2008). Nuestro valor está holgadamente por encima de dicho valor (16.35>10). Por otra parte, en el apartado de procedimiento se informa más detalladamente sobre el proceso de recogida de información.

 

3.2 Instrumento de recogida de información

El instrumento de recogida de información administrado en nuestra investigación es una escala tipo Likert conformada por 5 categorías de respuesta (desde 1 muy en desacuerdo… 5 muy de acuerdo), así como también 5 dimensiones y 20 items, a razón de 4 items por cada dimensión. Las dimensiones que integran la escala son: utilidad percibida (PU), facilidad de uso percibido (PEU), intención conductual de uso (BIU), norma subjetiva (SN) y aprendizaje percibido (PL). Se incluyen, además, diferentes variables de identificación: universidad o institución de educación superior a la que pertenece el estudiante, su género y su edad. El instrumento en cuestión ha sido diseñado y validado por Urquidi-Martín et al. (2019) y para su confección han sido tenidos en cuenta diferentes trabajos previos: Arteaga y Duarte (2010); Davis (1989); Islam (2013) y Premkumar and Bhattacherjee (2008) Sánchez-Prieto, Olmos-Miguelañez, y García-Peñalvo (2016); Venkatesh and Davis (2000) y Liaw (2008).

 

3.3 Procedimiento

Para la administración del instrumento de recogida de información se ha creado un procedimiento de encuesta online mediante Google Forms. Se han recogido datos durante los meses de enero a abril de 2022 almacenándose la información recopilada en una hoja de cálculo Excel. En la actualidad todavía siguen recogiéndose más datos que servirán para investigaciones futuras. Adicionalmente, dos investigadores de campo realizaron visitas in situ a los lugares de recogida de información con el objeto de motivar la participación de los estudiantes.

 

4. Análisis y resultados

Para el análisis de los datos recopilados hemos utilizado diversas aproximaciones. En primer lugar, un análisis previo de naturaleza descriptiva que ha servido, además, para comprobar el supuesto de normalidad uni y multivariante, así como la fiabilidad de la escala como consistencia interna. En segundo lugar, hemos implementado un análisis factorial exploratorio (AFE) con el objetivo de explorar la estructura factorial de la escala en relación a las 5 dimensiones de partida. Antes de desarrollarlo hemos comprobado los supuestos previos necesarios para su aplicación, a saber, medidas de adecuación muestrales e índice de esfericidad. En tercer lugar, para confirmar la estructura resultante de la aproximación exploratoria, hemos calculado un análisis factorial confirmatorio (AFC). Para finalizar, y dado el desequilibrio en los tamaños muestrales al que está sometido nuestra muestra objeto de análisis, con un predominio del género masculino frente al femenino, hemos calculado la invarianza factorial, por género. En esencia el cometido de la invarianza factorial es  verificar que las propiedades de medida de los instrumentos o sus ítems, son independientes de las características de los grupos evaluadas (en nuestro caso del género: hombres vs mujeres), pero no del constructo que el instrumento está midiendo.

 

4.1 Análisis previo de los items

En primer lugar, para el análisis previo descriptivo de los items (medias, desviaciones típicas y coeficientes de asimetría y curtosis) el programa SPSS v.28 (IBM, 2021).

 

Tabla 1

Análisis descriptivo de los items de la escala

 

Item

M

DT

g1

g2

PU1

3.83

1.049

-.848

.366

PU2

3.83

1.064

-.862

.290

PU3

3.26

1.211

-.202

-.918

PU4

3.95

1.043

-1.036

.730

PEU1

2.87

1.238

.064

-1.022

PEU2

3.30

1.089

-.230

-.583

PEU3

3.91

.969

-.969

.985

PEU4

3.91

.981

-.927

.825

BIU1

4.03

1.031

-1.317

1.548

BIU2

3.76

1.037

-.793

.255

BIU3

3.93

1.176

-1.043

.297

BIU4

3.85

1.163

-.865

-.056

SN1

3.62

1.084

-.589

-.197

SN2

3.75

1.070

-.703

.071

SN3

3.84

1.049

-.973

.671

SN4

3.36

1.153

-.243

-.811

PL1

4.01

1.000

-1.117

1.158

PL2

3.55

1.072

-.575

-.013

PL3

4.07

1.035

-1.276

1.449

PL4

3.91

1.115

-.954

.325

Nota: M= Media; DT:Desviación Típica; g1= asimetría;  g2= curtosis.

Fuente: Elaboración propia.

 

Como puede apreciarse a nivel descriptivo los items han conseguido medias entre 3 y 4 (categorías de respuesta entre algo de acuerdo y de acuerdo), excepto en el caso particular PEU1 (M=2.87). Recordemos que el enunciado de este item sentencia: “Utilizar un Entorno Virtual de Enseñanza-Aprendizaje no me supone mucho esfuerzo mental”. En el nivel totalmente opuesto situamos al ítem PL3:El empleo de los Entornos Virtuales de Enseñanza-Aprendizaje me proporciona flexibilidad para aprender en mi tiempo libre” con una M=4.07. En cuanto a la dispersión de los ítems todos han logrado desviaciones típicas cercanas a 1 o ligeramente inferiores y superiores a dicho valor. Por lo que respecta a la simetría la mayoría de ítems han conseguido valores negativos, lo que denota ligeras concentraciones de valores en la parte alta de las diversas curvas con apuntamientos que oscilan entre los valores cercanos a 0 hasta 1.5. Con estos datos podemos concluir que la normalidad univariante está garantizada, si tenemos en cuenta que valores entre ±1 se consideran excelentes, mientras que valores inferiores a 1.60, adecuados (George & Mallery, 2011) o inferiores a 2 para la asimetría y entre 2 a 7 para el apuntamiento (Curran et al.,1996).

Para la comprobación de la normalidad multivariante se han calculado diferentes coeficientes mediante el programa STATA v.17 (StataCorp,2021), exactamente el coeficiente de Mardia para asimetría y curtosis, así como los de Henze-Zikler y el de Doornik-Hansen. Para el primer coeficiente se han obtenido valores de Mardia mSkewness = 71.10 (p<.001) y Mardia mKurtosis = 574.21 (p<.001). Por su parte, el coeficiente de Henze-Zikler =1.61 (p<.001) y el de Doornik-Hansen=463.84 (p<.001). En todos los casos las significaciones estadísticas obtenidas (p<.001) apuntan al no cumplimiento del supuesto de normalidad multivariante. Por esta razón y como apreciaremos cuando lleguemos al análisis factorial confirmatorio hemos estimado el modelo resultante a través del procedimiento de Máxima Verosimilitud. Si bien este procedimiento exige la presencia de asimetría univariante, existe la posibilidad de ser un procedimiento plausible para obtener cargas factoriales, aun incumpliéndose el supuesto de normalidad multivariante (Beaducel & Herzberg, 2006).

 

4.2 Fiabilidad de la escala

Para determinar la fiabilidad de la escala como consistencia interna, dado que tenemos una sola administración, hemos calculado el coeficiente de ω de Mc Donald, tanto a cada una de las 5 subescalas de la prueba con a la totalidad de la misma. Los resultados obtenidos son los siguientes.

 

Tabla 2

Valores de ω de Mc Donald de la escala y las subescalas que la conforman.

Subescalas

ω de Mc Donald

IC

Subescala PU

.830

[.799,.860]

Subescala PEU

.652

[.613,.727]

Subescala BIU

.897

[.879,.916]

Subescala SN

.870

[.847,.893]

Subescala  PL

.831

[.801,.860]

Total escala

.947

[.939,.956]

Fuente: Elaboración propia.

 

Como puede apreciarse el valor de ω de Mc Donald de la escala en su totalidad ha sido de ω=.947. Por subescalas los valores obtenidos van desde ω=.652 para la subescala PEU (dificultad de uso percibido) hasta .897 para la subescala BIU (intención conductual de uso). Con Katz (2006) podemos afirmar que valores superiores a 0.65 (ω>.65) denotan una fiabilidad aceptable. En nuestro caso, apreciamos que todos están por encima de ese valor y que, además, exceptuando el caso de la dimensión de dificultad de uso percibido, los valores del coeficiente ω están entre .80-.95

 

4.3 Análisis factorial exploratorio

En primer lugar describimos las características del Análisis factorial exploratorio implementado. El método de extracción utilizado ha sido el de componentes principales con rotación tipo Vaximax que ha convergido en 8 iteraciones. Finalmente, el criterio utilizado para la selección de los factores ha sido el conocido como criterio a priori. En nuestro caso particular la propuesta de 5 factores.  Como paso previo a la implementación del Análisis Factorial Exploratorio (AFE) hemos calculado un conjunto de medidas acerca de su idoneidad. En primer lugar, presentamos el determinante de la matriz IAI = 0.000104. Este dato nos revela que la matriz no es una matriz singular, dado que aunque su valor se aproxima a 0 no llega a dicho valor y, por tanto, las variables no son linealmente dependientes.

En segundo lugar, presentamos el valor del coeficiente de adecuación muestral global de Kaiser-Meyer-Olkin (KMO= .954), una medida excelente que garantiza que los pares de correlaciones entre las variables son mucho más importantes que las correlaciones parciales entre las mismas (Klein, 2013 y Vogt, 2005).En cuanto a las medidas de adecuación muestral individuales (Measure Sampling Adequacy-MSA-) en la mayoría de casos han alcanzado valores MSA>.90. Teniendo en cuenta que valores de MSA> .50 se pueden considerar satisfactorios (Lorenzo & Ferrando, 2021) las 20 medidas de adecuación muestral individual calculadas pueden considerarse como muy satisfactorias.

Finalmente, el índice de esfericidad de Bartlett ha logrado un valor de χ²= 4372.092 (gl=190, p=.000).  Valores del índice de esfericidad de Bartlett asociados a probabilidades p>.05 no se consideran adecuados. En nuestro caso, el valor de probabilidad asociado al estadístico de Bartlett es p<.001, lo que significa que la matriz resultante no es una matriz identidad y existen correlaciones entre las variables más allá de la diagonal de dicha matriz.

Por lo que respecta a los resultados del Análisis Factorial Exploratorio en la siguiente tabla presentamos los principales resultados a este respecto.

Como puede apreciarse la solución factorial resultante ha logrado una varianza explicada del 72.61%. Por factores destaca la dimensión de norma subjetiva con un λ1=5.37 y una varianza explicada del 26.87%, seguida por la utilidad percibida (λ2=3.09 y 15.45% varianza explicada), aprendizaje percibido (λ3=2.23  y 11.16% varianza explicada), facilidad de uso  4=2.20 y 11.03% varianza explicada) e intención conductual de uso (λ5=1.62 y 8.10% varianza explicada). Por su parte, las variables están muy bien representadas en la solución factorial con comunalidades que oscilan entre .606 (BIU 2) y 0.784 (PL4).

 

 

Tabla 3

Matriz de componente rotado*.

Item

Factores

 

1

2

3

4

5

h2

PU1

 

.748

 

 

 

.776

PU2

 

.705

 

 

 

.774

PU3

 

.337

 

 

 

.690

PU4

 

.678

 

 

 

.729

PEU1

 

 

 

.302

 

.789

PEU2

 

 

 

.666

 

.654

PEU3

 

 

 

.645

 

.745

PEU4

 

 

 

.720

 

.752

BIU1

 

 

 

 

.681

.740

BIU2

 

 

 

 

.390

.606

BIU3

 

 

 

 

.881

.737

BIU4

 

 

 

 

.363

.759

SN1

.793

 

 

 

 

.730

SN2

.717

 

 

 

 

.702

SN3

.732

 

 

 

 

.713

SN4

.741

 

 

 

 

.701

PL1

 

 

.329

 

 

.687

PL2

 

 

.740

 

 

.745

PL3

 

 

.583

 

 

.713

PL4

 

 

.700

 

 

.784

λn

λ1=5.37

λ2=3.09

λ3=2.23

λ4=2.20

λ5=1.62

 

%σ²

26.87%

15.45%

11.16%

11.03%

8.10%

 

Nota: *Se muestran sólo cargas factoriales r>.30

 

4.4 Análisis factorial confirmatorio

Para la confirmación de la estructura factorial inferida mediante el análisis factorial exploratorio se ha implementado un análisis factorial confirmatorio con un estructura pentadimensional mediante el programa STATA v.17 (StataCorp, 2021). A este respecto, en primer lugar, presentamos la estructura factorial de la escala de medición del modelo ampliado de aceptación de la tecnología.

 

Figura 2

Diagrama de Sendas sobre la estructura factorial de la Escala de Medición del Modelo Ampliado de Aceptación de la Tecnología

Fuente: Elaboración propia a través del programa STATA v.17.

 

Como puede apreciarse el diagrama de sendas que representa la estructura factorial de la Escala de Medición del Modelo Ampliado de Aceptación de la Tecnología parece confirmar la estructura inicial de 5 factores inferida mediante el análisis factorial exploratorio. En el mismo pueden apreciarse las diferentes cargas factoriales estandarizadas que cada factor ha obtenido en las diversas variables que lo conforman y que van desde un valor mínimo λ21 = .19 (para PEU→PEU1) hasta un valor máximo λ33 y λ34 = .88 (para BIU→BIU3 y para BIU→BIU4). En general, exceptuando el caso de la carga factorial de .19 el resto han logrado fuertes cargas factoriales (Costello & Osborne, 2005).

Por otra parte, con Byrne (2008), Byrne (2009) y Hu and Bentler (1999) podemos afirmar que el modelo ha obtenido medidas de bondad de ajuste aceptables, a saber χ² (160 gl)= 465.890; χ²/gl= 2.91; CFI=.929; SRMR=.05; RMSEA=.07 [.06,.08].

 

Tabla 4

Medidas de bondad de ajuste del modelo inferido

Modelo

de 5 factores

χ²

χ²/gl

CFI

SRMR

RMSEA

(IC 90%)

 

465.890

2.91

.929

.05

.077 [.069,.085]

 

Elaboración propia.

 

4.5 Invarianza factorial por género

Como ya avanzamos en otro apartado nuestra muestra está desequilibrada de acuerdo con la variable género. El número de unidades muestrales de género femenino triplica al masculino. Por esta razón, hemos implementado el cálculo de la invarianza factorial. Para este fin hemos utilizado 4 procedimientos o modelos diferentes, a saber: configuracional (M1), métrico (M2), escalar (M3) y estricto (M4) tomando en consideración solo las medidas de ajuste CFI (Comparative Fix Index) o Índice de Ajuste Comparativo, así como RSMEA (Root Mean Square Error of Approximation) o Error cuadrático promedio de aproximación. Los resultados se muestran en la tabla inmediatamente siguiente.

 

Tabla 5

Invarianza de medición de la escala de medición del modelo de aceptación de la tecnología

Modelos

CFI

RMSEA

ΔCFI

ΔRMSEA

Configuracional

.929

.077

-

-

Métrico

.910

.086

.019

.009

Escalar

.907

.085

.003

.001

Estricto

.900

.086

.007

.001

Fuente: Elaboración propia

 

Para la interpretación de los resultados obtenidos tenemos que partir de que ΔCFI debe ser ≤.01 y ΔRMSEA deber ser ≤.015 (Chen, 2007; Cheung & Rensvold, 2002). Sólo esos resultados son indicadores del cumplimiento de la invarianza factorial. Con mayor detalle apreciamos como en el caso del modelo configuracional hemos obtenido un CFI=.929 y un RMSEA= .077, lo cual permite aceptar el modelo inferido. En relación al modelo métrico apreciamos el único incumplimiento en el caso de ΔCFI =.019>0.01, no así en el caso de ΔRMSEA=.009<.015. Para el modelo escalar (invarianza de interceptos), tanto ΔCFI =.003<0.01, como ΔRMSEA=.001<.015 cumplen con el criterio de invarianza factorial. Finalmente, en el modelo estricto, tanto ΔCFI =.007<0.01, como ΔRMSEA=.001<.015 también cumplen con el criterio de invarianza factorial.

 

5. Discusión de datos

Si bien actualmente la situación pandémica por la presencia de la covid-19 ha mejorado ostensiblemente, no podemos darla por finalizada en su totalidad. De facto, la presencia de variantes del virus SARS-CoV-2 cada vez más contagiosas y que escapan a la inmunidad de las vacunas puede provocar un nuevo aumento exponencial de los casos y, por consiguiente, la toma de medidas de prevención, en las que de nuevo podrían incluirse el regreso a las enseñanzas no presenciales o semipresenciales. En este contexto, por consiguiente, parece oportuno seguir proponiendo EVEA en los niveles de educación superior que, no sólo deben existir por razones de urgencia (Bozkurt et al., 2020), sino sobre todo porque pueden ser una oportunidad para transformar la pandemia sanitaria en un proceso de enseñanza-aprendizaje de calidad (  González-Villa et al., 2022). Este escenario puede ser el lugar adecuado donde el alumnado  adquiera toda una gama de competencias compatibles con una sociedad altamente digitalizada (Área-Moreira et al., 2020). A todo ello debemos añadir que, además, los EVEA ya poseían un fuerte arraigo en la sociedad actual (Hassani et al., 2022; Infante-Moro et al., 2022) por lo cual son una estrategia que parece haber venido para quedarse.

 

6. Conclusiones del estudio

El presente trabajo tiene como objetivo fundamental analizar la evidencia de validez de constructo, fiabilidad de las puntuaciones e invarianza fac­torial de acuerdo con el género de una Escala de Medición del Modelo Ampliado de Aceptación a la Tecnología (EMMAAT)  en una muestra de estudiantes de educación superior de la República Dominicana. A este respecto, debemos destacar que los principales hallaz­gos sugieren que la escala  debe ser interpretada como una escala conformada en torno a 5 factores o dimensiones, con una adecuada fiabilidad como consistencia interna y donde la invarianza factorial de acuerdo con el género ha sido garantizada.

La validación de constructo de la escala se ha implementado mediante el cálculo de sendos análisis factoriales (exploratorio y confirmatorio). El primer análisis factorial de naturaleza exploratoria ha inferido una estructura factorial de tipo pentadimensional coincidente con la escala original de Urquidi-Martín et al. (2019). En ambos casos, además, las unidades muestrales objeto de estudio han sido estudiantes de educación superior de España y República Dominicana, respectivamente.  Por su parte, el análisis factorial confirmatorio ha refrendado dicha estructura lográndose adecuadas medidas de ajuste.

En cuanto a la fiabilidad de las puntuaciones como consistencia interna debemos recordar que la escala en su conjunto ha obtenido un valor muy alto, así como sus respectivas dimensiones, si exceptuamos el caso de la dimensión de dificultad del uso percibido. Y esto puede haber ocurrido porque como se demuestra en algunos estudio, entre otros los de Schepers and Wetzels (2007) y Venkatesh and Davis (2000), la dificultad de uso de la tecnología no parece ser un elemento clave en el modelo de aceptación de la tecnología y sus variantes posteriores. No obstante, estos resultados relacionados con la fiabilidad del instrumento apoyan la presencia de una escala altamente consistente y estable.

Por lo que respecta a la presencia del fuerte desequilibrio muestral por razón de género se revisó la inva­rianza de medida de acuerdo a dicha variable con el objeto de no llegar a conclusiones sesgadas tras el desarrollo del análisis factorial confirmatorio. Los resultados obtenidos tras el desarrollo de la invarianza factorial revelaron que la estruc­tura pentadimensional resulta equivalente, tanto para hombres, como para mujeres. En ese sentido, se puede afirmar que la estructura factorial resultante es sólida y robusta para ambos y no presenta sesgo hacia alguno de estos grupos. Estos resultados apoyan que el   instrumento validado es acreedor de la invarianza factorial por razón de género (Van De Schoot et al., 2015).

 

 

7. Limitaciones del estudio

Sin menoscabo de todo lo anterior el estudio presenta ciertas limitaciones de naturaleza metodológica y a tomar en consideración. En primer lugar, al tratarse de un estudio que todavía se encuentra en desarrollo, creemos que un tamaño muestral más amplio en el futuro ayudará a reducir las distancias que median entre las medidas de los estadísticos y los parámetros de referencia. En segundo lugar, podemos señalar como una limitación también la selección no probabilista de la población de estudio. De haberse seguido este procedimiento hubiera sido posible limitar el desequilibrio muestral por razón de género. No obstante, no es menos cierto que, el cumplimiento de la invarianza factorial ha corregido esta amenaza, aunque será un aspecto a tener en cuenta en la próxima investigación que se desarrollará en breve con una muestra más amplia. Dicha investigación tendrá como cometido confirmar un modelo de mediación serial múltiple con dos variables, a saber, la utilidad percibida en el uso de un EVEA y el aprendizaje percibido tomando en consideración la mediación de la norma subjetiva, la facilidad de uso y la intención de uso bajo la fundamentación de un modelo ampliado de aceptación de la tecnología.

 

8. Financiación

El presente trabajo forma parte de un proyecto de investigación financiado por el ISFODOSU (Instituto Superior de Formación Docente Salomé Ureña) de la República Dominicana con referencia VRI-INV-G-2020-26 y tituladoUtilidad y competencias percibidas por estudiantes universitarios dominicanos en Entornos Virtuales de Aprendizaje: un análisis de mediación serial”.

 

 

 

Validation of a scale of the Extended Technology Acceptance Model in the dominican context

 

1. Introduction

Virtual Teaching-Learning Environments (VLEs) are already an established reality that has been further reinforced due to the Covid-19 pandemic and the new educational needs (Área-Moreira et al., 2020) that have arisen as a result of this global emergency. This is the starting point of the present research, aiming to complement the existing scientific literature on virtual teaching-learning environments within the context of the Covid-19 crisis among students pursuing higher education in the Dominican Republic.

As a reference, we will consider the adaptation and validation of an information gathering instrument composed of a series of dimensions (perceived usefulness, ease of use, subjective norms, and intention to use) related to perceived learning (PL) in VLE contexts. Thus, the present research is based on an explanatory theoretical model built upon the Technology Acceptance Model (TAM) and subsequent variations, which serve as cornerstones for new models and pedagogical methodologies within VLEs.

 

2. Literature Review

There is a great amount and diversity of studies that evidence a greater presence of new methodologies and active learning. Among the most recent ones, notable examples include those by Mohamed (2021), Rodríguez-Sabiote et al. (2020), Roitsch et al. (2021), and Tan et al. (2021). In this context, and due to the crisis caused by the Covid-19 pandemic, the global population has been forced to endure periods of confinement. Specifically in the educational field, the most significant effect has been the replacement of in-person classrooms in schools, institutes, universities, and other educational centers with virtual classrooms and environments. Thus, the processes that were already underway have been accelerated, and many of these changes and innovations that had been established in our daily lives due to the new reality have finally come to stay. As a result, both students and teachers have been compelled to adapt to online learning and distance education within a short period of time, giving rise to a new educational model in the so-called post-Covid era (Lockee, 2021).

In light of this panorama, VLEs gain significant strength and presence. VLEs are understood as "software applications designed to facilitate pedagogical communication among participants in an educational process, whether it is completely remote, in-person, or of a mixed nature, combining both modalities in various proportions" (Adell et al., 2004, p.4). For all these reasons, VLEs are considered a highly potential and functional alternative as they effectively and efficiently combine technology and pedagogy, enabling the execution of learning activities and tasks in various subjects within virtual environments or classrooms, where both students and teachers visualize and access different educational resources (Báez-Estrada & Ossandón Núñez, 2015; Cabero-Almenara et al., 2022). However, we must not ignore the fact that not everything is advantageous, and there are critical voices regarding VLEs. With Saza-Garzón (2016), we present some of the issues associated with VLEs, highlighting the so-called digital gap as the first concern. This issue can affect both students, whose economic conditions deprive them of the necessary technological elements for a successful teaching-learning process in virtual environments, and teachers with fewer technological competencies. Not to mention the prior attitude of these teachers towards Information and Communication Technologies (ICTs) and how this attitude could contribute to a more positive perception of VLEs (Barroso-Osuna et al., 2018; Cabero-Almenara & Llorente-Cejudo, 2020; Ruiz-Aquino et al., 2022). Secondly, we emphasize the ethical and axiological commitment that students must adhere to regarding their teaching practices, to avoid academic dishonesty (Hodgkinson et al., 2016; Zolfaghari, 2016). Finally, we highlight Quality beyond PL. In this regard, there are many criticisms focused on whether students really learn what is necessary within a virtual environment compared to what can be learned in a traditional face-to-face setting (Ferreras-García et al., 2022; Cabero-Almenara et al., 2022).

At this point, we need to focus on the understanding that students have about these educational environments and the influence they exert on them. Therefore, it is important to consider the different factors or variables compiled by Urquidi-Martín et al. (2019) that can be decisive in positively influencing PL.

Perceived usefulness (PU): This variable measures users' perception of the subjective likelihood that their productivity or performance will improve by using specific tools in a given context and evaluating the consequences of their behavior (Davis, 1989).

Ease of use: This variable refers to the extent to which users consider the use of a specific innovation to require no additional effort (Davis, 1989).

Subjective norm (SN): It represents the social pressures exerted by relevant individuals on students who receive their classes in a VLE with the aim of influencing these users to perform a certain action or behavior. Abdullah and Ward (2016) found a positive and statistically significant correlation between SN and the factors of PU and Intention to Use in the context of e-learning.

Intention to use: This variable measures the user's perception of the intended use and probable utility of an innovation. VLEs can lead to greater commitment to the students' own learning process (Deng & Tavares, 2013).

 

All of the above is epistemologically supported by the TAM proposed by Davis (1989), of which we have previously mentioned some distinctive features. The TAM is based on the Theory of Reasoned Action (TRA) by Ajzen and Fishbein (1980) and the subsequent Theory of Planned Behavior (TPB) by Ajzen (1985), which incorporated dimensions such as SN. According to these theories, people's behavior can be predicted by their intentions and attitudes. The TAM provides a theoretical basis for understanding and evaluating user acceptance of new technologies and allows for the development and implementation of better systems. This model includes the aforementioned variables, except for SN (taken from the TPB), namely perceived usefulness, ease of use, attitudes toward use, and intention to use. The model can be schematically described using the following figure.

 

 

Figure 1

Technology Acceptance Model

Source: Davis (1989)

 

 

3. Method

3.1 Participants

The sample size of the present study consisted of 327 students from 12 public and private universities or higher education institutions in the Dominican Republic. Of the participants, 258 were women and the remaining 69 were men, with ages ranging from 17 to 54 years (M=25.05, SD=6.79). The sampling method used does not follow a specific sampling technique, as the administered instrument was made available to the target population in an online format. The target population is approximately 580,000 individuals (students enrolled in higher education in the Dominican Republic in the 2020-2021 academic year, which is the latest year for which data is available). For this particular study, the sample size was determined based on the following parameters: significance level (1-α) = 0.95, sampling error = ±5%, and unknown proportions p=q=0.5. After considering these parameters, a sample size of approximately N=385 was determined, and the instrument was administered online. The sample attrition amounted to 51 participants (15.59%), which should not be a cause for concern since the focus is primarily on the proportion of participants per variable (STV: subject to variables). In our particular case, the resulting STV quotient is 16.35 (327/20). While the minimum value of STV is relative and depends on the consulted author, a minimum value of 10 is advisable (Garson, 2008). Our value comfortably exceeds this threshold (16.35>10). Furthermore, the data collection process is further explained in detail in the Procedure section

 

3.2 Data Collection Instrument

The data collection instrument used in our research is a Likert-type scale consisting of 5 response categories (ranging from 1 - strongly disagree... 5 - strongly agree), with 5 dimensions and 20 items in total, with 4 items per dimension. The dimensions included in the scale are: PU, perceived ease of use (PEU), behavioral intention to use (BIU), SN, and PL. The instrument also includes various identification variables, such as the university or higher education institution to which the student belongs, their gender, and their age. The instrument was designed and validated by Urquidi-Martín et al. (2019), and previous works by Arteaga and Duarte (2010), Davis (1989), Najmul Islam (2013), Premkumar and Bhattacherjee (2008), Sánchez-Prieto, Olmos-Miguelañez, and García-Peñalvo (2016), Venkatesh and Davis (2000), and Liaw (2008) were taken into account during its development.

 

3.3 Procedure

For the administration of the data collection instrument, an online survey procedure was created using Google Forms. Data was collected from January to April 2022, and the collected information was stored in an Excel spreadsheet. Currently, additional data is still being collected for future research purposes. Additionally, two field researchers conducted on-site visits to the data collection locations in order to encourage student participation.

 

4. Analysis and Results

For the analysis of the collected data, we have used various approaches. Firstly, we conducted a preliminary descriptive analysis, which also served to check the assumptions of univariate and multivariate normality, as well as the reliability of the scale as internal consistency. Secondly, we performed an EFA to explore the factorial structure of the scale in relation to the 5 underlying dimensions. Before conducting the EFA, we checked the necessary assumptions, such as sample adequacy measures and the sphericity index. Thirdly, to confirm the resulting structure from the exploratory approach, we conducted a CFA. Finally, due to the imbalance in the sample sizes, with a higher proportion of males compared to females, we conducted factorial invariance testing by gender. The purpose of factorial invariance is to verify that the measurement properties of the instrument or its items are independent of the evaluated group characteristics (in our case, gender: male vs female), but not independent of the construct that the instrument is measuring.

 

4.1 Preliminary analysis of the items

Firstly, for the descriptive preliminary analysis of the items (means, standard deviations, skewness, and kurtosis coefficients), we used the SPSS program v.28 (IBM, 2021).

As can be noted from the descriptive analysis, the items obtained means between 3 and 4 (response categories ranging from somewhat disagree to agree), except for the specific item PEU1 (M=2.87). Recall that the statement of this item states: "Using a Virtual Teaching-Learning Environment does not require much mental effort." At the opposite end, we have item PL3: "The use of Virtual Teaching-Learning Environments provides me with flexibility to learn in my free time" with M=4.07. Regarding the dispersion of the items, all of them achieved standard deviations close to 1 or slightly above and below that value. As for skewness, most items obtained negative values, indicating slight concentrations of values in the upper part of the various curves, with kurtosis ranging from values close to 0 up to 1.5. Based on these data, we can conclude that univariate normality is guaranteed, considering that values between ±1 are considered excellent, while values below 1.60 are considered adequate (George & Mallery, 2011) for skewness, and values below 2 for skewness and between 2 to 7 for kurtosis (Curran et al., 1996).

 

Table 1

Descriptive analysis of the scale items

Item

M

SD

g1

g2

PU1

3.83

1.049

-.848

.366

PU2

3.83

1.064

-.862

.290

PU3

3.26

1.211

-.202

-.918

PU4

3.95

1.043

-1.036

.730

PEU1

2.87

1.238

.064

-1.022

PEU2

3.30

1.089

-.230

-.583

PEU3

3.91

.969

-.969

.985

PEU4

3.91

.981

-.927

.825

BIU1

4.03

1.031

-1.317

1.548

BIU2

3.76

1.037

-.793

.255

BIU3

3.93

1.176

-1.043

.297

BIU4

3.85

1.163

-.865

-.056

SN1

3.62

1.084

-.589

-.197

SN2

3.75

1.070

-.703

.071

SN3

3.84

1.049

-.973

.671

SN4

3.36

1.153

-.243

-.811

PL1

4.01

1.000

-1.117

1.158

PL2

3.55

1.072

-.575

-.013

PL3

4.07

1.035

-1.276

1.449

PL4

3.91

1.115

-.954

.325

Note: M= Mean; SD: Standard Deviation; g1= Skewness; g2= Kurtosis.

Source: Authors' own elaboration.

 

For the verification of multivariate normality, different coefficients have been calculated using the STATA program v.17 (StataCorp, 2021). Specifically, the Mardia coefficient for skewness and kurtosis, as well as the Henze-Zikler and Doornik-Hansen coefficients. For the Mardia coefficient, the values obtained are Mardia mSkewness = 71.10 (p<.001) and Mardia mKurtosis = 574.21 (p<.001). As for the Henze-Zikler coefficient, it is 1.61 (p<.001), and for the Doornik-Hansen coefficient, it is 463.84 (p<.001). In all cases, the obtained statistical significances (p<.001) indicate a failure to meet the assumption of multivariate normality. For this reason, as we will see when we get to the confirmatory factor analysis, we have estimated the resulting model using the Maximum Likelihood procedure. Although this procedure requires the presence of univariate skewness, it is still a plausible approach to obtain factor loadings even when the assumption of multivariate normality is violated (Beaducel & Herzberg, 2006).

 

 

4.2 Scale reliability

To determine the internal consistency reliability of the scale, given that we have a single administration, we have calculated the coefficient McDonald's ω value for each of the 5 subscales of the test and for the entire scale. The obtained results are as follows.

 

Table 2

McDonald's ω values of the scale and its subscales

Subscales

McDonald's ω value

IC

Subscale PU

.830

[.799,.860]

Subscale PEU

.652

[.613,.727]

Subscale BIU

.897

[.879,.916]

Subscale SN

.870

[.847,.893]

Subscale  PL

.831

[.801,.860]

Total Scale

.947

[.939,.956]

Source: Own elaboration

 

As can be seen, the McDonald's ω value for the entire scale was ω=.947. For the subscales, the obtained values ranged from ω=.652 for the PEU subscale to .897 for the BIU subscale (behavioral intention to use). According to Katz (2006), values above 0.65 (ω>.65) indicate acceptable reliability. In our case, we observe that all values are above that threshold, and, except for the PEU dimension, the ω coefficient values range from .80-.95.

 

4.3 Exploratory Factor Analysis (EFA)

First, we will describe the characteristics of the implemented EFA. The extraction method used was principal component analysis with Varimax rotation, which converged in 8 iterations. Finally, the criterion used for factor selection was the a priori criterion, specifically proposing 5 factors. As a preliminary step to implementing the EFA, we calculated a set of measures regarding its suitability. First, we present the determinant of the IAI matrix = 0.000104. This value reveals that the matrix is not singular, as it approaches but does not reach 0, indicating that the variables are not linearly dependent.

Second, we present the value of the Kaiser-Meyer-Olkin (KMO) measure of sampling adequacy, with a value of KMO= .954, an excellent measure that guarantees that the pairwise correlations between variables are much more important than the partial correlations among them (Klein, 2013 and Vogt, 2005). Regarding the individual measures of sampling adequacy (MSA), in most cases, they reached MSA values >.90. Considering that MSA values >.50 can be considered satisfactory (Lorenzo & Ferrando, 2021), the 20 calculated individual measures of sampling adequacy can be considered very satisfactory.

Finally, the Bartlett's test of sphericity yielded a value of χ²= 4372.092 (df=190, p=.000). Values of the Bartlett's test of sphericity associated with p>.05 are not considered adequate. In our case, the p-value associated with the Bartlett's test statistic is p<.001, which means that the resulting matrix is not an identity matrix and there are correlations between variables beyond the diagonal of that matrix.

Regarding the results of the EFA, the main findings are presented in the following table.

 

Table 3

Rotated Component Matrix*

Item

Factors

 

1

2

3

4

5

h2

PU1

 

.748

 

 

 

.776

PU2

 

.705

 

 

 

.774

PU3

 

.337

 

 

 

.690

PU4

 

.678

 

 

 

.729

PEU1

 

 

 

.302

 

.789

PEU2

 

 

 

.666

 

.654

PEU3

 

 

 

.645

 

.745

PEU4

 

 

 

.720

 

.752

BIU1

 

 

 

 

.681

.740

BIU2

 

 

 

 

.390

.606

BIU3

 

 

 

 

.881

.737

BIU4

 

 

 

 

.363

.759

SN1

.793

 

 

 

 

.730

SN2

.717

 

 

 

 

.702

SN3

.732

 

 

 

 

.713

SN4

.741

 

 

 

 

.701

PL1

 

 

.329

 

 

.687

PL2

 

 

.740

 

 

.745

PL3

 

 

.583

 

 

.713

PL4

 

 

.700

 

 

.784

λn

λ1=5.37

λ2=3.09

λ3=2.23

λ4=2.20

λ5=1.62

 

%σ²

26.87%

15.45%

11.16%

11.03%

8.10%

 

Note: *Only factor loadings r>.30 are shown.

 

As can be seen, the resulting factor solution has achieved an explained variance of 72.61%. Among the factors, the SN dimension stands out with a λ1 of 5.37 and an explained variance of 26.87%, followed by PU (λ2=3.09 and 15.45% explained variance), PL (λ3=2.23 and 11.16% explained variance), ease of use (λ4=2.20 and 11.03% explained variance), and BIU (λ5=1.62 and 8.10% explained variance). Furthermore, the variables are well represented in the factor solution, with communalities ranging from .606 (BIU 2) to 0.784 (PL4).

 

4.4 Confirmatory Factor Analysis (CFA)

To confirm the factor structure inferred through the exploratory factor analysis, a CFA with a pentadimensional structure was conducted using STATA v.17 (StataCorp, 2021). In this regard, first, we present the factor structure of the measurement scale for the extended TAM.

 

Figure 2

Path diagram of the factorial structure of the Measurement Scale for the Extended Technology Acceptance Model

Source: Own elaboration using STATA v.17

 

As can be seen, the path diagram representing the factorial structure of the Measurement Scale for the Extended TAM appears to confirm the initial 5-factor structure inferred through exploratory factor analysis. The diagram displays the standardized factor loadings that each factor obtained on the various variables comprising it, ranging from a minimum value of λ21=.19 (for PEU→PEU1) to a maximum value of λ33 and λ34=.88 (for BIU→BIU3 and BIU→BIU4). Overall, except for the factor loading of .19, the remaining loadings have achieved strong factor loadings (Costello & Osborne, 2005).

Furthermore, following Byrne (2008), Byrne (2009), and Hu and Bentler (1999), we can affirm that the model has obtained acceptable fit indices, namely χ² (160 df) = 465.890; χ²/df = 2.91; CFI = .929; SRMR = .05; RMSEA = .07 [.06, .08].

 

Table 4

Goodness-of-fit measures of the inferred model

5-factor Model

χ²

χ²/gl

CFI

SRMR

RMSEA

(IC 90%)

 

465.890

2.91

.929

.05

.077 [.069,.085]

 

Source: Own elaboration

 

4.5 Factorial invariance by gender

As mentioned earlier, our sample is unbalanced with respect to the gender variable. The number of female units in the sample is three times higher than the number of male units. For this reason, we have conducted factorial invariance analysis. To this end, we used four different procedures or models: configural (M1), metric (M2), scalar (M3), and strict (M4), considering only the fit measures CFI (Comparative Fit Index) and RMSEA (Root Mean Square Error of Approximation). The results are presented in the table below.

 

Table 5

Measurement invariance of the Technology Acceptance Model measurement scale

Models

CFI

RMSEA

ΔCFI

ΔRMSEA

Configural

.929

.077

-

-

Metric

.910

.086

.019

.009

Scalar

.907

.085

.003

.001

Strict

.900

.086

.007

.001

Source: Own elaboration

 

To interpret the results, we need to consider that ΔCFI should be ≤.01 and ΔRMSEA should be ≤.015 (Chen, 2007; Cheung & Rensvold, 2002). Only these results indicate factorial invariance. In more detail, we observe that the configural model achieved CFI = .929 and RMSEA = .077, which supports the acceptance of the inferred model. Regarding the metric model, the only non-compliance is ΔCFI = .019 > .01, while ΔRMSEA = .009 < .015. For the scalar model (intercept invariance), both ΔCFI = .003 < .01 and ΔRMSEA = .001 < .015 meet the criterion for factorial invariance. Finally, in the strict model, both ΔCFI = .007 < .01 and ΔRMSEA = .001 < .015 also meet the criterion for factorial invariance.

 

5. Data Discussion

Although the pandemic situation caused by the presence of COVID-19 has significantly improved, we cannot consider it fully concluded. In fact, the presence of increasingly contagious variants of the SARS-CoV-2 virus that can evade vaccine immunity may lead to a new exponential increase in cases, and consequently, the implementation of preventive measures, which could include a return to non-face-to-face or semi-face-to-face education. In this context, therefore, it seems appropriate to continue proposing VLEs in higher education, not only due to the urgency of the situation (Bozkurt et al., 2020) but primarily because they can be an opportunity to transform the health crisis into a high-quality teaching and learning process (González-Villa et al., 2022). This scenario can provide students with a wide range of competencies compatible with a highly digitized society (Área-Moreira et al., 2020). Additionally, it is worth mentioning that VLEs already had a strong presence in today's society (Hassani et al., 2022; Infante-Moro et al., 2022), making them a strategy that seems to be here to stay.

 

6. Study Conclusions

The main objective of this study was to analyze the evidence of construct validity, score reliability, and factorial invariance according to gender of a Measurement Scale of the Extended TAM in a sample of higher education students in the Dominican Republic. In this regard, it is worth highlighting that the main findings suggest that the scale should be interpreted as a scale composed of 5 factors or dimensions, with adequate reliability as internal consistency, and where factorial invariance according to gender has been ensured.

The construct validation of the scale was conducted through the calculation of exploratory and confirmatory factor analyses. The EFA revealed a pentadimensional factor structure consistent with the original scale by Urquidi-Martín et al. (2019). In both cases, the study samples consisted of higher education students from Spain and the Dominican Republic, respectively. Moreover, the CFA confirmed this structure, achieving adequate fit measures.

Regarding score reliability as internal consistency, it is important to note that the overall scale obtained a very high value, as well as its respective dimensions, except for the PEU dimension. This could be attributed to previous studies, such as those by Schepers and Wetzels (2007) and Venkatesh and Davis (2000), which suggest that the PEU of technology may not be a key element in the technology acceptance model and its subsequent variations. However, these results related to the reliability of the instrument support the presence of a highly consistent and stable scale.

Concerning the presence of a significant gender imbalance in the sample, the measurement invariance was examined according to gender in order to avoid biased conclusions after the development of the confirmatory factor analysis. The results obtained from the factorial invariance analysis revealed that the pentadimensional structure is equivalent for both men and women. Therefore, it can be affirmed that the resulting factorial structure is solid and robust for both genders and does not show bias towards either group. These results support the claim that the validated instrument possesses factorial invariance according to gender (Van De Schoot et al., 2015).

 

7. Limitations of the Study

Despite the aforementioned strengths, the study has certain methodological limitations that need to be taken into consideration. Firstly, since the study is still ongoing, we believe that a larger sample size in the future will help reduce the discrepancies between the measured statistics and the reference parameters. Secondly, the non-probabilistic selection of the study population can also be considered a limitation. If a probabilistic procedure had been followed, it would have been possible to mitigate the gender imbalance in the sample. However, it is worth noting that the fulfillment of factorial invariance has addressed this potential threat, although it will be an aspect to consider in the upcoming research, which will be conducted shortly with a larger sample. This research aims to confirm a multiple serial mediation model with two variables: PU in the use of a VLE and PL, taking into account the mediation of SN, ease of use, and intention to use, based on an extended TAM.

 

8. Funding

This study is part of a research project funded by ISFODOSU (Superior Institute of Teacher Training Salomé Ureña) in the Dominican Republic, with reference VRI-INV-G-2020-26, entitled "Perceived Usefulness and Competencies of Dominican University Students in Virtual Learning Environments: An Analysis of Multiple Serial Mediation."

 

References

Abdullah, F. & Ward, R. (2016). Developing a General Extended Technology Acceptance Model for E-Learning (GETAMEL) by analysing commonly used external factors. Computers in Human Behavior, 56, 238- 256. https://doi.org/10.1016/j.chb.2015.11.036

Adell, J., Castellet, J. M., & Pascual, J. (2004). Selección de un entorno virtual de enseñanza/aprendizaje de código fuente abierto para la Universitat Jaume I. Centro de Educación y Nuevas Tecnologías de la UJI.

Ajzen I. (1985). From intention to actions: A theory of planned behavior. In J. Kuhland & J. Beckman (Eds), Action-control: From cognitions to behavior (pp.11-39). Springe.     

Ajzen, I. & Fishbein, M. (1980). Understanding Attitudes and Predicting Social Behavior. Prentice-Hall.

Área-Moreira, M.; Bethencourt-Aguilar, A. & Martín-Gómez, S. (2020). De la enseñanza semipresencial a la enseñanza online en tiempos de Covid-19. Visiones del alumnado. Campus Virtuales, 9(2), 35-50.

Arteaga, R. & Duarte, A. (2010). Motivational factors that influence the acceptance of Moodle using TAM. Computer in Human Behavior, 26(6), 1632-1640. https://doi.org/10.1016/j.chb.2010.06.011

Báez-Estradas, M. L. & Ossandón Núñez, Y. (2015). Propiedades psicométricas de la escala de presencia social de las mentes en red y su aplicación en el Entorno Virtual de Enseñanza Aprendizaje UTAmed. Universitas Psychologica, 14(3), 843-854.

Beaducel, A., & Herberg, P.Y. (2006). On the performance of maximum likelihood versus means andvariance adjusted weighted least squares estimation in CFA. Structural Equation Modeling: A Multidisciplinary Journal 13, 186- 203. https://doi.org/10.1207/s15328007sem1302_2

Barroso-Osuna, J., Cabero-Almenara, J. & Gutiérrez-Castillo, J.J. (2018). La producción de objetos de aprendizaje en realidad aumentada por estudiantes universitarios. Grado de aceptación de esta tecnología y motivación para su uso. Revista Mexicana de Investigación Educativa, 23 (79), 1261-1283.

Bozkurt, A., Jung, I., Xiao, J., Vladimirschi, V., Schuwer, R., Egorov, G., Lambert, S. R., Al-freih, M., Pete, J., Olcott, D., Rodes, V.,Aranciaga, I., Bali, M., Alvarez, A. V., Roberts, J., Pazurek, A., Raffaghelli, J. E., Panagiotou, N.. Coëtlogon, P., Shahadu, S.,…Paskevicius, M. (2020). A global outlook to the interruption of education due to CovId-19 Pandemic: navigating in a time of uncertaint and crisis. Asian Journal of distance Education, 1(15), 1-126. https://doi.org/10.5281/zenodo.3878572

Byrne, B. (2008). Testing for multigroup equivalence of a measuring instrument: Awalk through the process. Psicothema, 20(4), 872–882.

Byrne, B. (2009). Structural equation modelling with AMOS: Basic concepts, applications and programming (2nd ed.). Routledge/Taylor and Francis.

Cabero-Almenara, J. & Llorente-Cejudo, C. (2020). Covid-19: transformación radical de la digitalización en las instituciones universitarias. Campus Virtuales, 9(2), 25-34.

Cabero-Almenara, J., Barroso-Osuna, J., Gutiérrez-Castillo, J. J., & Palacios Rodríguez, A. (2022). Desarrollando competencias digitales y emprendedoras en Pedagogía. Grado de aceptación de una propuesta formativa. RiiTE Revista Interuniversitaria de Investigación en Tecnología Educativa, (12), 49–63. https://doi.org/10.6018/riite.522441

Costello, A.B., & Osborne, J. W. (2005). Best practices in exploratory factor analysis.Four recommendations for getting the most from your analysis. Practical Assessment, Research & Evaluation, 10(7), 1-9. https://doi.org/10.7275/jyj1-4868

Curran, P. J., West, S. G., & Finch, J. F.  (1996). The robustness of test statistics to non normality and specification error in confirmatory factor analysis. Psychological Methods 1, 16–29.

Davis, F.D.  (1989). Perceived Usefulness, Perceived Ease of Use and User Acceptance of Information Technology. MIS Quarterly, 13, 319-340.

Deng, L., & Tavares, N. (2013). From Moodle to Facebook: exploring students´ motivation and experiences in online communities. Computers & Education, 68, 167-176. https://doi.org/10.1016/j.compedu.2013.04.028

IBM Corp. Released 2021. IBM SPSS Statistics for Windows, Version 28.0. IBM Corp.

Garson D. G. (2008). Factor analysis: Statnotes: North Carolina State University Public Administration Program. http://www2.chass.ncsu.edu/garson/pa765/factor.htm.

George, D., & Mallery, M. (2011). Using SPSS for Windows step by step: a simple guide and reference 18.0 Update (11th ed.). Allyn & Bacon/Pearson.

González-Villa, A., Regueira, U. & Gewerc, A. (2022). Hacia la enseñanza en línea. Estudio mixto de una reestructuración metodológica en pandemia. Campus Virtuales, 11(2), 21-37. https://doi.org/0.54988/cv.2022.2.973

Hassani, E., Gelard, P., Sharifzadeh, F., & Azad, N. (2022). The Impact of Learning organizations on Employee Performance with an Emphasis on network Communication Approach. Education in the Knowledge Society, 23, e26817. https://doi.org/10.14201/eks.26817

Hodgkinson, T., Curtis, H., MacAlister, D., & Farrell, G. (2016). Student academic dishonesty: The potential for situational prevention. Journal of Criminal Justice Education, 27(1), 1-18. http://dx.doi.org/10.1080/10511253.2015.1064982

Hu, L., & Bentler, P. M. (1999). Cutoff criteria for fit indexes in covariance structure analysis: Conventional criteria versus new alternatives. Structural Equation Modeling, 6, 1–55.

Infante-Moro, A., Infante-Moro, J. C., & Gallardo-Pérez, J. (2022). Análisis de la virtualización de la docencia en el Máster de Turismo de la Universidad de Huelva durante el CovId-19: docentes versus estudiantes. Campus Virtuales, 11(2), 197-208. https://doi.org/10.54988/cv.2022.2.1199

Najmul Islam, A.K.M. (2013). Investigating e-learning system usage outcomes in the university context. Computer &. Education, 69, 387–399. https://doi.org/10.1016/j.compedu.2013.07.037

Ferreras-García, R.; Sales-Zaguirre, J., & Serradell-López, E. (2022). Generic competences and learning results during the COVID-19 pandemic: a comparative study. Campus Virtuales, 11(2), 147-160. http://dx.doi.org/10.54988/cv.2022.2.1177

Katz, M.H. (2006). Multivariate analysis. University Press.

Klein, G. (2013). The Cartoon Introduction to Statistics. Hill & Wang.

Liaw, S.S. (2008). Investigating students’ perceived satisfaction, behavioral intention, and effectiveness of e-learning: A case study of the Blackboard system. Computers & Education, 51(2), 864–873. https://doi.org/10.1016/j.compedu.2007.09.005

Lockee, B. B. (2021). Online education in the post-COVID era. Nature Electronics, 4(1), 5-6. https://doi.org/10.1038/s41928-020-00534-0

Lorenzo, U., & Ferrando, P. J. (2021). MSA: The Forgotten Index for Identifying Inappropriate Items Before Computing Exploratory Item Factor Analysis. Methodology, 17(4), 296-306. https://doi.org/10.5964/meth.7185

Mohamed, A.S. (2021). Experience Sharing on Virtual COOP Training to Mechanical Engineering Students during the COVID-19 Pandemic. Sustainability, 13(20), 1-16. https://doi.org/10.3390/su132011401

Premkumar, G., & Bhattacherjee, A. (2008). Explaining information technology usage: A test of competing models. Omega, 36, 64–75. https://doi.org/10.1016/j.omega.2005.12.002

Rodríguez-Sabiote, C., Úbeda-Sánchez, Á.M., Álvarez-Rodríguez, J., & Álvarez-Ferrándiz, D. (2020). Active Learning in an Environment of Innovative Training and Sustainability. Mapping of the Conceptual Structure of Research Fronts through a Bibliometric Analysis. Sustainability, 12, 8012. https://doi.org/10.3390/su12198012

Roitsch, J., Moore, R.L., & Horn, A.L. (2021). Lessons learned: What the COVID-19 global pandemic has taught us about teaching, technology, and students with autism spectrum disorder. Journal of Enabling Technologies, 15(2), 108-116. https://doi.org/10.1108/JET-12-2020-0053

Ruiz-Aquino, M., Borneo, E., Alanía-Contreras R. D., García, E.S. & Zevallos, U. (2022). Actitudes hacia las TIC´s y uso de los entornos virtuales en docentes universitarios en tiempos de la pandemia de la COVID-19. Publicaciones, 53(3), 197-120. https://doi.org/10.30827/publicaciones.v52i3.22270

Sánchez-Prieto, J.C., Olmos-Migueláñez, S., & García-Peñalvo, F.J. (2016). Informal tools in formal contexts: Development of a model to assess the acceptance of mobile technologies among teachers. Computer Human Behaviour, 55, 519-528. https://doi.org/10.1016/j.chb.2015.07.002

Saza-Garzón, I. D. (2016). Estrategias didácticas en tecnologías web para ambientes virtuales de aprendizaje. Praxis, 12(1), 103-110. https://doi.org/10.21676/23897856.1851 

Schepers, J., & Werzels, M. (2007). A meta-analysis of the technology acceptance model; investigating subjective norm and moderations effects. Information y Management, 44(1), 90-103. https://doi.org/10.1016/j.im.2006.10.007

StataCorp. (2021). Stata Statistical Software: Release 17. College Station, TX: StataCorp LLC.

Tan, K.H., Chan, P.P., & Said, N.E.M. (2021). Higher Education Students' Online Instruction Perceptions: A Quality Virtual Learning Environment. Sustainability, 13(19), 1-24. https://doi.org/10.3390/su131910840

Van De Schoot, R., Schmidt, P., De Beuckelaer, A., Lek, K., & Zondervan-Zwi¬jnenburg, M. (2015). Measurement invariance. Frontiers in Psychology, 6, 1-4. https://doi.org/10.3389/fpsyg.2015.01064

Venkatesh, V. & Davis F. D. (2000). A theoretical extension of the technology acceptance model: four longitudinal field studies. Management Science, 46(2), 186-205. https://doi.org/10.1287/.mnsc.46.2.186.11926

Venkatesh, V., & Bala, H. (2008). Technology Acceptance Model 3 and a Research Agenda on Interventions.  Decision Sciences, 39, 273-315. https://doi.org/10.1111/j.1540-5915.2008.00192.x

Vogt, W.P. (2005). Dictionary of Statistics & Methodology: A Nontechnical Guide for the Social Sciences. Sage.

Urquidi Martín, A. C., Calabor Prieto, M. S. & Tamarit Aznar, C. (2019). Entornos virtuales de aprendizaje: modelo ampliado de aceptación de la tecnología. Revista Electrónica de Investigación Educativa, 21, e22, 1-12. https://doi.org/10.24320/redie.2019.21.e22.1866

Zolfaghari, A. (2016). Review of Academic Dishonesty among College Students. Review of European Studies, 8(4), 154-166. https://dx.doi.org/10.5539/res.v8n4158

 

 



[1] De ahora en adelante EVEA.