COMPETENCIAS DOCENTES EN EL USO DE SIMULACIONES VIRTUALES STEM: DISEÑO Y VALIDACIÓN DE UN INSTRUMENTO DE MEDIDA (CDUSV)
Teacher competences in the use of STEM virtual simulations: design and validation of a measurement instrument (CDUSV)

ROSA GÓMEZ, ALICIA PALACIOS, DANIEL MORENO-MEDIAVILLA Y ÁLVARO BARRERAS
Universidad Internacional de La Rioja (España)

DOI: 10.13042/Bordon.2022.94154
Fecha de recepción: 08/04/2022 • Fecha de aceptación: 08/07/2022
Autora de contacto / Corresponding author: Rosa Gómez. E-mail: rosa.gomez@unir.net

Cómo citar este artículo: Gómez, R., Palacios, A., Moreno-Mediavilla, D. y Barreras, Á. (2022). Competencias docentes en el uso de simulaciones virtuales STEM: diseño y validación de un instrumento de medida (CDUSV). Bordón, Revista de Pedagogía, 74(4), 85-102. https://doi.org/10.13042/Bordon.2022.94154


INTRODUCCIÓN. La importancia del uso de las simulaciones virtuales como recurso didáctico para desarrollar una enseñanza de las ciencias contextualizada, aplicada y centrada en el desarrollo de las competencias científicas ha creado la necesidad de evaluar cuáles son las competencias del profesorado de educación secundaria en el uso de estas herramientas. El objetivo de este trabajo es construir y validar un cuestionario para evaluar las competencias del profesorado de educación secundaria de áreas STEM en el uso de las simulaciones virtuales. MÉTODO. A partir de una revisión teórica exhaustiva se desarrolló un cuestionario inicial que fue sometido a un proceso de validación por expertos. A continuación, se llevó a cabo un estudio piloto con 30 profesores que ayudó a construir el instrumento definitivo. El cuestionario final fue aplicado a 332 profesores de educación secundaria de áreas STEM en España y, posteriormente, se llevó a cabo su validación a través de un análisis factorial exploratorio (AFE). RESULTADOS. Los resultados obtenidos muestran una elevada validez de contenido y fiabilidad (α de Cronbach = .92). A su vez, el análisis factorial exploratorio desarrollado mediante el método de extracción de máxima verosimilitud y rotación Equamax muestra una estructura de 4 factores denominados: “Desarrollo de la práctica docente”, “Planificación didáctica”, “Autorreflexión sobre la práctica docente” y “Dificultades asociadas al uso de las simulaciones virtuales”. Se obtiene una fiabilidad alta para todos los factores extraídos. DISCUSIÓN. Finalmente, se discute el valor del instrumento y su interés para el diseño de programas de formación de profesorado construidos a partir del conocimiento y las dificultades reales del profesorado ante el uso de las simulaciones virtuales STEM en el aula de educación secundaria.

Palabras clave: Competencias docentes, Simulaciones virtuales, Educación STEM, Educación secundaria, Fiabilidad del instrumento.


Introducción

La enseñanza de las ciencias experimentales y las matemáticas ha dejado de estar centrada en la transmisión de contenidos para convertirse en un proceso en el cual la base del aprendizaje es el desarrollo y comprensión de procesos y fenómenos, así como la aplicación de conceptos y leyes. En este sentido, la educación STEM (por sus siglas en inglés: ciencia, tecnología, ingeniería y matemáticas) se desarrolla en un contexto que plantea potenciar las capacidades del alumnado en torno a la experimentación aplicada, el análisis crítico y la resolución de problemas (Perales-Palacios y Aguilera, 2020Perales-Palacios, F. J. y Aguilera, D. (2020). Ciencia-tecnología-sociedad vs. STEM: ¿evolución, revolución o disyunción? Ápice. Revista de Educación Científica, 4(1), 1-15. https://doi.org/10.17979/arec.2020.4.1.5826). Así, los laboratorios y las simulaciones virtuales se han convertido en uno de los recursos más interesantes en la aplicación de la enseñanza STEM (Gnesdilow y Puntambekar, 2021Gnesdilow, D. y Puntambekar, S. (2021). Comparing middle school students’ science explanations during physical and virtual laboratories. Journal of Science Education and Technology, 31(4), 191-202. https://doi.org/10.1007/s10956-021-09941-0; Menchaca et al., 2020Menchaca, I., Dziabenko, O. y García, J. (2020). Experiencia española en el proyecto Go-Lab. Educar, 56(2), 387-405. https://doi.org/10.5565/rev/educar.1067).

Las simulaciones virtuales permiten la representación de fenómenos o sistemas reales, lo cual propicia su manipulación o interacción por parte del usuario (Chan et al., 2021Chan, P., Van Gerven, T., Dubois, J. y Bernaerts, K. (2021). Virtual chemical laboratories: a systematic literature review of research, technologies and instructional design. Computers and Education Open, 2. https://doi.org/10.1016/j.caeo.2021.100053; De Jong y Van Joolingen, 1998De Jong, T. y Van Joolingen, W. R. (1998). Scientific discovery learning with computer simulations of conceptual domains. Review of Educational Research, 68(2), 179-201. https://doi.org/10.3102/00346543068002179; Sypsas et al., 2018Sypsas, A. y Kalles, D. (2018). Virtual laboratories in biology, biotechnology and chemistry education: a literature review. En N. Karanikolas y B. Mamalis (eds.), Proceedings of the 22nd Pan-Hellenic Conference on Informatics (PCI ‘18) (70-75). Association for Computing Machinery. https://doi.org/10.1145/3291533.3291560). Esto fomenta que el alumnado observe y manipule objetos, variables y fenómenos, e incluso visualice los cambios producidos a través de diferentes representaciones (Blake y Scanlon, 2007Blake, C. y Scanlon, E. (2007). Reconsidering simulations in science education at a distance: features of effective use. Journal of Computer Assisted Learning, 23, 491-502. https://doi.org/10.1111/j.1365-2729.2007.00239.x; Smetana y Bell, 2014Smetana, L. K. y Bell, R. L. (2014). Which setting to choose: comparison of whole-class vs. small-group computer simulation use. Journal of Science Education and Technology, 23(4), 481-495. https://doi.org/10.1007/s10956-013-9479-z) a escala macroscópica, microscópica y submicroscópica. Con su utilización se desarrollan estrategias basadas en el método científico y la indagación (De Jong y Van Joolingen, 1998De Jong, T. y Van Joolingen, W. R. (1998). Scientific discovery learning with computer simulations of conceptual domains. Review of Educational Research, 68(2), 179-201. https://doi.org/10.3102/00346543068002179; Geelan y Fan, 2013Geelan, D. y Fan, X. (2013). Enhancing students’ scientific literacy in science education using interactive simulations: a critical literature review. Journal of Computers in Mathematics and Science Teaching, 32, 125-171.; Perkins et al., 2012Perkins, K., Moore, E., Podolefsky, N., Lancaster, K. y Denison, C. (2012). Towards research-based strategies for using PhET simulations in middle school physical science classes, AIP Conference Proceedings, 1413, 295-298. https://doi.org/10.1063/1.3680053), permitiendo así el desarrollo de la competencia científica y matemática en el alumnado. Además, su uso es aplicable en la mayoría de los contenidos asociados a las áreas STEM (Alkhaldi et al., 2016Alkhaldi, T., Pranata, I. y Athauda, R. I. (2016). A review of contemporary virtual and remote laboratory implementations: observations and findings. Journal of Computers in Education, 3(3), 329-351. https://doi.org/10.1007/s40692-016-0068-z; D’Angelo et al., 2014D’Angelo, C., Rutstein, D., Harris, C., Bernard, R., Borokhovski, E. y Haertel, G. (2014). Simulations for STEM learning: systematic review and meta-analysis. SRI Education, 58. ; Hutkemri, 2014Hutkemri, E. Z. (2014). Impact of using GeoGebra on students’ conceptual and procedural knowledge of limit function. Mediterranean Journal of Social Sciences, 5(23), 873-881. https://doi.org/10.5901/mjss.2014.v5n23p873). Por lo tanto, las posibilidades que ofrece un recurso de estas características no deben quedar difuminadas dentro de un contexto en el que la tecnología educativa se integra de manera natural en el aula (Pelgrum, 2001Pelgrum, W. J. (2001). Obstacles to the integration of ICT in education: results from a worldwide educational assessment. Computers & Education, 37(2), 163-178. https://doi.org/10.1016/S0360-1315(01)00045-8). En este sentido, el uso de las simulaciones virtuales debe tomar protagonismo y potenciarse tanto en el profesorado en activo como en el profesorado en formación (D’Angelo et al., 2014D’Angelo, C., Rutstein, D., Harris, C., Bernard, R., Borokhovski, E. y Haertel, G. (2014). Simulations for STEM learning: systematic review and meta-analysis. SRI Education, 58. ; Waight et al., 2014Waight, N., Liu, X., Gregorius, R. M., Smith, E. y Park, M. (2014) Teacher conceptions and approaches associated with an immersive instructional implementation of computer-based models and assessment in a secondary chemistry classroom. International Journal of Science Education, 36(3), 467-505, https://doi.org/10.1080/09500693.2013.787506). Así, los docentes deben ser conscientes y responsables de su uso, de las posibilidades que este recurso les proporciona, de las consideraciones para tener en cuenta en el diseño de experiencias prácticas, del seguimiento durante su aplicación y de la evaluación y valoración tras su ejecución (Rutten et al., 2012Rutten, N., Van Joolingen, W. R. y Van der Veen, J. T. (2012). The learning effects of computer simulations in science education. Computers and Education, 58(1), 136-153. https://doi.org/10.1016/j.compedu.2011.07.017).

Por otro lado, como indican Sarramona y Santiuste (2015Sarramona, J. y Santiuste, V. (2015). La formación no presencial ante el reto de las competencias profesionales. Revista Española de Pedagogía, 73, 449-464.), tanto las competencias instrumentales como las sistémicas forman parte del conjunto de capacidades que deben desarrollarse dentro de la competencia profesional docente, descrita en el proyecto Tuning Educational Structures in Europe (González y Wagenaar, 2008González, J. y Wagenaar, R. (2008). La contribución de las universidades al proceso de Bolonia. Una introducción a Tuning Educational Structures in Europe (edición española). Publicaciones de la Universidad de Deusto.). Para lograr esa capacitación, dentro del trabajo con recursos como las simulaciones virtuales, la competencia digital docente será una de las que más va a influir en el desarrollo. Del mismo modo que no pueden separarse la competencia científica y la matemática de los alumnos de la propia competencia del profesorado, no puede desligarse tampoco la competencia digital del alumnado de la competencia digital docente (CDD) (Gisbert et al., 2016Gisbert, M., González, J. y Esteve, F. M. (2016). Competencia digital y competencia digital docente: una panorámica sobre el estado de la cuestión. Revista Interuniversitaria de Investigación en Tecnología Educativa, 0, 74-83. https://doi.org/10.6018/riite2016/257631). Esta competencia abarca no solo el uso de la tecnología educativa, sino el conjunto de habilidades, actitudes y conocimientos con los que debe contar el profesorado para apoyar el aprendizaje del alumnado dentro del mundo digital (Hall et al., 2014Hall, R., Atkins, L. y Fraser, J. (2014). Defining a self-evaluation digital literacy for secondary educators. The DigiLit Leicester Project. Research in Learning Technology, 22. https://doi.org/10.3402/rlt.v22.21440).

La CDD debe ser considerada como una competencia transversal (Ferrari, 2013Ferrari, A. (2013). DIGCOMP: a framework for developing and understanding digital competence in Europe. European Commission. Joint Research Centre. Institute for Prospective Technological Studies. ) que permita desarrollar una participación activa en la sociedad (Touron et al., 2018Tourón, J., Martín, D., Navarro-Asensio, E., Pradas, S. e Íñigo, V. (2018). Validación de constructo de un instrumento para medir la competencia digital docente de los profesores (CDD) | Construct validation of a questionnaire to measure teachers’ digital competence (TDC). Revista Española de Pedagogía, 76(269), 25-54. https://doi.org/10.22550/REP76-1-2018-02). El marco común de la competencia digital docente (INTEF [Instituto Nacional de Tecnologías Educativas y de Formación del Profesorado], 2017INTEF (2017). Marco de Competencia Digital. Ministerio de Educación, Ciencia y Deportes.) establece 5 dimensiones en las que se especifica el desarrollo de esta competencia: información y alfabetización informacional, comunicación y colaboración, creación de contenido digital, seguridad y resolución de problemas. Sin embargo, estas dimensiones no concretan el punto de vista pedagógico que debe establecerse a la hora de aplicar la tecnología educativa, en el caso que nos ocupa, las simulaciones virtuales dentro del contexto educativo. Es por ello por lo que, para completar el constructo de la competencia digital del profesorado, debe plantearse una ampliación de la idea de competencia digital docente analizando otros modelos. En este caso, el modelo TPACK (Technological Pedagogical Content Knowledge), establecido por Koehler y Mishra (2008Koehler, M. J. y Mishra, P. (2008). Introducing technological pedagogical content knowledge. En A. E. R. Association (ed.), Annual Meeting of the American Educational Research Association.), incluye un análisis en 3 dimensiones: disciplinar, pedagógico y tecnológico. El modelo TPACK plantea que los docentes, además del dominio del contenido de la materia que han de impartir, han de conocer cómo y en qué emplearán la tecnología educativa, cómo funcionan de manera general las TIC (tecnologías de la información y de la comunicación), y deben poseer un conocimiento pedagógico de los procesos y prácticas del método de enseñanza y cómo se relacionan con el pensamiento (Cabero et al., 2015Cabero, J., Marín, V. y Castaño, C. (2015). Validación de la aplicación del modelo TPACK para la formación del profesorado en TIC. @tic. Revista d’Innovació Educativa, 14, 13-22. https://doi.org/10.7203/attic.14.4001). El TPACK hace referencia a la capacidad que tiene el docente a la hora de introducir el uso de las TIC con el fin de facilitar el aprendizaje del estudiante a través de actividades concretas sobre temas específicos. Incluye, dentro de ese conocimiento, lo que se define como conocimiento pedagógico y de contenido (PCK), es decir, la capacidad de analizar las representaciones y situaciones de aprendizaje para el alumnado, la identificación de aquellas que puedan resultar más difíciles de desarrollar por parte de los alumnos, así como las que trabajen las concepciones erróneas del alumnado en los diversos temas de ciencias experimentales o matemáticas (Jimoyiannis, 2010Jimoyiannis, A. (2010). Developing a technological pedagogical content knowledge framework for science education: implications of a teacher trainers’ preparation program. Proceedings of Informing Science & IT Education Conference (InSITE), 597-607.; Schmidt et al., 2009Schmidt, D., Baran, E., Thompson, A., Mishra, P., Koehler, M. y Shin, T. (2009). Technological pedagogical content knowledge (TPACK): the development and validation of an assessment instrument for preservice teachers. Journal of Research on Technology in Education, 42(2), 123-149. https://doi.org/10.1080/15391523.2009.10782544).

Aunque en los últimos años se han descrito y validado muchos instrumentos de medida de la competencia digital docente (Cebrián-Cienfuentes, 2021Cebrián-Cienfuentes, S., Ros, C., Fernández-Piqueras, R. y Guerrero, E. (2021). Análisis de la competencia digital docente y uso de recursos TIC tras un proceso de intervención universitario, basado en la implementación de una metodología innovadora de gamificación. Bordón, Revista de Pedagogía, 73(2), 41-61. https://doi.org/10.13042/Bordon.2021.87134; Harada, 2021Harada, A. S. (2021). La comunidad docente y las competencias digitales: la formación a lo largo de la vida. Revista Conhecimento Online, 1, 177-192. https://doi.org/10.25112/rco.v1i0.2400; Ramnarain et al., 2021Ramnarain, U., Pieters, A. y Wu, H. K. (2021). Assessing the technological pedagogical content knowledge of pre-service science teachers at a South African university. International Journal of Information and Communication Technology Education, 17(3), 123-136. https://doi.org/10.4018/IJICTE.20210701.oa8; Touron et al., 2018Tourón, J., Martín, D., Navarro-Asensio, E., Pradas, S. e Íñigo, V. (2018). Validación de constructo de un instrumento para medir la competencia digital docente de los profesores (CDD) | Construct validation of a questionnaire to measure teachers’ digital competence (TDC). Revista Española de Pedagogía, 76(269), 25-54. https://doi.org/10.22550/REP76-1-2018-02) y también sobre el modelo TPACK (Cabero et al., 2018Cabero, J., Pérez, J. L. y Llorente, C. (2018). Estructural equation model and validation of the TPACK model: empirical study [Modelo de ecuaciones estructurales y validación del modelo de formación TPACK: estudio empírico]. Profesorado, 22(4), 353-376. https://doi.org/10.30827/profesorado.v22i4.8420; Sierra y Gutiérrez-Santiuste, 2021Sierra, F. A. C. y Gutiérrez-Santiuste, E. (2021). Questionnaire on knowledge of university mathematics teachers for technological integration. Revista Fuentes, 2(23), 150-162. https://doi.org/10. 12795/revistafuentes.2021.12792; Wahyuni et al., 2021Wahyuni, I., Zaenuri, Wardono, Sukestiyarno, Y. L., Waluya, S. B., Nuriana y Aminah, N. (2021). Design of instrument Technological Pedagogic Content Knowledge (TPACK) for prospective mathematics teachers. Journal of Physics: Conference Series 1918(4). https://doi.org/10.1088/1742-6596/1918/4/042097), no existe ningún cuestionario específico que evalúe la percepción de la competencia del profesorado ante el uso de las simulaciones virtuales. Sin embargo, la existencia de un instrumento de estas características es de vital importancia, ya que conocer la percepción que tiene el profesorado de sus competencias en el uso de estas herramientas propiciará el diseño y desarrollo de planes de formación ajustados a las necesidades del profesorado. Es por ello por lo que nos planteamos como objetivo de este trabajo construir y validar un cuestionario para evaluar las competencias del profesorado de educación secundaria de áreas STEM en el uso de las simulaciones virtuales.

Método

Diseño de la investigación

El presente estudio es cuantitativo, no experimental, de tipo descriptivo a través de un diseño transversal.

Muestra

La muestra de estudio, obtenida mediante un muestreo no probabilístico casual, está compuesta por 332 profesores de educación secundaria de Física y Química, Biología y Geología, Tecnología y Matemáticas, que ejercen su profesión docente en centros públicos (77.40%), concertados (19.30%) y privados (3.30%). La muestra engloba a profesorado de todas las comunidades autónomas de España, excepto de Islas Baleares, siendo mayoritaria la muestra procedente de Cataluña (30.12%) y Comunidad de Madrid (18.98%). Los centros en los que desarrollan su docencia pertenecen a zonas urbanas en un 77.11% y a zonas rurales en un 22.89%. Cabe destacar que todos los profesores participantes han utilizado alguna vez simulaciones virtuales en sus aulas. La distribución por sexo es de 220 mujeres (66.26%), 111 hombres (33.43%) y 1 persona que no se posiciona en ninguna de las opciones anteriores (0.3%). Respecto a la edad del profesorado, 24 docentes tienen menos de 31 años (7.23%), 73 tienen entre 31 y 40 años (21.99%), 117 entre 41 y 50 años (35.24%), 109 entre 51 y 60 años (32.83%) y 9 más de 60 años (2.71%). Por último, la distribución de años de experiencia docente de los participantes es de 74 con menos de 5 años de experiencia (22.29%), 65 entre 5 y 10 años de experiencia (19.58%), 72 que tienen entre 11 y 20 años de experiencia (21.69%), y 121 profesores con más de 20 años de experiencia docente (36.44%).

Proceso de elaboración del cuestionario

El proceso de elaboración del cuestionario comenzó con una exhaustiva revisión bibliográfica (Cabero et al., 2018Cabero, J., Pérez, J. L. y Llorente, C. (2018). Estructural equation model and validation of the TPACK model: empirical study [Modelo de ecuaciones estructurales y validación del modelo de formación TPACK: estudio empírico]. Profesorado, 22(4), 353-376. https://doi.org/10.30827/profesorado.v22i4.8420; Carlos-Guzmán, 2016Carlos-Guzmán, J. (2016). ¿Qué y cómo evaluar el desempeño docente? Una propuesta basada en los factores que favorecen el aprendizaje. Propósitos y Representaciones, 4(2), 285-358. http://dx.doi.org/10.20511/pyr2016.v4n2.124; Escobar y Adames, 2008Escobar, I. M. C. y Adames, C. P. (2008). Competencias docentes de profesores de pregrado: diseño y validación de un instrumento de evaluación. Universitas Psychologica, 7(2), 456-456. https://revistas.javeriana.edu.co/index.php/revPsycho/article/view/441; Prendes et al., 2010Prendes, M. P., Castañeda, L. y Gutiérrez, I. (2010). Competencias para el uso de TIC de los futuros maestros. Comunicar, 18(35), 175-182. https://doi.org/10.3916/C35-2010-03-11; Rutten et al., 2012Rutten, N., Van Joolingen, W. R. y Van der Veen, J. T. (2012). The learning effects of computer simulations in science education. Computers and Education, 58(1), 136-153. https://doi.org/10.1016/j.compedu.2011.07.017; Smetana y Bell, 2012Smetana, L. K. y Bell, R. L. (2012). Computer simulations to support science instruction and learning: a critical review of the literature. International Journal of Science Education, 34(9), 1337-1370. https://doi.org/10.1080/09500693.2011.605182; Taquez et al., 2017Taquez, H., Rengifo, D. y Mejía, D. (2017). Diseño de un instrumento para evaluar el nivel de uso y apropiación de las TIC en una institución de educación superior. Portal Educativo de las Américas (OEA). https://recursos.educoas.org/publicaciones/dise-o-de-un-instrumento-para-evaluar-el-nivel-de-uso-y-apropiaci-n-de-las-tic-en-una), centrada en competencias tecnológicas docentes y uso de las simulaciones virtuales, a partir de la cual se identificaron 48 variables (ítems) relevantes para nuestro objeto de estudio. A continuación, se procedió a analizar y clasificar estas variables con el objetivo de eliminar los ítems que fueran redundantes y mejorar la redacción de los restantes. Además, dada la inexistencia de estudios específicos sobre competencias docentes en el uso de simulaciones virtuales en el área STEM, estas variables se adaptaron al objeto de estudio de esta investigación. Así, se obtuvo como resultado un cuestionario inicial compuesto por 32 ítems.

Posteriormente, con el objetivo de hallar la validez de contenido del cuestionario, se realizó un juicio de expertos, contando con el asesoramiento de 4 docentes e investigadores. Dichos expertos, seleccionados por conveniencia, tenían experiencia variada (entre 10 y 46 años de experiencia), procedían de diferentes entidades (tanto de universidades públicas como privadas) y pertenecían a diversos ámbitos educativos relacionados con el objetivo de nuestra investigación (didáctica de las ciencias experimentales, didáctica de las matemáticas y métodos de investigación en educación). El número de expertos seleccionados es adecuado según Gable y Wolf (1993Gable, R. K. y Wolf, J. W. (1993). Instrument development in the affective domain: measuring attitudes and values in corporate and school settings. Kluwer Academic. ) y Grant y Davis (1997Grant, J. S. y Davis, L. L. (1997). Selection and use of content experts for instrument development. Research in Nursing & Health, 20, 269-274. ), ya que dichos autores afirman que el número necesario para llevar a cabo esta técnica puede oscilar desde los 2 hasta los 20 expertos. Además, también se tuvieron en cuenta otros criterios, tales como la experiencia en la realización de juicios, la reputación en la comunidad científica dentro del ámbito que nos ocupa, la disponibilidad y motivación para participar y la imparcialidad de estos (Skjong y Wentworht, 2000Skjong, R. y Wentworth, B. (2000). Expert judgement and risk perception. http://research.dnv.com/skj/Papers/SkjWen.pdf ). El juicio realizado por los expertos incluía, para cada uno de los ítems, tres propiedades: claridad, coherencia y pertinencia. Además, se admitían comentarios para cada una de las propiedades, así como comentarios generales sobre cada ítem. El análisis cualitativo de las valoraciones de los expertos se realizó de manera que si dos o más expertos valoraban negativamente las propiedades de coherencia y/o pertinencia se eliminaría el ítem. En el caso de que algún experto valorase negativamente la propiedad de claridad, se revisaría su redacción.

Asimismo, se realizó una prueba piloto a una muestra seleccionada por conveniencia y formada por 30 docentes de educación secundaria en las áreas STEM en España. Los docentes pertenecían a centros públicos o concertados, tenían experiencia variada (desde menos de 5 a más de 20 años de experiencia docente), procedían de centros de diversos tipos (urbanos y rurales) y pertenecían a 12 comunidades autónomas españolas diferentes. El cuestionario fue enviado por correo electrónico durante la primera quincena de octubre de 2021. Además, se les preguntó sobre la relevancia de los ítems y se admitían comentarios generales sobre los mismos. Se realizó un análisis del α de Cronbach del cuestionario global y se analizó la correlación ítem-total.

Instrumento y procedimiento de recogida de datos

El cuestionario se elaboró con la herramienta Survey Monkey. Consta de varias preguntas iniciales para la caracterización de la muestra (sexo, edad, años de experiencia docente, especialidad y tipo de centro educativo) y un conjunto de 26 ítems relacionados con la percepción de la competencia docente en el uso de simulaciones virtuales. Los docentes debían responder a su grado de acuerdo o desacuerdo con cada ítem en una escala Likert del 1 a 5. En el instrumento también se explican los objetivos del estudio, y se solicita la participación del profesorado de Física y Química, Biología y Geología, Tecnología y Matemáticas de educación secundaria que hubiera utilizado alguna vez simulaciones virtuales en sus aulas. En todo momento se ha asegurado el anonimato de los participantes.

El cuestionario fue enviado por correo electrónico a centros educativos públicos, concertados y privados de España durante la segunda quincena de enero y el mes de febrero de 2022, periodo en el que estuvo abierto el cuestionario.

Análisis de datos

En primer lugar, antes de comenzar con el análisis factorial exploratorio se revisaron las distribuciones de los ítems para comprobar si cumplían con el requerimiento de ser ítems que se aproximan al supuesto de normalidad. Para ello, se realizó un análisis de la media, desviación típica, simetría y curtosis de los datos de partida. En segundo lugar, se desarrolló el test de esfericidad de Bartlett para confirmar que existe relación entre las variables, y se determinó el índice KMO de Kaiser, que indica si las correlaciones entre las variables son suficientemente grandes y, por lo tanto, es posible factorizar la matriz.

Con el objetivo de identificar el número y composición de los factores comunes necesarios para explicar la varianza común del conjunto de ítems analizado, se llevó a cabo un análisis factorial exploratorio. Se desarrolló este tipo de análisis factorial y no el confirmatorio, dada la poca información teórica en relación con la temática concreta del cuestionario. Además, tal y como afirman Lloret-Segura et al., (2014Lloret-Segura, S., Ferreres-Traver, A., Hernández-Baeza, A. y Tomás-Marco, I. (2014). El análisis factorial exploratorio de los ítems: una guía práctica, revisada y actualizada. Anales de Psicología, 30(3), 1151-1169. http://dx.doi.org/10.6018/analesps.30.3.199361), cuando el objetivo es comprobar la relación entre los ítems y el conjunto de factores que miden estos ítems, lo recomendable es utilizar este tipo de análisis. La extracción de factores se desarrolló mediante el método de máxima verosimilitud. Para comprobar el ajuste del modelo se obtuvieron los siguientes valores: índice GFI, el coeficiente NNFI, la raíz cuadrática media residual (RMCR) y el índice RMSEA.

La fiabilidad del instrumento se realizó mediante el análisis del α de Cronbach del cuestionario global y de cada uno de los factores obtenidos a partir del análisis factorial exploratorio.

Para el análisis de datos se utilizaron los programas SPSS.25 y FACTOR (Lorenzo-Seva y Ferrando, 2020Lorenzo-Seva, U. y Ferrando, P. J. (2020). FACTOR (n.º de versión 10.10.03). Windows. Tarragona (Spain): Rovira i Virgili University. http://psico.fcep.urv.es/utilitats/factor).

Resultados

Validez de contenido

El análisis de las valoraciones realizadas por el juicio de expertos indicó una buena validez de contenido de los ítems del cuestionario. Ninguno de los ítems obtuvo dos o más valoraciones negativas en las propiedades de coherencia o pertinencia. Por otro lado, se modificaron aspectos de redacción en 3 de los ítems planteados.

Las respuestas obtenidas tras la prueba piloto realizada con 30 docentes permitieron realizar el análisis del α de Cronbach, con buenos resultados (.94). Por otra parte, algunos de los ítems mostraron una baja correlación ítem-total. En particular, se eliminaron 5 ítems del cuestionario con una correlación ítem-total por debajo de .30, pasando de 32 a 27 ítems (algunos habían sido indicados como no coherentes o pertinentes por uno de los expertos). Además, se revisaron aquellos ítems con menores correlaciones (pero por encima de .30) y con comentarios de mejora por parte de los docentes, de esta manera, se eliminó un ítem más.

Finalmente, tras estos análisis, el cuestionario se redujo a 26 ítems.

Validez de constructo

Para conocer las características de la distribución del cuestionario se estimaron los estadísticos descriptivos (media, desviación típica, asimetría y curtosis) de todos los ítems (tabla 1), con el fin de comprobar su adecuación al supuesto de normalidad. Según Forero et al. (2009Forero, C. G., Maydeu-Olivares, A. y Gallardo-Pujol, D. (2009). Factor analysis with ordinal indicators: a Monte Carlo study comparing DWLS and ULS estimation. Structural Equation Modeling, 16, 625-641. https://doi.org/10.1080/10705510903203573), los valores de asimetría y curtosis encontrados (entre -1.30 y 1.30) permiten asumir el supuesto de normalidad. Además, teniendo en cuenta que estamos usando una escala Likert con 5 categorías y que esperamos obtener 4 o más ítems por factor, podemos asumir que los datos pueden analizarse mediante la matriz de correlaciones producto-momento de Pearson (Lloret-Segura et al., 2014Lloret-Segura, S., Ferreres-Traver, A., Hernández-Baeza, A. y Tomás-Marco, I. (2014). El análisis factorial exploratorio de los ítems: una guía práctica, revisada y actualizada. Anales de Psicología, 30(3), 1151-1169. http://dx.doi.org/10.6018/analesps.30.3.199361).

Tabla 1. Estadísticos descriptivos de los ítems del cuestionario
Ítem Media Desviación típica Asimetría Curtosis
1 3.54 .81 -.21 -.077
2 3.68 .98 -.42 -.49
3 3.79 1.06 -.64 -.29
4 4.23 .87 -1.09 1.03
5 4.12 .97 -1.04 .62
6 3.53 1.18 -.58 -.39
7 3.54 1.06 -.63 .02
8 3.25 1.03 -.20 -.41
9 3.11 1.17 -.15 -.81
10 3.08 1.11 -.07 -.56
11 2.86 1.17 .20 -.81
12 3.64 .91 -.38 .04
13 3.46 .96 -.35 -.05
14 3.68 .93 -.66 .42
15 3.87 .97 -.88 .63
16 3.26 1.03 -.18 -.34
17 3.47 1.00 -.41 -.39
18 3.43 .98 -.37 -.24
19 3.78 .92 -.58 .22
20 3.32 1.08 -.22 -.63
21 3.93 1.02 -.84 .10
22 3.14 1.06 -.04 -.70
23 3.40 1.07 -.39 -.40
24 3.81 .94 -.74 .47
25 3.09 1.17 -.15 -.82
26 3.97 .99 -1.13 1.31

Para valorar la matriz de correlaciones y la viabilidad de realizar un análisis factorial se efectuaron varios análisis. Por un lado, se llevó a cabo el test de esfericidad de Bartlett (chi-cuadrado = 3896.79; gl = 325; p < .001), obteniéndose que se rechaza la hipótesis nula y que, por lo tanto, existe relación entre las variables.

Por otro lado, el estudio de la adecuación de los datos al análisis factorial continuó con la determinación del índice KMO de Kaiser, obteniéndose un valor satisfactorio (.92), ya que valores iguales o superiores a .80 sugieren que la matriz es apropiada para factorizar (Ferrando y Anguiano-Carrasco, 2010Ferrando, P. J. y Anguiano-Carrasco, C. (2010). El análisis factorial como técnica de investigación en psicología. Papeles del Psicólogo, 31(1), 18-33.).

Para la estimación de factores se utilizó el método de máxima verosimilitud, dado que los ítems tienen un número suficiente de categorías de respuesta (5) y se cumple razonablemente el supuesto de normalidad (Flora et al., 2012Flora, D. B., LaBrish, C. y Chalmers, R. P. (2012). Old and new ideas for data screening and assumption testing for exploratory and confirmatory factor analysis. Frontiers in Quantitative Psychology and Measurement, 3(55), 1-21. https://doi.org/10.3389/fpsyg.2012.00055). Se extrajeron cuatro factores cuyo valor propio fue mayor que uno, y que explican el 46.22% de la varianza. Siguiendo las recomendaciones de Lloret-Segura et al., (2014Lloret-Segura, S., Ferreres-Traver, A., Hernández-Baeza, A. y Tomás-Marco, I. (2014). El análisis factorial exploratorio de los ítems: una guía práctica, revisada y actualizada. Anales de Psicología, 30(3), 1151-1169. http://dx.doi.org/10.6018/analesps.30.3.199361) y Lorenzo-Seva et al. (2011Lorenzo-Seva, U., Timmerman, M. E. y Kiers, H. A. L. (2011). The Hull method for selecting the number of common factors. Multivariate Behavioral Research, 46(2), 340-364. http://doi.org/10.1080/00273171.2011.564527), para la estimación del número de factores más adecuado se tuvieron en cuenta los criterios de ajuste objetivos, la interpretabilidad de la solución encontrada y la teoría de partida.

Tras el desarrollo del método de máxima verosimilitud con extracción de 4 factores, se obtienen los siguientes índices de verificación del ajuste: el índice GFI, el coeficiente NNFI, la raíz cuadrática media residual (RMCR) y el índice RMSEA. El índice GFI obtenido es .990, lo que indica un buen ajuste del modelo al ser superior a .950 (Ferrando y Anguiano-Carrasco, 2010Ferrando, P. J. y Anguiano-Carrasco, C. (2010). El análisis factorial como técnica de investigación en psicología. Papeles del Psicólogo, 31(1), 18-33.). El coeficiente NNFI obtenido es .963, considerándose este un valor satisfactorio (Ferrando y Anguiano-Carrasco, 2010Ferrando, P. J. y Anguiano-Carrasco, C. (2010). El análisis factorial como técnica de investigación en psicología. Papeles del Psicólogo, 31(1), 18-33.). Por otro lado, el RMCR es .039, inferior al valor límite de .050 y al criterio recomendado de Kelley (1935Kelley, T. L. (1935). Essential traits of mental life. Harvard Studies in Education, vol. 26. Harvard University Press.), que para estos datos es .055 (Ferrando y Anguiano-Carrasco, 2010Ferrando, P. J. y Anguiano-Carrasco, C. (2010). El análisis factorial como técnica de investigación en psicología. Papeles del Psicólogo, 31(1), 18-33.), por lo que los valores residuales observados son muy cercanos a cero. Finalmente, el índice RMSEA, que estima el error de aproximación del modelo propuesto, tuvo un valor de .066, lo que indica un ajuste admisible (Lloret-Segura et al., 2014Lloret-Segura, S., Ferreres-Traver, A., Hernández-Baeza, A. y Tomás-Marco, I. (2014). El análisis factorial exploratorio de los ítems: una guía práctica, revisada y actualizada. Anales de Psicología, 30(3), 1151-1169. http://dx.doi.org/10.6018/analesps.30.3.199361).

La solución obtenida fue transformada utilizando el método de rotación Equamax, que generaba la solución más simple e informativa (Asparouhov y Muthen, 2009Asparouhov, T. y Muthen, B. (2009). Exploratory structural equation modeling. Structural Equation Modeling, 16, 397-438.). Para la asignación de los ítems a los factores se acordó retener saturaciones que estén por encima de .35, en línea con lo marcado por diferentes autores como Bandalos y Finney (2010Bandalos, D. L. y Finney, S. J. (2010). Factor analysis: exploratory and confirmatory. En G. R. Hancock y R. O. Mueller (eds.), Reviewer’s guide to quantitative methods. Routledge.), Costelo y Osborne (2005Costello, A. B. y Osborne, J. (2005). Best practices in exploratory factor analysis: four recommendations for getting the most from your analysis. Practical Assessment Research & Evaluation, 10(7), 1-9. https://doi.org/10.7275/jyj1-4868) o Tabachnick y Fidell (2001Tabachnick, B. G. y Fidell, L. S. (2001). Using multivariate statistics. Al-lyn and Bacon.).

Por lo tanto, se retuvo la solución factorial a 4 factores, que explican el 46.21% de la varianza total. De acuerdo con los resultados expuestos en la tabla 2, se observa que el factor 1 “Desarrollo de la práctica docente” (ítems 12, 13, 15, 16, 17, 18 y 19) explica el 13.01% de la varianza. El factor 2 “Planificación didáctica” (ítems 6, 7, 8, 9, 10 y 25) explica el 12.22% de la varianza. El factor 3 “Autorreflexión de la práctica docente” (ítems 4, 5, 21, 23, 24 y 26) explica el 11.97% de la varianza. Finalmente, el factor 4 “Dificultades asociadas al uso de las simulaciones virtuales” (ítems 1, 2, 3, 11, 14, 20 y 22) explica el 9% de la varianza.

Tabla 2. Matriz de factor rotada
Factor
Dimensión Ítem 1 2 3 4
Desarrollo de la práctica docente 19 .72 .17 .31 .10
18 .65 .31 .30 .11
15 .56 .29 .31 .30
13 .54 .35 .21 .25
16 .53 .34 .07 .07
17 .50 .30 .24 .11
12 .41 .20 .21 .20
Planificación didáctica 10 .31 .65 .16 .26
25 .09 .65 .38 -.03
9 .32 .61 .13 -.05
6 .18 .54 .20 .30
7 .31 .52 .17 .40
8 .35 .48 .17 .11
Autorreflexión de la práctica docente 24 .15 .27 .72 .07
21 .29 .26 .61 .29
23 .11 .47 .60 .05
5 .28 .16 .52 .21
4 .24 -.10 .49 .44
26 .22 .23 .46 .03
Dificultades asociadas al uso de las simulaciones virtuales 2 .18 .05 .27 .54
11 .01 .06 -.08 .54
22 -.02 .03 .02 .50
14 .42 .29 .32 .43
1 .17 .11 .28 .39
3 .28 .15 .34 .37
20 .25 .20 .25 .37
Varianza explicada (%) 13.01 12.22 11.97 9.00
Nota: método de extracción: máxima verosimilitud. Método de rotación: Equamax con normalización Kaiser. Matriz de correlaciones producto-momento de Pearson.

Teniendo como referencia el valor .35 como criterio para asignar el ítem a un factor, tal y como se muestra en la tabla 2, todos los ítems se asignaron al factor en el que presentaban mayor saturación. Este criterio fue consistente con el sentido teórico del ítem respecto al factor asignado. Se encontraron siete ítems con cargas factoriales cruzadas: ítem 4 (carga factorial de .43 en el factor 4), ítem 7 (carga factorial de .40 en el factor 4), ítem 8 (carga factorial de .35 en el factor 1), ítem 13 (carga factorial de .35 en el factor 2), ítem 14 (carga factorial de .42 en el factor 1), ítem 23 (carga factorial de .46 en el factor 3) e ítem 25 (carga factorial de .37 en el factor 3).

Fiabilidad del instrumento

Como se ha mencionado anteriormente, la fiabilidad del cuestionario se ha calculado mediante el coeficiente α de Cronbach a nivel global y para cada uno de sus cuatro factores (tabla 3).

Tabla 3. Análisis de la relación ítem-escala
Homogeneidad corregida Correlación múltiple al cuadrado Índice de fiabilidad del ítem α de Cronbach si se elimina el elemento
Desarrollo de la práctica docente (a = .86)
Ítem 19 .69 .57 .64 .83
Ítem 18 .71 .57 .69 .83
Ítem 15 .67 .48 .65 .84
Ítem 13 .67 .46 .64 .84
Ítem 16 .59 .36 .61 .85
Ítem 17 .59 .39 .59 .85
Ítem 12 .50 .28 .45 .86
Planificación didáctica (a = .84)
Ítem 10 .69 .49 .77 .79
Ítem 25 .57 .34 .67 .82
Ítem 9 .61 .41 .71 .81
Ítem 6 .61 .42 .72 .81
Ítem 7 .62 .44 .66 .81
Ítem 8 .57 .36 .59 .82
Autorreflexión de la práctica docente (a = .82)
Ítem 24 .68 .50 .64 .78
Ítem 21 .68 .48 .69 .78
Ítem 23 .58 .45 .62 .80
Ítem 5 .60 .41 .58 .79
Ítem 4 .50 .32 .43 .81
Ítem 26 .51 .28 .51 .81
Dificultades asociadas al uso de las simulaciones virtuales (a = .72)
Ítem 2 .52 .30 .51 .68
Ítem 11 .36 .28 .42 .72
Ítem 22 .41 .27 .44 .70
Ítem 14 .53 .34 .49 .68
Ítem 1 .45 .26 .36 .70
Ítem 3 .41 .24 .44 .70
Ítem 20 .44 .26 .47 .70

Los resultados obtenidos a nivel global muestran un índice α de Cronbach de .92. Estos resultados (> .90) indican una fiabilidad muy alta, según O’Dwyer y Bernauer (2014O’Dwyer, L. y Bernauer, J. (2014). Quantitative research for the qualitative researcher. SAGE Publications, Inc. https://doi.org/10.4135/9781506335674). Igualmente, el índice α de Cronbach para los 4 factores se situó con puntuaciones superiores a .70 lo que, según Lévy et al. (2006Lévy-Mangin, J. P., Varela-Mallou, J. y Abad-González, J. (2006). Modelización con estructuras de covarianzas en ciencias sociales: temas esenciales, avanzados y aportaciones especiales. Netbiblo.), le otorga una fiabilidad alta a los factores que componen el instrumento.

Además, para analizar la calidad de los ítems con relación a su dimensión (relación ítem-escala), se calculó la homogeneidad del ítem, la correlación ítem-escala y el índice de fiabilidad del ítem. Como se puede observar en la tabla 3, todos los valores de homogeneidad corregida se situaron por encima de .4, mientras que el índice de fiabilidad del ítem muestra valores superiores a .4 para la mayor parte de ellos. Asimismo, se pudo constatar que el índice de fiabilidad disminuiría si omitimos cualquiera de los ítems que forman parte de los factores obtenidos. Estas observaciones confirman que, psicométricamente, los ítems aportan a cada factor que componen.

Discusión y conclusiones

Las revisiones bibliográficas realizadas en los últimos años en relación con el uso de simulaciones virtuales han demostrado su interés para el aprendizaje de las disciplinas STEM, siendo capaces de promover eficazmente el conocimiento del contenido de las ciencias, desarrollar habilidades de indagación y facilitar el cambio conceptual (Chan et al., 2021Chan, P., Van Gerven, T., Dubois, J. y Bernaerts, K. (2021). Virtual chemical laboratories: a systematic literature review of research, technologies and instructional design. Computers and Education Open, 2. https://doi.org/10.1016/j.caeo.2021.100053; D’Angelo et al., 2014D’Angelo, C., Rutstein, D., Harris, C., Bernard, R., Borokhovski, E. y Haertel, G. (2014). Simulations for STEM learning: systematic review and meta-analysis. SRI Education, 58. ; Rutten et al., 2012Rutten, N., Van Joolingen, W. R. y Van der Veen, J. T. (2012). The learning effects of computer simulations in science education. Computers and Education, 58(1), 136-153. https://doi.org/10.1016/j.compedu.2011.07.017; Sypsas et al., 2018Sypsas, A. y Kalles, D. (2018). Virtual laboratories in biology, biotechnology and chemistry education: a literature review. En N. Karanikolas y B. Mamalis (eds.), Proceedings of the 22nd Pan-Hellenic Conference on Informatics (PCI ‘18) (70-75). Association for Computing Machinery. https://doi.org/10.1145/3291533.3291560). Aun así, como toda herramienta educativa, no es capaz de transformar el aprendizaje por sí sola, siendo principal la cuestión de cómo se usan las simulaciones en el proceso de enseñanza-aprendizaje (Lee et al., 2013Lee, Y. H., Waxman, H., Wu, J. Y., Michko, G. y Lin, G. (2013) Revisit the effect of teaching and learning with technology. Educ Technol Soc, 16(1), 133-146.; Smetana y Bell, 2012Smetana, L. K. y Bell, R. L. (2012). Computer simulations to support science instruction and learning: a critical review of the literature. International Journal of Science Education, 34(9), 1337-1370. https://doi.org/10.1080/09500693.2011.605182). En este sentido, el papel del profesor resulta primordial para que el uso de este recurso sea exitoso y se puedan superar las dificultades concretas asociadas a la aplicación de simulaciones virtuales en el aula (Scalisse et al., 2011Scalise, K., Timms, M., Moorjani, A., Clark, L., Holtermann, K. e Irvin, P. S. (2011). Student learning in science simulations: design features that promote learning gains. Journal of Research in Science Teaching, 48(9), 1050-1078. https://doi.org/10.1002/tea.20437; Smetana y Bell, 2014Smetana, L. K. y Bell, R. L. (2014). Which setting to choose: comparison of whole-class vs. small-group computer simulation use. Journal of Science Education and Technology, 23(4), 481-495. https://doi.org/10.1007/s10956-013-9479-z; Waight et al., 2014Waight, N., Liu, X., Gregorius, R. M., Smith, E. y Park, M. (2014) Teacher conceptions and approaches associated with an immersive instructional implementation of computer-based models and assessment in a secondary chemistry classroom. International Journal of Science Education, 36(3), 467-505, https://doi.org/10.1080/09500693.2013.787506), de lo que se desprende que los docentes necesitan adquirir determinadas competencias relacionadas con el contenido, la didáctica y el uso concreto de esta tecnología, para ser capaces de aprovechar las amplias posibilidades del uso de simulaciones (Pelgrum, 2001Pelgrum, W. J. (2001). Obstacles to the integration of ICT in education: results from a worldwide educational assessment. Computers & Education, 37(2), 163-178. https://doi.org/10.1016/S0360-1315(01)00045-8; Rutten et al., 2012Rutten, N., Van Joolingen, W. R. y Van der Veen, J. T. (2012). The learning effects of computer simulations in science education. Computers and Education, 58(1), 136-153. https://doi.org/10.1016/j.compedu.2011.07.017). La valoración de estas competencias se ve dificultada por la inexistencia de escalas validadas de recogida de información al respecto, de ahí que en la presente investigación se haya diseñado un cuestionario que permita profundizar en dichas habilidades.

Para ello, partiendo de la revisión de la literatura existente sobre competencias tecnológicas del profesor y sobre cómo se utilizan las simulaciones, y las dificultades asociadas a su uso, se ha elaborado un cuestionario para valorar la percepción del profesorado sobre sus competencias en el uso de simulaciones virtuales (CDUSV). Este cuestionario, compuesto inicialmente por 32 ítems, fue mejorado tras el juicio realizado por expertos en el ámbito y el desarrollo de una prueba piloto, logrando finalmente un cuestionario de 26 ítems. Tras el análisis factorial exploratorio se obtiene una escala compuesta por cuatro factores: “Desarrollo de la práctica docente”, “Planificación didáctica”, “Autorreflexión sobre la práctica docente” y “Dificultades asociadas al uso de las simulaciones virtuales”. Dentro del factor de “Desarrollo de la práctica docente” se engloban 7 ítems relacionados con el papel del profesor al desarrollar su trabajo docente en el aula a través de simulaciones virtuales. El segundo factor, “Planificación didáctica”, lo conforman 6 ítems vinculados con el trabajo previo al aula, es decir, la planificación y diseño de secuencias didácticas con simulaciones virtuales. El factor “Autorreflexión sobre la práctica docente” engloba 6 ítems relacionados con la autoevaluación y reflexión del profesorado tras el desarrollo de la propuesta didáctica en el aula. Finalmente, el cuarto factor, “Dificultades asociadas al uso de las simulaciones virtuales”, contiene 7 ítems referidos al conocimiento del recurso tecnológico concreto, las simulaciones virtuales y los obstáculos que se deben superar para una puesta en práctica exitosa. Esta estructura evidencia las cuatro claves que tener en cuenta cuando se quiere formar al profesorado en el uso de una tecnología concreta en el aula, por lo que estos mismos factores podrían usarse como base para el diseño de futuros cuestionarios específicos sobre competencias en el uso de otros recursos TIC.

Los resultados obtenidos indican que el instrumento diseñado tiene unas propiedades psicométricas satisfactorias respecto a la validez de contenido, validez de constructo y fiabilidad, atendiendo a los estándares psicométricos actuales (Lloret-Segura et al., 2014Lloret-Segura, S., Ferreres-Traver, A., Hernández-Baeza, A. y Tomás-Marco, I. (2014). El análisis factorial exploratorio de los ítems: una guía práctica, revisada y actualizada. Anales de Psicología, 30(3), 1151-1169. http://dx.doi.org/10.6018/analesps.30.3.199361), por lo que el cuestionario parece ser un instrumento útil para analizar la percepción de las competencias docentes en el uso de simulaciones virtuales de áreas STEM. El uso de este cuestionario es de gran interés para determinar las debilidades y necesidades de formación del profesorado respecto al uso de estas herramientas y, a partir de ellas, diseñar formaciones prácticas adaptadas a las necesidades reales del profesorado en cada una de las áreas STEM, con la idea de avanzar y mejorar en la didáctica de las ciencias a través de simulaciones virtuales. En definitiva, este instrumento propiciará la creación de planes de formación permanente de acuerdo con las necesidades detectadas y las demandas sociales del momento (Fernández, 2016).

No obstante, este estudio presenta ciertas limitaciones que deben tenerse en cuenta. En primer lugar, se realizó un muestreo no probabilístico de tipo casual obteniendo una muestra total de 332 profesores. Aunque esta muestra es suficientemente amplia como para realizar un análisis factorial consistente, un muestreo probabilístico y un número de muestra mayor hubieran mejorado la validez del análisis.

En segundo lugar, se han encontrado ítems con cargas factoriales cruzadas, es decir, con carga factorial representativa en más de un factor. Para solventar este problema, en el futuro sería recomendable ampliar la muestra de estudio, revisar la redacción de dichos ítems o valorar la incorporación de otros nuevos.

En tercer lugar, aunque el instrumento diseñado presenta buenos indicadores de validez, la estructura factorial del constructo teórico obtenido debería ser constatada mediante un análisis factorial confirmatorio.

En cuarto lugar, cabe desatacar que para el diseño del cuestionario no se ha partido de un constructo teórico bien definido, ni de escalas íntimamente relacionadas, sino que se ha partido de una revisión bibliográfica sobre el uso de simulaciones virtuales en las aulas, las competencias tecnológicas del docente y el modelo TPACK, por lo que no puede descartarse la omisión de algún ítem o factor adicional de interés para el estudio.

Finalmente, y teniendo en cuenta los puntos anteriores, el cuestionario validado representa un consistente punto de partida para ser capaces de detectar las competencias docentes en el uso de simulaciones virtuales STEM y, a partir de ellas, poder abordar un proceso de transferencia en la formación del profesorado, necesario para la mejora del proceso de enseñanza-aprendizaje de las ciencias a través de simulaciones virtuales. En este sentido, y con el objetivo de adaptar los planes de formación a las necesidades concretas del profesorado, sería interesante, en futuras investigaciones, no solo profundizar en las competencias docentes en el uso de estas herramientas, sino también en cuáles son las actitudes del profesorado ante su uso.

Agradecimientos

Se agradece la colaboración del panel de expertos y del profesorado que ha formado parte del estudio.

Referencias bibliográficas

Alkhaldi, T., Pranata, I. y Athauda, R. I. (2016). A review of contemporary virtual and remote laboratory implementations: observations and findings. Journal of Computers in Education, 3(3), 329-351. https://doi.org/10.1007/s40692-016-0068-z
Asparouhov, T. y Muthen, B. (2009). Exploratory structural equation modeling. Structural Equation Modeling, 16, 397-438.
Bandalos, D. L. y Finney, S. J. (2010). Factor analysis: exploratory and confirmatory. En G. R. Hancock y R. O. Mueller (eds.), Reviewer’s guide to quantitative methods. Routledge.
Blake, C. y Scanlon, E. (2007). Reconsidering simulations in science education at a distance: features of effective use. Journal of Computer Assisted Learning, 23, 491-502. https://doi.org/10.1111/j.1365-2729.2007.00239.x
Cabero, J., Marín, V. y Castaño, C. (2015). Validación de la aplicación del modelo TPACK para la formación del profesorado en TIC. @tic. Revista d’Innovació Educativa, 14, 13-22. https://doi.org/10.7203/attic.14.4001
Cabero, J., Pérez, J. L. y Llorente, C. (2018). Estructural equation model and validation of the TPACK model: empirical study [Modelo de ecuaciones estructurales y validación del modelo de formación TPACK: estudio empírico]. Profesorado, 22(4), 353-376. https://doi.org/10.30827/profesorado.v22i4.8420
Carlos-Guzmán, J. (2016). ¿Qué y cómo evaluar el desempeño docente? Una propuesta basada en los factores que favorecen el aprendizaje. Propósitos y Representaciones, 4(2), 285-358. http://dx.doi.org/10.20511/pyr2016.v4n2.124
Cebrián-Cienfuentes, S., Ros, C., Fernández-Piqueras, R. y Guerrero, E. (2021). Análisis de la competencia digital docente y uso de recursos TIC tras un proceso de intervención universitario, basado en la implementación de una metodología innovadora de gamificación. Bordón, Revista de Pedagogía, 73(2), 41-61. https://doi.org/10.13042/Bordon.2021.87134
Chan, P., Van Gerven, T., Dubois, J. y Bernaerts, K. (2021). Virtual chemical laboratories: a systematic literature review of research, technologies and instructional design. Computers and Education Open, 2. https://doi.org/10.1016/j.caeo.2021.100053
Costello, A. B. y Osborne, J. (2005). Best practices in exploratory factor analysis: four recommendations for getting the most from your analysis. Practical Assessment Research & Evaluation, 10(7), 1-9. https://doi.org/10.7275/jyj1-4868
D’Angelo, C., Rutstein, D., Harris, C., Bernard, R., Borokhovski, E. y Haertel, G. (2014). Simulations for STEM learning: systematic review and meta-analysis. SRI Education, 58.
De Jong, T. y Van Joolingen, W. R. (1998). Scientific discovery learning with computer simulations of conceptual domains. Review of Educational Research, 68(2), 179-201. https://doi.org/10.3102/00346543068002179
Escobar, I. M. C. y Adames, C. P. (2008). Competencias docentes de profesores de pregrado: diseño y validación de un instrumento de evaluación. Universitas Psychologica, 7(2), 456-456. https://revistas.javeriana.edu.co/index.php/revPsycho/article/view/441
Fernández, M. J., Rodríguez, J. M. y Fernández, F. J. (2016). Evaluación de competencias docentes del profesorado para la detección de necesidades formativas. Bordón, Revista de Pedagogía, 68(2), 85-101. https://doi.org/10.13042/Bordon.2016.68206
Ferrando, P. J. y Anguiano-Carrasco, C. (2010). El análisis factorial como técnica de investigación en psicología. Papeles del Psicólogo, 31(1), 18-33.
Ferrari, A. (2013). DIGCOMP: a framework for developing and understanding digital competence in Europe. European Commission. Joint Research Centre. Institute for Prospective Technological Studies.
Flora, D. B., LaBrish, C. y Chalmers, R. P. (2012). Old and new ideas for data screening and assumption testing for exploratory and confirmatory factor analysis. Frontiers in Quantitative Psychology and Measurement, 3(55), 1-21. https://doi.org/10.3389/fpsyg.2012.00055
Forero, C. G., Maydeu-Olivares, A. y Gallardo-Pujol, D. (2009). Factor analysis with ordinal indicators: a Monte Carlo study comparing DWLS and ULS estimation. Structural Equation Modeling, 16, 625-641. https://doi.org/10.1080/10705510903203573
Gable, R. K. y Wolf, J. W. (1993). Instrument development in the affective domain: measuring attitudes and values in corporate and school settings. Kluwer Academic.
Geelan, D. y Fan, X. (2013). Enhancing students’ scientific literacy in science education using interactive simulations: a critical literature review. Journal of Computers in Mathematics and Science Teaching, 32, 125-171.
Gisbert, M., González, J. y Esteve, F. M. (2016). Competencia digital y competencia digital docente: una panorámica sobre el estado de la cuestión. Revista Interuniversitaria de Investigación en Tecnología Educativa, 0, 74-83. https://doi.org/10.6018/riite2016/257631
Gnesdilow, D. y Puntambekar, S. (2021). Comparing middle school students’ science explanations during physical and virtual laboratories. Journal of Science Education and Technology, 31(4), 191-202. https://doi.org/10.1007/s10956-021-09941-0
González, J. y Wagenaar, R. (2008). La contribución de las universidades al proceso de Bolonia. Una introducción a Tuning Educational Structures in Europe (edición española). Publicaciones de la Universidad de Deusto.
Grant, J. S. y Davis, L. L. (1997). Selection and use of content experts for instrument development. Research in Nursing & Health, 20, 269-274.
Hall, R., Atkins, L. y Fraser, J. (2014). Defining a self-evaluation digital literacy for secondary educators. The DigiLit Leicester Project. Research in Learning Technology, 22. https://doi.org/10.3402/rlt.v22.21440
Harada, A. S. (2021). La comunidad docente y las competencias digitales: la formación a lo largo de la vida. Revista Conhecimento Online, 1, 177-192. https://doi.org/10.25112/rco.v1i0.2400
Hutkemri, E. Z. (2014). Impact of using GeoGebra on students’ conceptual and procedural knowledge of limit function. Mediterranean Journal of Social Sciences, 5(23), 873-881. https://doi.org/10.5901/mjss.2014.v5n23p873
INTEF (2017). Marco de Competencia Digital. Ministerio de Educación, Ciencia y Deportes.
Jimoyiannis, A. (2010). Developing a technological pedagogical content knowledge framework for science education: implications of a teacher trainers’ preparation program. Proceedings of Informing Science & IT Education Conference (InSITE), 597-607.
Kelley, T. L. (1935). Essential traits of mental life. Harvard Studies in Education, vol. 26. Harvard University Press.
Koehler, M. J. y Mishra, P. (2008). Introducing technological pedagogical content knowledge. En A. E. R. Association (ed.), Annual Meeting of the American Educational Research Association.
Lee, Y. H., Waxman, H., Wu, J. Y., Michko, G. y Lin, G. (2013) Revisit the effect of teaching and learning with technology. Educ Technol Soc, 16(1), 133-146.
Lévy-Mangin, J. P., Varela-Mallou, J. y Abad-González, J. (2006). Modelización con estructuras de covarianzas en ciencias sociales: temas esenciales, avanzados y aportaciones especiales. Netbiblo.
Lloret-Segura, S., Ferreres-Traver, A., Hernández-Baeza, A. y Tomás-Marco, I. (2014). El análisis factorial exploratorio de los ítems: una guía práctica, revisada y actualizada. Anales de Psicología, 30(3), 1151-1169. http://dx.doi.org/10.6018/analesps.30.3.199361
Lorenzo-Seva, U., Timmerman, M. E. y Kiers, H. A. L. (2011). The Hull method for selecting the number of common factors. Multivariate Behavioral Research, 46(2), 340-364. http://doi.org/10.1080/00273171.2011.564527
Lorenzo-Seva, U. y Ferrando, P. J. (2020). FACTOR (n.º de versión 10.10.03). Windows. Tarragona (Spain): Rovira i Virgili University. http://psico.fcep.urv.es/utilitats/factor
Menchaca, I., Dziabenko, O. y García, J. (2020). Experiencia española en el proyecto Go-Lab. Educar, 56(2), 387-405. https://doi.org/10.5565/rev/educar.1067
O’Dwyer, L. y Bernauer, J. (2014). Quantitative research for the qualitative researcher. SAGE Publications, Inc. https://doi.org/10.4135/9781506335674
Pelgrum, W. J. (2001). Obstacles to the integration of ICT in education: results from a worldwide educational assessment. Computers & Education, 37(2), 163-178. https://doi.org/10.1016/S0360-1315(01)00045-8
Perales-Palacios, F. J. y Aguilera, D. (2020). Ciencia-tecnología-sociedad vs. STEM: ¿evolución, revolución o disyunción? Ápice. Revista de Educación Científica, 4(1), 1-15. https://doi.org/10.17979/arec.2020.4.1.5826
Perkins, K., Moore, E., Podolefsky, N., Lancaster, K. y Denison, C. (2012). Towards research-based strategies for using PhET simulations in middle school physical science classes, AIP Conference Proceedings, 1413, 295-298. https://doi.org/10.1063/1.3680053
Prendes, M. P., Castañeda, L. y Gutiérrez, I. (2010). Competencias para el uso de TIC de los futuros maestros. Comunicar, 18(35), 175-182. https://doi.org/10.3916/C35-2010-03-11
Ramnarain, U., Pieters, A. y Wu, H. K. (2021). Assessing the technological pedagogical content knowledge of pre-service science teachers at a South African university. International Journal of Information and Communication Technology Education, 17(3), 123-136. https://doi.org/10.4018/IJICTE.20210701.oa8
Rutten, N., Van Joolingen, W. R. y Van der Veen, J. T. (2012). The learning effects of computer simulations in science education. Computers and Education, 58(1), 136-153. https://doi.org/10.1016/j.compedu.2011.07.017
Sarramona, J. y Santiuste, V. (2015). La formación no presencial ante el reto de las competencias profesionales. Revista Española de Pedagogía, 73, 449-464.
Scalise, K., Timms, M., Moorjani, A., Clark, L., Holtermann, K. e Irvin, P. S. (2011). Student learning in science simulations: design features that promote learning gains. Journal of Research in Science Teaching, 48(9), 1050-1078. https://doi.org/10.1002/tea.20437
Schmidt, D., Baran, E., Thompson, A., Mishra, P., Koehler, M. y Shin, T. (2009). Technological pedagogical content knowledge (TPACK): the development and validation of an assessment instrument for preservice teachers. Journal of Research on Technology in Education, 42(2), 123-149. https://doi.org/10.1080/15391523.2009.10782544
Sierra, F. A. C. y Gutiérrez-Santiuste, E. (2021). Questionnaire on knowledge of university mathematics teachers for technological integration. Revista Fuentes, 2(23), 150-162. https://doi.org/10. 12795/revistafuentes.2021.12792
Skjong, R. y Wentworth, B. (2000). Expert judgement and risk perception. http://research.dnv.com/skj/Papers/SkjWen.pdf
Smetana, L. K. y Bell, R. L. (2012). Computer simulations to support science instruction and learning: a critical review of the literature. International Journal of Science Education, 34(9), 1337-1370. https://doi.org/10.1080/09500693.2011.605182
Smetana, L. K. y Bell, R. L. (2014). Which setting to choose: comparison of whole-class vs. small-group computer simulation use. Journal of Science Education and Technology, 23(4), 481-495. https://doi.org/10.1007/s10956-013-9479-z
Sypsas, A. y Kalles, D. (2018). Virtual laboratories in biology, biotechnology and chemistry education: a literature review. En N. Karanikolas y B. Mamalis (eds.), Proceedings of the 22nd Pan-Hellenic Conference on Informatics (PCI ‘18) (70-75). Association for Computing Machinery. https://doi.org/10.1145/3291533.3291560
Tabachnick, B. G. y Fidell, L. S. (2001). Using multivariate statistics. Al-lyn and Bacon.
Taquez, H., Rengifo, D. y Mejía, D. (2017). Diseño de un instrumento para evaluar el nivel de uso y apropiación de las TIC en una institución de educación superior. Portal Educativo de las Américas (OEA). https://recursos.educoas.org/publicaciones/dise-o-de-un-instrumento-para-evaluar-el-nivel-de-uso-y-apropiaci-n-de-las-tic-en-una
Tourón, J., Martín, D., Navarro-Asensio, E., Pradas, S. e Íñigo, V. (2018). Validación de constructo de un instrumento para medir la competencia digital docente de los profesores (CDD) | Construct validation of a questionnaire to measure teachers’ digital competence (TDC). Revista Española de Pedagogía, 76(269), 25-54. https://doi.org/10.22550/REP76-1-2018-02
Wahyuni, I., Zaenuri, Wardono, Sukestiyarno, Y. L., Waluya, S. B., Nuriana y Aminah, N. (2021). Design of instrument Technological Pedagogic Content Knowledge (TPACK) for prospective mathematics teachers. Journal of Physics: Conference Series 1918(4). https://doi.org/10.1088/1742-6596/1918/4/042097
Waight, N., Liu, X., Gregorius, R. M., Smith, E. y Park, M. (2014) Teacher conceptions and approaches associated with an immersive instructional implementation of computer-based models and assessment in a secondary chemistry classroom. International Journal of Science Education, 36(3), 467-505, https://doi.org/10.1080/09500693.2013.787506

Anexo. Instrumento CDUSV

Cuestionario para evaluar las competencias del profesorado de educación secundaria de áreas STEM en el uso de las simulaciones virtuales.

Enunciado: indica el grado de acuerdo o desacuerdo con las siguientes afirmaciones (siendo 1 “totalmente en desacuerdo” y 5 “totalmente de acuerdo”).

N.º Ítem
1 Conozco los posibles obstáculos y dificultades a los que se enfrentarán los estudiantes al utilizar simulaciones
2 Conozco diversas simulaciones virtuales aplicables a la enseñanza de las ciencias
3 Cuando tengo dificultades en el uso de simulaciones virtuales, busco recursos para superarlas
4 Exploro las distintas posibilidades que me ofrecen las simulaciones virtuales antes de emplearlas con los estudiantes
5 Tengo en cuenta las características de mis estudiantes a la hora de diseñar experiencias de aprendizaje significativas empleando simulaciones virtuales
6 Diseño actividades empleando simulaciones virtuales donde el error es entendido como una oportunidad para aprender
7 Diseño experiencias de aprendizaje, a través de simulaciones virtuales, en las que mis estudiantes se sienten motivados a explorar los contenidos de ciencias
8 Cuando utilizo las simulaciones virtuales, propongo experiencias de aprendizaje donde se fomenta la discusión/debate entre los estudiantes
9 Cuando utilizo las simulaciones virtuales, propongo experiencias de aprendizaje donde se fomenta el trabajo en grupo entre los estudiantes
10 Planifico propuestas didácticas con simulaciones virtuales utilizando diferentes metodologías
11 Encuentro dificultades a la hora de seleccionar la simulación virtual adecuada al contenido que trabajar
12 A través de las simulaciones virtuales, vinculo el aprendizaje de contenidos de ciencias con situaciones cercanas al estudiante
13 Cuando utilizo simulaciones virtuales, soy capaz de fomentar el aprendizaje basado en la indagación en mis estudiantes
14 Mientras mis estudiantes trabajan con simulaciones virtuales, soy capaz de guiarles para que avancen progresivamente en su aprendizaje
15 Propicio que mis estudiantes tengan un papel activo en su aprendizaje cuando utilizamos simulaciones virtuales
16 Con las simulaciones virtuales soy capaz de motivar a estudiantes que ya habían perdido el interés por las ciencias
17 Identifico cuándo un estudiante tiene dificultades mientras estamos empleando simulaciones virtuales en el aula
18 Propicio el desarrollo del espíritu crítico en mis estudiantes cuando utilizo simulaciones virtuales
19 Fomento el desarrollo del pensamiento científico en mis estudiantes cuando utilizo simulaciones virtuales
20 Soy capaz de gestionar adecuadamente el tiempo en mis clases cuando uso simulaciones virtuales
21 Cuando utilizo simulaciones virtuales, analizo lo que ha ocurrido en el aula con el fin de incluir posibles mejoras en las próximas sesiones
22 Me resulta complejo resolver las dificultades que en ocasiones me plantea el uso de simulaciones virtuales
23 Evalúo si se cumplen los objetivos de aprendizaje establecidos en una secuencia didáctica cuando utilizo simulaciones virtuales
24 Reflexiono sobre la idoneidad de la metodología empleada cuando utilizo simulaciones virtuales en el aula
25 Empleo técnicas de evaluación diversas que me permiten evaluar el desempeño de los estudiantes cuando utilizan simulaciones virtuales
26 Tengo en cuenta la opinión del alumnado tras el uso de simulaciones virtuales

Abstract

Teacher competences in the use of STEM virtual simulations: design and validation of a measurement instrument (CDUSV)

INTRODUCTION. The importance of using virtual simulations as a didactic resource to develop a contextualized applied science teaching, focused on the development of scientific competencies, has created the need to assess the competencies of Secondary Education teachers in the use of these tools. The aim of this work is to design and validate an instrument to assess the competencies of secondary education teachers in STEM areas, in the use of virtual simulations. METHOD. Based on an exhaustive theoretical review, an initial instrument was developed, which was subjected to a validation process by experts. Then, a pilot study with 30 teachers was carried out, which helped to build the definitive instrument. The final instrument was applied to 332 Secondary Education teachers of STEM areas in Spain. Finally, the validation of the instrument was carried out through an exploratory factor analysis (EFA). RESULTS. The results obtained show a high content validity and reliability (Cronbach’s α = .92). Furthermore, the exploratory factor analysis developed using the Maximum Likelihood Estimation method and Equamax rotation shows a structure of 4 factors called: “Development of teaching practice”, “Didactic planning”, “Self-reflection on teaching practice” and “Difficulties associated with the use of virtual simulations”. A high reliability is obtained for all the extracted factors. DISCUSSION. Finally, it is discussed the value of the instrument and its interest for the design of teacher training programs built from the knowledge and the real difficulties of teachers in the use of virtual STEM simulations in the Secondary Education classroom.

Keywords: Teacher competencies, Computer simulations, STEM education, Secondary education, Test reliability.


Résumé

Compétences des enseignants dans l’utilisation des simulations virtuelles STEM: Design et validation d’un outil de mesure

INTRODUCTION. L’importance d’employer les simulations virtuelles comme ressource didactique pour l’enseignement des sciences appliquées contextualisé et axé sur le développement des compétences scientifiques a créé le besoin d’évaluer les compétences du professorat du secondaire dans l’utilisation de ces outils. L’objectif de ce travail est de construire et de valider un questionnaire pour évaluer les compétences des enseignants du secondaire des disciplines STEM dans l’utilisation des simulations virtuelles. MÉTHODE. A partir d’une révision théorique et exhaustive s’est développé un questionnaire initial qui a été soumis à un processus de validation par des experts. Ensuite, une étude pilote a été réalisée avec 30 enseignants pour construire l’instrument définitif. Le questionnaire final a été appliqué à 332 enseignants du secondaire des disciplines STEM en Espagne. Ultérieurement, la validation a été réalisée à travers une analyse factorielle exploratoire (AFE). RÉSULTATS. Les résultats obtenus montrent une validité et une fiabilité élevée du contenu (α de Cronbach = .92). En même temps, l’analyse factorielle exploratoire développée grâce à la méthode d’extraction du Maximum de Vraisemblance et de Rotation Equamax, montre une structure de 4 facteurs dénommés : “Développement de la pratique d’enseignement”, “Planification de l’enseignement”, “Autoréflexion sur la pratique enseignante” et “Difficultés associées à l’utilisation des simulations virtuelles”. Nous avons obtenuune haute fiabilité pour tous les facteurs extraits. DISCUSSION. Enfin, nous discutons sur la valeur de l’instrument et son intérêt pour la conception de programmes de formation des enseignants construits à partir des connaissances et des difficultés réelles du professorat dans l’utilisation des simulations virtuelles STEM dans les salles de classe du secondaire.

Mots-clés : Compétences des enseignants, Simulations virtuelles, Enseignement STEM, Enseignement secondaire, Fiabilité de l’outil.


Perfil profesional de los autores

Rosa Gómez del Amo (autora de contacto)

Doctora por la Universidad de Extremadura en el Programa de Doctorado en Investigación en la Enseñanza y el Aprendizaje de las Ciencias Experimentales, Sociales y Matemáticas. Profesora e investigadora de la Facultad de Educación de la Universidad Internacional de La Rioja (UNIR). Miembro del grupo de investigación Didáctica de las Matemáticas y de las Ciencias Experimentales (DIMACE).

Código ORCID: https://orcid.org/0000-0001-5861-9429

Correo electrónico de contacto: rosa.gomez@unir.net

Dirección para la correspondencia: Universidad Internacional de La Rioja. Av. de la Paz, 137, 26006 Logroño (La Rioja).

Alicia Palacios Ortega

Doctora en Bioquímica por la Universidad Complutense de Madrid. Docente del Área de Ciencias en Educación Secundaria y Educación de Adultos. Profesora e investigadora de la Facultad de Educación de la Universidad Internacional de La Rioja (UNIR). Miembro del grupo de investigación de Didáctica de las Matemáticas y las Ciencias Experimentales (DIMACE).

Código ORCID: https://orcid.org/0000-0002-7906-1417

Correo electrónico de contacto: alicia.palacios@unir.net

Daniel Moreno Mediavilla

Profesor de la Facultad de Educación de la Universidad Internacional de La Rioja (UNIR). Miembro del grupo de investigación de Didáctica de las Matemáticas y las Ciencias Experimentales (DIMACE). Doctor en Química por la Universidad de Burgos. Más de 20 artículos publicados dentro de JCR y Scopus, y autor de una patente.

Código ORCID: https://orcid.org/0000-0002-5633-2376

Correo electrónico de contacto: daniel.moreno@unir.net

Álvaro Barreras Peral

Doctor en Matemáticas. Profesor de Matemáticas (Centro Universitario de la Defensa de Zaragoza, 2014-2016). Profesor de Didáctica Matemáticas (UNIR, 2016-actualidad). Director académico de dos másteres en didáctica de las matemáticas. Investigador principal del grupo de investigación de UNIR Didáctica de las Matemáticas y de las Ciencias Experimentales.

Código ORCID: https://orcid.org/0000-0001-5325-8505

Correo electrónico de contacto: alvaro.barreras@unir.net