Modelo para las pruebas de admisión a los estudios de
maestro a partir de un proceso de diseño participativo

Admission tests model to pre-service teacher students
admission based on a participatory design approach

DOI: 10.4438/1988-592X-RE-2021-393-493

Miquel F. Oliver-Trobat

Maria Rosa Rosselló-Ramon

Rubén Comas-Forgas

Aina Calvo-Sastre

Jaume Sureda-Negre

Universidad de las Islas Baleares

Resumen

En este trabajo se presenta el proceso de diseño, elaboración e implementación de unas pruebas de admisión ad-hoc para el ingreso de alumnado a los Grados de Maestro. A lo largo de varios cursos, mediante una metodología participativa y con la implicación de más de 500 participantes, se proyectaron y validaron unas pruebas de admisión para acceder a los Grados de Educación Primaria e Infantil. Estas pruebas se plantearon en el marco de un programa orientado a establecer y aplicar diversas medidas para la mejora de la formación inicial docente en la Universidad de las Islas Baleares. El resultado final del proceso es un modelo para el diseño y la implementación de unas pruebas de admisión desde una perspectiva participativa que puede ser de utilidad para la elaboración de pruebas similares en otras universidades.

Palabras clave: Formación de profesores, formación inicial, criterios de admisión, investigación participativa, selección del profesor, profesión docente.

Abstract

This paper describes and presents the process of designing, development and implementation of an ad-hoc tests for the admission of students to the pre-service teachers Bachelors degrees (both kindergarden and primary education). Over several courses, through a participatory methodology and with the involvement of more than 500 participants, admission tests were designed and validated to access pre-service teachers courses. These tests were proposed within the framework of a program aimed at establishing and applying various measures to improve initial teacher training at the University of the Balearic Islands. The final result of the process is a model for the design and implementation of admission tests from a participatory perspective that can be useful for the development of similar tests in other universities.

Key words: Teacher education, initial training, admission criteria, participatory research, teacher recruitment, teaching profession.

Introducción

La práctica totalidad de países establecen criterios para acceder a los estudios orientados a la docencia, bien sea mediante el mismo sistema que se aplica al resto de estudios (generalmente en función de las notas de secundaria y pruebas de acceso a la universidad) o mediante un procedimiento específico con requisitos añadidos a los del acceso común (Egido-Gálvez, 2020; Eurydice, 2018). La primera opción es la más recurrente tanto en el ámbito internacional como en el español, En el caso de España, son 21 las universidades (5 públicas y 16 privadas) que aplican algún tipo de prueba específica. Por lo que respecta a las características de estas pruebas destacar que diez universidades se centran solo en aspectos cognitivos (5 públicas y 5 privadas); en dos privadas solo se realizan pruebas no cognitivas, mientras que en nueve privadas se combinan pruebas cognitivas y no cognitivas. En estos momentos no hay ninguna universidad pública que evalúe atributos no cognitivos (Manso, 2019, Generalitat de Catalunya, 2021 y Universidad de Deusto, 2021).

Los principales motivos esgrimidos para justificar el establecimiento de criterios selectivos en el acceso a los estudios de maestro son la justicia social, la equidad, la saturación del mercado y la mejora de la calidad de los estudios (Holden y Kitchen, 2017). En el caso de España, este último argumento es el más recurrente. Aparece reiteradamente en documentos de naturaleza muy diversa, que en los últimos tiempos coinciden en la conveniencia de repensar el sistema de acceso a los estudios de formación inicial del profesorado. Nos referimos a reflexiones de diversas entidades académicas (Conferencia de Decanos/as de Educación, 2017), al análisis de asociaciones y colectivos profesionales (Foro de Sevilla, 2014; REDE, 2018; Grupo Palma, 2018) y a resultados de foros promovidos por la administración (Marina, Pellicer y Manso, 2015; Ministerio de Educación y Formación Profesional, 2018).

Por lo que respecta a la investigación sobre el tema, revisiones existentes (Menter, Hulme, Elliot y Lewin, 2010; Parker, 2018) ponen de manifiesto que, en el ámbito de la formación inicial del profesorado, la cuestión de las Pruebas de Admisión (PA) es una de las menos estudiadas. Generalmente se trata de trabajos centrados en analizar los modelos de acceso en diversos países y en proponer recomendaciones para su implementación (Casey y Childs, 2007; Martínez-Martin, Prats-Gil y Marín-Blanco, 2015; Klassen, Dolan y Afzal, 2015; Childs y Ferguson, 2015; The Australian Secondary Principals’ Association, 2015; Darmody y Smyth, 2016; Holden y Kitchen, 2017; Egido-Gálvez, 2020; Pérez-Granados, 2015, 2018). La determinación de los criterios a considerar en las pruebas, sus formatos de aplicación y su eficacia o capacidad predictiva del éxito profesional, son otras de las principales orientaciones de estos trabajos (Corcoran, 2000; Corcoran y O’Flaherty, 2018; Katz y Frish, 2016; Mikitovics y Crehan, 2002; Wright, 2015).

La selección de los candidatos a la formación inicial docente sigue siendo un reto tanto para las políticas como para la investigación educativa: no es una cuestión baladí identificar a los aspirantes cuyos atributos personales permitan predecir que cuentan con un mayor potencial de éxito en su formación inicial y en su trayectoria profesional. Por otra parte, establecer o no pruebas selectivas es una cuestión axiológica al margen de las evidencias que pueda aportar la investigación educativa.

En este contexto, cabe remarcar que el proceso de elaboración de este tipo de pruebas desde la perspectiva del diseño participativo no ha sido acometido anteriormente. Se trata de un abordaje susceptible de mejorar la efectividad y eficiencia de los procesos de cambio educativo (Janssen, Könings y van Merriënboer, 2017), que se ha demostrado pertinente en diversos ámbitos de la Educación (Simonsen y Robertson, 2013; Bustamante, Brendel, Degbelo y Kray, 2018; Könings, Bovill y Woolner, 2017).

Así pues, y con la pretensión de mejorar los estudios de los Grados de Infantil y Primaria (GIP), desde la Facultad de Educación de la Universitat de les Illes Balears (UIB) se inició en 2013 un proceso, enfocado desde la perspectiva participativa, orientado al diseño, validación e implementación de una PA ad hoc a estos estudios. Este proceso y sus resultados son el objeto de análisis de este artículo.

Método

El objetivo general de este trabajo consiste en describir y analizar el proceso de elaboración de PA a los GIP de la UIB desde el enfoque del diseño participativo (Abu-Amsha, Gordon, Benton, Vasalou y Webster, 2019; Engelbertink, Kelders, Woudt-Mittendorff y Westerhof, 2020). A lo largo de este proceso se emprendieron diversos procedimientos orientados a: (1) la exploración e identificación de problemas; (2) la reflexión y acción; (3) la ideación a partir de las aportaciones críticas y, finalmente; (4) el diseño de prototipos. Los objetivos específicos del trabajo quedan recogidos en la Tabla I. Con todo ello se ha realizado un diseño organizado en tres fases: pre-diseño; diseño y post-diseño (véase Tabla I).

Por lo que respecta al tipo y número de estrategias participativas utilizadas a lo largo del proceso, señalar que se pusieron en marcha dos paneles Delphi (Diamond, Grant, Feldman, Pencharz, Ling, Moore, Wales, 2014); cuatro Workshops (Lee, Leong y Chan, 2015; Nickelsen y Bal, 2021) y tres Equipos de Trabajo (ET) (Bayona y Heredia, 2012). Finalmente se realizaron dos procesos de validación, un análisis de contexto y una revisión de la literatura con perspectiva sistematizada (Alexander, 2020; Codina, 2018).

TABLA I. Objetivos, estrategias y participantes de cada una de las fases del proceso de diseño

FASES

SUB-FASES

OBJETIVOS

ESTRATEGIAS

PARTICIPANTES

Fase 1. Pre-diseño

1.1. Exploración e identificación de problemas

-Analizar el estado de la formación inicial docente en Baleares

-Análisis de Contexto sobre la formación inicial del profesorado

-Equipo investigador

-Determinar medidas para la mejora de la formación inicial del profesorado en Baleares

-Panel Delphi-1 (5 rondas)

-28 profesores del departamento de Pedagogía de la UIB que imparte más docencia en GIP

-Panel Delphi-2 (3 rondas)

-128 profesores de 11 departamentos distintos que imparten docencia en GIP y 157 maestros tutores de prácticas de los centros escolares

1.2. Diseño estratégico consensuado a partir de la reflexión

-Diseñar un programa colaborativo para mejorar la formación inicial del profesorado

- Equipo de trabajo-1: elaborar un documento de propuestas de intervención

-28 profesores del departamento de Pedagogía de la UIB que imparte más docencia en GIP y consulta a todos los profesores del GIP

Fase 2. Diseño.

2.1. Ideación de las PA

-Realizar una revisión de la literatura científica sobre el tema

-Revisión sistemática sobre pruebas y criterios de admisión

-Equipo investigador

-Determinar el propósito, los atributos y las herramientas de evaluación de las PA

-Workshop-1 y 2 de análisis de dos experiencias clave

-Equipo investigador con: equipo del Finnish Institute for Educational Research (Workshop-1) y equipo del programa MIF de Cataluña (Workshop-2).

-Workshop-3 sobre el propósito y los atributos de la prueba

-41 especialistas de cinco universidades españolas; maestros y directores de centros de educación infantil y primaria, y representantes de la Administración educativa

2.2. Diseño y validación de las PA

-Diseñar y validar las PA

-Equipo de trabajo-2: diseño inicial y definitivo de las pruebas

-12 profesores de universidad y 2 maestros

-Validación-1 (interna y externa)

-13 expertos (profesores universidad y maestros)

-10 profesores, orientadores y directores de centros de Secundaria

-107 alumnos de Bachillerato y FP

Fase 3. Post-diseño

3.1. Ideación y diseño de medidas complementarias para la atracción de los mejores candidatos

-Idear y diseñar medidas complementarias para atraer a los candidatos más preparados y motivados

-Workshop-4 sobre “Definición de medidas complementarias a las pruebas de acceso”

-39 especialistas (profesores de universidad y maestros en ejercicio)

3.2. Diseño de un estudio longitudinal de evaluación de las competencias demostradas en las pruebas y su evolución durante los GIP

-Diseñar un sistema de evaluación de las competencias de los alumnos para valorar la validez predictiva de las PA

-Equipo de trabajo-3: diseño del sistema de evaluación

-Equipo de investigación

-Validación-2 por expertos

-13 expertos (profesores universidad y maestros)

Fuente: Elaboración propia

Resultados

Es este apartado se presenta la dinámica y los principales resultados de cada una de las tres fases del proceso seguido.

FIGURA I. Ciclo de la planificación de las PA y principales resultados de sus fases

Fuente: Elaboración propia

Fase 1. Pre-diseño de las PA (2013-2017)

Exploración e identificación de problemas

Tras un pormenorizado análisis de la situación de la formación inicial del profesorado en el sistema educativo de las Illes Balears y en la UIB (Sureda-Negre y Oliver-Trobat, 2015), y con la finalidad de identificar medidas consensuadas para la mejora de los estudios, se llevó a cabo el panel Delphi-1 en el que participaron 28 profesores del departamento de la UIB con mayor porcentaje de docencia en los GIP. El resultado fue una propuesta de 14 medidas. “Establecer criterios selectivos de acceso a los estudios” (Sureda-Negre, Oliver-Trobat, Comas-Forgas, 2016, p. 158) es una de las que obtuvo mayor consenso.

Posteriormente, se realizó el panel Delphi-2, con la participación de todo el profesorado de la UIB con al menos tres años de experiencia docente en los estudios de GIP: en total fueron 128 profesores universitarios de 11 departamentos y 157 maestros y maestras tutores de las prácticas los invitados a participar (Calvo-Sastre, Sureda-Negre y Oliver-Trobat, 2018). Se implicaron 170 en la primera ronda, 129 en la segunda y 149 en la tercera, logrando así consensuar diversas medidas de mejora, entre ellas “that establishing more selective admission criteria would be a measure for greatly improving future teachers’ training” (Sureda-Negre, Oliver-Trobat y Comas-Forgas, 2020, p. 85).

Diseño estratégico consensuado a partir de la reflexión

En base al estado de la cuestión de la formación inicial en el contexto de la experiencia e identificadas las medidas de mejora consensuadas (entre profesorado universitario y maestros/tutores de prácticas de los centros educativos), se instó al Rectorado de la UIB a implicarse en el tema. La respuesta fue la creación del Programa de Mejora de la Formación Inicial de los estudios de maestro y de profesorado de secundaria (PM_FIP)1 (UIB, 2017b; Oliver-Trobat, Sureda-Negre y Calvo-Sastre, 2018).

En el marco del PM_FIP, se elaboró, mediante el ET-1, un primer “Documento estratégico y de propuestas de intervención” (PM_FIP, 2017; UIB, 2017a) en el que participaron 28 profesores de un departamento del GIP y donde se señalan 6 objetivos, con sus respectivas líneas de actuación e indicadores para su evaluación. La mejora del sistema de acceso a los GIP se contemplaba en el objetivo número 3, en el que se proponía el diseño e implementación de un sistema experimental de selección del alumnado.

Así pues, durante la fase pre-diseño se consiguió consensuar la conveniencia de elaborar PA para la formación inicial docente como estrategia de mejora de los GIP.

Fase 2. Diseño de las PA (2017-2019)

Ideación de las PA

La determinación del propósito, los atributos y las herramientas de evaluación de las PA se abordó en tres workshops. El Workshop-1, realizado a mediados del 2017, estuvo centrado en analizar el modelo finlandés, mientras que durante el Workshop-2, realizado a finales de 2017, se analizó la experiencia del Programa de Millora i Innovació en la Formació de Mestres (MIF) de Cataluña (Martínez-Martin et ál., 2015).

El Workshop-3, realizado el mes de mayo de 2018, se organizó en cuatro grupos de trabajo y se centró en debatir el propósito de las PA, sus atributos y las estrategias de evaluación. Los participantes fueron 41 especialistas de cinco universidades españolas; maestros y directores de centros de educación infantil y primaria, así como representantes de la Administración educativa.

Previamente se había realizado una revisión bibliográfica con enfoque sistematizado de la investigación sobre el acceso a los estudios. Se consultaron hasta 22 bases de datos y a partir de diversos criterios (entre ellos considerar únicamente trabajos empíricos publicados a partir de 1980) se seleccionaron 137 documentos. El resultado fue un documento puesto a disposición de los participantes en el Workshop-3, de manera que los participantes pudieran considerar el estado del conocimiento sobre el tema a la hora de tomar decisiones.2

El propósito de las PA

Señalar, en primer lugar, que el propósito final de todo el proceso se estableció en la fase de pre-diseño. Tanto en los resultados de los Delphis como en la elaboración del PM_FIP quedó patente que establecer criterios selectivos para el acceso a los GIP se consideraba una estrategia importante para la mejora de estos estudios. Aún así se creyó conveniente que los participantes en el Workshop-33 –que habían podido acceder a la revisión sistematizada de la literatura realizada en la anterior fase– reflexionaran sobre este propósito. Se trataba de averiguar los motivos por los que se consideraba que la implementación de PA podía suponer una mejora en los GIP. El análisis de las conclusiones de los grupos de trabajo del Workshop puso de manifiesto cuatro grandes núcleos argumentativos:

Necesidad de identificar y reclutar a los mejores candidatos ya que las plazas son limitadas (valor de ajuste).

Conveniencia de no aceptar alumnado no idóneo para estos estudios (valor de idoneidad).

Necesidad de diseñar PA basadas atributos académicos (en forma de competencias) y atributos no académicos (valor atribucional).

Conveniencia de conocer las fortalezas y las debilidades de los candidatos de cara a un óptimo desarrollo futuro en la formación inicial y en su trayectoria profesional (valor predictivo).4

Atributos y estrategias de evaluación de las PA

A partir del consenso establecido en el Workshop-3, se determinó que las PA se tenían que centrar en tres atributos cognitivos –también denominados académicos– (competencia comunicativa en las dos lenguas oficiales de Baleares; competencia lógico-matemática y comunicación oral) y diversos atributos no cognitivos (habilidades interpersonales, motivaciones, experiencias previas, etc.). Por otra parte, también se consensuaron las estrategias de evaluación de estos atributos.

Diseño de las PA

Una vez decididos los atributos a considerar y las estrategias de evaluación a seguir se creó el ET-2, formado por profesorado de la UIB y maestros en ejercicio, con la misión de acometer y concretar el diseño de las PA, a partir de la revisión de la literatura científica sobre el tema y del consenso establecido en el Workshop-3. El resultado fue el prototipo de pruebas organizadas en tres fases: (a) de selección cognitiva mediante pruebas escritas, (b) de selección mixta (cognitiva y no cognitiva) mediante pruebas orales y (c) de comprobación de la elegibilidad.5 El punto de corte de todas las pruebas, después de realizar un análisis lógico de los ítems de las mismas, se estableció en el 5 en una escala de puntaje de 0 a 10 (González y Jornet, 2009).

FIGURA II. Fases de las PA

Fuente: Elaboración propia

Fase de selección cognitiva (escrita)

El prototipo de esta fase quedó estructurado en dos pruebas orientadas a evaluar por una parte la Competencia Comunicativa y Razonamiento Crítico (CCRC), y por otra parte la Competencia Lógico-Matemática (CLOM). La evaluación de la CCRC se abordó mediante una prueba consistente en: (a) comprensión e interpretación de textos (comentario de dos textos: uno en castellano y uno en catalán, de contenido similar), (b) expresión escrita (2 preguntas de redacción) y (c) dominio del sistema lingüístico (3 ejercicios de conocimientos básicos de la lengua). Para la evaluación de la CLOM se elaboró una prueba con diez ejercicios y cinco situaciones de los diferentes bloques de contenidos: números y operaciones, geometría, álgebra, probabilidad, estadística y medida.

La superación de estas dos pruebas se estableció como requisito para pasar a la fase de selección oral.

Fase de selección mixta: cognitiva-no cognitiva (oral)

Para la valoración de atributos de la fase de selección mixta6 se optó por dos pruebas complementarias: una Vídeo Presentación (VP) y una Entrevista Grupal (EG).

La VP consistió en la realización individual del llamado perfil escrito (Written profile) pero en formato videográfico.7 Para ello se solicita a los candidatos la realización de un vídeo a modo de carta de presentación, dando respuesta a una serie de preguntas: ¿quién soy?; ¿qué me caracteriza?; ¿qué intereses y aficiones tengo?; ¿por qué quiero estudiar de maestro/a?, etc.

Para la realización de la EG se forman grupos de solicitantes que, a partir de un texto de actualidad sobre educación, debaten, razonan y argumentan sus posiciones y hasta acordar una postura común. Cada entrevista es conducida y evaluada por un profesor de universidad y un maestro en ejercicio.

Para objetivar los resultados de la entrevista, el ET-2 diseñó una rúbrica (con seis indicadores referidos a atributos cognitivos –habilidades comunicativas– y tres dedicados a atributos no cognitivos – habilidades interpersonales–) señalando, además de los indicadores de evaluación, sus niveles de desempeño (con cuatro niveles de logro) y el peso de cada prueba en la calificación final (30% VP y 70% EG). También se realizaron actividades de formación de los entrevistadores, incluyendo entrenamiento mediante simulaciones.

TABLA II. Atributos cognitivos y no cognitivos de las PA

Fase 1. Pruebas cognitivas (escritas)

Fase 2. Pruebas mixtas (orales)

Atributos cognitivos

Atributos cognitivos

Atributos no cognitivos

-Comprensión del significado de documentos escritos sobre temas de interés, capacidad de sintetizar e integrar información, de expresar una reflexión con claridad y precisión y dominar el sistema lingüístico que le permita expresarse con un nivel lingüístico adecuado con las dos lenguas oficiales de la Comunidad Autónoma

-Capacidad para aplicar el pensamiento científico-técnico y los conocimientos del ámbito social, para interpretar la información recibida y para predecir y tomar decisiones con iniciativa y autonomía, así como diferenciar y valorar el conocimiento científico por contraste con otras formas de conocimiento

-Capacidad para formular, emplear e interpretar las matemáticas en diferentes contextos, resolver problemas que requieran operaciones elementales de cálculo, conocimientos geométricos básicos, estimaciones que requieran un tratamiento de la información, la probabilidad y el azar

-Capacidad para hablar y argumentar y saber expresar oralmente ideas con fluidez y claridad, haciendo un uso correcto de la lengua, empleando un vocabulario rico y con variedad de estructuras gramaticales

-Habilidades interpersonales

-Ajuste psicológico

-Motivación intrínseca

-Orientación hacia el desarrollo profesional

-Experiencias previas, creencias y motivaciones

Fuente: Elaboración propia

Fase de comprobación de la elegibilidad

En esta fase se comprueba si los alumnos participantes han superado la Calificación de Acceso a la Universidad (CAU) verificando así que cumplen las condiciones de elegibilidad. Seria el equivalente de la etapa “eligibility checks” que proponen Klassen y Kim (2017, p.19).8

Validación de las PA

La plausibilidad de las pruebas (Ebel y Frisbie, 1991; Bachman, 1990 y López, 2009) se aseguró mediante tres procesos de validación interna y uno de validación externa. La validación interna se realizó mediante la consulta a: (a) expertos externos a la elaboración de la prueba; (b) profesores orientadores y directores de centros de secundaria y (c) a los candidatos. La validación externa se realizó mediante la aplicación de métodos estadísticos para determinar la similitud de los resultados obtenidos por los alumnos en la prueba piloto con los de las pruebas de evaluación realizadas en el centro de procedencia durante el curso escolar.

Validación interna

Validación por expertos

Para la validación de expertos (Callejo-Gallego y Viedma-Rojas, 2016; Díez-Gutierrez, 2020) se constituyó un grupo formado por trece especialistas con experiencia en las temáticas de las distintas pruebas (véase Tabla III). Estos expertos realizaron un asesoramiento durante todo el proceso a la vez que diseñaron propuestas de mejora de los prototipos y de los criterios de evaluación atendiendo a indicadores referidos a: claridad, importancia, cobertura, pertenencia, plausibilidad (para evaluar a aspirantes a los GIP), comprensión y conocimiento.

TABLA III. Composición del grupo de asesores externos para la validación de expertos

Pruebas

Miembros del grupo

CCRC

-Dos profesores/as de la Universitat de Girona (una de ellas coordinadora de las pruebas de competencia comunicativa de acceso de Cataluña)

CLOM

-Dos maestros/as de centros educativos de Educación Primaria expertos en formación lógico-matemática

-Dos profesores/as de la Universitat de Barcelona (una de ellas coordinadora de las pruebas lógico-matemáticas de acceso de Cataluña)

-Una profesora de la Universitat de Girona

VP y EG

-Cinco profesores/as de la Universitat de les Illes Balears

-Una profesora de la Universitat Pompeu Fabra

Fuente: Elaboración propia

Validación por parte de profesorado de Secundaria

En este proceso de validación participaron diez profesores, orientadores y directores de diversos centros implicados en la prueba piloto. A los validadores se les preguntó que puntuaran (de 0 a 10) la necesidad de realizar pruebas de admisión obteniendo una valoración media de 9,4 puntos.

El proceso de validación consistió en valorar la claridad, adecuación, cantidad y calidad de las pruebas mediante una escala Likert de cuatro niveles (véase Tabla IV), así como la eficacia, la cantidad de preguntas y la duración de la prueba (véase Tabla V).

TABLA IV. Valoración de las instrucciones y la información para contestar las preguntas de las pruebas cognitivas

Media (4 excelente; 1 mala)

CCRC

CLOM

Claridad

3,6

3,7

Adecuación

3,4

3,5

Cantidad

3,3

3,2

Calidad

3,4

3,6

Fuente: Elaboración propia

TABLA V. Valoración del diseño global de las pruebas cognitivas

Media (4 excelente; 1 mala)

CCRC

CLOM

Eficacia para proporcionar información valiosa para valorar la idoneidad del futuro alumnado

3,4

3,9

Cantidad de preguntas

3,3

3,3

Duración de la prueba

3,5

3,4

Fuente: Elaboración propia

Además de valorar las instrucciones, la información y el diseño de las pruebas de forma cuantitativa (con puntuaciones medias de entre el 3,2 y el 3,9). En todos los casos, excepto en dos, la puntuación máxima es 4 y la mínima es 3 por lo que el acuerdo entre jueces es alto.

Los validadores realizaron diversas sugerencias para la mejora del contenido de las pruebas, a continuación, se destacan las más significativas:

Sugerencia de mejora para ambas pruebas:

– Incluir marcadores competenciales de los alumnos NESE / DEA / TdA para dislexia o discalculia para poder valorar como ello puede afectar a su futura labor docente.

Sugerencias de mejora para CCRC:

– Incluir una pregunta donde tengan que escribir un texto con un registro más adaptado al alumnado que tendrán.

– Incluir algunas actividades de razonamiento crítico que valoren el perfil psicológico del alumnado.

– Separar más claramente entre castellano y catalán para evitar confusión.

– Modificar el tamaño de la letra y el interlineado del texto. Quizá también separar claramente las cuestiones en catalán y castellano.

Sugerencias de mejora para CLOM:

– Hacer argumentar en diferentes estrategias de resolución o en alguna actividad.

– Añadir más pruebas lógicas y eliminar un algún ejercicio matemático.

– Tener en cuenta los procedimientos: saber como se llega a un resultado.

Este proceso permitió establecer la validez de contenido de las pruebas mediante el consenso entre expertos (Pedrosa, Suárez-Álvarez y García-Cueto, 2013).

Validación por parte de los alumnos

Se solicitó a los alumnos participantes en la prueba piloto (n=107) que rellenaran un cuestionario anónimo sobre la dificultad y la duración de las pruebas, la claridad de la información y la cantidad de preguntas. Los aspectos mejor valorados por los alumnos fueron (mediante una escala Likert de 10 puntos): la claridad de la información y las instrucciones en la EG (9,5) y en la CCRC (9,1), la cantidad de preguntas en la EG (9,5) y la duración de la prueba (9,1 en la CCRC y 9,3 en CLOM y EG). El aspecto con puntuaciones más bajas es el nivel de dificultad de las pruebas en el caso de CLOM (7,7) y CCRC (7,8) (véase Tabla VI). La mayoría de los alumnos otorgaron puntuaciones entre el 7 y el 10 por lo que el acuerdo es bastante alto.

TABLA VI. Valoración de las pruebas por parte del alumnado

Características de las pruebas

Media (10 muy adecuada; 1 nada adecuada)

CCRC (n= 107)

CLOM (n= 107)

EG (n=16)

Nivel de dificultad

7,8

7,7

8,9

Claridad de la información y de las instrucciones que se facilitan para contestar las preguntas

9,1

8,8

9,5

Cantidad de preguntas

8,6

8,8

9,5

Duración

9,1

9,3

9,3

Fuente: Elaboración propia

Prueba piloto

La prueba piloto se realizó con la muestra de 107 alumnos y alumnas que participaron en la validación (de segundo curso de Bachillerato y del Grado Superior de Formación Profesional) de 14 centros (9 institutos públicos y 5 centros concertados). Ante la imposibilidad de realizar un muestreo aleatorio stricto sensu se optó por un muestreo ad-hoc con representación de las diversas tipologías de centros. El alumnado de estos centros que manifestó su interés en matricularse en alguno de los dos GIP fue invitado a inscribirse para realizar la prueba piloto y, en el caso de superar la primera fase, a participar en la fase de selección mixta.

Para el análisis de los resultados de las pruebas se utilizaron los estadísticos descriptivos de tendencia central (media, mediana y moda), de dispersión absoluta (desviación típica) y de dispersión relativa (coeficiente de variación) para los resultados de cada una de las pruebas. Con el fin de determinar la posible relación entre diversas variables analizadas se aplicó el coeficiente de correlación de Pearson. Para el procesamiento y análisis de datos se utilizó el programa de análisis estadístico SPSS v.24.

FIGURA III. Histograma de frecuencias de los resultados de las pruebas cognitivas

Fuente: Elaboración propia

En el análisis bivariado, aunque existe correlación entre las pruebas CCRC y CLOM ésta es baja, obteniéndose un coeficiente de correlación de Pearson de 0,313 (p=0,001), hecho que tiene sentido ya que miden atributos distintos.

Casi la mitad de los candidatos (49,6%) no superó alguna de las dos pruebas de la primera fase por lo que, de acuerdo con los criterios establecidos, el 50,4% pasó a la siguiente fase. Se demuestra el efecto de cribado (screening) de esta fase (Klassen y Kim, 2017), asegurando que los candidatos que la superen tienen un elevado nivel en los atributos cognitivos.

En cuanto a las pruebas mixtas señalar que de los 55 estudiantes que aceptaron participar en estas pruebas 25 superaron la Fase 1. De este conjunto se seleccionó un grupo representativo (sexo, estudios elegidos –infantil o primaria–, centro de procedencia y notas de la primera fase) de 16 estudiantes de entre los que habían dado el consentimiento para participar en esta fase. Se distribuyó a estos alumnos en dos grupos iguales, para realizar la VP y la EG.

TABLA VII. Resultados de los estadísticos descriptivos de los alumnos que han realizado las pruebas mixtas

Estadísticos descriptivos

Calificación VP

Calificación EG

Media

7,61

7,05

Mediana

7,22

6,94

Moda

8,88

10

Desviación estándar

1,55

2,09

Coeficiente de variación

0,20

0,30

n

16

16

Fuente: Elaboración propia

La VP fue superada por todos los candidatos mientras que 4 alumnos suspendieron la EG. Una vez aplicados los porcentajes (30% VP y 70% EG) solo un candidato suspendió globalmente la prueba al no obtener la media necesaria ya que registró puntuaciones bajas en la mayoría de los indicadores de habilidades cognitivas, pero sobretodo en las comunicativas e interpersonales que no se habían podido detectar en la fase cognitiva.

Validación externa

Para determinar la relación de los resultados obtenidos por los alumnos con otras pruebas de evaluación realizadas en el centro de procedencia, se utilizó un indicador de similitud de las pruebas cognitivas a partir del análisis de la información facilitada por los tutores del alumnado participante. Esta información mostró hasta qué punto coincidían los resultados de las pruebas con los resultados habituales de dichos alumnos durante el curso en el centro educativo de procedencia. En el caso de la prueba CCRC se observó que la coincidencia era elevada en un 79,4% de los casos y en el de la prueba CLOM este porcentaje es del 75,7% (véase Tabla VIII). Calculadas las medidas de tendencia central y de variabilidad, se observo que las diferencias de medias eran muy bajas siendo así mismo muy pequeños los índices de dispersión. Por lo que se concluye que la valoración de los jueces es concordante.

TABLA VIII. Nivel de coincidencia de los resultados de las pruebas cognitivas con los resultados habituales de los alumnos en su centro

Nivel de coincidencia

CCRC

CLOM

Frecuencia

Porcentaje

Frecuencia

Porcentaje

No coinciden en nada

5

4,7%

3

2,8%

No coinciden mucho

17

15,9%

22

20,6%

Se asemejan bastante

53

49,5%

50

46,7%

Coinciden totalmente

32

29,9%

31

29%

Perdidos

0

0%

1*

0,9%

Total

107

100%

107

100%

* Un alumno no cursaba la asignatura de matemáticas durante este curso escolar.

Fuente: Elaboración propia

A partir de toda la información recopilada en la validación, el ET-2 reformuló y mejoró9 la propuesta de PA que fue aprobada por el consejo de Gobierno de la UIB en Julio de 2019, recibiendo el informe positivo de la modificación de los planes de estudios por parte de la ANECA en abril de 202010.

Fase 3 Post-diseño (2019-2021)

En el marco de un proceso de ideación y diseño de medidas complementarias a partir de aportaciones críticas se realizó el Workshop-4 con 39 especialistas (profesores de universidad y maestros en ejercicio) con el objetivo de diseñar medidas para atraer a los candidatos más preparados y motivados.

Entre las principales medidas adoptadas de forma consensuada cabe destacar las siguientes:

Ofrecer a los precandidatos la posibilidad de realizar visitas a centros educativos innovadores.

Realizar una campaña de difusión y sensibilización dirigidas a las familias y al alumnado para revalorizar la profesión docente (prensa, debates educativos, etc.).

Organizar sesiones de orientación en educación primaria y secundaria sobre la profesión docente, con la participación del alumnado de los últimos cursos del Grado.

Intensificar la formación permanente del profesorado de secundaria sobre el enfoque competencial.

Iniciar el proceso de transformación de las PBAU para que tengan un enfoque más competencial.

Hacer un seguimiento longitudinal de los alumnos que hayan accedido al Grado mediante la prueba de admisión para analizar su evolución durante su formación y su inserción profesional.

Discusión de los resultados conclusiones y prospectiva

Más allá de la consecución de unas pruebas de admisión para aplicar en los estudios de maestro de una determinada Universidad, el resultado del caso presentado en este artículo es la propuesta de un modelo (véase Figura IV) para abordar el tema desde una perspectiva participativa, metodología hasta la fecha no empleada para este tipo de trabajos a juzgar por la literatura existente sobre la materia.

Por lo que respecta a las pruebas elaboradas remarcar que el caso descrito confirma que no hay un enfoque único para abordar el proceso de selección de candidatos para la formación inicial docente (ASPA, 2015). Establecer, fundamentándose en evidencias, un modelo universal para identificar, y posteriormente evaluar, las características requeridas al alumnado de esta formación es una tarea extremadamente complicada (Darmody y Smyth, 2016); una tarea que debe abordarse considerando las especificidades de cada contexto cultural y educativo. En todo caso, hay una serie de orientaciones generales que se desprenden de los resultados obtenidos. El punto más destacable quizás sea la constatación, a partir del análisis de elegibilidad desarrollado, que el Grade Point Average (GPA)11 o promedio de calificaciones es un sistema de selección no adecuado como criterio único. La conveniencia de que los procesos de selección se fundamenten tanto en capacidades cognitivas como no cognitivas de los candidatos queda reforzada con los datos obtenidos. En relación a este punto destacar que en el proceso de diseño (fase 2) las opciones seguidas a partir del consenso en relación a los atributos a considerar son coherentes con las evidencias existentes (Casey y Childs, 2007; Klassen y Kim, 2017; Klassen, Durksen, Kim, Patterson, Rowett, Jane, Warwick y Wolpert, 2017; Klassen, Durksen, Hashmi, Kim, Longden, Metsäpelto, Poikkeus y Györi, 2018) Por otra parte, la baja correlación entre los resultados de las pruebas CCRC y CLOM refuerza esta conveniencia.

El hecho de incluir el Written profile en las pruebas (VP) está en la línea de las propuestas actuales al ser la segunda estrategia más utilizada en las PA (Casey y Childs, 2011). En relación con la entrevista grupal (EG) señalar que es una estrategia ampliamente utilizada en otros países como parte de las PA para los estudios de maestro (Casey y Childs, 2007; Klassen, Dolan y Afzal 2015). Se trata de un dispositivo complejo pero que ha demostrado una capacidad predictiva superior a la de los criterios cognitivos (Shechtman, 1992) a la vez que puede ser considerada un sistema de selección justo para los solicitantes (Bye y Sandal, 2016) y especialmente útil para la detección de alumnado con perfiles no adecuados (valor de idoneidad) para los estudios de Educación (Leshem, 2012) y para ordenar a los alumnos (valor de ajuste).12 No obstante, la experimentación ha demostrado la dificultad de este tipo de pruebas y la importancia de la utilización de rúbricas y la formación de los evaluadores, ya que los candidatos pueden distorsionar sus respuestas con el fin de aumentar sus posibilidades de éxito (Johnson y Saboe, 2011).

La atracción de los mejores candidatos a la profesión docente constituye un importante desafío y, consecuentemente, un tema pertinente de la investigación educativa (See, Morris, Gorard, Kokotsaki y Abdi, 2020). Los resultados del Workshop-4 sobre “definición de medidas complementarias a las pruebas de acceso” van en el mismo sentido de los resultados de los trabajos de Klassen, Gragner y Bardach (2020). También son congruentes con políticas educativas como la del Department for Education del Reino Unido que propone, en el marco del programa Discover Teaching, que los candidatos realicen días de prueba en centros docentes (Department for Education, 2019). Estas prácticas, así como las que se acordaron en el Workshop-4, permiten que los candidatos realicen realistic job previews (RJP) basadas en las teorías person-environment y person-vocation (Klassen et ál., 2020).

El equipo investigador es consciente que el prototipo diseñado y su validación son una primera aportación que se tendrá que complementar mediante la utilización de instrumentos y pruebas estadísticas más robustas. Se tiene previsto que este proceso se realice mediante el diseño de la evaluación longitudinal actualmente en curso.

En relación al modelo, destacar que así como la utilización de enfoques participativos y grupales en los procesos de enseñanza en la universidad encuentra su sentido en un mayor y mejor aprendizaje y motivación del alumnado (Calvo-Sastre, 2020; Martínez-Dominguez, Arandia-Loroño, Alonso-Olea y Castilla Prieto, 2011), su adopción en procesos de mejora de programas formativos o de gestión se sustenta, básicamente, en que la implicación de los actores es elemento crucial para el éxito organizacional (Wilcox, 1994; Involvement and Participation Association, 2014; Karasti, 2014; Abu-Amsha et ál., 2019). En este contexto, optar por el enfoque participativo para la elaboración de PA implica la consulta, mediación, negociación y búsqueda de consenso en la toma de decisiones (Booker y Goldman, 2016; Engelbertink et ál., 2020), actuaciones que se han tenido muy en cuenta en las diversas fases del proceso presentado en este trabajo. Sin embrago cabe preguntarse si se podría haber profundizado más es estas actuaciones. El hecho de que todavía no se haya abordado la evaluación global del proceso, limitación de este trabajo del que los autores son conscientes, impide aportar una respuesta clara. Así, cuestiones como hasta qué punto el proceso ha supuesto una mayor implicación y compromiso del profesorado de los GIP, o cómo la aplicación de las PA puede haber contribuido a la mejora del programa formativo son cuestiones todavía sin respuestas basadas en la evidencia que serán objeto de análisis en futuros trabajos.

FIGURA IV. Diseño de pruebas de admisión a partir de un proceso de diseño participativo13

Fuente: Elaboración propia

Señalar, finalmente, que a la hora de redactar este trabajo se está diseñando el estudio longitudinal de evaluación de las competencias a partir de las aportaciones de experiencias existentes (Bieri y Schuler, 2018) y de la validación por parte de expertos. Este estudio ha de permitir la obtención de datos que faciliten hacer inferencias para la mejora del proceso de selección.

Agradecimientos

Este artículo es uno de los productos resultantes del proyecto: “Elaboración de pruebas de selección del alumnado para acceder a la formación inicial de Maestros de infantil y de primaria”, financiado en el marco de la Convocatoria de proyectos de investigación e innovación orientados a la formación inicial del profesorado (PRI_FIP) de la Consejería de Educación y Universidades del Gobierno de las Illes Balears. (2017-2021, Código D1703). La investigación corrió a cargo del Grupo de Investigación Educación y Ciudadanía del Institut de Recerca i Innovació Educativa (IRIE).

Referencias bibliográficas

Abu-Amsha, O., Gordon, R., Benton, R., Vasalou, M., y Webster, B. (2019). Reflection on a Participatory Design Process with Refugees. Journal on Education in Emergencies, 5(1), 156-176. https://doi.org/10.33682/tm40-9q50

Alexander, P.A. (2020). Methodological Guidance paper: The Art and Science of Quality Systematic Reviews. Review of Educational Research, 90(1), 6-23.

ASPA. (2015). Initial Teacher Education: Selection Criteria for Teacher Education Candidates. Recuperado de https://docplayer.net/18252962-Initial-teacher-education-selection-criteria-for-teacher-education-candidates.html

Bachman, L. (1990). Fundamental Considerations in Language Testing. Oxford: Oxford University Press.

Bayona, J.A., y Heredia, O. (2012). El concepto de equipo en la investigación sobre efectividad en equipos de trabajo. Estudios Gerenciales, 28(123), 121-132.

Bieri, C., y Schuler, P. (2018). Predictive validity of a competence-based admission test-mentors’ assessment of student teachers’ occupational aptitude. Assessment y Evaluation in Higher Education, 43(4), 640-651. https://doi.org/10.1080/02602938.2017.1390545

Booker, A. y Goldman, S. (2016). Participatory Design Research as a Practice for Systemic Repair: Doing Hand-in-Hand Math Research with Families. Cognition and Instruction, 34(3), 222-235. https://doi.org/10.1080/07370008.2016.1179535

Bustamante, A.M., Brendel, N., Degbelo, A. y Kray, C. (2018). Participatory Design and Participatory Research: An HCI Case Study with Young Forced Migrants. ACM Transactions on Computer-Human Interaction, 25(1), 24.

Bye, H.H., y Sandal, G.M. (2016). Applicant Personality and Procedural Justice Perceptions of Group Selection Interviews. Journal of Business and Psychology, 31, 569-582. https://doi.org/10.1007/s10869-015-9430-9

Callejo-Gallego, M.J., y Viedma-Rojas, A. (2016). La investigación-acción participativa. En M. García-Ferrando, F.R. Alvira-Martín, L.E. Alonso-Benito y M. Escobar-Mercado (Eds.), El análisis de la realidad social: métodos y técnicas de investigación (pp. 295-328). Madrid: Alianza.

Calvo-Sastre, A. (2020). Teaching social education with and through groups. Social Work with Groups, 43(3), 227-240. https://doi.org/10.1080/01609513.2018.1593918

Calvo-Sastre, A., Sureda-Negre, J., y Oliver-Trobat, M.F. (2018). Consultation of teacher trainers as a strategy for improving teacher training. The case of the University of the Balearic Islands. International Conference Teacher Education and Educational Research in the Mediterranean, Malta.

Casey, C., y Childs, R. (2007). Teacher Education Program Admission Criteria and What Beginning Teachers Need to know to be Successful Teachers. Canadian Journal of Educational Administration and Policy, 67, 24.

Casey, C., y Childs, R. (2011). Teacher Education Admission Criteria as Measure of Preparedness for Teaching. Canadian Journal of Education, 34(2), 3-20.

Childs, R.A. y Ferguson, A.K. (2015). Changes In, To, and Through the Initial Teacher Education Program Admission Process. En L. Thomas y M. Hirschkorn (Eds.), Change and Progress in Canadian Teacher Education. Canadian Association for Teacher Education, pp. 420-440.

Codina L. (2018). Revisiones bibliográficas sistematizadas: procedimientos generales y Framework para ciencias humanas y sociales. Barcelona: Universitat Pompeu Fabra, Departamento de Comunicación, Máster Universitario en Comunicación Social. Recuperado de http://hdl.handle.net/10230/34497

Conferencia de Decanos/as de Educación. (2017). Documento de la Conferencia Nacional de Decanos/as y Directores/as de Educación sobre la formación y el acceso a la profesión docente. Recuperado de http://www.conferenciadecanoseducacion.es/wp-content/uploads/2018/02/documento-conferencia-decanos-desarrollo.pdf

Corcoran, E. (2000). Goforth and publish-Software. Forbes, 166(9), 170-172.

Corcoran, R.P. y O’Flaherty, J. (2018). Factors that predict pre-service teachers’ teaching performance. Journal of Education for Teaching: International Research and Pedagogy, 44(2), 175-193. https://doi.org/10.1080/02607476.2018.1433463

Darmody, M. y Smyth, E. (2016). Entry to Programmes of Initial Teacher Education. T. E. a. S. R. Institute. Recuperado de https://www.teachingcouncil.ie/en/Publications/Teacher-Education/Documents/Entry-Requirements.pdf

Department for Education (2019). Teacher recruitment and retention strategy. Disponible en:

https://assets.publishing.service.gov.uk/government/uploads/system/uploads/attachment_data/file/786856/DFE_Teacher_Retention_Strategy_Report.pdf

Diamond, I.R., Grant, R.C., Feldman, B.M., Pencharz, P.B., Ling, S.C., Moore, A.M. y Wales, P.W. (2014). Defining consensus: A systematic review recommends methodologic criteria for reporting of Delphi studies. Journal of Clinical Epidemiology, 67(4), 401–409. https://doi.org/10.1016/j.jclinepi.2013.12.002

Díez-Gutierrez, E.J. (2020). Otra investigación educativa posible: Investigación-acción participativa dialógica e inclusiva. Revista de Educación de la Universidad de Málaga, 1(1), 115-128. https://doi.org/10.24310/mgnmar.v1i1.7154

Ebel, R. L. y Frisbie, D. A. (1991). Essentials of Educational Measurement. Nueva Jersey: Prentice Hall

Egido-Gálvez, I. (2020). El acceso a la formación docente inicial en Europa: políticas e investigación. Revista Española de Educación Comparada (35), 197-211.

Engelbertink, M.M.J., Kelders, S.M., Woudt-Mittendorff, K.M. y Westerhof, G.J. (2020). Participatory design of persuasive technology in a blended learning course: A qualitative study. Education and Information Technologies, 25, 4115-4138. https://doi.org/10.1007/s10639-020-10147-x

Eurydice. (2018). La profesión docente en Europa. Acceso, progresión y apoyo. Oficina de Publicaciones de la Unión Europea. https://doi.org/10.2797/917260

Foro de Sevilla. (2014). El profesorado y su formación como actores necesarios y comprometidos con la educación pública. Recuperado de https://www.aulalibre.es/IMG/pdf_documento_sobre_el_profesoradio_Foro_de_Sevilla_200314_1_.pdf

Generalitat de Catalunya (2021). Prova d’aptitud personal (PAP) per a l’accés als graus en educació infantil i primària. Recuperado de http://universitats.gencat.cat/ca/altres_pagines/educacio_inf_i_prim/

González, J. y Jornet, J.M. (2009). Evaluación criterial: determinación de estándares de interpretación (EE) para pruebas de rendimiento educativo. ESE. Estudios sobre educación, 16, 103-123.

Grupo Palma. (2018). La Universidad y la formación inicial del profesorado. Recuperado de http://www.grupopalmaedu.org/documento_grupo_palma.pdf

Holden, M. y Kitchen, J. (2017). Choosing How We Choose: A Review of Teacher Education Admissions Literature. Teaching and Learning, 11(1), 16-31.

Involvement and Participation Association. (2014). Employee Engagement in Further Education. Association of Colleges Limited. Recuperado de https://www.ipa-involve.com/Handlers/Download.ashx?IDMF=3e76d3fa-dc66-4537-b719-2ae1dd734e6a

Janssen, F.J.J.M., Könings, K.D. y van Merriënboer, J.J.G. (2017). Participatory educational design: How to improve mutual learning and the quality and usability of the design? European Journal of Education Research, Development and Policy, 52(3), 268-279. https://doi.org/10.1111/ejed.12229

Johnson, R.E. y Saboe, K.N. (2011). Measuring Implicit Traits in Organizational Research: Development of an Indirevt Measure of Employee Impplicit Self-Concept. Organizational Resaerch Methods, 14(3), 530-547. https://doi.org/10.1177/1094428110363617

Karasti, H. (2014). Infrastructuring in participatory design PDC’14. Proceedings on the 13th Participatory Design Conference: Research Paprers, Windhoek. https://dl.acm.org/doi/10.1145/2661435.2661450

Katz, S., y Frish, Y. (2016). A new admission system model for teacher colleges. Quality Assurance in Education, 24(4), 463-489. https://doi.org/10.1108/QAE-01-2014-0003

Klassen, R., Dolan, R. y Afzal, F. (2015). Selection for Teacher Education in the UK and the Republic of Ireland. En Proposal for Innovation ECER 2015, Budapest. Recuperado de https://eera-ecer.de/ecer-programmes/conference/20/contribution/35327/

Klassen, R., Gragner, H. y Bardach, L. (2020). Attracting Prospective STEM Teachers Using Realistic Job Previews: A Mixed Methods Study. Teacher Selection Project Working Paper. Recuperado de https://psyarxiv.com/r6efk/

Klassen, R.M., Durksen, T.L., Hashmi, W.A., Kim, L.E., Longden, K., Metsäpelto, R.L., Poikkeus, A.M. y Györi, J.G. (2018). National context and teacher characteristics: Exploring the critical non-cognitive attributes of novice teachers in four countries. Teaching and Teacher Education, 72, 64-74. https://doi.org/10.1016/j.tate.2018.03.001

Klassen, R.M., Durksen, T.L., Kim, L.E., Patterson, F., Rowett, E., Jane, W., Warwick, P. y Wolpert, M.A. (2017). Developing a Proof-of-Concept Selection Test for Entry into Primary Teacher Education Programs. International Journal of Assessment Tools in Education, 4(2), 96-114. https://doi.org/10.21449/ijate.275772

Klassen, R.M., y Kim, L.E. (2017). Assessing Critical Attributes of Propspective Teachers: Implications for Selection into Initial Teacher Education Program. En D. W. Putwain y K. Smart (Eds.), British Journal of Educational Psychology Monograpk Series II: Psychological Aspects of Education, 5-22. Wiley.

Könings, K.D., Bovill, C. y Woolner, P. (2017). Towards an interdisciplinary model of practice for participatory building design in education. European Journal of Education Research, Development and Policy, 52(3), 306-317.

Lee, B., Leong, B., y Chan, G. (2015). A reflection on designing participatory design workshop - case study of elderly product development workshop with multidisciplinay collaboration. DesignEd Asia Conference 2015, Hong Kong. Recuperado de http://ira.lib.polyu.edu.hk/handle/10397/81448

Leshem, S. (2012). The Group Interview Experience as a Tool for Admission to Teacher Education. Education Research International, 8. https://doi.org/10.1155/2012/876764

López, P (2009). Construcción y validación de una prueba para medir conocimientos matemáticos. Horizontes Pedagógicos, 11(1), 29-37.

Manso, J. (2019). La formación inicial del profesorado en España. Madrid: Ministerio de Educación y Formación Profesional.

Marina, J.A., Pellicer, C. y Manso, J. (2015). Libro blanco de la profesión docente y su entorno escolar. Recuperado de http://educalab.es/documents/10180/38496/LIBRO-BLANCO_ProfesionDocente_JAM_v11.pdf/e4e1d927-6a61-4897-bca0-ada011dca331

Martínez-Dominguez, I., Arandia-Loroño, M., Alonso-Olea, M.J. y Castilla Prieto, L.d. (2011). Trabajar con metodologías participativas en la formación universitaria, todo un desafío. Revista Investigación en la Escuela (75), 101-113.

Martínez-Martin, M., Prats-Gil, E., y Marín-Blanco, A. (2015). La millora de la formació inicial de mestres: el Programa de Millora i Innovació en la Formació de Mestres, MIF. Revista Catalana de Pedagogia, 9, 24-42.

Menter, I., Hulme, M., Elliot, D., y Lewin, J. (2010). Literature Review on Teacher Education in the 21st Century. Other. The Scottish Government, Edinburgh, UK. Recuperado de http://www.scotland.gov.uk/Publications/2010/09/24144019/0

Mikitovics, A. y Crehan, K.D. (2002). Pre-Professional Skills Test Scores as College of Education Admission Criteria. The Journal of Educational Research, 95(4), 215-223. https://doi.org/10.1080/00220670209596594

Ministerio de Educación y Formación Profesional. (2018). Informe de síntesis de las aportaciones al foro Educar para el Siglo XXI. Desafíos y propuestas para la profesión docente. Recuperado de http://www.ub.edu/obipd/wp-content/uploads/2019/04/INFORME-DE-S%C3%8DNTESIS-DE-LAS-APORTACIONES-AL-FORO-Educar-para-el-siglo-XXI-Desaf%C3%ADos-y-propuestas-para-la-profesi%C3%B3n-docente.pdf

Nickelsen, N.C.M. y Bal, R. (2021). Workshop as Tool for Developing Collaborative Practice across Professional Social Worlds in Telemonitoring. International Journal of Environmental Resaerch and Public Health, 18(181), 15. https://doi.org/10.3390/ijerph18010181

Oliver-Trobat, M.F., Sureda-Negre, J. y Calvo-Sastre, A. (2018). Improvement Programme for Initial Teacher Training in Bachelor’s Degrees in Early Childhood, Primary, and Secondary Education at the University of the Balearic Islands. International Conference Teacher Education and Educational Research in the Mediterranean, Malta.

Parker, S. (2018). Literature Review on Teacher Education Entry Requirements. School of Education, University of Glasgow. Recuperado de http://www.gtcs.org.uk/web/FILES/research/GTCS-Literature-Review-on-Teacher-Education-Entry-Requirements.pdf

Pedrosa, I., Suárez-Álvarez, J. y García-Cueto, E. (2013). Evidencias sobre la Validez de Contenido: Avances Teóricos y Métodos para su Estimación. Acción Psicológica, 10(2), 3-18. http://dx.doi.org/10.5944/ap.10.2.11820Pérez-Granados, L. (2015). Análisis de las pruebas de acceso a la formación de docentes en España y Finlandia: conocimientos o competencias. Revista Complutense de Educación, 26(3).

Pérez-Granados, L. (2018). Using specific test to access for initial teacher training. Journal for Educators, Teachers and Trainers, 9(1), 12.

PM_FIP. (2017). Documento estratégico y de propuestas de intervención del Programa de Mejora de la Formación Inicial de los Estudios de Maestro y del Profesorado de Secundaria de la UIB (PM_FIP). Palma: Universitat de les Illes Balears. Recuperado de http://pmfip.uibvirtual.es/wp-content/uploads/sites/41/2019/10/def_pm_fip.pdf

REDE (2018). La profesión docente a debate. Recuperado de https://www.dialogorede.es/wp-content/uploads/2019/03/MdD_documentobase_debatepublico.pdf

See, B. H., Morris, R., Gorard, S., Kokotsaki, D. y Abdi, S. (2020). Teacher Recruitment and Retention: A Critical Review of International Evidence of Most Promising Interventions. Education Sciences, 10(262), 45. https://doi.org/10.3390/edusci10100262

Shechtman, Z. (1992). A group assessment procedure as a predictor of on-the-job performance of teachers. Journal of Applied Psychology, 77(3), 383-387. https://doi.org/10.1037/0021-9010.77.3.383

Simonsen, J. y Robertson, T. (2013). Routledge International Handbook of Participatory Design. Routledge.

Sureda-Negre, J. y Oliver-Trobat, M.F. (Dir.) (2015). La formació inicial del professorat d’Educació Infantil i Primària a les Illes Balears. Estat de la qüestió i propostes per a la millora. Palma: Universitat de les Illes Balears. Recuperado de https://diari.uib.cat/digitalAssets/329/329375_1-dossier.pdf

Sureda-Negre, J., Oliver-Trobat, M.F. y Comas-Forgas, R. (2016). Medidas para la mejora de la formación inicial de los maestros según el profesorado de un departamento de Pedagogía. Bordón, 68(2), 155-168. https://doi.org/10.13042/Bordon.2016.68210

Sureda-Negre, J., Oliver-Trobat, M. y Comas-Forgas, R. (2020). Improving the Training of Primary School Teachers: Agreememnts and Disagreements Between Active Teachers and University Professors. Educational Practice and Theory, 42(2), 77-104. https://doi.org/10@font-face

The Australian Secondary Principals’ Association. (2015). Initial Teacher Education: Selection Criteria for Teacher Education Candidates. The Australian Secondary Principals’ Association on behalf of thepeak national principal associations.

UIB (2017a). Documento estratégico y de propuestas de intervención del Programa de Mejora de la Formación Inicial de los Estudios de Maestro y del Profesorado de Secundaria de la UIB (PM_FIP). Palma: Universitat de les Illes Balears. Recuperado de http://pmfip.uibvirtual.es/wp-content/uploads/sites/41/2019/10/def_pm_fip.pdf

UIB (2017b). Resolución del Rectorado de día 12 de septiembre de 2017 por la que se hace pública la composición de la Comisión de la UIB para la mejora de la formación inicial de los estudios de maestro y de profesorado de secundaria. Recuperado de https://seu.uib.cat/fou/acord/12458/

Universidad de Deusto (2021). Proceso de ingreso grado. Recuperado de https://www.deusto.es/cs/Satellite/deusto/es/nuevos-estudiantes-de-grado/proceso-de-ingreso

Wilcox, D. (1994). Guide to Effective Participation. Delta Press.

Wright, V. (2015). Is ATAR Useful For Predicting The Success of Australian Students In Initial Teacher Education? Australian Journal of Teacher Education, 40(9), 16. https://doi.org/10.14221/ajte.2015v40n9.1

Información de contacto: Miquel F. Oliver-Trobat. Universidad de las Islas Baleares, Facultad de Educación. Departamento de Pedagogía Aplicada y Psicología de la Educación. E-mail: m.oliver@uib.es


1(1) Para más información: http://pmfip.uibvirtual.es/comissio/

2(2) Desde este enlace se puede acceder a la selección bibliográfica: https://bit.ly/2YqaQ6Y

3(3) Participaron 41 especialistas de: cinco universidades españolas; maestros de centros de educación infantil y primaria y representantes de la Administración educativa.

4(4) El valor predictivo será objeto de una investigación en profundidad mediante un estudio longitudinal.

5(5) Los prototipos de las pruebas piloto se pueden consultar en: https://bit.ly/3pu9Qeb

6(6) Se optó por un modelo mixto al incorporar atributos cognitivos solo evaluables de forma oral, además de los no cognitivos (véase Tabla II).

7(7) Un elemento determinante de la elección de este tipo de prueba fue la sesión que el grupo de trabajo mantuvo con un equipo de la Universitat Pompeu Fabra que estaba realizando una experimentación de admisión en el Máster de Formación del Profesorado utilizando la VP.

8(8) Esta fase no fue objeto de experimentación ya que la prueba piloto se realizó durante el curso escolar.

9(9) En esta dirección se pueden consultar los cambios introducidos: https://bit.ly/3orRSr9

10(10) La información de la prueba y los modelos de exámenes está disponible en: https://estudis.uib.es/es/grau/acces/admissio_pap_edu/

11(11) En el caso de España sería la calificación de la CAU.

12(12) En nuestro caso el 31,25% de los alumnos obtuvieron puntuaciones superiores o iguales a 8; el 25% obtuvieron puntuaciones mayores de 6 e inferiores a 8 y el 47,75% puntuaciones inferiores o iguales a 6.

13(13) El proceso participativo tiene una vocación de continuidad en el tiempo y por esto, cuando las pruebas se apliquen, la fase 2 se deberá repetir de manera que las PA sean rediseñadas tantas veces como sea necesario a partir de los resultados del análisis de la evaluación longitudinal realizada en la fase 3.