|
|
|
|
|
|
|
|
|
|
Cómo citar este artículo:
Farida, F., Alamsyah, Y. A., Anggoro, B. S.,
Andari, T., & Lusiana, R. (2024). Validación de una Herramienta de
Evaluación Basada en el Modelo Rasch para Medir la Resolución Creativa de
Problemas en Estudiantes Mediante el Uso de TIC [Rasch Measurement Validation
of an Assessment Tool for Measuring Students’ Creative Problem-Solving through
the Use of ICT]. Pixel-Bit. Revista De
Medios Y Educación, 71, 83–106. https://doi.org/10.12795/pixelbit.107973
RESUMEN
A pesar del creciente reconocimiento de la importancia
de la resolución creativa de problemas (CPS) a través del uso de las TIC en la
educación con un currículo independiente, existe una falta de validación
psicométrica integral para los instrumentos de evaluación de CPS. Este estudio
tuvo como objetivo desarrollar y evaluar un instrumento de evaluación para
medir la CPS a través del uso de las TIC en estudiantes, utilizando el modelo
Rasch. Participaron un total de 137 estudiantes de educación superior como
encuestados. Para este propósito, se crearon 20 ítems que cubrían diferentes
aspectos de la CPS. El análisis de datos se realizó utilizando el software
Winstep y SPSS. Se empleó el modelo Rasch para confirmar la validez y
fiabilidad del instrumento de medición recién desarrollado. Los hallazgos del
análisis del modelo Rasch indicaron un buen ajuste entre los ítems de
evaluación y los estudiantes individuales. Los ítems demostraron un ajuste
adecuado con el modelo Rasch, lo que permitió diferenciar los niveles de
dificultad entre diferentes ítems y mostró un nivel satisfactorio de
fiabilidad. El análisis del mapa de Wright reveló patrones de interacción entre
los ítems y los individuos, discriminando efectivamente entre los diversos
niveles de habilidades de los estudiantes. En particular, un ítem mostró DIF basado
en el género, lo que favorece a los estudiantes varones en términos de sus
habilidades de respuesta. Además, el estudio identificó que las estudiantes en
el cuarto semestre exhibieron habilidades de respuesta promedio más altas en
comparación con las estudiantes en el sexto y octavo semestre. Además, se
observaron diferencias significativas en las habilidades de respuesta entre
estudiantes varones y mujeres, así como entre estudiantes que residen en áreas
urbanas y rurales. Estos hallazgos son cruciales para los educadores,
enfatizando la necesidad de implementar estrategias de diferenciación
efectivas.
ABSTRACT
Despite increasing recognition
of the importance of creative problem solving (CPS) through
the use of ICT in independent curriculum education, there is a lack of
comprehensive psychometric validation for CPS assessment instruments. This
study aimed to develop and evaluate an assessment instrument to measure CPS through the use of ICT students using the Rasch model. A
total of 137 higher education students participated as respondents. For this
purpose, 20 items were created, covering different aspects of CPS. Data analysis was performed using
Winstep and SPSS software. The Rasch model was employed to confirm the validity
and reliability of the newly developed measurement instrument. The findings of
the analysis of the Rasch model indicated a good fit between the assessment
items and individual students. The items demonstrated adequate fit with the
Rasch model, allowing for differentiation of difficulty levels among different
items and exhibiting a satisfactory level of reliability. The Wright map
analysis revealed patterns of interaction between the items and individuals,
effectively discriminating between varying levels of student abilities. In particular, an item showed DIF based on gender, which
favours male students in terms of their response abilities. Furthermore, the
study identified that female students in the fourth semester exhibited higher
average response abilities compared to female students in the sixth and eighth
semesters. Furthermore, significant differences in response abilities were
observed between male and female students, as well as between students who
resides in urban and rural areas. These findings are crucial for educators,
emphasising the need to implement effective differentiation strategies.
PALABRAS CLAVES· KEYWORDS
Resolución creativa de
problemas, TIC, educación, género, psicometría, medición Rasch
Creative problem solving, ICT,
education, gender, psychometric, Rasch measurement
1. Introducción
En los últimos años, ha
habido un creciente interés en evaluar las habilidades de resolución creativa
de problemas (CPS) entre los estudiantes utilizando tecnologías de la
información y la comunicación (TIC), ya que se reconoce como una habilidad
crucial en el siglo XXI (Care & Kim, 2018; Hao et al., 2017). La capacidad de pensar creativamente y
encontrar soluciones innovadoras a problemas complejos es crucial en un mundo
en constante cambio que exige adaptabilidad y pensamiento creativo (Suherman & Vidákovich, 2022). Además, las TIC desempeñan un papel
central en el marco DigCompEdu, donde las tecnologías se integran en las
prácticas de enseñanza de manera pedagógicamente significativa (Caena & Redecker, 2019). Comprender y promover las habilidades de
CPS entre los estudiantes es crucial por varias razones. En primer lugar,
fomentar la creatividad capacita a las personas para generar soluciones
innovadoras (Lorusso et al., 2021), fomentar el espíritu empresarial (Val et al., 2019), e impulsar el crecimiento económico (Florida, 2014). Además, la resolución creativa de
problemas (CPS) es vital para abordar desafíos sociales complejos, como la
sostenibilidad y la desigualdad social (Mitchell & Walinga, 2017).
Como implicación de la era del
siglo XXI, numerosos países han reconocido la necesidad de incorporar
habilidades como la resolución creativa de problemas (D. Lee & Lee, 2024), pensamiento computacional (Küçükaydın et al., 2024), Tecnologías de la Información y la
Comunicación (TIC) (Rahimi & Oh, 2024), y creatividad (Suherman & Vidákovich, 2024), que son identificadas como habilidades
esenciales para el siglo XXI. Estas competencias están siendo cada vez más
integradas en los currículos educativos para preparar a los estudiantes para
las demandas de la sociedad moderna y el mercado laboral en evolución (Abina et al., 2024). Por lo tanto, el énfasis en desarrollar
estas habilidades refleja un reconocimiento global de su importancia para el
éxito futuro (Yu & Duchin, 2024). El impacto de la era del siglo XXI se
extiende más allá de la educación hacia la fuerza laboral y la vida diaria. La
investigación de Arredondo-Trapero et al. (2024) enfatiza que la resolución de problemas,
el pensamiento crítico y las TIC son cruciales para la innovación y la
competitividad en el ámbito global de la educación. En consecuencia, los
sistemas educativos y los currículos están bajo presión para reformarse y
equipar a los estudiantes con estas habilidades, asegurando así que estén
preparados para los desafíos futuros.
La resolución creativa de
problemas (CPS) en un currículo independiente también fomenta la colaboración y
el trabajo en equipo. Al incorporar CPS en el currículo, los estudiantes tienen
la capacidad de abordar problemas con una mente abierta y explorar múltiples
perspectivas (Burns & Norris, 2009). Se les anima a cuestionar suposiciones,
desafiar el saber convencional y buscar soluciones alternativas. Este proceso
no solo desarrolla habilidades analíticas, sino que también fomenta la
creatividad y habilidades de pensamiento divergente (Suherman & Vidákovich, 2022). Un currículo independiente proporciona a
los estudiantes la libertad de explorar temas de interés y participar en el
aprendizaje autodirigido (Lestari et al., 2023), colaborativo y en equipo (Zheng et al., 2024). Este enfoque se alinea con las
necesidades del estudiante del siglo XXI al enfatizar caminos educativos
personalizados que responden a las fortalezas y preferencias individuales (Zhang et al., 2024). Se anima a los estudiantes a trabajar
juntos, aprovechando sus diversas perspectivas y habilidades para abordar
desafíos complejos (Utami & Suswanto, 2022). Este entorno colaborativo fortalece las
habilidades interpersonales y de comunicación, preparándolos para futuras
colaboraciones empresariales. Además, incorporar CPS en el currículo prepara a
los estudiantes para las demandas de la fuerza laboral rápidamente cambiante
del siglo XXI (Stankovic et al., 2017). A medida que el mundo se vuelve cada vez
más complejo e interconectado (Brunner et al., 2024), los empleadores buscan individuos que
puedan pensar críticamente (Carnevale & Smith, 2013), adaptarse al cambio y generar soluciones
innovadoras (Wolcott et al., 2021).
La resolución creativa de
problemas (CPS) ha ganado reconocimiento como un conjunto de habilidades
valioso en contextos educativos, incluyendo el currículo independiente. Sin
embargo, su implementación puede enfrentar varios desafíos que deben abordarse para
asegurar su efectividad y éxito. Investigaciones previas han resaltado la
importancia de las habilidades de CPS en diversos contextos educativos (Greiff et al., 2013; Wang et al., 2023;
Wolcott et al., 2021). Uno de los desafíos es la falta de capacitación docente y familiaridad
con las técnicas de CPS. Estudios han demostrado que los educadores pueden
tener dificultades para integrar CPS en sus prácticas pedagógicas debido a
conocimientos limitados y poca experiencia en facilitar actividades de CPS (van Hooijdonk et al., 2020). Esto puede obstaculizar la
implementación efectiva de CPS y limitar su impacto en el aprendizaje de los
estudiantes. Además, la investigación ha explorado factores que contribuyen al
desarrollo de las habilidades de CPS, incluyendo la influencia de la cultura (Cho & Lin, 2010), enfoques instructivos y características
individuales (Samson, 2015). Sin embargo, se entienden de manera
limitada los factores específicos que desarrollan las habilidades de CPS en los
estudiantes.
En cuanto a la evaluación,
estudios previos han explorado enfoques alternativos para evaluar las
habilidades de CPS. Se han propuesto métodos de evaluación basados en el
desempeño, portafolios y rúbricas que evalúan la creatividad, el pensamiento
crítico, el pensamiento metafórico, la motivación tecnológica relacionada con
la resolución de problemas y las habilidades para resolver problemas como
métodos más completos y auténticos (Abosalem, 2016; Farida et al., 2022; Liu
et al., 2024; Montgomery, 2002; Suastra et al., 2019). Estos enfoques proporcionan una visión
más holística de las habilidades de CPS de los estudiantes y fomentan el
desarrollo de habilidades de pensamiento de orden superior. Sin embargo, la
investigación también ofrece soluciones potenciales, como el desarrollo
profesional de los docentes, la integración en el currículo y métodos de
evaluación alternativos. Al revisar la literatura relevante, nuestro objetivo
es construir sobre el conocimiento existente e identificar las lagunas en la
comprensión, proporcionando una base para la contribución de este estudio al
campo.
A pesar del creciente
reconocimiento de la importancia de la resolución creativa de problemas (CPS)
en la educación con currículo independiente, existe una falta de validación
psicométrica integral de instrumentos de evaluación de CPS. Validar el instrumento
de medición es crucial, ya que CPS sigue siendo un constructo psicológico poco
definido desde una perspectiva psicométrica (Tang et al., 2020). En ausencia de
evaluaciones válidas y confiables, los instructores enfrentan desafíos para
medir de manera confiable el aprendizaje de CPS de los estudiantes en el aula.
Por lo tanto, este estudio tiene como objetivo validar CPS utilizando el modelo
de Rasch, investigando si los datos se alinean con la medición del modelo de
Rasch. Las preguntas de
investigación son las siguientes:
1. ¿El instrumento desarrollado demuestra
fiabilidad y validez basadas en la medición de Rasch?
2. ¿Cuáles son los patrones de interacción
entre ítems y personas en el instrumento desarrollado según el mapa de Wright?
3. ¿Existen sesgos en el instrumento basados
en el género según el análisis de Funcionamiento Diferencial del Ítem (DIF)?
4. ¿Cómo se desarrolla la resolución
colaborativa de problemas (CPS) en los estudiantes en términos de
calificaciones del curso?
1.1. CPS
La resolución creativa de
problemas (CPS) es un proceso que permite a las personas aplicar el pensamiento
creativo y crítico para encontrar soluciones a problemas cotidianos (T. Lee et al., 2023; Van Hooijdonk et
al., 2023). CPS ayuda a eliminar la tendencia a abordar los problemas de manera
aleatoria y, como resultado, evitar sorpresas y/o decepciones con las
soluciones. Los estudiantes aprenden a trabajar juntos o individualmente para
encontrar soluciones apropiadas y únicas a problemas del mundo real que puedan
enfrentar, utilizando métodos probados y probados. Más importante aún, se les
desafía a pensar tanto de manera creativa como crítica a medida que enfrentan
cada problema.
CPS también puede ser
influenciada por factores externos como la habilidad individual para lograr
metas requeridas a través de un proceso creativo para encontrar nuevas
soluciones. La importancia de la comunicación en el proceso educativo significa
que los maestros también deben poseer diversas competencias como personalidad,
comunicación, sociales, aprendizaje permanente, metodología, planificación,
organización, liderazgo y evaluación, para discernir los problemas más
significativos para sus encuestados (Suryanto, Degeng, Djatmika &
Kuswandi, 2021). La investigación indica que la resolución creativa de problemas puede
proporcionar a los estudiantes las habilidades para abordar problemas
cotidianos (Abdulla Alabbasi et al., 2021). Estas habilidades requieren práctica
extensiva que involucra el proceso creativo, y estas actividades son cruciales
para desarrollar habilidades sociales en el campo de la creatividad. Evaluar
ideas e involucrar a múltiples personas en la toma de decisiones con
pensamiento creativo en la vida cotidiana: el proceso de generar nuevas ideas y
aún discutir diferentes formas de pensar.
La integración de CPS y TIC
representa intersecciones cruciales en la educación contemporánea. En contextos
educativos, las TIC sirven como un conjunto de herramientas poderosas que no
solo mejoran los métodos de aprendizaje tradicionales, sino que también
fomentan las habilidades de CPS entre los estudiantes (Guillén-Gámez et al., 2024; Mäkiö et al.,
2022). Además, las TIC permiten experiencias de aprendizaje personalizadas
adaptadas a las necesidades de los estudiantes (Gaeta, Miranda, Orciuoli, Paolozzi &
Poce, 2013), capacitándolos para desarrollar habilidades de CPS de manera diversa y
atractiva (Andrews-Todd et al., 2023; Treffinger,
2007). A medida que evolucionan los paradigmas educativos, la integración de CPS
y TIC no solo prepara a los estudiantes para los desafíos del mundo moderno,
sino que también los equipa con habilidades esenciales para prosperar en una
sociedad impulsada digitalmente.
Investigaciones recientes
subrayan la importancia de integrar las TIC para mejorar las habilidades de CPS
entre los estudiantes en entornos educativos. Según Selfa-Sastre, Pifarre, Cujba, Cutillas
& Falguera (2022), las TIC desempeñan un papel crucial en la promoción de la creatividad a
través de la resolución colaborativa de problemas y la expresión creativa en la
educación lingüística. Su estudio destaca cómo las tecnologías digitales
permiten diversas oportunidades de aprendizaje y facilitan tres roles clave en
el fomento de la creatividad colaborativa. Estos roles implican el uso de
tecnologías interactivas para involucrar a los estudiantes en experiencias de
aprendizaje co-creativas, equipándolos con competencias esenciales para
enfrentar desafíos complejos en un mundo globalizado e interconectado. Además, Wheeler, Waite, & Bromfield (2002) enfatizan que las TIC permiten a los
estudiantes participar en tareas complejas de resolución de problemas que
requieren creatividad. Sus hallazgos sugieren que la integración de
herramientas de TIC en las aulas educativas no solo mejora las habilidades
técnicas de los estudiantes, sino que también cultiva su capacidad para pensar
creativamente y abordar problemas desde diferentes ángulos. Estudios como estos
destacan colectivamente la sinergia entre CPS y TIC en la educación, destacando
las TIC como un catalizador para fomentar el pensamiento creativo y las
habilidades de resolución de problemas esenciales para los estudiantes del
siglo XXI. Integrar las TIC de manera efectiva en las prácticas pedagógicas no
solo enriquece las experiencias educativas, sino que también prepara a los
estudiantes para prosperar en un mundo cada vez más complejo y digital.
Varios investigadores han
desarrollado instrumentos para evaluar la habilidad de CPS. Por ejemplo, el
estudio realizado por Hao et al. (2017) se centró en desarrollar una evaluación
estandarizada de habilidades de CPS. Los investigadores reconocieron la
importancia de CPS en los entornos de trabajo colaborativos de hoy en día y se
propusieron abordar los desafíos prácticos asociados con la evaluación de este
constructo complejo. El estudio también destacó la importancia de establecer
rúbricas de puntuación claras y criterios para evaluar el desempeño de CPS. En
otro estudio, Harding et al. (2017) se centraron en medir CPS utilizando
tareas basadas en matemáticas. El estudio destacó el potencial de las tareas
basadas en matemáticas para evaluar habilidades de CPS. Emplearon análisis
psicométricos rigurosos para examinar la confiabilidad y validez del
instrumento de evaluación.
Estos instrumentos
desarrollados por diferentes investigadores proporcionan recursos valiosos para
evaluar las capacidades de CPS. Ofrecen un enfoque integral para medir diversos
aspectos de CPS, incluyendo el pensamiento creativo, estrategias de resolución
de problemas y colaboración. Utilizando estos instrumentos, los investigadores
y educadores pueden obtener información sobre las habilidades de CPS
individuales y adaptar estrategias de instrucción para mejorar las habilidades
de resolución creativa de problemas de los estudiantes.
1.2. Medición Rasch
La medición Rasch es un
enfoque psicométrico desarrollado por Georg Rasch en la década de 1960 (Panayides et al., 2010). Se utiliza para analizar e interpretar
datos de evaluaciones educativas y psicológicas. El modelo Rasch, también
conocido como modelo de medición Rasch o modelo Rasch para la teoría de
respuesta al ítem (IRT), es un modelo matemático que relaciona la probabilidad
de una respuesta a un ítem con el nivel de habilidad o rasgo del individuo
evaluado (Cappelleri et al., 2014; Rusch et al.,
2017).
El modelo Rasch se basa en
el principio de medición probabilística, lo que significa que evalúa la
probabilidad de un patrón de respuesta particular dado la habilidad de la
persona y la dificultad del ítem (Kyngdon, 2008). Las personas con habilidades más altas
deberían tener una mayor probabilidad de responder correctamente a los ítems,
reflejando niveles de dificultad más fáciles (Tesio et al., 2023). En otras palabras, las probabilidades
están estrechamente relacionadas con las diferencias entre la dificultad del
ítem y la habilidad individual (Boone et al., 2014). El modelo asume que la probabilidad de
una respuesta correcta sigue una función logística y que la dificultad del ítem
y la habilidad de la persona pueden colocarse en el mismo continuo subyacente,
a menudo denominado escala de logit. En la medición Rasch, las habilidades de
las personas y las dificultades de los ítems se calibran en una escala
intervalar llamada logit, y los parámetros de ítem y persona son completamente
independientes (Chan et al., 2021). Esto significa que la medición de las
habilidades de los estudiantes permanece igual independientemente del nivel de
dificultad de los ítems, y las dificultades de los ítems permanecen invariables
independientemente de las habilidades de los estudiantes o los examinados.
La medición Rasch
proporciona varias ventajas. Permite el desarrollo de medidas lineales que son
independientes de los ítems específicos utilizados en la evaluación (Caty et al., 2008). Esto significa que los puntajes
obtenidos de diferentes conjuntos de ítems pueden compararse y agregarse. La
medición Rasch también proporciona información sobre la confiabilidad de la
medición y el ajuste de los datos al modelo, lo que ayuda a evaluar la calidad
del instrumento de evaluación. En la investigación educativa y psicológica, la
medición Rasch se utiliza comúnmente para evaluar la calidad de los ítems de
prueba, calibrar la dificultad de los ítems, estimar la habilidad de las
personas y realizar análisis de ítems y personas. Tiene aplicaciones en
diversos campos, incluyendo la evaluación educativa, la investigación de
resultados de salud y las ciencias sociales (Planinic et al., 2019). Al emplear el modelo Rasch, los
investigadores pueden obtener información valiosa sobre la relación entre
individuos e ítems, refinar instrumentos de medición y hacer inferencias
significativas sobre el constructo que se está midiendo.
2. Metodología
2.1. Participantes
En este estudio transversal,
participaron un total de 137 estudiantes de educación superior como
encuestados. Estos estudiantes fueron seleccionados del Departamento de
Educación Matemática en Indonesia utilizando una técnica de muestreo aleatorio
estratificado. La aprobación ética está siendo considerada por los Comités de
Revisión Institucional de la Universitas Islam Negeri Raden Intan Lampung. Esta
técnica de muestreo fue elegida para asegurar que la población de la muestra
represente con precisión a toda la población investigada. La edad promedio de
los participantes fue de 20.84 años, con una desviación estándar (DE) de 1.34.
En cuanto a la distribución por género, el 51.8% de los encuestados eran
mujeres, mientras que el 48.2% eran hombres. En cuanto a su lugar de
residencia, la mayoría de los estudiantes (50.4%) provenían de la ciudad,
mientras que el 49.6% restante provenía de otras áreas. Las características de
los encuestados se presentan en la Tabla 1.
Tabla 1
Características de los Participantes
2.2. Instrumento
Los instrumentos utilizados
en este estudio fueron desarrollados por investigadores y diseñados
específicamente para evaluar las habilidades de resolución creativa de
problemas (CPS) de los estudiantes. Estos instrumentos se alinearon con el
currículo local de la educación superior para garantizar que midieran de manera
efectiva las habilidades y competencias deseadas. Se desarrollaron un total de
20 ítems con este propósito, que abarcan varios aspectos de CPS en el uso de
las TIC.
Los ítems en los
instrumentos fueron cuidadosamente diseñados para evaluar la capacidad de los
estudiantes para aplicar habilidades de pensamiento de orden superior,
pensamiento crítico y creativo, estrategias de resolución de problemas y
colaboración en el contexto de desafíos del mundo real. Los ítems tenían como
objetivo evaluar la capacidad de los estudiantes para generar soluciones
innovadoras, pensar críticamente sobre problemas complejos, comunicarse y
colaborar eficazmente con otros, y demostrar adaptabilidad y resiliencia en
situaciones de resolución de problemas.
Mediante el uso de estos
instrumentos, los investigadores buscaban obtener una visión valiosa de las
habilidades de CPS de los estudiantes y su capacidad para aplicar estas
habilidades en diferentes escenarios. Los instrumentos se desarrollaron para
proporcionar una medición confiable y válida de CPS, permitiendo a los
investigadores obtener una comprensión integral de las fortalezas y áreas de
mejora en este ámbito. El uso de estos instrumentos en este estudio permitió
una evaluación sistemática y estandarizada de CPS, proporcionando datos
valiosos que pueden contribuir a mejorar las prácticas educativas y el
desarrollo curricular.
2.3. Procedimiento
Este estudio implicó un
período de recolección de datos de una semana entre estudiantes de educación
superior para evaluar sus habilidades de resolución creativa de problemas
(CPS). La prueba de CPS se administró utilizando Google Forms durante las sesiones
regulares de clase dedicadas a los cursos respectivos. A los estudiantes se les dio acceso a la prueba a través de su computadora
portátil o teléfono móvil y se les concedieron 90 minutos para completarla. En
la encuesta de Google Forms, se les pidió a los estudiantes que proporcionaran
su información demográfica, incluyendo sexo, lugar de residencia, etnicidad y
nivel de grado. La prueba de CPS consistió en ítems de opción múltiple,
diseñados para evaluar varios aspectos de las habilidades de CPS. Antes de
comenzar la prueba, el investigador proporcionó instrucciones a los estudiantes
y presentó tres ejemplos de ítems para familiarizarlos con el formato de las
preguntas y los caracteres que aparecerían en la prueba. Una vez respondidas
todas las preguntas, los estudiantes enviaron sus respuestas haciendo clic en
el botón 'Enviar', lo que guardó sus respuestas para su posterior análisis.
2.4.
Análisis de datos
Los datos recolectados en
este estudio fueron analizados utilizando la medición Rasch, un enfoque
psicométrico ampliamente utilizado para evaluar la concordancia entre los datos
observados y el modelo de medición subyacente. En este estudio, se utilizó el
programa Winsteps versión 4.7.0 (Linacre, 2020) para analizar los datos, aplicando el
modelo Rasch para analizar las respuestas a los ítems del test de CPS. El
modelo estima la dificultad de cada ítem y la habilidad de cada estudiante en
una escala común de logit.
Los datos obtenidos del
instrumento de evaluación de CPS fueron analizados utilizando varios parámetros
y técnicas de medición Rasch. Se calcularon el mean square del Outfit (MNSQ) y
el Z-standardised del Outfit (ZSTD) para evaluar el ajuste de cada ítem. El
Outfit MNSQ proporciona una indicación del grado en que las respuestas
observadas se desvían de las respuestas esperadas según el modelo Rasch,
mientras que el Outfit ZSTD estandariza los valores de MNSQ para facilitar la
comparación entre ítems. Se calculó la correlación punto-medida (Pt-measure
correlation) para examinar la relación entre la dificultad del ítem y la
habilidad de la persona. Este coeficiente de correlación mide la fuerza de la
asociación entre las respuestas a los ítems y las habilidades estimadas de las
personas en la escala de logit.
El mapa de Wright, una
representación gráfica, se utilizó para mostrar la distribución de las
dificultades de los ítems y las habilidades correspondientes de los
estudiantes. Este mapa proporciona una visión general de la jerarquía de
dificultades de los ítems y el rango de habilidades exhibidas por los
estudiantes. Además, se realizó un análisis de valor logit de la persona (LVP)
para identificar las habilidades de CPS de los estudiantes.
Para explorar posibles
diferencias en el funcionamiento de los ítems según el género y el lugar de
residencia, se llevó a cabo un análisis de DIF. El análisis de DIF identifica
ítems que pueden funcionar de manera diferente para diferentes grupos, lo que
indica un posible sesgo o desempeño diferencial entre grupos.
Para analizar las
diferencias en las habilidades de CPS entre los estudiantes, se utilizó el
software SPSS versión 26. Se calcularon estadísticas descriptivas como la media
y la desviación estándar (SD) para proporcionar una visión general de los
datos. Además, se emplearon estadísticas del paquete R para visualizar el mapa.
3. Resultados
3.1. Pregunta de investigación
1: ¿El instrumento desarrollado demuestra fiabilidad y validez basadas en la
medición de Rasch?
Los resultados del análisis
de validación utilizando la medición Rasch se presentan en la Tabla 2.
Tabla 2
Resultados del Análisis Rasch realizado en CPS
Características |
Ítem |
Persona |
Número de Ítems |
20 |
137 |
infit MNSQ |
|
|
Media |
1.00 |
1.00 |
SD |
0.18 |
0.14 |
outfit MNSQ |
|
|
Media |
1.02 |
1.02 |
SD |
0.30 |
0.29 |
Separación |
4.01 |
1.40 |
Confiabilidad |
0.66 |
0.94 |
Varianza
bruta explicada por las medidas |
76.6% |
|
3.2. Pregunta de
investigación 2: ¿Cuáles son los patrones de interacción entre ítems y personas
en el instrumento desarrollado según el mapa de Wright?
El patrón de interacción entre los ítems y los
individuos en el instrumento desarrollado, basado en el mapa de Wright, se
presenta en la Figura 1. En la Figura 1 se observa que el instrumento consta de
20 ítems e involucra a 137 estudiantes como encuestados. La línea vertical del
lado derecho representa los ítems, mientras que el lado izquierdo representa el
número de encuestados. Se puede notar que el ítem número 13 (Q13) cae en la
categoría de ítems fáciles, mientras que el ítem número 12 (Q12) se clasifica
como un ítem difícil. La distribución o características de los ítems difíciles
y fáciles se pueden observar en la Figura 2. Por otro lado, la distribución del
ajuste de los ítems se muestra en la Figura 3.
Figura 1
Mapa de Wright
Figura 2
Un ítem pertenece a los ítems difíciles y fáciles
Figura 3
La distribución de los ítems se basa en el Mapa de Burbujas
Para determinar el ajuste de
los ítems desarrollados basados en el modelo Rasch, se consideraron tres
criterios: Outfit MNSQ, Outfit ZSTD y Pt-Measure Corr. Un rango entre 0.5 y 1.5
para los valores de Outfit MNSQ tanto para ítems como para individuos indica un
buen ajuste entre los datos y el modelo. Los valores de Outfit ZSTD entre -1.9
y 1.9 implican que los ítems pueden predecirse. Además, Pt-Measure Corr se
utiliza para determinar si los ítems miden el constructo deseado. Si el valor
es positivo (+), indica que el ítem mide el constructo deseado. Por el
contrario, si el valor es negativo (-), el ítem no mide el constructo deseado.
Tabla 3
Distribución de Ítems Basada en 3 Criterios de
Ajuste de Ítem
Ítems |
Medida |
Infit MNSQ |
Outfit MNSQ |
Outfit SZTD |
Correlación Pt-Measure |
8 |
-0.08 |
1.60 |
1.95 |
8.51 |
-0.27 |
13 |
1.95 |
1.05 |
1.41 |
1.47 |
0.22 |
5 |
0.74 |
1.11 |
1.33 |
2.52 |
0.22 |
4 |
-1.43 |
1.15 |
1.28 |
1.47 |
0.16 |
9 |
0.86 |
1.09 |
1.16 |
1.17 |
0.27 |
16 |
0.90 |
1.16 |
1.08 |
0.63 |
0.24 |
17 |
0.33 |
1.04 |
1.06 |
0.67 |
0.34 |
19 |
-0.12 |
1.05 |
1.01 |
0.19 |
0.35 |
20 |
-0.19 |
1.02 |
0.96 |
-0.41 |
0.38 |
18 |
-0.12 |
1.00 |
0.96 |
-0.43 |
0.40 |
6 |
0.37 |
0.95 |
0.88 |
-1.26 |
0.45 |
14 |
-0.08 |
0.94 |
0.91 |
-1.05 |
0.45 |
1 |
0.19 |
0.91 |
0.91 |
-1.00 |
0.48 |
3 |
-0.64 |
0.91 |
0.86 |
-1.30 |
0.47 |
2 |
-0.53 |
0.89 |
0.90 |
-0.98 |
0.47 |
11 |
1.03 |
0.89 |
0.81 |
-1.35 |
0.49 |
10 |
-0.94 |
0.86 |
0.81 |
-1.48 |
0.50 |
15 |
-1.01 |
0.82 |
0.75 |
-1.90 |
0.54 |
12 |
-1.47 |
0.80 |
0.64 |
-2.13 |
0.54 |
7 |
0.23 |
0.69 |
0.63 |
-4.57 |
0.70 |
Basado en los tres criterios
mencionados, es evidente que el ítem 8 (Q8) no cumple con los criterios
mencionados anteriormente, lo que indica que el ítem no se ajusta bien. Por lo
tanto, se recomienda eliminar o revisar el ítem 8. Como se muestra en la Figura
5, Q8 parece acercarse a un ajuste insuficiente, lo que indica que no se alinea
bien con el modelo Rasch.
3.3. Pregunta de
investigación 3: ¿Existen sesgos en el instrumento basados en el género según
el análisis de Funcionamiento Diferencial del Ítem (DIF)?
Se realizó un análisis de DIF para determinar si había
ítems que favorecían a un género (en el contexto de este estudio). Un ítem se
considera que tiene DIF si el valor t es menor que -2.0 o mayor que 2.0, el
valor de contraste de DIF es menor que -0.5 o mayor que 0.5, y el valor de p es
menor que 0.05 o mayor que -0.05 (Bond & Fox,
2015; Boone et al., 2014). Aquí están los
resultados del análisis utilizando el modelo Rasch.
Tabla 4
DIF Potencial Debido al Género
Ítem |
DIF |
Contraste DIF |
t-value |
Prob. |
|
Feminino |
Masculino |
||||
Q12 |
-1.97 |
-1.06 |
-0.91 |
-2.04 |
0.0432 |
El análisis revela que el
ítem Q12 es un ítem difícil, lo que indica que puede diferenciar las
habilidades entre hombres y mujeres. Esto es apoyado por el análisis de DIF,
que examina el rendimiento del ítem en los grupos de género. El gráfico de DIF
(Fig. 4) proporciona una representación visual de los valores de DIF para cada
ítem.
En el gráfico, los valores
de DIF para el ítem Q12 son notablemente más altos en comparación con los otros
ítems. Esto sugiere que hay una diferencia significativa en el rendimiento de
hombres y mujeres en este ítem en particular. El análisis de DIF indica que el
ítem Q12 puede favorecer a un género sobre el otro en términos de dificultad o
discriminación. Estos hallazgos son importantes porque destacan posibles sesgos
relacionados con el género en la medición de habilidades colaborativas para
resolver problemas. Puede ser necesario realizar una investigación adicional y
una revisión potencial del ítem para garantizar una evaluación justa e
imparcial de todas las personas, independientemente de su género.
Figura
4
Potencial DIF Debido al Género
3.4. Pregunta de
investigación 4: ¿Cómo se desarrolla la resolución colaborativa de problemas
(CPS) en los estudiantes en términos de calificaciones del curso?
La descripción estadística de las respuestas de los
estudiantes a los ítems dados se presenta en la Tabla 9. En la Figura 5 (a), se
puede observar que entre las estudiantes mujeres, aquellas en el cuarto
semestre tienen una habilidad de respuesta promedio (M) de M = 10.19, SD =
3.73, seguidas por las del sexto semestre con M = 10.00, SD = 3.32, y las del
octavo semestre con M = 9.50, SD = 3.37. Por otro lado, entre los estudiantes
hombres, aquellos en el 4º semestre tienen una habilidad de respuesta promedio
de M = 9.67, SD = 3.11, seguidos por los del 6º semestre con M = 5.67, SD =
1.51, y los del 8º semestre con M = 9.86, SD = 4.02.
Sin embargo, al comparar las
habilidades de los estudiantes según su lugar de residencia (urbano versus
rural), existen diferencias como se muestra en la Figura 5 (b). Las estudiantes
mujeres que residen en áreas urbanas tienen una habilidad de respuesta promedio
de M = 9.52, SD = 3.11, mientras que las de áreas rurales tienen M = 10.10, SD
= 3.59. De manera similar, los estudiantes hombres que residen en áreas urbanas
tienen una habilidad de respuesta promedio de M = 9.68, SD = 3.81, mientras que
los de áreas rurales tienen M = 9.00, SD = 3.58. Estos hallazgos indican que la
ubicación de residencia puede influir en cierta medida en las habilidades
colaborativas para resolver problemas de los estudiantes.
Figura 5
La capacidad de los estudiantes para responder según el grado y el género
(a), y el grado y el lugar de residencia (b)
4. Discusión
En general, este análisis
proporciona una comprensión de las características de medición de los ítems e
individuos en este estudio. Los hallazgos indican que la medición utilizada se
ajusta razonablemente bien al modelo de medición Rasch, con la capacidad de
diferenciar niveles de dificultad entre los ítems y un nivel de confiabilidad
suficientemente alto. El respaldo de investigaciones relevantes en este campo
también confirma estos hallazgos y proporciona una base sólida para entender
las características de medición de este estudio. Estudios previos, como el
realizado por Soeharto (2021), también encontraron resultados similares
en términos de ajuste, separación y confiabilidad de la medición.
Los resultados del análisis
que indican un buen ajuste entre los ítems e individuos con el modelo de
medición Rasch sirven como indicador de que la medición representa con
precisión las características medidas. La exitosa separación de niveles de
dificultad entre los ítems también proporciona una ventaja al proporcionar
información más detallada y precisa sobre las habilidades individuales medidas.
Esto es consistente con investigaciones previas que afirman que una separación
adecuada es crucial para garantizar una medición confiable y válida (Soeharto & Csapó, 2022).
Además, la confiabilidad
razonablemente buena tanto para ítems como para individuos proporciona la
seguridad de que los resultados de la medición obtenidos son confiables y
consistentes. En el contexto de este estudio, una confiabilidad de 0.66 para
ítems y 0.94 para personas indica un nivel satisfactorio de confiabilidad.
Otros estudios relevantes también pueden proporcionar apoyo para el análisis de
las características de medición realizadas en este estudio. Por ejemplo, un
estudio realizado por Chan et al. (2021) encontró resultados similares en términos
de ajuste y confiabilidad de la medición. Además, la investigación de Avinç & Doğan (2024) encontró que la validez y confiabilidad
fueron confirmadas por el modelo Rasch. Sin embargo, señalaron que sería
ventajoso probar su validez y confiabilidad en diversas clases, grupos de edad
y niveles educativos. Asimismo, este estudio, al igual que el de Welter et al. (2024) muestra que las propiedades psicométricas
son válidas y confiables utilizando la medición Rasch. En general, este
análisis proporciona una comprensión profunda de las características de
medición de los ítems e individuos en este estudio. El respaldo de investigaciones
relevantes y los resultados del análisis que muestran buen ajuste, separación y
confiabilidad brindan confianza en que la medición realizada en este estudio es
confiable y proporciona información válida sobre las características medidas.
Basándose en el patrón de
interacción observado en la Figura 3, se pueden sacar conclusiones sobre el
nivel de dificultad de los ítems. Por ejemplo, se observa que el ítem 13 (Q13)
está posicionado más bajo en la línea vertical, indicando que pertenece a la
categoría de ítems fáciles. Por el contrario, el ítem 12 (Q12) está posicionado
más alto, indicando que pertenece a la categoría de ítems difíciles.
Este análisis proporciona
información importante sobre el nivel de dificultad de cada elemento en el
instrumento desarrollado. Cuando se conoce el nivel de dificultad de los ítems,
pueden hacerse ajustes y desarrollos adicionales para asegurar que los ítems
utilizados cubran niveles de dificultad apropiados alineados con los objetivos
de investigación. Sin embargo, es importante destacar que la evaluación del
nivel de dificultad de los ítems no se basa únicamente en la posición de los
ítems en la línea vertical de la Figura 3, sino que también tiene en cuenta
otros factores como las características de los encuestados y el contexto más
profundo de la medición. Los ítems fueron efectivos para evaluar las
habilidades CPS de los estudiantes utilizando TIC en el aula (Wheeler et al., 2002) y su impacto en las competencias
digitales de los estudiantes (Guillén-Gámez et al., 2024) lo que sugiere que el nivel de dificultad
de los ítems fue adecuado para el propósito previsto del instrumento (Hobani & Alharbi, 2024). La información sobre la dificultad de
los ítems puede guiar la refinación y el desarrollo del instrumento,
permitiendo a los investigadores identificar áreas donde el nivel de dificultad
puede necesitar ajustes, ya sea modificando los ítems existentes o agregando
nuevos ítems para cubrir diferentes niveles de dificultad.
Pasando al análisis de
Funcionamiento Diferencial del Ítem (DIF), el DIF se refiere a las diferencias
en las características de respuesta a un ítem entre dos o más grupos de
encuestados que deberían tener el mismo nivel de habilidad. En este contexto,
se exploran las diferencias de habilidad entre hombres y mujeres utilizando el
concepto de DIF. En este estudio, se encontró que Q12 tiene el potencial para
diferenciar la habilidad entre hombres y mujeres, con una categoría de DIF.
Esto indica que hombres y mujeres tienen probabilidades diferentes de responder
Q12 a pesar de tener el mismo nivel de habilidad. En este contexto, hay
indicios de que Q12 puede ser más difícil para un grupo de género.
Sin embargo, es importante
destacar que el análisis de DIF solo proporciona indicaciones preliminares de
posibles diferencias en las características de respuesta entre grupos de
encuestados. Es crucial ver estos hallazgos de DIF como información que puede
ayudar en el desarrollo del instrumento y obtener una mejor comprensión de cómo
los ítems de comportamiento en el instrumento se desempeñan en grupos
específicos. En otras palabras, "DIF no es sinónimo de sesgo", como
señaló Zieky (2012). Los ítems identificados como DIF no
implican necesariamente sesgo. Según Mollazehi & Abdel-Salam (2024), el sesgo se refiere al rendimiento
diferencial entre individuos de igual habilidad de diferentes subgrupos debido
a factores irrelevantes. El DIF, introducido para distinguir el significado
estadístico del sesgo de sus implicaciones sociales, se centra en las
propiedades estadísticas diferentes que los ítems exhiben entre los subgrupos
después de igualar las habilidades individuales (Angoff, 2012). Dado que la interpretación del DIF se
limita a las diferencias en propiedades estadísticas, como la dificultad y la
discriminación del ítem, son necesarias revisiones por un panel de expertos
para determinar si los ítems con DIF son sesgados (H. Lee & Geisinger, 2014). Por lo tanto, los ítems que muestran DIF
pueden incluirse en una prueba si no se encuentra evidencia adecuada de sesgo a
través de la revisión del panel (De Ayala et al., 2002). En futuras investigaciones, se pueden
tomar medidas para evaluar las causas del DIF y asegurar que el instrumento
mida con precisión sin sesgo de género.
El análisis estadístico
presentado en la Figura 5 proporciona información sobre la capacidad de los
estudiantes para responder a los ítems dados según las categorías de género,
semestre y ubicación residencial. Los datos ofrecen una visión general de la variación
en las habilidades de respuesta entre diferentes grupos según el género,
semestre y ubicación residencial. Las diferencias en medias y desviaciones
estándar indican variaciones en la comprensión del material o enfoques de
aprendizaje entre estos grupos.
El rendimiento de las
estudiantes en el cuarto semestre, que exhiben un puntaje de habilidad promedio
más alto en la resolución creativa de problemas mediante el uso de TIC, parece
superar al de los estudiantes masculinos en diferentes semestres. Esta observación
se alinea con investigaciones previas que indican que las estudiantes a menudo
demuestran niveles más altos de competencia en tareas de resolución de
problemas que requieren habilidades colaborativas y relacionadas con las TIC (Andrews-Todd et al., 2023; S. W.-Y. Lee
et al., 2023). Los estudios han mostrado
consistentemente que las mujeres tienden a destacarse en entornos de
aprendizaje colaborativo, utilizando eficazmente las herramientas TIC para
mejorar sus habilidades de resolución de problemas (Ma et al., 2023). Esta tendencia se atribuye a varios
factores, incluyendo una mayor atención al detalle, habilidades mejoradas de
comunicación y una preferencia por el trabajo en equipo, que son críticos en
tareas de resolución creativa de problemas (Thornhill-Miller et al., 2023).
Sin embargo, al comparar a
los estudiantes que viven en áreas urbanas y rurales, se pueden observar
diferencias en los resultados. Las estudiantes que viven en áreas rurales
muestran el mejor rendimiento en la resolución creativa de problemas mediante
el uso de TIC. Las áreas rurales a menudo enfrentan desafíos únicos como el
acceso limitado a recursos, incluida la infraestructura educativa y la
tecnología (Alabdali et al., 2023). A pesar de estos desafíos, las
estudiantes en áreas rurales pueden exhibir habilidades más altas para resolver
problemas debido a su adaptabilidad y resiliencia para navegar estas
limitaciones. La investigación sugiere que las mujeres a menudo muestran
mayores niveles de persistencia y adaptabilidad en entornos de aprendizaje (Dabas et al., 2023), lo que podría contribuir a su mejor
desempeño en tareas de resolución creativa de problemas que involucran TIC.
Además, los factores culturales y sociales pueden influir en los resultados
educativos (Min, 2023). En algunas culturas, puede haber un
énfasis más fuerte en la educación para las mujeres, especialmente en entornos
rurales donde el acceso a oportunidades educativas puede considerarse
transformador para individuos y familias (Robinson-Pant, 2023). Este énfasis podría motivar a las
estudiantes a destacarse académicamente y en tareas de resolución de problemas,
incluyendo aquellas que involucran TIC.
Estos hallazgos destacan la
influencia potencial del género, semestre y ubicación residencial en las
habilidades de respuesta de los estudiantes. Las variaciones en las medias y
desviaciones estándar sugieren diferencias en las experiencias de aprendizaje,
la exposición a recursos educativos u otros factores contextuales que pueden
contribuir a las variaciones en las habilidades de respuesta.
En general, estos análisis
proporcionan información valiosa sobre las características de la medición, el
funcionamiento de los elementos diferenciales y la relación entre las
habilidades de respuesta y diversos factores como el género, semestre y ubicación
residencial. Contribuyen a una mejor comprensión de los datos y ofrecen
implicaciones para futuras investigaciones y el desarrollo de instrumentos en
este campo.
5. Limitaciones y
Futuras Investigaciones
Este estudio proporciona
contribuciones importantes al desarrollo de instrumentos de evaluación para
evaluar a estudiantes en CPS. Sin embargo, existen algunas limitaciones que
deben abordarse. En primer lugar, la fiabilidad de la medición para los ítems
obtuvo un valor de 0.66, lo que indica un nivel moderado de fiabilidad. Aunque
esta fiabilidad puede ser aceptable en algunos contextos de investigación, es
deseable mejorarla para el desarrollo de instrumentos de evaluación más
robustos en el futuro.
Así mismo, existe un ítem,
el ítem 8 (Q8), que no cumple con los criterios en el análisis de ajuste del
ítem con el modelo Rasch. Este ítem podría ser eliminado o revisado para
asegurar un mejor ajuste y validez del instrumento de evaluación. La revisión y
refinamiento de los ítems que no cumplen con los criterios es necesaria para
asegurar que el instrumento de evaluación produzca resultados más precisos y
confiables.
Además, se observa un
potencial funcionamiento diferencial del ítem (DIF) basado en género en el ítem
Q12. Esto indica un sesgo del instrumento hacia el género en términos de
responder preguntas difíciles. En el desarrollo de futuros instrumentos de evaluación,
es importante abordar este sesgo para asegurar un instrumento más neutral y
justo para todos los participantes.
El estudio también
proporciona información sobre los patrones de interacción entre los ítems y los
individuos en el instrumento desarrollado basado en el mapa de Wright. Al
examinar estos patrones, se puede entender el nivel de dificultad de cada ítem
y la distribución de las habilidades de los encuestados. Sin embargo, no se
proporciona una explicación adicional de las implicaciones de estos patrones de
interacción en el desarrollo de instrumentos de evaluación.
A pesar de estas
limitaciones, este estudio sienta una sólida base para futuras investigaciones
en el desarrollo de instrumentos de evaluación basados en habilidades de
pensamiento de orden superior (HOTS). Las investigaciones futuras pueden
centrarse en mejorar la fiabilidad del instrumento, eliminar el sesgo del
instrumento basado en género y explorar más a fondo los patrones de interacción
entre los ítems y los individuos.
En estudios futuros, es
importante involucrar una muestra más representativa y ampliar el alcance del
análisis para obtener resultados más generalizables. Además, la validación del
instrumento también puede realizarse utilizando otros métodos que proporcionen
información adicional sobre el ajuste del instrumento, su validez y fiabilidad.
En resumen, este estudio
contribuye al desarrollo de instrumentos de evaluación basados en HOTS
utilizando el modelo Rasch. A pesar de algunas limitaciones que deben
abordarse, este estudio sirve como una base importante para futuras
investigaciones en el desarrollo de instrumentos de evaluación más efectivos y
robustos.
6. Conclusiones
Basándose en el análisis
realizado, se pueden extraer las siguientes conclusiones: La medición
utilizando el modelo Rasch muestra un buen ajuste entre los ítems y los
individuos en el instrumento de evaluación. Los ítems muestran un buen ajuste
con el modelo Rasch, permitiendo diferenciar niveles de dificultad entre
diferentes ítems, y también tienen un nivel de fiabilidad razonablemente bueno.
Existe un patrón de interacción entre los ítems y los individuos en el
instrumento de evaluación basado en el mapa de Wright. Los ítems en el
instrumento pueden diferenciar efectivamente las habilidades de los individuos,
siendo algunos ítems relativamente fáciles y otros más desafiantes. Hay ítems
que no cumplen con los criterios de Funcionamiento Diferencial del Ítem (DIF)
basados en género. El ítem Q12 en el instrumento de evaluación tiende a
favorecer a los hombres sobre las mujeres en términos de habilidad para
responder. Las estudiantes mujeres en el cuarto semestre tienen habilidades
promedio de respuesta más altas en comparación con las estudiantes mujeres en
el sexto y octavo semestre. Sin embargo, existen diferencias en las habilidades
de respuesta entre estudiantes hombres y mujeres, así como entre estudiantes
que viven en áreas urbanas y rurales.
Estas conclusiones indican
que el desarrollo de instrumentos de evaluación para CPS puede arrojar
resultados de medición válidos y confiables. No obstante, se debe tener en
cuenta que hay algunos ítems que deben mejorarse para lograr una mayor
precisión. Además, existe una indicación de sesgo del instrumento basado en
género en términos de habilidades de respuesta. Esto debe considerarse al
desarrollar instrumentos que sean más neutrales en cuanto al género y justos en
la medición de las habilidades de los participantes.
En el desarrollo de
instrumentos de evaluación para CPS y el uso del modelo Rasch, hay impactos
positivos en el desarrollo del currículo y la instrucción. Es importante que
los educadores adopten enfoques efectivos de diferenciación, aseguren
instrumentos de evaluación neutrales en cuanto al género y consideren factores
contextuales en el diseño de una instrucción inclusiva y centrada en el
aprendiz que se alinee con el potencial de los estudiantes. De este modo, la
educación puede volverse más relevante, receptiva y capacitar a los estudiantes
para enfrentar los desafíos de un mundo complejo.
Authors’
Contribution
Farida Farida: Conceptualization, Writing - Original
Draft, Formal analysis; Yosep Aspat Alamsyah: Methodology, Editing, and
Visualization; Bambang Sri Anggoro: Supervision, Funding acquisition, Writing –
review & editing; Tri Andari: Formal analysis and Visualization; Restu
Lusiana: Editing and Formal analysis.
Financiación
El Departamento de Investigación
y Servicio Comunitario (LP2M) financió el estudio reportado en la Universitas
Islam Negeri Raden Intan Lampung, Indonesia (Número de concesión 99/2023).
Referencias
Abdulla Alabbasi, A. M., Hafsyan, A. S.,
Runco, M. A., & AlSaleh, A. (2021). Problem finding,
divergent thinking, and evaluative thinking among gifted and nongifted
students. Journal for the Education of the Gifted, 44(4),
398–413. https://doi.org/10.1515/ctra-2018-0019
Abina, A., Temeljotov Salaj, A., Cestnik, B.,
Karalič, A., Ogrinc, M., Kovačič Lukman, R., & Zidanšek, A.
(2024). Challenging 21st-Century Competencies for STEM Students: Companies’
Vision in Slovenia and Norway in the Light of Global Initiatives for
Competencies Development. Sustainability, 16(3), 1295.
https://doi.org/10.3390/su16031295
Abosalem, Y. (2016). Assessment techniques and
students’ higher-order thinking skills. International Journal of Secondary
Education, 4(1), 1–11. https://doi.org/10.11648/j.ijsedu.20160401.11
Alabdali, S. A., Pileggi, S.
F., & Cetindamar, D. (2023). Influential factors, enablers, and barriers to
adopting smart technology in rural regions: A literature review. Sustainability,
15(10), 7908. https://doi.org/10.3390/su15107908
Andrews-Todd, J., Jiang, Y., Steinberg, J., Pugh, S.
L., & D’Mello, S. K. (2023). Investigating collaborative problem
solving skills and outcomes across computer-based tasks. Computers
& Education, 207, 104928.
https://doi.org/10.1016/j.compedu.2023.104928
Angoff, W. H. (2012). Perspectives on differential
item functioning methodology. In Differential item functioning (pp.
3–23). Routledge.
https://www.taylorfrancis.com/chapters/edit/10.4324/9780203357811-2/perspectives-differential-item-functioning-methodology-william-angoff
Arredondo-Trapero, F. G.,
Guerra-Leal, E. M., Kim, J., & Vázquez-Parra, J. C. (2024). Competitiveness,
quality education and universities: The shift to the post-pandemic world. Journal
of Applied Research in Higher Education.
https://doi.org/10.1108/JARHE-08-2023-0376
Avinç, E., & Doğan, F. (2024). Digital
literacy scale: Validity and reliability study with the rasch model. Education
and Information Technologies. https://doi.org/10.1007/s10639-024-12662-7
Bond, T., & Fox, C. M. (2015). Applying the
Rasch Model: Fundamental Measurement in the Human Sciences, Third Edition
(3rd ed.). Routledge. https://doi.org/10.4324/9781315814698
Boone, W. J., Staver, J. R., & Yale, M. S. (2014).
Rasch analysis in the human sciences. Springer.
https://doi.org/10.1007/978-94-007-6857-4
Brunner, L. G., Peer, R. A. M., Zorn, C., Paulik, R.,
& Logan, T. M. (2024). Understanding cascading risks through real-world
interdependent urban infrastructure. Reliability Engineering & System
Safety, 241, 109653. https://doi.org/10.1016/j.ress.2023.109653
Burns, D. P., & Norris, S. P. (2009). Open-minded
environmental education in the science classroom. Paideusis, 18(1),
36–43. https://doi.org/10.7202/1072337ar
Caena, F., & Redecker, C. (2019). Aligning teacher
competence frameworks to 21st century challenges: The case for the European
Digital Competence Framework for Educators (Digcompedu). European Journal of
Education, 54(3), 356–369. https://doi.org/10.1111/ejed.12345
Cappelleri, J. C., Lundy, J. J., & Hays, R. D.
(2014). Overview of classical test theory and item response theory for the
quantitative assessment of items in developing patient-reported outcomes
measures. Clinical Therapeutics, 36(5), 648–662.
https://doi.org/10.1016/j.clinthera.2014.04.006
Care, E., & Kim, H. (2018). Assessment of
twenty-first century skills: The issue of authenticity. Assessment and
Teaching of 21st Century Skills: Research and Applications, 21–39.
https://doi.org/10.1007/978-3-319-65368-6_2
Carnevale, A. P., & Smith, N. (2013). Workplace
basics: The skills employees need and employers want.
In Human Resource Development International (Vol. 16, Issue 5, pp.
491–501). Taylor & Francis. https://doi.org/10.1080/13678868.2013.821267
Caty, G. D., Arnould, C., Stoquart, G. G., Thonnard,
J.-L., & Lejeune, T. M. (2008). ABILOCO: a Rasch-built 13-item
questionnaire to assess locomotion ability in stroke patients. Archives of
Physical Medicine and Rehabilitation, 89(2), 284–290.
https://doi.org/10.1016/j.apmr.2007.08.155
Chan, S. W., Looi, C. K.,
& Sumintono, B. (2021). Assessing computational thinking abilities among
Singapore secondary students: A rasch model measurement analysis. Journal of
Computers in Education, 8(2), 213–236.
https://doi.org/10.1007/s40692-020-00177-2
Cho, S., & Lin, C.-Y. (2010). Influence of family
processes, motivation, and beliefs about intelligence on creative problem
solving of scientifically talented individuals. Roeper Review, 33(1),
46–58. https://doi.org/10.1080/02783193.2011.530206
Dabas, C. S., Muljana, P. S., & Luo, T. (2023).
Female students in quantitative courses: An exploration of their motivational
sources, learning strategies, learning behaviors, and course achievement. Technology,
Knowledge and Learning, 28(3), 1033–1061.
https://doi.org/10.1007/s10758-021-09552-z
De Ayala, R. J., Kim, S.-H., Stapleton, L. M., &
Dayton, C. M. (2002). Differential Item Functioning: A Mixture Distribution
Conceptualization. International Journal of Testing, 2(3–4),
243–276. https://doi.org/10.1080/15305058.2002.9669495
Farida, F., Supriadi, N.,
Andriani, S., Pratiwi, D. D., Suherman, S., & Muhammad, R. R. (2022). STEM approach and
computer science impact the metaphorical thinking of Indonesian students’. Revista
de Educación a Distancia (RED), 22(69).
https://doi.org/10.6018/red.493721
Florida, R. (2014). The creative class and economic
development. Economic Development Quarterly, 28(3), 196–205.
https://doi.org/10.1177/0891242414541693
Gaeta, M., Miranda, S.,
Orciuoli, F., Paolozzi, S., & Poce, A. (2013). An Approach To Personalized e-Learning. Journal of Education,
Informatics & Cybernetics, 11(1).
https://www.iiisci.org/Journal/pdv/sci/pdfs/HEB785ZU.pdf
Greiff, S., Wüstenberg, S., Molnár, G., Fischer, A.,
Funke, J., & Csapó, B. (2013). Complex problem solving in educational
contexts—Something beyond g: Concept, assessment, measurement invariance, and
construct validity. Journal of Educational Psychology, 105(2),
364. https://doi.org/10.1037/a0031856
Guillén-Gámez, F. D.,
Gómez-García, M., & Ruiz-Palmero, J. (2024). Digital competence
in research work: Predictors that have an impact on it according to the type of
university and gender of the Higher Education teacher:[Digital
competence in research work: predictors that have an impact on it according to
the type of university and gender of the Higher Education teacher]. Pixel-Bit. Revista de Medios y Educación, 69, 7–34.
https://doi.org/10.12795/pixelbit.99992
Hao, J., Liu, L., von
Davier, A. A., & Kyllonen, P. C. (2017). Initial steps
towards a standardized assessment for collaborative problem solving (CPS):
Practical challenges and strategies. Innovative Assessment of Collaboration,
135–156. https://doi.org/10.1007/978-3-319-33261-1_9
Harding, S.-M. E., Griffin, P. E., Awwal, N., Alom, B.
M., & Scoular, C. (2017). Measuring collaborative problem
solving using mathematics-based tasks. AERA Open, 3(3),
2332858417728046. https://doi.org/10.1177/2332858417728046
Hobani, F., & Alharbi, M. (2024). A Psychometric
Study of the Arabic Version of the “Searching for Hardships and Obstacles to
Shots (SHOT)” Instrument for Use in Saudi Arabia. Vaccines, 12(4), 391. https://doi.org/10.3390/vaccines12040391
Küçükaydın, M. A.,
Çite, H., & Ulum, H. (2024). Modelling the relationships between STEM learning
attitude, computational thinking, and 21st century skills in primary school. Education
and Information Technologies. https://doi.org/10.1007/s10639-024-12492-7
Kyngdon, A. (2008). The Rasch model from the
perspective of the representational theory of measurement. Theory &
Psychology, 18(1), 89–109. https://doi.org/10.1177/095935430708692
Lee, D., & Lee, Y. (2024). Productive
failure-based programming course to develop computational thinking and creative
Problem-Solving skills in a Korean elementary school. Informatics in
Education, 23(2), 385–408.
https://doi.org/10.1007/s10956-024-10130-y
Lee, H., & Geisinger, K. F. (2014). The Effect of
Propensity Scores on DIF Analysis: Inference on the Potential Cause of DIF. International
Journal of Testing, 14(4), 313–338.
https://doi.org/10.1080/15305058.2014.922567
Lee, S. W.-Y., Liang, J.-C., Hsu, C.-Y., Chien, F. P.,
& Tsai, M.-J. (2023). Exploring Potential Factors to Students’
Computational Thinking. Educational Technology & Society, 26(3),
176–189. https://doi.org/10.30191/ETS
Lee, T., O’Mahony, L., & Lebeck, P. (2023).
Creative Problem-Solving. In T. Lee, L. O’Mahony, & P. Lebeck, Creativity
and Innovation (pp. 117–147). Springer Nature Singapore.
https://doi.org/10.1007/978-981-19-8880-6_5
Lestari, W., Sari, M. M., Istyadji, M., & Fahmi,
F. (2023). Analysis of Implementation of the Independent Curriculum in Science
Learning at SMP Negeri 1 Tanah Grogot Kalimantan Timur, Indonesia. Repository
Universitas Lambung Mangkurat.
https://doi.org/10.36348/jaep.2023.v07i06.001
Linacre, J. M. (2020). Winsteps®(Version
4.7. 0)[Computer Software].(4.7. 0). Winsteps. Com.
Liu, X., Gu, J., & Xu, J. (2024). The impact of
the design thinking model on pre-service teachers’ creativity self-efficacy,
inventive problem-solving skills, and technology-related motivation. International
Journal of Technology and Design Education, 34(1), 167–190.
https://doi.org/10.1007/s10798-023-09809-x
Lorusso, L., Lee, J. H., & Worden, E. A. (2021).
Design thinking for healthcare: Transliterating the creative problem-solving
method into architectural practice. HERD: Health Environments Research &
Design Journal, 14(2), 16–29.
https://doi.org/10.1177/193758672199422
Ma, Y., Zhang, H., Ni, L., & Zhou, D. (2023).
Identifying collaborative problem-solver profiles based on collaborative
processing time, actions and skills on a computer-based task. International
Journal of Computer-Supported Collaborative Learning, 18(4),
465–488. https://doi.org/10.1007/s11412-023-09400-5
Mäkiö, E., Azmat, F., Ahmad, B., Harrison, R., &
Colombo, A. W. (2022). T-CHAT educational framework for teaching cyber-physical
system engineering. European Journal of Engineering Education, 47(4),
606–635. https://doi.org/10.1080/03043797.2021.2008879
Min, M. (2023). School culture, self-efficacy, outcome
expectation, and teacher agency toward reform with curricular autonomy in South
Korea: A social cognitive approach. Asia Pacific Journal of Education, 43(4),
951–967. https://doi.org/10.1080/02188791.2019.1626218
Mitchell, I. K., & Walinga, J. (2017). The
creative imperative: The role of creativity, creative problem solving and
insight as key drivers for sustainability. Journal of Cleaner Production,
140, 1872–1884. https://doi.org/10.1016/j.jclepro.2016.09.162
Mollazehi, M., & Abdel-Salam, A.-S. G. (2024).
Understanding the alternative Mantel-Haenszel statistic: Factors affecting its
robustness to detect non-uniform DIF. Communications in Statistics - Theory
and Methods, 1–25. https://doi.org/10.1080/03610926.2024.2330668
Montgomery, K. (2002). Authentic tasks and rubrics:
Going beyond traditional assessments in college teaching. College Teaching,
50(1), 34–40. https://doi.org/10.1080/87567550209595870
Panayides, P., Robinson, C., & Tymms, P. (2010).
The assessment revolution that has passed England by: Rasch measurement. British
Educational Research Journal, 36(4), 611–626.
https://doi.org/10.1080/01411920903018182
Planinic, M., Boone, W. J., Susac, A., & Ivanjek,
L. (2019). Rasch analysis in physics education research: Why measurement
matters. Physical Review Physics Education Research, 15(2),
020111. https://doi.org/10.1103/PhysRevPhysEducRes.15.020111
Rahimi, R. A., & Oh, G. S. (2024). Rethinking the
role of educators in the 21st century: Navigating globalization, technology,
and pandemics. Journal of Marketing Analytics, 1–16.
https://doi.org/10.1057/s41270-024-00303-4
Robinson-Pant, A. (2023). Education for rural
development: Forty years on. International Journal of Educational
Development, 96, 102702.
https://doi.org/10.1016/j.ijedudev.2022.102702
Rusch, T., Lowry, P. B., Mair, P., & Treiblmaier,
H. (2017). Breaking free from the limitations of classical test theory:
Developing and measuring information systems scales using item response theory.
Information & Management, 54(2), 189–203.
https://doi.org/10.1016/j.im.2016.06.005
Samson, P. L. (2015). Fostering student engagement:
Creative problem-solving in small group facilitations. Collected Essays on
Learning and Teaching, 8, 153–164.
https://doi.org/10.22329/celt.v8i0.4227
Selfa-Sastre, M., Pifarre,
M., Cujba, A., Cutillas, L., & Falguera, E. (2022). The role of
digital technologies to promote collaborative creativity in language education.
Frontiers in Psychology, 13, 828981.
https://doi.org/10.3389/fpsyg.2022.828981
Soeharto, S. (2021). Development of a Diagnostic
Assessment Test to Evaluate Science Misconceptions in Terms of School Grades: A
Rasch Measurement Approach. Journal of Turkish Science Education, 18(3),
351–370. https://doi.org/10.36681/tused.2021.78
Soeharto, S., & Csapó, B. (2022). Assessing
Indonesian student inductive reasoning: Rasch analysis. Thinking Skills and
Creativity, 101132. https://doi.org/10.1016/j.tsc.2022.101132
Stankovic, J. A., Sturges, J. W., & Eisenberg, J.
(2017). A 21st century cyber-physical systems education. Computer, 50(12),
82–85. https://doi.org/10.1109/MC.2017.4451222
Suastra, I. W., Ristiati, N. P., Adnyana, P. P. B.,
& Kanca, N. (2019). The effectiveness of Problem Based Learning-Physics
module with authentic assessment for enhancing senior high school students’
physics problem solving ability and critical thinking ability. Journal of
Physics: Conference Series, 1171(1), 012027.
https://doi.org/10.1088/1742-6596/1171/1/012027
Suherman, S., & Vidákovich, T. (2022). Assessment
of Mathematical Creative Thinking: A Systematic Review. Thinking Skills and
Creativity, 101019. https://doi.org/10.1016/j.tsc.2022.101019
Suherman, S., & Vidákovich, T. (2024).
Relationship between ethnic identity, attitude, and mathematical creative
thinking among secondary school students. Thinking Skills and Creativity,
51, 101448. https://doi.org/10.1016/j.tsc.2023.101448
Suryanto, H., Degeng, I. N. S., Djatmika, E. T., &
Kuswandi, D. (2021). The effect of creative problem solving with the
intervention social skills on the performance of creative tasks. Creativity
Studies, 14(2), 323–335. https://doi.org/10.3846/cs.2021.12364
Tesio, L., Caronni, A., Kumbhare, D., & Scarano,
S. (2023). Interpreting results from Rasch analysis 1. The “most likely”
measures coming from the model. Disability and Rehabilitation, 1–13.
https://doi.org/10.1080/09638288.2023.2169771
Thornhill-Miller, B., Camarda, A., Mercier, M.,
Burkhardt, J.-M., Morisseau, T., Bourgeois-Bougrine, S., Vinchon, F., El Hayek,
S., Augereau-Landais, M., & Mourey, F. (2023). Creativity, critical
thinking, communication, and collaboration: Assessment, certification, and
promotion of 21st century skills for the future of work and education. Journal
of Intelligence, 11(3), 54.
https://doi.org/10.3390/jintelligence11030054
Treffinger, D. J. (2007). Creative Problem Solving
(CPS): Powerful Tools for Managing Change and Developing Talent. Gifted and
Talented International, 22(2), 8–18.
https://doi.org/10.1080/15332276.2007.11673491
Utami, Y. P., & Suswanto, B. (2022). The
Educational Curriculum Reform in Indonesia: Supporting “Independent Learning
Independent Campus (MBKM)”. SHS Web of Conferences, 149.
https://doi.org/10.1051/shsconf/202214901041
Val, E., Gonzalez, I., Lauroba, N., & Beitia, A.
(2019). How can Design Thinking promote entrepreneurship in young people? The
Design Journal, 22(sup1), 111–121.
https://doi.org/10.1080/14606925.2019.1595853
van Hooijdonk, M., Mainhard, T., Kroesbergen, E. H.,
& van Tartwijk, J. (2020). Creative problem solving in primary education:
Exploring the role of fact finding, problem finding, and solution finding
across tasks. Thinking Skills and Creativity, 37, 100665.
https://doi.org/10.1016/j.tsc.2020.100665
Van Hooijdonk, M., Mainhard, T., Kroesbergen, E. H.,
& Van Tartwijk, J. (2023). Creative problem solving in primary school
students. Learning and Instruction, 88, 101823.
https://doi.org/10.1016/j.learninstruc.2023.101823
Wang, M., Yu, R., & Hu, J. (2023). The
relationship between social media-related factors and student collaborative
problem-solving achievement: An HLM analysis of 37 countries. Education and
Information Technologies, 1–19. https://doi.org/10.1007/s10639-023-11763-z
Welter, V. D. E., Dawborn-Gundlach, M., Großmann, L.,
& Krell, M. (2024). Adapting a self-efficacy scale to the task of teaching
scientific reasoning: Collecting evidence for its psychometric quality using
Rasch measurement. Frontiers in Psychology, 15, 1339615.
https://doi.org/10.3389/fpsyg.2024.1339615
Wheeler, S., Waite, S. J., & Bromfield, C. (2002).
Promoting creative thinking through the use of ICT. Journal
of Computer Assisted Learning, 18(3), 367–378.
https://doi.org/10.1046/j.0266-4909.2002.00247.x
Wolcott, M. D., McLaughlin, J. E., Hubbard, D. K.,
Rider, T. R., & Umstead, K. (2021). Twelve tips to stimulate creative
problem-solving with design thinking. Medical Teacher, 43(5),
501–508. https://doi.org/10.1080/0142159X.2020.1807483
Yu, Y., & Duchin, F. (2024). Building a Curriculum
to Foster Global Competence and Promote the Public Interest: Social
Entrepreneurship and Digital Skills for American Community College Students. Community
College Journal of Research and Practice, 48(3), 164–174.
https://doi.org/10.1080/10668926.2022.2064374
Zhang, L., Carter, R. A., Bloom, L., Kennett, D. W.,
Hoekstra, N. J., Goldman, S. R., & Rujimora, J. (2024). Are Pre-Service
Educators Prepared to Implement Personalized Learning?:
An Alignment Analysis of Educator Preparation Standards. Journal of Teacher
Education, 75(2), 219–235. https://doi.org/10.1177/00224871231201367
Zheng, J., Cheung, K., & Sit, P. (2024). The
effects of perceptions toward Interpersonal relationships on collaborative
problem-solving competence: Comparing four ethnic Chinese communities assessed
in PISA 2015. The Asia-Pacific Education Researcher, 33(2),
481–493. https://doi.org/10.1007/s40299-023-00744-y
Zieky, M. (2012). Practical questions in the use of
DIF statistics in test development. In Differential item functioning
(pp. 337–347). Routledge.