Número 22 / ABRIL, 2024 (69-84)
INSTRUMENTOS DE EVALUACIÓN EN LA FORMACIÓN
DE COMPETENCIAS PROFESIONALES DE
ESTUDIANTES UNIVERSITARIOS
ASSESSMENT TOOLS IN THE FORMATION OF
PROFESSIONAL COMPETENCIES AMONG UNIVERSITY
STUDENTS
DOI:
https://doi.org/10.37135/chk.002.22.04
Artículo de Investigación
Recibido: (07/06/2023)
Aceptado: (13/09/2023)
Universidad Cesar Vallejo, Escuela de postgrado,
Trujillo, Perú
mbazanli@ucvvirtual.edu.pe
Magda Verónica Bazán Linares
Universidad Cesar Vallejo, Escuela de postgrado,
Trujillo, Perú
gportalm@ucvvirtual.edu.pe
Milagros del Pilar Gaona Portal
Universidad Cesar Vallejo, Escuela de postgrado,
Trujillo, Perú
lperaltaro@ucvvirtual.edu.pe
Liliana Ethel Peralta-Roncal
Universidad Cesar Vallejo, Escuela de postgrado,
Trujillo, Perú
mlunaa@ucvvirtual.edu.pe
Maleyne Lisseth Luna Acuña
INSTRUMENTOS DE EVALUACIÓN EN LA FORMACIÓN DE COMPETENCIAS PROFESIONALES
DE ESTUDIANTES UNIVERSITARIOS
Número 22 / ABRIL, 2024 (69-84) 70
INSTRUMENTOS DE EVALUACIÓN EN LA FORMACIÓN
DE COMPETENCIAS PROFESIONALES DE
ESTUDIANTES UNIVERSITARIOS
ASSESSMENT TOOLS IN THE FORMATION OF
PROFESSIONAL COMPETENCIES AMONG UNIVERSITY
STUDENTS
La evaluación formativa se concibe como un factor esencial para mejorar el proceso de
enseñanza-aprendizaje; el éxito de su implementación en las aulas universitarias radica en
las herramientas para lograrlo. El objetivo de la presente investigación se relaciona con
analizar los benecios de la aplicación de instrumentos de evaluación en la formación de
competencias profesionales de estudiantes universitarios, con base en artículos indexados
en Scopus y Scielo. Además, se propuso revisar la percepción de los alumnos universitarios
sobre la rúbrica y otros instrumentos de evaluación. Para ello, la metodología utilizada se
basó en una revisión de literatura con la nalidad de analizar y sintetizar los resultados
de las publicaciones seleccionadas. Los resultados evidencian que los instrumentos de
evaluación mejoran el proceso evaluativo, el rendimiento académico y la adquisición de
competencias profesionales. Asimismo, los universitarios se sintieron satisfechos hacia
esta nueva modalidad de evaluación, y destacaron sus benecios para la formación y
posterior ejercicio profesional.
PALABRAS CLAVE: Desarrollo de competencias, educación superior, evaluación
formativa, técnica de evaluación
Formative assessment is conceived as an essential factor to improve the teaching and
learning process. The success of its implementation in university classrooms lies in its
assessment tools. In this context, this research aims to analyze the benets of the application
of assessment instruments in the formation of professional competencies among university
students. To this end, a consultation of articles indexed in Scopus and Scielo was executed.
The perception of university students on the rubric and other assessment instruments was
also explored. The used methodology was based on a literature review so as to analyze and
synthesize the results of the selected publications. The results show that the assessment
instruments improve the evaluation process, academic performance, and the acquisition
of professional competencies. Likewise, the university students were satised with this
new assessment modality, highlighting the benets thereof for both their training and
subsequent professional practice.
KEYWORDS: Development of competencies, higher education, formative evaluation,
assessment techniques
RESUMEN
ABSTRACT
Magda Verónica Bazán Linares - Liliana Ethel Peralta-Roncal - Milagros del Pilar Gaona Portal - Maleyne Lisseth Luna Acuña
CHAKIÑAN. Revista de Ciencias Sociales y Humanidades / ISSN 2550 - 6722 71
INTRODUCCIÓN
La evaluación, considerada actualmente un
factor clave en el proceso de enseñanza-
aprendizaje (Asiú et al., 2021), en muchas
ocasiones se le asocia con “calicación” en lugar
de “aprendizaje”. En el primer caso se entiende
como la acción de ofrecer una nota numérica
“al nalizar un proceso y sobre la que no se ha
constatado intencionadamente el aprendizaje
adquirido” (Hortigüela et al., 2019, p. 14). En
el segundo, contribuye a la formación integral
de los estudiantes (Asiú et al., 2021). Por ello,
resulta crucial que los docentes abandonen
el modelo tradicional de evaluación para
implementar la evaluación formativa, centrada
en mejorar los aprendizajes de los estudiantes
(Bizarro et al., 2021).
La evaluación formativa incrementa la
motivación del estudiante, quien desarrolla
autonomía y responsabilidad para adquirir
estrategias, aprender de forma permanente y
optimizar su rendimiento académico; además,
mejora la calidad de enseñanza del docente.
Mediante la retroalimentación oportuna el
estudiante conoce el progreso en el desarrollo
de sus competencias durante su proceso de
aprendizaje y no solo al nal (Vallés et al., 2018;
Gutiérrez et al., 2021). De este modo, en caso de
ser necesario, el docente propone intervenciones
pedagógicas que buscan mejorar el aprendizaje
del alumno (Borjas et al., 2022).
Para ello, se requiere adoptar un estilo reexivo
que forme un pensamiento crítico en el estudiante
y que le permita involucrarse en su proceso de
enseñanza (Silva & Lázaro-Cantabrana, 2020).
En esta línea, la evaluación formativa busca
la innovación de estrategias que desarrollen
competencias a través de herramientas
de evaluación, sesiones de aprendizaje y
participación continua de los estudiantes,
posibilitando “el desarrollo de habilidades por
parte del estudiante que lo convierten en un
ser humano inserto y activo en la sociedad”
(Hidalgo, 2021, p. 193).
Por su parte, las técnicas de evaluación se
emplean para recopilar datos que muestren
las necesidades educativas, los resultados
del proceso de aprendizaje, la adquisición de
competencias y desarrollan los aprendizajes en
el mayor grado posible (Kiliç & Taptik, 2020).
Por lo tanto, la evaluación no debe enfocarse
en la memorización de contenidos, sino en
actitudes, habilidades o valores esenciales para
la adquisición de conocimientos, habilidades y
destrezas. En este contexto, la autoevaluación
y la evaluación entre iguales favorecen el
aprendizaje signicativo del alumno para su
desarrollo académico y profesional, incluidas
las competencias de juicio crítico y reexivo
(Adachi et al., 2018; Cañadas et al., 2021).
La rúbrica, otra herramienta utilizada para
mejorar la evaluación del aprendizaje, consiste
en un cuadro de doble entrada con variables y
dimensiones, niveles de calidad que pueden
alcanzarse e indicadores que demuestran el
rendimiento. Su propósito es alcanzar niveles
óptimos de entendimiento, como también
buenos resultados en el proceso de enseñanza-
aprendizaje (Kweksilber & Trías, 2020). A través
de ella, los docentes establecen criterios que
evalúan el progreso del estudiante y denen los
niveles del logro en forma cualitativa. Además,
el estudiante puede revisar los criterios con los
que fue evaluado, ya que son fáciles de usar
y ayudan a alcanzar los objetivos propuestos
(Artiles et al., 2022).
En tanto, el portafolio del estudiante recolecta
textos, narraciones, diarios o videos (Orbea-
Aizpitarte et al., 2019), se basa en la reexión
(Franco et al., 2020) y muestra evidencias de las
competencias y aprendizajes adquiridos, lo que
implica más que una acumulación de trabajos.
A través de esta herramienta el estudiante debe
sustentar los materiales incluidos y argumentar
la importancia para su formación (Orbea-
Aizpitarte et al., 2019).
Mientras, el portafolio electrónico emplea las
TIC y enfatiza en el desarrollo de competencias
comunicativas, tecnológicas, de desarrollo
profesional y de reexión (Álvarez, 2020).
Por otro lado, la guía de evaluación dene
criterios uniformes para evaluar el desempeño
INSTRUMENTOS DE EVALUACIÓN EN LA FORMACIÓN DE COMPETENCIAS PROFESIONALES
DE ESTUDIANTES UNIVERSITARIOS
Número 22 / ABRIL, 2024 (69-84) 72
de los estudiantes con el n de minimizar
la subjetividad en las calicaciones. Esta
herramienta contribuye a la mejora del proceso
evaluativo, así como al desarrollo y evaluación
de competencias requeridas según la asignatura
a evaluar (Martín et al., 2019).
Las investigaciones sobre instrumentos de
evaluación demuestran los benecios y ventajas
que su implementación en la educación superior
conlleva, principalmente los relacionados con
el desarrollo de competencias profesionales
(Herrán et al., 2019). Las competencias se
reeren a la capacidad de los estudiantes para
adquirir habilidades, conocimientos y actitudes
para resolver y afrontar problemas o desafíos.
Entre las más utilizadas se encuentran las
genéricas o transversales relacionadas con el
perl profesional y formativo de la mayoría de
profesiones, incluyendo habilidades como la
creatividad, adaptabilidad a nuevas situaciones
y el trabajo en equipo, requeridas cada vez más
en el actual mercado laboral.
Las competencias especícas o profesionales
se reeren a los conocimientos imprescindibles
para ejercer una profesión especíca de manera
amplia y segura (Cañadas et al., 2021; Vallés et
al., 2018). Ante lo expuesto, no es suciente que
los docentes solo enseñen a los estudiantes, sino
que además se aseguren de que hayan logrado los
aprendizajes de los temas propuestos. Para ello,
es necesario utilizar herramientas de evaluación
que complementen la implementación de la
evaluación formativa en las aulas universitarias.
El objetivo planteado fue analizar los benecios
de la aplicación de instrumentos de evaluación
en la formación de competencias profesionales
de estudiantes universitarios, con base en
artículos indexados en Scopus y Scielo.
Además, se constató la percepción de los
alumnos universitarios sobre la rúbrica y otros
instrumentos de evaluación.
METODOLOGÍA
La presente investigación asumió un enfoque
mixto y diseño descriptivo (Hernández et
al., 2014). Se optó por este enfoque porque
se abordó de manera integral el problema
mediante la recopilación de datos cuantitativos y
cualitativos al mismo tiempo con el objetivo de
maximizar sus ventajas inherentes y minimizar
sus desventajas (Dawadi et al., 2019).
Por tal motivo, se analizó la literatura existente
sobre instrumentos de evaluación en la etapa
universitaria siguiendo el proceso analítico de
literatura de Spelt et al. (2009). Esta secuencia
permite la recopilación de datos a través de
diversos métodos estructurados para sintetizar
y evaluar los resultados de un conjunto de
investigaciones (Borba et al., 2021). El proceso
sigue cuatro etapas (Figura 1) y asegura que
puedan ser replicadas y reproducidas en la
búsqueda de otras temáticas (Komba & Lwoga,
2020).
Fuente: Adaptado de Spelt et al. (2009)
Figura 1. Etapas de búsqueda sistemática de
literatura
Siguiendo este proceso, se calculó el tamaño de
la muestra a analizar, calculada a través de un
muestreo no probabilístico intencional con la
denición de criterios de inclusión y exclusión
(Tabla 1). Estos criterios aseguraron la calidad y
pertinencia de los artículos de investigación que
conformaron la muestra.
Una vez denidos los criterios se eligieron dos
bases de datos para iniciar con la búsqueda: (a)
Scopus, mediante su buscador ScienceDirect, por
ser una base de datos conable, multidisciplinaria
y con altos estándares de calidad (Pranckutė,
2021), y (b) Scielo, base de datos electrónica
dedicada a publicar investigación de
Latinoamérica y El Caribe (Beigel et al., 2022).
Magda Verónica Bazán Linares - Liliana Ethel Peralta-Roncal - Milagros del Pilar Gaona Portal - Maleyne Lisseth Luna Acuña
CHAKIÑAN. Revista de Ciencias Sociales y Humanidades / ISSN 2550 - 6722 73
Posteriormente, se empleó la herramienta ERIC
Online Thesaurus [ERICOT] (Haas et al., 2020)
para denir las palabras clave: evaluación
formativa, rúbrica, instrumentos de evaluación,
educación superior y sus correspondientes
en inglés. Los términos fueron ingresados
en los motores de búsqueda de las bases de
datos seleccionadas empleando los operadores
booleanos AND y OR en combinaciones
como (rubric AND evaluation) o (“assessment
instruments” AND (evaluation OR formative
assessment)) en su versión en inglés y español.
La tercera etapa correspondió a la identicación
de investigaciones relevantes que se adecuaran
a los criterios establecidos en la primera
etapa. El proceso de selección se basó en la
declaración PRISMA (Preferred Reporting
Items for Systematic reviews and Meta-
Analyses), metodología diseñada para mostrar
de forma transparente cómo se identicaron,
seleccionaron, evaluaron y sintetizaron los
estudios sobre la temática a investigar (Figura
2).
Fuente: Adaptado de Page et al. (2021)
Figura 2. Diagrama de ujo PRISMA
Luego de completadas las tres etapas, se
estableció el tamaño de la muestra en un total
de 47 artículos de investigación, los cuales se
clasicaron e ingresaron en una base de datos en
MS Excel. En dicha base de datos se sistematizó
información crucial como los objetivos, la
metodología y los resultados de cada artículo de
investigación. Además de ello, se clasicaron
los artículos por la base de datos de procedencia.
La cuarta etapa denida por Spelt et al. (2009)
implicó la exploración y análisis de estas
investigaciones. Estos procesos fueron realizados
y se exponen en el siguiente apartado. Para el
análisis del contenido de las publicaciones,
se utilizó el software VOSviewer a partir de
las palabras clave tanto en español como en
inglés y con los términos más relevantes se
generó la red bibliométrica. Asimismo, se usó el
software Excel en la elaboración de los grácos
estadísticos.
RESULTADOS Y DISCUSIÓN
A continuación, se presentan los resultados
de la revisión sistemática de los 47 artículos
seleccionados para este estudio.
DESCRIPCIÓN DE LOS ESTUDIOS
La exploración inicial de los artículos
seleccionados permitió identicar sus
características. Esta primera clasicación
determinó que el mayor número de publicaciones
Tabla 1. Criterios de inclusión y exclusión
INSTRUMENTOS DE EVALUACIÓN EN LA FORMACIÓN DE COMPETENCIAS PROFESIONALES
DE ESTUDIANTES UNIVERSITARIOS
Número 22 / ABRIL, 2024 (69-84) 74
corresponde a la base de datos Scopus (66 %);
mientras que de Scielo solo se seleccionaron
16 publicaciones (34 %). La predominancia
se debió a que Scopus es una base de datos de
amplia cobertura, en la cual los investigadores
desean publicar sus manuscritos por su prestigio
y riguroso proceso de selección (Aksnes &
Sivertsen, 2019).
Posteriormente, los artículos seleccionados se
clasicaron por el año de publicación (Figura 3)
respetando los criterios de inclusión propuestos
en la sección metodológica.
Figura 3. Distribución por año de publicación
de los artículos seleccionados
Se evidencia que la cantidad de publicaciones
fue incrementándose con el paso de los años,
probablemente debido al interés de aplicar
instrumentos de evaluación en la formación
de los futuros profesionales, mostrando un
aumento considerable luego de la pandemia. De
esta manera, de los artículos seleccionados, 4
fueron publicados en 2018 (9 %); mientras que
de 2019 y 2020 se contabilizaron 9 artículos en
cada año (19 %). Luego, el mayor número de
publicaciones seleccionadas correspondieron al
2021 (28 %) y las publicaciones de 2022 fueron
12 en total (26 %).
Posteriormente, se distribuyeron las
publicaciones seleccionadas por el idioma en el
cual fueron publicadas (Figura 4).
Figura 4. Distribución por idioma de
publicación de los artículos seleccionados
La distribución por idioma de publicación
no reveló una lengua predominante; por
lo contrario, se identicaron cantidades
similares de publicaciones en ambos idiomas,
diferenciándose solo por una publicación. De
los artículos seleccionados, 24 se publicaron
en inglés (51 %); mientras que 23 en español
(49 %). Esta mínima diferencia se debe a que,
según Céspedes (2021), el español es un idioma
predominante en Scopus, por la presencia de
revistas latinoamericanas y españolas; además
de una correspondencia con los países en los
cuales se desarrollaron las investigaciones. Esto
última distribución se explica en la Figura 5.
Figura 5. Distribución por países de los
artículos seleccionados
De acuerdo con esta distribución, se observa
una predominancia de las investigaciones
realizadas en España, puesto que el número de
publicaciones fue de 16 (34 %). A este país le
Magda Verónica Bazán Linares - Liliana Ethel Peralta-Roncal - Milagros del Pilar Gaona Portal - Maleyne Lisseth Luna Acuña
CHAKIÑAN. Revista de Ciencias Sociales y Humanidades / ISSN 2550 - 6722 75
siguen Chile, con 8 publicaciones (17 %); Brasil,
con 4 publicaciones (9 %), y Perú y México con
3 publicaciones cada uno (6 %). Por su parte, se
registraron 2 publicaciones en Alemania y Cuba
(4 %); mientras que en el resto de países (Malasia,
Colombia, Suecia, Taiwán, EE. UU., Inglaterra,
Sudáfrica, Australia y Ecuador), solo se registró
una de las publicaciones seleccionadas (2 %).
La predominancia de las investigaciones
realizadas en España se debió a que en este país
se está implementando la Convergencia UE en
el sistema universitario, que requiere cambios en
los modelos de evaluación y enseñanza (Sánchez
et al., 2022).
CO-OCURRENCIA DE PALABRAS
CLAVE
Se realizó un análisis bibliométrico de palabras
clave siguiendo las recomendaciones del
software VOSViewer (Figura 6). Se observó la
existencia de seis clústeres dispersos, lo cual
evidencia que no se relacionan entre sí.
El clúster rojo representa a aquellos estudios
enfocados en la educación superior; su
centralidad y su conexión con otros clústeres
evidencia que, aunque distante, este clúster
se relaciona con los otros cinco, ya que las
investigaciones se realizaron en esta etapa de
formación. Por otro lado, los nodos de este
clúster se encuentran alejados, por lo que la
relación entre los nodos de este clúster con los
otros clústeres es relativamente débil.
El clúster verde y el clúster amarillo con
su nodo, ubicados muy cercanos al clúster
central rojo, poseen una relación entre ellos,
ya que se encuentran en una posición cercana.
Sin embargo, el nodo del clúster verde no se
relaciona con estos por su lejanía en la red.
Esto permite armar que la formación y las
competencias especícas (como las históricas o
clínicas) fueron temas relevantes en los artículos
seleccionados, como, por ejemplo, los de Martín
et al. (2019) y Álvarez (2020).
El clúster celeste está muy próximo al morado,
lo que evidencia una fuerte relación entre
ellos. Asimismo, los nodos de este clúster no
Figura 6. Red bibliométrica de palabras clave
INSTRUMENTOS DE EVALUACIÓN EN LA FORMACIÓN DE COMPETENCIAS PROFESIONALES
DE ESTUDIANTES UNIVERSITARIOS
Número 22 / ABRIL, 2024 (69-84) 76
se encuentran alejados entre sí, por lo que la
relación entre estos es cercana. De esta manera,
se arma que las competencias digitales y la
validación de instrumentos fueron dos campos
de interés en las publicaciones bajo examen,
donde destaca la de Wild & Schulze (2021).
Por su parte, el clúster morado, de autoevaluación,
alejado también de los demás clústeres, pero
próximo al celeste, evidencia una relación débil
con los clústeres y una relación cercana con el
clúster celeste. Los nodos de este clúster poseen
una relación positiva, debido a su posición en la
red bibliométrica. Destacan las investigaciones
en las que los instrumentos fomentaron la
autoevaluación (Pérez-Guillén et al., 2022;
Tipán, 2021).
El clúster azul se encuentra más alejado de la
red bibliométrica y posee menos conexiones.
Asimismo, la cercanía de los nodos azules
evidencia una relación fuerte entre ellos.
Destacan investigaciones en las que se
identicaron las competencias a ser evaluadas
para refuerzo (Gallardo-Fuentes et al., 2020b).
EFECTOS DE LOS
INSTRUMENTOS DE
EVALUACIÓN
Posteriormente, se consideró detalladamente el
contenido de las investigaciones seleccionadas
con base en sus objetivos, alcance y metodología.
Por ello, en primer lugar, se identicaron las
especialidades de los estudiantes que fungieron
como objeto de investigación. De esta manera,
algunas investigaciones fueron realizadas con
estudiantes de Ciencias de la Salud (Almalkawi
et al., 2021; Cervantes-Sánchez et al., 2022;
Díaz-Veliz et al., 2021; Martín et al., 2019; Mora-
Luco et al., 2021; Tsai et al., 2022); mientras que
otras se realizaron con estudiantes de Ingenierías
(Arribas et al., 2019; Cantera et al., 2021; Flores
& Alcalá, 2019; Pui et al., 2021; Tobajas et al.,
2019) o de ciencias puras (Tipán, 2021).
Los estudios que trataron sobre la formación de
futuros docentes fueron predominantes (Adachi
et al., 2018; Cañadas et al., 2021; Felipa & Páez,
2021; Gallardo-Fuentes et al., 2020a; González
et al., 2018; Gray et al., 2019; Vallés et al., 2018).
Gracias al uso de los instrumentos como la rúbrica
o la guía de evaluación, los futuros docentes
aprendieron a diseñar insumos adecuados que
les ayudó a desarrollar aprendizajes de segundo
orden. Además, proporcionaron información
valiosa para identicar competencias en las
que necesitaban alcanzar un mayor nivel de
perfeccionamiento, las cuales son de utilidad
en su futuro desempeño profesional, como las
lingüísticas, por ejemplo. Los resultados más
relevantes se muestran en la Tabla 2.
Además de estos instrumentos, se incorporaron
las TIC para complementarlos (Mendoza et al.,
2021; Souza et al., 2022; Teodoro et al., 2022;
Wild & Schulze, 2021). Los resultados de la
versión digital fueron similares e inclusive
superan el formato físico, ya que la virtualidad
permite que los estudiantes se relacionen entre
y veriquen su propio progreso; además “la
aplicación de instrumentos de evaluación en
línea, está permitiendo que tanto docentes como
estudiantes logren desarrollar competencias,
las cuales permiten adecuar a las necesidades
educativas y sirvan de apoyo en el proceso
de enseñanza-aprendizaje” (Quincho et al.,
2022, p. 428). Asimismo, las TIC facilitaron la
retroalimentación y la autoevaluación (Pérez-
Guillén et al., 2022).
Las publicaciones seleccionadas se propusieron
indagar el papel de los instrumentos de
evaluación en la formación por competencias
de los estudiantes universitarios. De esta
manera, se observa un consenso al armar
que los instrumentos aplicados beneciaron la
adquisición de competencias (Cañadas et al.,
2021; Díaz-Mohedo et al., 2021; Díaz-Veliz et
al., 2021; Oseda et al., 2020; Panadero et al.,
2022; Prediger et al., 2020; Quincho et al., 2022;
Suárez & Castro, 2022; Tsai et al., 2022; Vallés
et al., 2018). También, otros estudios indagaron
en competencias especícas como las históricas
(Álvarez, 2020), clínicas (Martín et al., 2019),
lingüísticas (Cantera et al., 2021; Gutiérrez et
Magda Verónica Bazán Linares - Liliana Ethel Peralta-Roncal - Milagros del Pilar Gaona Portal - Maleyne Lisseth Luna Acuña
CHAKIÑAN. Revista de Ciencias Sociales y Humanidades / ISSN 2550 - 6722 77
al., 2021) y digitales (Wild & Schulze, 2021);
todos con resultados positivos.
La retroalimentación ayudó a que los estudiantes
universitarios alcanzaran niveles óptimos en su
escritura y su habilidad comunicativa, ambos
asociados con la competencia lingüística (Felipa
& Páez, 2021; Gutiérrez et al., 2021). En relación
con las competencias digitales, el instrumento
digital facilitó la creación de contenidos digitales
y la resolución de problemas propios de los
entornos digitales (Wild & Schulze, 2021). Por
su parte, la guía de evaluación estableció criterios
uniformes en la evaluación de competencias
clínicas, logrando que las estudiantes de
enfermería mejoraran su desempeño profesional
(Martín et al., 2019). El e-portafolio fue útil para
adquirir conocimientos sólidos y actualizados
sobre la disciplina histórica y su enseñabilidad
(Álvarez, 2020).
Asimismo, otros benecios de utilizar los
instrumentos de evaluación fueron: el refuerzo
de conocimientos previamente adquiridos
(Álvarez, 2020; Arbea et al., 2020) y eliminar
la subjetividad de los procesos evaluativos y de
las notas puestas por los docentes (Martín et al.,
2019). Además de ello, también se demostró que,
mediante los instrumentos de evaluación fue
posible alcanzar objetivos de enseñanza (Díaz-
Veliz et al., 2021; Franco et al., 2020). Esto
último porque los instrumentos de evaluación
permiten identicar aquellas competencias que
necesitan refuerzo y desarrollo (Matshedisho,
2020; Tobajas et al., 2019).
PERCEPCIÓN DE LOS
ESTUDIANTES
El análisis de los artículos demostró que
los estudiantes universitarios se sintieron
satisfechos con los instrumentos de evaluación
Tabla 2. Principales benecios de los instrumentos en la evaluación de los estudiantes universitarios
INSTRUMENTOS DE EVALUACIÓN EN LA FORMACIÓN DE COMPETENCIAS PROFESIONALES
DE ESTUDIANTES UNIVERSITARIOS
Número 22 / ABRIL, 2024 (69-84) 78
(Díaz-Veliz et al., 2021; Gallardo-Fuentes et
al., 2020b; González et al., 2018; Granberg et
al., 2021; Gutiérrez et al., 2021; Mora-Luco et
al., 2021). Asimismo, los estudiantes armaron
que los instrumentos traen ventajas para su
formación profesional como la autoevaluación
y la coevaluación, y promueve un aprendizaje
transformador que posibilita los niveles más
altos de reexión (Adachi et al., 2018; Gallardo-
Fuentes et al., 2020a; Isusi-Fagoaga & García-
Aracil, 2020; Pui et al., 2021).
Los estudiantes consideraron que la evaluación
formativa es de apoyo para su carrera; además
de que logra medir habilidades aprendidas con
anterioridad, por lo que consideran a la evaluación
formativa como ventajosa en comparación con
la evaluación tradicional (Gallardo-Fuentes
et al., 2020b). No obstante, hubo consenso en
la necesidad de que los docentes generen en
los estudiantes interés hacia los instrumentos,
ya que, de no ser así, se puede evidenciar una
respuesta negativa ante la aplicación de estos
instrumentos (Arribas et al., 2019; Matshedisho,
2020).
Con base en estos resultados, las investigaciones
recomiendan el uso de instrumentos de
evaluación, teniendo en cuenta que los
docentes los consideran métodos novedosos
y objetivos (Almalkawi et al., 2021; Artiles et
al., 2022; Mendoza et al., 2021; Tipán, 2021).
Los instrumentos elaborados con estándares de
calidad (Franco et al., 2020; Gray et al., 2019;
Pancorbo et al., 2020; Silva-Quiroz et al., 2022)
eliminan posibles inconvenientes durante su
uso y traen benecios tanto para estudiantes
como docentes (Cantera et al., 2021; Martiáñez-
Ramírez et al., 2022; Pérez-Guillén et al., 2022).
Por ello, se recomienda diseñar instrumentos
de evaluación en conjunto con programas de
intervención para implementar acertadamente
la evaluación formativa en las instituciones
universitarias (Arbea et al., 2020; Flores &
Alcalá, 2019; Regino et al., 2019).
CONCLUSIONES
Los instrumentos de evaluación en el contexto
universitario revelan resultados beneciosos
para los estudiantes universitarios. De acuerdo
con los artículos analizados, el desempeño
académico de los estudiantes fue mejorado, al
obtenerse buenos resultados en la adquisición
de competencias profesionales. En especíco,
la rúbrica fue el instrumento que se aplicó en
la mayoría de las investigaciones analizadas,
eliminando la subjetividad al momento de
colocar las notas e identicando aquellas
competencias que necesitaron de reforzamiento.
Así, los estudiantes universitarios alcanzaran
niveles óptimos en su escritura y habilidad
comunicativa, crearon contenidos digitales de
forma más sencilla y adquirieron conocimientos
sólidos y actualizados sobre su disciplina.
En relación con la percepción de los
universitarios hacia los instrumentos de
evaluación, las investigaciones revelaron
que se sintieron satisfechos hacia esta nueva
modalidad de evaluación, ya que armaron que
traían grandes benecios para su formación
y posterior ejercicio profesional. Además,
consideraron que estos instrumentos fueron
de apoyo para su carrera y medían habilidades
aprendidas con anterioridad. En el caso de los
futuros docentes, los instrumentos de evaluación
proporcionaron información valiosa para
identicar competencias en las que necesitaban
alcanzar un mayor nivel de perfeccionamiento.
Aunque en el estudio la aplicación de los
instrumentos de evaluación en la enseñanza
universitaria fue positiva, se debe ejecutar
más investigaciones sobre el desarrollo de
competencias profesionales en distintas carreras
universitarias. Investigaciones futuras de este
tipo deben abordar otros niveles de formación
y abarcar un periodo más amplio. Asimismo,
el uso de las TIC en los ámbitos educativos ha
evolucionado la forma de estos instrumentos
de evaluación, por lo que una investigación
Magda Verónica Bazán Linares - Liliana Ethel Peralta-Roncal - Milagros del Pilar Gaona Portal - Maleyne Lisseth Luna Acuña
CHAKIÑAN. Revista de Ciencias Sociales y Humanidades / ISSN 2550 - 6722 79
posterior debe evaluar en concreto la utilización
de instrumentos de evaluación digitales.
DECLARACIÓN DE CONFLICTO DE
INTERESES: Las autoras declaran no tener
conictos de interés.
DECLARACIÓN DE CONTRIBUCIÓN DE
LOS AUTORES Y AGRADECIMIENTOS:
A continuación, se menciona la contribución
de cada autor, en correspondencia con su
participación, utilizando la Taxonomía Crédit:
− Magda Verónica Bazán Linares: Autora
principal, Administración del proyecto,
Análisis formal, Conceptualización,
Investigación, Metodología, Recursos,
Redacción-borrador original, Redacción-
revisión y edición, Supervisión
− Liliana Ethel Peralta Roncal:
Administración del proyecto, Análisis
formal, Conceptualización, Investigación,
Metodología, Redacción-borrador original
− Milagros del Pilar Gaona Portal: Análisis
formal, Conceptualización, Investigación,
Metodología, Redacción-borrador
original, Software
− Maleyne Lisseth Luna Acuña:
Investigación, Análisis formal,
Metodología, Redacción-revisión.
Los autores agradecen el apoyo brindado por la
Universidad César Vallejo.
REFERENCIAS BIBLIOGRÁFICAS
Adachi, C., Tai, J. H.-M., & Dawson, P. (2018).
Academics’ perceptions of the benets
and challenges of self and peer assessment
in higher education. Assessment &
Evaluation in Higher Education, 43(2),
294-306. https://doi.org/10.1080/026029
38.2017.1339775
Aksnes, D. W., & Sivertsen, G. (2019). A Criteria-
based Assessment of the Coverage of
Scopus and Web of Science. Journal
of Data and Information Science, 4(1),
1-21. https://doi.org/10.2478/jdis-2019-
0001
Almalkawi, I., Jester, R., & Terry, L. (2021).
Developing a consensus-based scoring
rubric to enhance practice-based
assessment of student nurses’ clinical
competence: A Delphi study. Nurse
Education Today, 100, 104859. https://
doi.org/10.1016/j.nedt.2021.104859
Álvarez, H. A. (2020). Evaluación de un
e-portafolio de recursos pedagógicos para
el desarrollo de competencias históricas.
Estudio de caso. Sophia Austral, (26),
131-155. https://doi.org/10.4067/S0719-
56052020000200131
Arbea, L., Díaz-González, J. A., Centeno, C., del
Pozo, J. L., Martínez, M., Salvador, J.,
Pueyo, J. C., & Soteras, M. (2020). Diseño
e implantación de un proyecto docente
para la formación de la identidad médica
en estudiantes de Medicina. Educación
Médica, 21(3), 207-211. https://doi.
org/10.1016/j.edumed.2019.07.002
Arribas, E., Ramirez-Vazquez, R., Escobar,
I., Gonzalez-Rubio, J., Belendez, A.,
& Barrera, J. (2019). Development
of a laboratory practice for physics
introductory courses using a rubric for
evaluation by competences. Journal of
Physics: Conference Series, 1287(1),
1-9. https://doi.org/10.1088/1742-
6596/1287/1/012025
Artiles, L. A., González, G., & Quirós, O. L.
(2022). La implementación de rúbricas
para evaluar las competencias socio
económico geográcas en la práctica de
campo. Revista Educación, 46(2), 341-
354. https://doi.org/10.15517/revedu.
v46i2.49890
Asiú, L. E., Asiú, A. M., & Barboza, Ó. A. (2021).
Evaluación formativa en la práctica
pedagógica: una revisión bibliográca.
Conrado, 17(78), 134-139. https://
conrado.ucf.edu.cu/index.php/conrado/
INSTRUMENTOS DE EVALUACIÓN EN LA FORMACIÓN DE COMPETENCIAS PROFESIONALES
DE ESTUDIANTES UNIVERSITARIOS
Número 22 / ABRIL, 2024 (69-84) 80
article/view/1654
Beigel, F., Packer, A. L., Gallardo, O., &
Salatino, M. (2022). OLIVA: The
scientic production indexed in Latin
America and the Caribbean. Disciplinary
diversity, institutional collaboration,
and multilingualism in SciELO and
Redalyc (1995-2018). SciELO Preprints,
e20210134. https://doi.org/10.1590/
SciELOPreprints.4637
Bizarro, W. H., Paucar, P. J., & Chambi-Mescco,
E. (2021). Evaluación formativa: una
revisión sistemática de estudios en aula.
Horizontes. Revista de Investigación
en Ciencias de la Educación, 5(19),
872-891. https://doi.org/10.33996/
revistahorizontes.v5i19.244
Borba, H. H., Tonin, F. S., Pontarolo, R., &
Fernandez-Llimos, F. (2021). Challenges
in Evidence-Based Practice Education.
In I. Vitória & A. Cavaco (Eds.),
Pedagogies for Pharmacy Curricula
(pp. 69-89). IGI Global. https://doi.
org/10.4018/978-1-7998-4486-0.ch004
Borjas, M., Aparicio, J. A., Lafaurie, A., Franco,
J., & de Alba, M. (2022). Drawing as
an Opportunity to Assess Meaningful
Learning in College Students. In J.
Gómez & I. Gómez-Barreto (Eds.),
Design and Measurement Strategies for
Meaningful Learning (pp. 171-191). IGI
Global. https://doi.org/10.4018/978-1-
7998-9128-4.ch009
Cañadas, L., Santos-Pastor, M. L., & Ruiz, P.
(2021). Percepción del impacto de la
evaluación formativa en las competencias
profesionales durante la formación inicial
del profesorado. Revista Electrónica
de Investigación Educativa, 23, 1-13.
https://doi.org/10.24320/redie.2021.23.
e07.2982
Cantera, M. A., Arevalo, M.-J., García-Marina,
V., & Alves-Castro, M. (2021). A Rubric
to Assess and Improve Technical Writing
in Undergraduate Engineering Courses.
Education Sciences, 11(4), 146. https://
doi.org/10.3390/educsci11040146
Cervantes-Sánchez, C. R., Parra-Acosta, H., &
Cantú-Reyes, J. C. (2022). Diseño de un
instrumento para evaluar las actividades
profesionales conables en cirugía
general. Cirugía y Cirujanos, 90(6),
813-821. https://doi.org/10.24875/
CIRU.22000038
Céspedes, L. (2021). Revistas latinoamericanas
y lenguajes hegemónicos para
publicación académica en SCOPUS y
Web of Science. Trabajos en Lingüística
Aplicada, 60(1), 141-154. https://
periodicos.sbu.unicamp.br/ojs/index.
php/tla/article/view/8660022
Dawadi, S., Shrestha, S., & Giri, R. A. (2021).
Mixed-Methods Research: A Discussion
on its Types, Challenges, and Criticisms.
Journal of Practical Studies in Education,
2(2), 25-36. https://doi.org/10.46809/
jpse.v2i2.20
Díaz-Mohedo, E., Romero-Galisteo, R., Suárez-
Serrano, C., Medrano-Sánchez, E.,
& Martín-Valero, R. (2021). Rubric
for the evaluation of competencies
in traumatology in the Degree of
Physiotherapy: Delphi approach. BMC
Medical Education, 21(1), 474. https://
doi.org/10.1186/s12909-021-02904-4
Díaz-Veliz, G., Figueroa, C., Gutiérrez, S.,
Castillo, D., & Maya, J. D. (2021).
Efecto de la retroalimentación obtenida
con tecleras o Immediate Feedback
Assessment Technique en un curso de
farmacología en 2 carreras de la salud en
las que se empleó el aprendizaje basado
en equipos. Educación Médica, 22(3),
173-178. https://doi.org/10.1016/j.
edumed.2019.02.008
Felipa, R. F., & Páez, M. (2021). El podcast
como herramienta de retroalimentación
en la evaluación de actividades
virtuales. MENDIVE, 19(1), 16-29.
https://mendive.upr.edu.cu/index.php/
MendiveUPR/article/view/2107
Magda Verónica Bazán Linares - Liliana Ethel Peralta-Roncal - Milagros del Pilar Gaona Portal - Maleyne Lisseth Luna Acuña
CHAKIÑAN. Revista de Ciencias Sociales y Humanidades / ISSN 2550 - 6722 81
Flores, V. G., & Alcalá, N. B. (2019). Resultados
de la evaluación del modelo educativo
para la formación por competencias
laborales en los alumnos de la División
de Ingenierías de la Universidad
de Guanajuato. RIDE Revista
Iberoamericana para la Investigación y
el Desarrollo Educativo, 9(18), 582-612.
https://doi.org/10.23913/ride.v9i18.437
Franco, R., Ament, C., de Carvalho, M. A.,
Severo, M., & Amelia, M. (2020). Use
of portfolios in teaching communication
skills and professionalism for Portuguese-
speaking medical students. International
Journal of Medical Education, 11, 37-46.
https://doi.org/10.5116/ijme.5e2a.fa68
Gallardo-Fuentes, F. J., López-Pastor, V. M., &
Carter-Thuillier, B. I. (2020a). Ventajas
e Inconvenientes de la Evaluación
Formativa, y su Inuencia en la
Autopercepción de Competencias en
alumnado de Formación Inicial del
Profesorado en Educación Física. Retos,
38, 417-424. https://doi.org/10.47197/
retos.v38i38.75540
Gallardo-Fuentes, F., López-Pastor, V.,
Martínez-Angulo, C., & Carter-Thuillier,
B. (2020b). Evaluación formativa
en educación física y atención a la
diversidad. Magis, Revista Internacional
de Investigación en Educación, 12(25),
169-186. https://doi.org/10.11144/
Javeriana.m12-25.efef
González, V., Román, M., & Prendes, M. P.
(2018). Formación en competencias
digitales para estudiantes universitarios
basada en el modelo DigComp. Edutec.
Revista Electrónica de Tecnología
Educativa, (65), 1-15. https://doi.
org/10.21556/edutec.2018.65.1119
Granberg, C., Palm, T., & Palmberg, B. (2021).
A case study of a formative assessment
practice and the eects on students’ self-
regulated learning. Studies in Educational
Evaluation, 68, 100955. https://doi.
org/10.1016/j.stueduc.2020.100955
Gray, J. S., Connolly, J. P., & Brown, M. A. (2019).
Measuring intercultural knowledge and
competence in college essays: Does a
performance-based rubric have construct
validity? Studies in Educational
Evaluation, 62, 142-148. https://doi.
org/10.1016/j.stueduc.2019.05.007
Gutiérrez, A., Bustos, C., Santibáñez, X.,
Arancibia, C., Mora, F., & Flores, M.
(2021). Students’ perceptions of oral
corrective feedback given by teachers in
communicative approach english courses
from an e pedagogy program at a private
university. Lenguas Modernas, (56),
9-26. https://lenguasmodernas.uchile.cl/
index.php/LM/article/view/61507
Haas, A., Vannest, K., Thompson, J. L., Fuller,
M. C., & Wattanawongwan, S. (2020).
Peer-Mediated Instruction and Academic
Outcomes for Students with Autism
Spectrum Disorders: A Comparison
of Quality Indicators. Mentoring &
Tutoring: Partnership in Learning,
28(5), 625-642. https://doi.org/10.1080/
13611267.2020.1859330
Hernández, R., Fernández, C., & Baptista, M.
(2014). Metodología de la investigación,
6ta. edición. MacGraw Hill Education.
Herrán, I., Heras, C., & Pérez-Pueyo, Á. (2019).
La evaluación formativa. El mito de las
rúbricas. Alternativas en la elaboración
de instrumentos de evaluación en
Secundaria. Revista Infancia, Educación
y Aprendizaje, 5(2), 601-609. https://doi.
org/10.22370/ieya.2019.5.2.1784
Hidalgo, M. E. (2021). Reexiones acerca de
la evaluación formativa en el contexto
universitario. Revista Internacional de
Pedagogía e Innovación Educativa,
1(1), 189-210. https://doi.org/10.51660/
ripie.v1i1.32
Hortigüela, D., Pérez-Pueyo, Á., & González-
Calvo, G. (2019). Pero… ¿A qué nos
Referimos Realmente con la Evaluación
Formativa y Compartida?: Confusiones
Habituales y Reexiones Prácticas.
INSTRUMENTOS DE EVALUACIÓN EN LA FORMACIÓN DE COMPETENCIAS PROFESIONALES
DE ESTUDIANTES UNIVERSITARIOS
Número 22 / ABRIL, 2024 (69-84) 82
Revista Iberoamericana de Evaluación
Educativa, 12(1), 11-26. https://doi.
org/10.15366/riee2019.12.1.001
Isusi-Fagoaga, R., & García-Aracil, A.
(2020). Assessing Master Students’
Competencies Using Rubrics: Lessons
Learned from Future Secondary
Education Teachers. Sustainability,
12(23), 9826. https://doi.org/10.3390/
su12239826
Kiliç, A., & Taptik, Ì. Y. (2020). Outcome-Based
Curriculum Design for New-Generation
Engineers. In Ş. SerdarAsan & E. Işıklı
(Eds.), Engineering Education Trends in
the Digital Era (pp. 1-25). IGI Global.
https://doi.org/10.4018/978-1-7998-
2562-3.ch001
Komba, M. M., & Lwoga, E. T. (2020).
Systematic Review as a Research Method
in Library and Information Science. In P.
Ngulube (Ed.), Handbook of Research
on Connecting Research Methods
for Information Science Research
(pp. 80-94). IGI Global. https://doi.
org/10.4018/978-1-7998-1471-9.ch005
Kweksilber, C., & Trías, D. (2020). Rúbrica
de evaluación. Usos y aprendizajes en
un grupo de docentes universitarios.
Páginas de Educación, 13(2), 100-124.
https://doi.org/10.22235/pe.v13i2.2234
Martiáñez-Ramírez, N. L., Pineda-Galán, C.,
Rodríguez-Bailón, M., & Romero-
Galisteo, R.-P. (2022). Competence
assessment rubric in the Physiotherapy
Practicum. PLOS ONE, 17(2), 1-11.
https://doi.org/10.1371/journal.
pone.0264120
Martín, O., Fernández, N., García, L., &
Bravo, O. (2019). Guía de evaluación
de competencias clínicas en cuarto
año de Estomatología. Humanidades
Médicas, 19(3), 562-576. https://
humanidadesmedicas.sld.cu/index.php/
hm/article/view/1465/html_101
Matshedisho, K. R. (2020). Straddling rows and
columns: Students’ (mis)conceptions
of an assessment rubric. Assessment &
Evaluation in Higher Education, 45(2),
169-179. https://doi.org/10.1080/026029
38.2019.1616671
Mendoza, H. H., Burbano, V. M., & Valdivieso,
M. A. (2021). Prácticas evaluativas de
profesores universitarios colombianos en
entornos virtuales. Revista de Ciencias
Sociales, 27(4), 379-395. https://doi.
org/10.31876/rcs.v27i.37014
Mora-Luco, C. P., Díaz-Vásquez, C. A., Santa
María-Madera, J. L., Ferri-Sánchez, G., &
Baltera-Zuloaga, C. (2021). Percepción
del estudiante de Odontología respecto
al examen clínico objetivo estructurado
como método de evaluación. Revista
de la Fundación Educación Médica,
24(2), 77-83. https://doi.org/10.33588/
fem.242.1114
Orbea-Aizpitarte, G., Cruz-Iglesias, E., &
Rekalde-Rodríguez, I. (2019). ¿Cómo
puede el portafolios del alumnado
ayudar a mejorar las prácticas docentes?
RIDU Revista Digital de Investigación
en Docencia Universitaria, 13(1), 17-37.
https://doi.org/10.19083/ridu.2019.769
Oseda, D., Mendivel, R. K., & Angoma,
M. (2020). Estrategias didácticas
para el desarrollo de competencias y
pensamiento complejo en estudiantes
universitarios. Sophia, (29), 235-
259. https://doi.org/10.17163/soph.
n29.2020.08
Page, M. J., McKenzie, J. E., Bossuyt, P. M.,
Boutron, I., Homann, T. C., Mulrow, C.
D., Shamseer, L., Tetzla, J. M., Akl, E.
A., Brennan, S. E., Chou, R., Glanville,
J., Grimshaw, J. M., Hróbjartsson, A.,
Lalu, M. M., Li, T., Loder, E. W., Mayo-
Wilson, E., McDonald, S., … Moher, D.
(2021). The PRISMA 2020 statement:
An updated guideline for reporting
systematic reviews. Journal of Clinical
Epidemiology, 134, 178-189. https://doi.
org/10.1016/j.jclinepi.2021.03.001
Magda Verónica Bazán Linares - Liliana Ethel Peralta-Roncal - Milagros del Pilar Gaona Portal - Maleyne Lisseth Luna Acuña
CHAKIÑAN. Revista de Ciencias Sociales y Humanidades / ISSN 2550 - 6722 83
Panadero, E., Pérez, D. G., Ruiz, J. F., Fraile,
J., Sánchez-Iglesias, I., & Brown, G. T.
L. (2022). University students’ strategies
and criteria during self-assessment:
instructors feedback, rubrics, and
year level eects. European Journal of
Psychology of Education, 38, 1031-1051
https://doi.org/10.1007/s10212-022-
00639-4
Pancorbo, G., Primi, R., John, O. P., Santos,
D., Abrahams, L., & de Fruyt, F.
(2020). Development and psychometric
properties of rubrics for assessing
social-emotional skills in youth.
Studies in Educational Evaluation,
67, 100938. https://doi.org/10.1016/j.
stueduc.2020.100938
Pérez-Guillén, S., Carrasco-Uribarren, A.,
Celis, C. L., González-Rueda, V.,
Rodríguez-Rubio, P. R., & Cabanillas-
Barea, S. (2022). Students’ perceptions,
engagement and satisfaction with the
use of an e-rubric for the assessment of
manual skills in physiotherapy. BMC
Medical Education, 22(1), 1-9. https://
doi.org/10.1186/s12909-022-03651-w
Pranckutė, R. (2021). Web of Science (WoS)
and Scopus: The Titans of Bibliographic
Information in Today’s Academic World.
Publications, 9(1), 1-59. https://doi.
org/10.3390/publications9010012
Prediger, S., Schick, K., Fincke, F., Fürstenberg,
S., Oubaid, V., Kadmon, M., Berberat,
P. O., & Harendza, S. (2020). Validation
of a competence-based assessment
of medical students’ performance in
the physician’s role. BMC Medical
Education, 20(1), 1-12. https://doi.
org/10.1186/s12909-019-1919-x
Pui, P., Yuen, B., & Goh, H. (2021). Using a
criterion-referenced rubric to enhance
student learning: a case study in a critical
thinking and writing module. Higher
Education Research & Development,
40(5), 1056-1069. https://doi.org/10.108
0/07294360.2020.1795811
Quincho, R., Cárdenas, J. C., Quispe, C., Flores,
I. G., & Inga, V. (2022). Formularios de
Google y elaboración de instrumentos de
evaluación por competencias. Conrado,
18(85), 424-428. https://conrado.ucf.
edu.cu/index.php/conrado/article/
view/2308
Regino, D. da S. G., Nascimento, J. da S. G.,
Parada, C. M. G. de L., Duarte, M. T. C.,
& Tonete, V. L. P. (2019). Training and
evaluation of professional competency
in pediatric nursing: perspective of
university professors. Revista da
Escola de Enfermagem da USP, 53,
1-12. https://doi.org/10.1590/s1980-
220x2018002703454
Sánchez, J. M., Íñigo, V., Marcano, B., &
Romero-García, C. (2022). Design and
validation of an assessment rubric of
relevant competencies for employability.
Journal of Technology and Science
Education, 12(2), 426. https://doi.
org/10.3926/jotse.1397
Silva, J. E., & Lázaro-Cantabrana, J. L. (2020).
La competencia digital de la ciudadanía,
una necesidad creciente en una
sociedad digitalizada. Edutec. Revista
Electrónica de Tecnología Educativa,
(73), 37-50. https://doi.org/10.21556/
edutec.2020.73.1743
Silva-Quiroz, J.-E., Abricot-Marchant, N.,
Aranda-Faúndez, G., & Rioseco-País,
M. (2022). Diseño y Validación de un
instrumento para evaluar competencia
digital en estudiantes de primer año
de las carreras de educación de tres
universidades públicas de Chile. Edutec.
Revista Electrónica de Tecnología
Educativa, (79), 319-335. https://doi.
org/10.21556/edutec.2022.79.2333
Souza, M., Margalho, É., Lima, R. M., Mesquita,
D., & Costa, M. J. (2022). Rubric’s
Development Process for Assessment
of Project Management Competences.
Education Sciences, 12(12), 902. https://
doi.org/10.3390/educsci12120902
INSTRUMENTOS DE EVALUACIÓN EN LA FORMACIÓN DE COMPETENCIAS PROFESIONALES
DE ESTUDIANTES UNIVERSITARIOS
Número 22 / ABRIL, 2024 (69-84) 84
Spelt, E. J. H., Biemans, H. J. A., Tobi, H., Luning,
P. A., & Mulder, M. (2009). Teaching
and Learning in Interdisciplinary Higher
Education: A Systematic Review.
Educational Psychology Review, 21(4),
365-378. https://doi.org/10.1007/
s10648-009-9113-z
Suárez, X., & Castro, N. (2022). Efectividad
de un programa de estimulación de
habilidades socioemocionales en
estudiantes universitarios de primer
año. Revista Cubana de Educación
Superior, 41(2), 1-18. http://scielo.
sld.cu/scielo.php?pid=S0257-
43142022000200021&script=sci_
arttext&tlng=en
Teodoro, J., Bernadó, E., Bratzke, F., Zehrer, A.,
& van Bockhaven, W. (2022). Online
Support for Education in Entrepreneurial
and Intrapreneurial Competences: A
Proposal for an Assessment Tool and
Support for Tailor-Made Training.
Education Sciences, 12(11), 805. https://
doi.org/10.3390/educsci12110805
Tipán, D. M. (2021). El portafolio digital
síncrono interactivo. Revista Andina de
Educación, 4(1), 83-89. https://doi.org/1
0.32719/26312816.2020.4.1.10
Tobajas, M., Molina, C. B., Quintanilla, A.,
Alonso-Morales, N., & Casas, J. A.
(2019). Development and application of
scoring rubrics for evaluating students’
competencies and learning outcomes
in Chemical Engineering experimental
courses. Education for Chemical
Engineers, 26, 80-88. https://doi.
org/10.1016/j.ece.2018.11.006
Tsai, S.-T., Ho, Y.-C., Tsai, C.-L., Yang, S.-F., Lai,
Y.-L., & Lee, S.-Y. (2022). Evaluation of
students’ self-assessment performance
in preclinical endodontic training by
means of rubrics and a 3D printed
model. Journal of the Formosan Medical
Association, 121(11), 2203-2210. https://
doi.org/10.1016/j.jfma.2022.03.021
Urias, C. M., Rodríguez, C. L., & Zárate,
N. E. (2019). Rúbrica para evaluar
presentaciones de casos clínicos:
instrumento que orienta la calidad en
el desempeño. Acta Universitaria,
28(6), 93-100. https://doi.org/10.15174/
au.2018.1689
Vallés, C., Martínez, L., & Romero, M. R.
(2018). Instrumentos de evaluación:
uso y competencia del profesorado
universitario en su aplicación. Estudios
Pedagógicos (Valdivia), 44(2), 149-
169. https://doi.org/10.4067/S0718-
07052018000200149
Wild, S., & Schulze, L. (2021). Re-evaluation
of the D21-digital-index assessment
instrument for measuring higher-
level digital competences. Studies
in Educational Evaluation, 68,
100981. https://doi.org/10.1016/j.
stueduc.2021.100981