Diseño didáctico de prompts para evaluar el aprendizaje: integración de
inteligencia artificial en formación pregrado
Didactic design of prompts to assess
learning: Integration of artificial intelligence in undergraduate training
Recibido: 26/03/2025 | Aceptado: 30/05/2025 | Publicado: 12/06/2025
Joel Iglesias Marrero 1*
Camilo Boris Armas Velasco 2
1* Universidad
Anáhuac México. Centro Anáhuac de Investigación Educativa (CAIE), Huixquilucan,
Estado de México. jiglesias@anahuac.mx ID ORCID: https://orcid.org/0000-0003-2605-5475
2 Universidad de
La Habana. Centro de Estudios para el Perfeccionamiento de la Educación Superior
(CEPES), La Habana, Cuba. camilo.armas@cepes.uh.edu.cu ID
ORCID: https://orcid.org/0000-0002-6246-28712
Resumen:
En el complejo contexto
educativo-tecnológico actual, el lenguaje juega un papel crucial para la
interacción entre personas y máquinas, especialmente en el uso de la
inteligencia artificial. Sin embargo, existe imprecisión y divergencias sobre
el empleo de esta tecnología digital y los diseños de prompts
para la evaluación del aprendizaje en pregrado. Esta investigación se centró en
determinar si el uso de la inteligencia artificial mediante el diseño didáctico
de prompts genera diferencias estadísticamente
significativas en los puntajes, obtenidos a través de una lista de cotejo,
entre un grupo control y uno experimental. Los resultados muestran una marcada
diferencia en los puntajes, con calificaciones aprobatorias superiores en el
grupo experimental, donde se implementó el diseño didáctico de prompts. La prueba U de Mann-Whitney confirma
estas diferencias estadísticamente significativas, permitiendo concluir que la
integración de la inteligencia artificial con metodologías activas que
involucran al estudiantado en el diseño y evaluación de prompts
para el aprendizaje basado en problemas mejora sustancialmente los resultados
académicos. Esto sugiere que la combinación de esta tecnología puede ser una
herramienta efectiva para potenciar el aprendizaje en entornos educativos de
nivel superior.
Palabras clave: diseño;
evaluación del estudiante; inteligencia artificial; formación de docentes.
Abstract:
In today's
complex educational-technological context, language plays a crucial role in the
interaction between people and machines, especially in the use of artificial
intelligence. However, there is uncertainty and disagreement regarding the use
of this digital technology and prompt designs for undergraduate learning
assessment. This research focused on determining whether the use of artificial
intelligence through the didactic design of prompts generates statistically
significant differences in scores, obtained through a checklist, between a
control and an experimental group. The results show a marked difference in
scores, with higher passing grades in the experimental group, where the
didactic design of prompts was implemented. The Mann-Whitney U test confirms
these statistically significant differences, allowing us to conclude that the
integration of artificial intelligence with active methodologies that involve
students in the design and evaluation of prompts for problem-based learning
substantially improves academic outcomes. This suggests that the combination of
this technology can be an effective tool to enhance learning in higher
education environments.
Keywords: design;
student assessment; artificial intelligence; teacher training.
Introducción
En el contexto general del uso de la inteligencia
artificial (IA), el término prompt es
entendido como la instrucción, consigna o pregunta que una persona ingresa al
sistema para que le sea devuelta una respuesta acotada, bajo la expectativa de
inmediatez y optimización de recursos humanos en un marco eficiente de nuevos
ambientes del aprendizaje profundo y de la potenciación de redes neuronales
artificiales. La vorágine tecnológica va dando pautas para las nuevas formas de
interacción de personas y máquinas, en donde el uso del lenguaje se considera
un factor determinante para los resultados específicos que se obtienen al
emplear la IA. Es decir, el uso de cualquier tipo de IA exige una comunicación
por medio de prompts, los cuales se han
constituido en los tecnicismos que se otorgan a dichas instrucciones o
peticiones.
Dada la importancia que reviste el diseño de prompts en la formación de pregrado se propone como objetivo
en la presente investigación determinar la existencia o no de diferencias
estadísticamente significativas entre un grupo control y uno experimental compuesto
por participantes en un curso de pregrado como el resultado del uso de la IA
para intervenir con diseños didácticos de prompts
en la evaluación del aprendizaje. El nivel de especificidad de la respuesta
obtenida está en función del tipo de prompt
empleado o de la integración de sus diferentes tipos al diseñar la instrucción
(Lopezosa & Codina, 2023). Ejemplos de esta
tipología se ofrecen en la Tabla 1, de tal manera que la siguiente información
pueda ser considerada como una aproximación didáctica para la selección de
estrategias en los procesos de enseñanza-aprendizaje.
Prompt reactivo |
Se solicita un grupo de interacciones
concatenadas a partir de cada respuesta |
Prompt estructural |
Se solicita una respuesta articulada desde varios
criterios con una ampliación de información por cada uno de los criterios |
Prompt de rol |
Se solicita que la IA simule un rol específico
para que la respuesta se asocie a un perfil bien determinado |
Prompt con indicación de audiencias |
Se solicita una respuesta que considere a una audiencia,
de manera que obedezca a un criterio de personalización |
Prompt con objetivos |
Se solicita una respuesta en función de un
objetivo especificado o una meta declarada |
Tabla 1. Tipologías de prompts para obtener respuestas específicas al usar IA.
Fuente. (Lopezosa, 2023)
Otra propuesta de tipos de prompts,
que desde la práctica educativa en nivel superior ha demostrado la efectividad
de la enseñanza, es la que sugiere Morales (2023). Cabe señalar que no hay una
relación jerárquica en los siguientes tipos de prompts
que se muestran en la Tabla 2, pero la combinación de éstos fortalece la
respuesta obtenida.
Prompt secuencial |
Su finalidad es generar una progresión lógica en
la interacción por medio de una secuencia de textos previamente solicitados
que van brindando respuestas con mayor estructura y contexto |
Prompt comparativo |
Su propósito es que la IA compare dos o más
materiales o contenidos para generar mayor especificidad en la respuesta |
Prompt argumental |
Se basa en un diseño que pretende obtener
respuestas muy bien argumentadas, ya sean a favor o en contra de una
proposición o juicio de valor determinado, desde la exigencia de que todos
los planteamientos tengan coherencia |
Prompt de perspectiva
profesional |
Se basa principalmente en la consigna de asumir
el rol específico de una persona con un determinado perfil, para poder
describir o desarrollar un tema bien contextualizado, con los suficientes detalles
y estructura |
Prompt de lista de deseos |
Se construye bajo la solicitud de una lista de
opciones a partir de requisitos específicos sobre lo que se busca, para
obtener las respuestas más relevantes |
Tabla 2. Tipologías de prompts orientados al campo educativo usando ChatGPT. Fuente. Morales-Chan, (2023)
Al continuar con la revisión de propuestas teóricas
o experiencias con el diseño de prompts, es
necesario ubicar una ruta didáctica que implica definir el propósito para
emplear la IA, diseñar la instrucción y evaluar la respuesta (Velásquez et al.,
2023); asumir la finalización del proceso o regresar para realizar ajustes en
el prompt son dos posibles decisiones
que están en función del nivel de satisfacción alcanzado. Aunque su diseño no
aparenta ser un proceso complejo didácticamente hablando, debe reconocerse que
las experiencias por parte de los estudiantes y los profesores son diversas; la
eficiencia de uso de la IA tiene estrecha relación con la capacidad de crear y
aplicar estrategias para el diseño, la escritura y la optimización de
indicaciones.
El uso de prompts
en la evaluación del aprendizaje
Las valoraciones iniciales sobre los prompts utilizados frecuentemente en el campo
escolar, sobre todo en el proceso de exploración de las IA por parte de profesores
y estudiantes que se basaba esencialmente en lanzar una pregunta sencilla y
poco estructurada, han permitido arribar a conclusiones importantes sobre el
diseño. Cualquier solicitud con una definición específica de algún dominio es
potencialmente mejor que una solicitud con terminología genérica o con textos
discontinuos (imágenes); una oración o párrafo completo es muy superior a un
listado con términos básicos; las solicitudes con información multimodal
(texto, imagen, audio) son muy superiores a las solicitudes con información
unimodal (Yong et al., 2023).
Tal y como el uso de metodologías activas se
potenció desde el cauce de implicar a los estudiantes y provocar una
interrelación positiva en el aula para el aprendizaje, acompañado de las
exigencias de atención individualizada para favorecer la inclusión en los
contextos educativos, el diseño de prompts conduce
a formas de programación de solicitudes que pueden personalizar los resultados
y las interacciones, evidenciando un incremento en la utilidad de las
tecnologías generativas. Un ejemplo de
lo descrito y que conecta muy bien con el desarrollo de prompts
de tipo rol o con indicación de audiencias, se puede considerar en una secuencia
didáctica que guíe para un diseño que conlleva: definir el rol o el contexto
desde la consigna de cómo debe actuar; especificar lo requerido y que
comúnmente se expresa con tareas puntuales; describir con la mayor precisión
posible el formato de salida o la forma en que se quiere presentar la
respuesta; describir los límites de los resultados esperados (Heston & Khun, 2023).
Si bien la secuencia anterior ilustra en lo
referente a la planificación del prompt, otra
parte importante del diseño didáctico es el desarrollo de varias estrategias
para ir perfeccionando dicho diseño. Ampliar las peticiones con frases claras y
bien redactadas que den un marco a las respuestas esperadas, indicando la
segmentación del resultado si es que se pretende obtener salidas de información
complejas, sin dejar de recordar que son redes artificiales por lo que no
requieren un lenguaje cargado del por favor o de las gracias, pueden ser
algunas estrategias clave para su desarrollo (Spasić &
Janković, 2023).
Otra estrategia relevante para el diseño didáctico
de prompts es el árbol de pensamientos, pues permite
explorar múltiples soluciones tomando en cuenta las estructuras formadas desde
las interacciones concatenadas y la jerarquía de los temas, para tomar la
decisión más adecuada al problema, proyecto o caso planteado (Yao et al.,
2023). La consistencia interna que ayuda a elegir la respuesta más adecuada,
dentro de muchas posibilidades, se obtiene al hacer varias veces la solicitud
al modelo de lenguaje de gran tamaño y así poder descartar, por ensayo y error,
las salidas (respuestas) menos adecuadas, siendo por excelencia un proceso que
se perfecciona desde el carácter iterativo.
Como en el proceso de enseñanza-aprendizaje que se
evalúan las evidencias del desempeño, la evaluación de las respuestas son
un aspecto toral para discutir y mejorar los diseños de prompts.
El refinamiento iterativo y la comparación de distintas versiones del prompt, son algunas de las técnicas más importantes
para la generación de respuestas precisas y relevantes. Una buena guía
para la valoración de la respuesta que brinda la IA debe contemplar los criterios:
completa, precisa, relevante, bajo los límites especificados, fundamentada en
hechos para asumirla como correcta, adecuada en función del contexto definido
desde la consigna (Lo, 2023).
En una investigación reciente se comprobó la
efectividad de la IA generativa y la satisfacción percibida en estudiantes
universitarios que trabajaron con el diseño de cuatro prompts,
validados previamente por expertos en Métodos de Investigación en Educación,
para generar ejemplos prácticos interactivos en la asignatura (Sánchez et al.,
2025). Durante la evaluación de la utilidad de los prompts
para el proceso de enseñanza-aprendizaje en el contexto universitario,
mostraron un mejor potencial los diseños de instrucciones sencillas, pero que
cumplían con los criterios estructurales de contexto, base de conocimiento e
instrucciones (Reynolds & McDonell, 2021; Korzynski et al., 2023).
Cabe mencionar que el estudio presentó como
principales limitaciones la poca formación de profesores y estudiantes para
interactuar con la IA y para distinguir las cuestiones de fiabilidad en las
respuestas obtenidas al ajustar el prompt. Por
otro lado, algunas experiencias en pregrado y posgrado van demostrando que el
uso de las IA es un imperativo situacional tecnológico para la educación, constituyéndose
en un gran aliado pedagógico para las acciones de mejora evaluativa, más allá
de las calificaciones, por el potencial de retroalimentación del aprendizaje
con carácter instantáneo y personalizado (Morales, 2023; Armas & Iglesias,
2024).
Materiales y métodos
Desde el paradigma cuantitativo, se realizó un
diseño experimental con posprueba únicamente y un grupo control (Ramos, 2021)
para determinar los efectos del uso de la IA en el grupo experimental a partir
del diseño didáctico de prompts en la
evaluación del aprendizaje. La muestra se conformó por veintinueve estudiantes
de la Licenciatura en Pedagogía, 7 hombres y 22 mujeres (ver Figura 1),
pertenecientes a una institución pública de la Ciudad de México que se dedica a
la formación de maestras y maestros.
La edad promedio de la muestra es de 21.3 años (27
máximo y 19 mínimo). Los sujetos del estudio participaron voluntariamente en un
curso intersemestral sobre liderazgo educativo y organizacional basado en el
servicio (Villa & Pizarro, 2024); para el experimento con diseño de prompts, el profesor del curso asignó de manera
aleatoria a los estudiantes en dos grupos con 14 (control) y 15 (experimental)
personas en cada uno.
Figura 1. Distribución de la
muestra por sexo. Fuente. Elaboración propia
El desarrollo tradicional del curso se rigió por
las actividades que se sintetizan a continuación y que se mantuvieron en el
grupo control:
La lista de
cotejo está conformada por seis dimensiones y tres ítems por cada
dimensión, permitiendo obtener una calificación mínima de 0 y una máxima de 18
puntos. Los criterios para calificar se basan en si se indica (1 punto) o no (0
punto) en la propuesta la acción asociada con la dimensión del liderazgo en servicio
ya sea de forma explícita o implícita. A continuación, se detalla cada
dimensión con sus respectivos indicadores, expresados como acciones.
·
Dimensión Visión y
valores: autoevaluación continua, defensa activa de valores, comunicación clara
de la visión.
·
Dimensión Dirección:
planificación estratégica, definición de metas, monitorización y ajustes del
rumbo.
·
Dimensión Persuasión:
técnicas de comunicación, capacitación en oratoria, fomento de feedback.
·
Dimensión Apoyo: creación
de redes de apoyo, capacitación y desarrollo de habilidades, establecimiento de
prioridades.
·
Dimensión Desarrollo:
programas de formación, mentoría y coaching, evaluaciones de desempeño.
·
Dimensión
Reconocimiento: programas de reconocimiento, feedback
positivo, celebración de logros.
Para el grupo experimental, mismo que fue atendido
simultáneamente al control, se modificaron algunas actividades y se añadieron
otras desde la intervención con la IA y el diseño de prompts.
Esta estrategia se usó tanto para generar contenidos de las situaciones
problémicas como para generar la evaluación de las propuestas de solución.
Los estudiantes pudieron elegir la IA en función de
su preferencia y acceso; cabe mencionar que el número máximo de solicitudes fue
de dos y las IA elegidas fueron Chat GPT 3 y Gemini 2.0. Con el Paquete Estadístico para Ciencias Sociales
(SPSS v.29) se realizaron los análisis descriptivos e inferenciales y las
representaciones gráficas fueron desarrolladas en Excel.
Resultados y discusión
El
propósito de la investigación exige un análisis de resultados a partir de las
diferencias estadísticas entre los grupos control y experimental, pero de
manera inicial se ofrecen datos relacionados con el desempeño general de los estudiantes
matriculados en el curso, expresado a través de los puntajes
obtenidos con la lista de cotejo, toda vez que corresponde con el conjunto de
investigaciones encaminadas al perfeccionamiento del proceso de
enseñanza-aprendizaje, específicamente en cuanto al tema de la evaluación con
el uso de diferentes herramientas de inteligencia artificial generativa. En la
Figura 2 se observa la diferencia de estudiantes con criterio de aprobación y
reprobación, en función del uso o no de la IA para el desarrollo de las
actividades (control y experimental), considerando que el criterio institucional
para la acreditación de los cursos es el siguiente: aprobado con calificaciones
entre 6 y 10; reprobado con calificaciones iguales o menores a 5.
Figura
2. Aprobación y reprobación en los grupos de análisis. Figura. Elaboración
propia
Se
puede apreciar que, en el grupo experimental, en donde se intervino el sistema
de actividades con diseños de prompts, la
proporción de estudiantes aprobados (93.3%) es muy superior al compararlo con
el grupo control (64.3%). La Tabla 3 muestra puntualmente los puntajes obtenidos
por cada estudiante una vez que el profesor empleó la lista de cotejo para
evaluar las propuestas de solución a la problemática de la falta de liderazgo
baso en servicio. Asimismo, se indica la calificación correspondiente con el
criterio institucional con base en una escala de 0 a 10 puntos.
Estudiantes grupo control |
Puntaje en lista de cotejo |
Calificación |
Estudiantes grupo experimental |
Puntaje en lista de cotejo |
Calificación |
1 |
9 |
5.0 |
1 |
15 |
8.3 |
2 |
6 |
6.1 |
2 |
14 |
7.8 |
3 |
7 |
3.9 |
3 |
16 |
8.9 |
4 |
7 |
6.1 |
4 |
17 |
9.4 |
5 |
5 |
6.7 |
5 |
12 |
6.7 |
6 |
6 |
8.3 |
6 |
15 |
8.3 |
7 |
6 |
7.2 |
7 |
16 |
8.9 |
8 |
5 |
6.1 |
8 |
13 |
7.2 |
9 |
8 |
4.4 |
9 |
17 |
9.4 |
10 |
5 |
2.8 |
10 |
18 |
10.0 |
11 |
7 |
6.7 |
11 |
11 |
6.1 |
12 |
4 |
8.9 |
12 |
16 |
8.9 |
13 |
11 |
6.1 |
13 |
9 |
5.0 |
14 |
8 |
5.6 |
14 |
15 |
8.3 |
|
|
|
15 |
12 |
6.7 |
Tabla
3. Puntajes y calificaciones finales por cada estudiante del curso. Fuente.
Elaboración propia
Es
fácilmente distinguible en la tabla anterior la diferencia de puntajes,
incluyendo las calificaciones aprobatorias mayores a 6.0, a favor del grupo
experimental que fue en donde se modificó el sistema de actividades con los
diseños de prompts. En la Tabla 4 se sintetiza
el estadístico descriptivo que permite comparar los dos grupos en cuanto a los
puntajes obtenidos al ser evaluados por el profesor con la lista de cotejo.
Grupo |
N |
Mínimo |
Máximo |
Media |
Desviación estándar |
Control |
14 |
5 |
16 |
10.79 |
2.94 |
Experimental |
15 |
9 |
18 |
14.40 |
2.53 |
Tabla
4. Estadístico descriptivo de cada grupo en función de los puntajes. Fuente.
Elaboración propia
Para el
análisis estadístico inferencial se realizó en primera instancia la prueba de
Levene de igualdad de varianzas desde la prueba t de Students
y se determinó aplicar la estadística no paramétrica. La decisión se tomó por
los valores mostrados en la Tabla 5.
|
F |
p |
Calificación lista de cotejo |
.016 |
.899 |
Tabla
5. Prueba de Levene de igualdad de varianzas. Fuente. Elaboración propia
El
resultado de la prueba U de Mann-Whitney para muestras independientes (U
= 174.0, p = 0.002), mostrado en la Tabla 6, permite observar la
significancia que marca la diferencia entre las calificaciones obtenidas por
medio de la lista de cotejo. Dicha diferencia denota la mejoría en el grupo
experimental.
|
U de Mann-Whitney |
p |
Calificación lista de cotejo |
174.0 |
.002 |
Tabla
6. Diferencias en los puntajes globales de la lista de cotejo en control y
experimental. Fuente. Elaboración propia
En
la Figura 3 se ofrece una representación gráfica que permite visualizar de otra
forma la diferencia encontrada. Es decir, los grupos difieren de manera
significativa en cuanto a los puntajes obtenidos en el control (Md = 11, Rango
= 10.07) y el experimental (Md = 15, Rango = 19.60).
Figura
3. Prueba U de Mann-Whitney para muestras independientes. Fuente. Tomado del
resultado obtenido con el Paquete Estadístico para Ciencias Sociales (SPSS
v.29)
Los
estudiantes usaron principalmente la combinación de diseños de prompts como son el reactivo o secuencial, con
objetivos, estructural y de perspectiva profesional, ratificando la practicidad
de las tipologías identificadas (Lopezosa &
Codina, 2023; Morales, 2023). El desarrollo de cada una de las actividades en
el grupo experimental se dio de manera satisfactoria, esencialmente en el
espacio de reflexión sobre el diseño de la instrucción y la evaluación de la
respuesta (Velásquez et al., 2023), acción que contribuyó fundamentalmente a la
obtención de mejores calificaciones que las del grupo control.
La
simplicidad de los prompts diseñados se pudo
constatar, coincidiendo con Reynolds & McDonell
(2021) y Korzynski et al. (2023) respecto a la mejora
en el desempeño ante ese criterio, así como la satisfacción percibida por poder
generar situaciones problémicas y evaluar las propuestas de solución en un
marco interactivo de simulación efectiva (Sánchez et al., 2025). También se
puede constatar el hecho de que el diseño de las adecuadas consignas,
combinadas con factores de retroalimentación personalizada e inmediata, y con
los suficientes elementos contextuales como fue el caso de la falta de
liderazgo basado en servicio, potencian el uso de nuevos medios y formas
alternativas para la evaluación del aprendizaje en el nivel de educación
superior, coincidiendo con varios de los aspectos concluyentes que exponen
tanto Lo (2023) como Armas & Iglesias (2024).
Conclusiones
Aunque
queda un largo camino formativo para profesores y estudiantes con la experimentación
en el proceso de enseñanza-aprendizaje que integra la IA, son alentadores los
resultados que indican la mejora en el rendimiento académico. La combinación de
estas tecnologías digitales con metodologías activas para implicar a los estudiantes
en tareas de diseño didáctico de prompts para
el aprendizaje basado en problemas, favorece en buena medida los resultados
académicos expresados en sus calificaciones. Se sugiere prestar especial
atención a los aspectos éticos que regulan el uso de esta
tecnología digital y los diseños de prompts
integrados al proceso de evaluación en pregrado, para que en vez de generar
situaciones conflictivas en las relaciones de profesores y estudiantes pueda
ser una herramienta efectiva que potencie el aprendizaje en entornos educativos
de nivel superior.
Es importante señalar que, aunque los resultados conforman una valiosa
aproximación desde la práctica para valorar el proceso de integración de
inteligencia artificial en la formación de pregrado, el estudio tiene limitaciones
que deben ser consideradas en futuras investigaciones. Para superar esas
limitaciones y robustecer el diseño metodológico deberá ampliarse la muestra y conformarse
de manera equilibrada por mujeres y hombres, así como también incluir otras herramientas
de IA e implementar el diseño didáctico de prompts
en los cursos regulares semestrales.
Se
puede concluir que el propósito de la investigación ha sido alcanzado, dado que
se tienen los elementos estadísticos suficientes para rechazar la hipótesis nula.
Por lo tanto, se pudo alcanzar el objetivo de determinar la existencia de
diferencias estadísticamente significativas entre el grupo control y el
experimental, participantes en un curso de pregrado, como resultado del uso de
la IA para intervenir con diseños didácticos de prompts
en la evaluación del aprendizaje.
Referencias Bibliográficas
Armas Velasco, C. B. & Iglesias Marrero, J. (2024).
La evaluación del aprendizaje asistida por IA en el proceso pedagógico del
posgrado. Referencia Pedagógica, 12(3): 506–518. https://rrp.cujae.edu.cu/index.php/rrp/article/view/427
Heston, T. F. & Khun, C. (2023).
Prompt Engineering in Medical Education. International Medical Education,
2(3), 198–205. https://doi.org/10.3390/ime2030019
Korzynski,
P., Mazurek, G., Krzypkowska, P. & Kurasniski, A. (2023). Artificial intelligence prompt
engineering as a new digital competence: Analysis of generative AI technologies
such as ChatGPT. Entrepreneurial Business and
Economics Review, 11(3), 25–37. https://doi.org/10.15678/EBER.2023.110302
Lo, L. S. (2023). The CLEAR path: A framework for enhancing
information literacy through prompt engineering. The Journal of Academic
Librarianship, 49(4), 102720. https://doi.org/10.1016/j.acalib.2023.102720
Lopezosa, C.
(2023). La Inteligencia artificial generativa en la comunicación científica:
retos y oportunidades. Revista de Investigación e Innovación en Ciencias de
la Salud, 5(1), 1–5. https://doi.org/10.46634/riics.211
Lopezosa, C.
& Codina, L. (2023, 27-28 abril). Inteligencia Artificial y métodos
cualitativos de investigación: ChatGPT para
revisiones de la literatura y análisis de entrevistas semiestructuradas.
[Ponencia]. Jornada “IA Para Principiantes”, Universidad Pompeu Fabra,
Barcelona. http://hdl.handle.net/10230/56505
Morales-Chan, M. A. (2023). Explorando el potencial de Chat
GPT: Una clasificación de Prompts efectivos para la
enseñanza. Galileo Dspace, Departamento De Investigación
Y Desarrollo GES [Internet], 1-8. http://biblioteca.galileo.edu/tesario/handle/123456789/1348
Ramos-Galarza,
C. (2021). Editorial: Diseños de investigación experimental. CienciAmérica, 10(1), 1–7. https://cienciamerica.edu.ec/index.php/uti/article/view/356
Reynolds, L. & McDonell, K. (2021, 8-13 mayo). Prompt
Programming for Large Language Models: Beyond the Few-Shot Paradigm [Ponencia]. En Extended Abstracts
of the 2021 CHI Conference on Human Factors in Computing Systems, Yokohama. https://doi.org/10.1145/3411763.3451760
Sánchez-Prieto, J. C., Izquierdo-Álvarez, V., del
Moral-Marcos, M. T. & Martínez-Abad, F. (2025). Inteligencia artificial
generativa para autoaprendizaje en educación superior: Diseño y validación de
una máquina de ejemplos. RIED-Revista Iberoamericana de Educación a
Distancia, 28(1), 59-81. Disponible en: https://doi.org/10.5944/ried.28.1.41548
Spasić, A.
J. & Janković, D. S. (2023, 29 junio-1 julio). Using ChatGPT Standard Prompt Engineering Techniques in Lesson
Preparation: Role, Instructions and Seed-Word Prompts [Ponencia]. 58th International Scientific Conference on
Information, Communication and Energy Systems and Technologies (ICEST), Serbia.
https://doi.org/10.1109/ICEST58410.2023.10187269
Velásquez-Henao, J. D., Franco-Cardona, C. J. &
Cadavid-Higuita, L. (2023). Prompt Engineering: a methodology for optimizing
interactions with
AI-Language Models in the field of engineering. Revista
DYNA, 90(230), 9–17. https://doi.org/10.15446/dyna.v90n230.111700
Villa Sánchez, A. & Pizarro Fuentes, E. (2024). Liderazgo
de Servicio: Un liderazgo altruista y transformador. Revista de Educación y
Derecho, (30), 1–25. https://doi.org/10.1344/REYD2024.30.46622
Yao, S., Yu, D., Zhao, J., Shafran, I., Griffiths, T. L., Cao, Y. & Narasimhan, K. (2023). Tree of Thoughts:
Deliberate Problem Solving with Large Language Models. Computation and Language,
(2), 1–14. https://doi.org/10.48550/arXiv.2305.10601
Yong, G., Jeon, K., Gil, D. &
Lee, G. (2023). Prompt engineering for zero‐shot and few‐shot defect detection
and classification using a visual‐language pretrained model. Computer-Aided
Civil and Infrastructure Engineering, 38(11), 1536–1554. https://onlinelibrary.wiley.com/doi/abs/10.1111/mice.12954?msockid=06c40c336121694f193e191a6086680c
Contribución de los
autores
No. |
Roles
de la contribución |
Autor
1 |
Autor
2 |
1.
|
Conceptualización:
|
50% |
50% |
2.
|
Análisis
formal: |
50% |
50% |
3.
|
Investigación:
|
100% |
|
4.
|
Metodología:
|
50% |
50% |
5.
|
Administración
del proyecto: |
50% |
50% |
6.
|
Recursos:
|
50% |
50% |
7.
|
Supervisión:
|
50% |
50% |
8.
|
Visualización:
|
50% |
50% |
9.
|
Redacción
– borrador original: |
50% |
50% |
10. |
Redacción
– revisión y edición: |
50% |
50% |
Declaración de originalidad y conflictos de interés
El/los autor/es declara/n que el artículo: Diseño didáctico
de prompts para evaluar el aprendizaje: integración
de inteligencia artificial en formación pregrado
Que
el artículo es inédito, derivado de investigaciones y no está postulando para
su publicación en ninguna otra revista simultáneamente.
A
continuación, presento los nombres y firmas de los autores, que certifican la
aprobación y conformidad con el artículo enviado.
Autores
Joel Iglesias Marrero
Camilo Boris Armas Velasco
Revista Científica Pedagógica “Horizonte Pedagógico”. Vol. 14. Artículo de investigación |