Diseño didáctico de prompts para evaluar el aprendizaje: integración de inteligencia artificial en formación pregrado

Didactic design of prompts to assess learning: Integration of artificial intelligence in undergraduate training

Recibido: 26/03/2025 | Aceptado: 30/05/2025 | Publicado: 12/06/2025

Joel Iglesias Marrero 1*

Camilo Boris Armas Velasco 2 

 

 

1* Universidad Anáhuac México. Centro Anáhuac de Investigación Educativa (CAIE), Huixquilucan, Estado de México. jiglesias@anahuac.mx ID ORCID: https://orcid.org/0000-0003-2605-5475

2 Universidad de La Habana. Centro de Estudios para el Perfeccionamiento de la Educación Superior (CEPES), La Habana, Cuba. camilo.armas@cepes.uh.edu.cu ID ORCID: https://orcid.org/0000-0002-6246-28712   

 


Resumen:

En el complejo contexto educativo-tecnológico actual, el lenguaje juega un papel crucial para la interacción entre personas y máquinas, especialmente en el uso de la inteligencia artificial. Sin embargo, existe imprecisión y divergencias sobre el empleo de esta tecnología digital y los diseños de prompts para la evaluación del aprendizaje en pregrado. Esta investigación se centró en determinar si el uso de la inteligencia artificial mediante el diseño didáctico de prompts genera diferencias estadísticamente significativas en los puntajes, obtenidos a través de una lista de cotejo, entre un grupo control y uno experimental. Los resultados muestran una marcada diferencia en los puntajes, con calificaciones aprobatorias superiores en el grupo experimental, donde se implementó el diseño didáctico de prompts. La prueba U de Mann-Whitney confirma estas diferencias estadísticamente significativas, permitiendo concluir que la integración de la inteligencia artificial con metodologías activas que involucran al estudiantado en el diseño y evaluación de prompts para el aprendizaje basado en problemas mejora sustancialmente los resultados académicos. Esto sugiere que la combinación de esta tecnología puede ser una herramienta efectiva para potenciar el aprendizaje en entornos educativos de nivel superior.

Palabras clave: diseño; evaluación del estudiante; inteligencia artificial; formación de docentes.

Abstract:

In today's complex educational-technological context, language plays a crucial role in the interaction between people and machines, especially in the use of artificial intelligence. However, there is uncertainty and disagreement regarding the use of this digital technology and prompt designs for undergraduate learning assessment. This research focused on determining whether the use of artificial intelligence through the didactic design of prompts generates statistically significant differences in scores, obtained through a checklist, between a control and an experimental group. The results show a marked difference in scores, with higher passing grades in the experimental group, where the didactic design of prompts was implemented. The Mann-Whitney U test confirms these statistically significant differences, allowing us to conclude that the integration of artificial intelligence with active methodologies that involve students in the design and evaluation of prompts for problem-based learning substantially improves academic outcomes. This suggests that the combination of this technology can be an effective tool to enhance learning in higher education environments.

Keywords: design; student assessment; artificial intelligence; teacher training.


 

Introducción

En el contexto general del uso de la inteligencia artificial (IA), el término prompt es entendido como la instrucción, consigna o pregunta que una persona ingresa al sistema para que le sea devuelta una respuesta acotada, bajo la expectativa de inmediatez y optimización de recursos humanos en un marco eficiente de nuevos ambientes del aprendizaje profundo y de la potenciación de redes neuronales artificiales. La vorágine tecnológica va dando pautas para las nuevas formas de interacción de personas y máquinas, en donde el uso del lenguaje se considera un factor determinante para los resultados específicos que se obtienen al emplear la IA. Es decir, el uso de cualquier tipo de IA exige una comunicación por medio de prompts, los cuales se han constituido en los tecnicismos que se otorgan a dichas instrucciones o peticiones.

Dada la importancia que reviste el diseño de prompts en la formación de pregrado se propone como objetivo en la presente investigación determinar la existencia o no de diferencias estadísticamente significativas entre un grupo control y uno experimental compuesto por participantes en un curso de pregrado como el resultado del uso de la IA para intervenir con diseños didácticos de prompts en la evaluación del aprendizaje. El nivel de especificidad de la respuesta obtenida está en función del tipo de prompt empleado o de la integración de sus diferentes tipos al diseñar la instrucción (Lopezosa & Codina, 2023). Ejemplos de esta tipología se ofrecen en la Tabla 1, de tal manera que la siguiente información pueda ser considerada como una aproximación didáctica para la selección de estrategias en los procesos de enseñanza-aprendizaje.

Prompt reactivo

Se solicita un grupo de interacciones concatenadas a partir de cada respuesta

Prompt estructural

Se solicita una respuesta articulada desde varios criterios con una ampliación de información por cada uno de los criterios

Prompt de rol

Se solicita que la IA simule un rol específico para que la respuesta se asocie a un perfil bien determinado

Prompt con indicación de audiencias

Se solicita una respuesta que considere a una audiencia, de manera que obedezca a un criterio de personalización

Prompt con objetivos

Se solicita una respuesta en función de un objetivo especificado o una meta declarada

Tabla 1. Tipologías de prompts para obtener respuestas específicas al usar IA. Fuente. (Lopezosa, 2023)

Otra propuesta de tipos de prompts, que desde la práctica educativa en nivel superior ha demostrado la efectividad de la enseñanza, es la que sugiere Morales (2023). Cabe señalar que no hay una relación jerárquica en los siguientes tipos de prompts que se muestran en la Tabla 2, pero la combinación de éstos fortalece la respuesta obtenida.

Prompt secuencial

Su finalidad es generar una progresión lógica en la interacción por medio de una secuencia de textos previamente solicitados que van brindando respuestas con mayor estructura y contexto

Prompt comparativo

Su propósito es que la IA compare dos o más materiales o contenidos para generar mayor especificidad en la respuesta

Prompt argumental

Se basa en un diseño que pretende obtener respuestas muy bien argumentadas, ya sean a favor o en contra de una proposición o juicio de valor determinado, desde la exigencia de que todos los planteamientos tengan coherencia

Prompt de perspectiva profesional

Se basa principalmente en la consigna de asumir el rol específico de una persona con un determinado perfil, para poder describir o desarrollar un tema bien contextualizado, con los suficientes detalles y estructura

Prompt de lista de deseos

Se construye bajo la solicitud de una lista de opciones a partir de requisitos específicos sobre lo que se busca, para obtener las respuestas más relevantes

Tabla 2. Tipologías de prompts orientados al campo educativo usando ChatGPT. Fuente. Morales-Chan, (2023)

Al continuar con la revisión de propuestas teóricas o experiencias con el diseño de prompts, es necesario ubicar una ruta didáctica que implica definir el propósito para emplear la IA, diseñar la instrucción y evaluar la respuesta (Velásquez et al., 2023); asumir la finalización del proceso o regresar para realizar ajustes en el prompt son dos posibles decisiones que están en función del nivel de satisfacción alcanzado. Aunque su diseño no aparenta ser un proceso complejo didácticamente hablando, debe reconocerse que las experiencias por parte de los estudiantes y los profesores son diversas; la eficiencia de uso de la IA tiene estrecha relación con la capacidad de crear y aplicar estrategias para el diseño, la escritura y la optimización de indicaciones.

El uso de prompts en la evaluación del aprendizaje

Las valoraciones iniciales sobre los prompts utilizados frecuentemente en el campo escolar, sobre todo en el proceso de exploración de las IA por parte de profesores y estudiantes que se basaba esencialmente en lanzar una pregunta sencilla y poco estructurada, han permitido arribar a conclusiones importantes sobre el diseño. Cualquier solicitud con una definición específica de algún dominio es potencialmente mejor que una solicitud con terminología genérica o con textos discontinuos (imágenes); una oración o párrafo completo es muy superior a un listado con términos básicos; las solicitudes con información multimodal (texto, imagen, audio) son muy superiores a las solicitudes con información unimodal (Yong et al., 2023).

Tal y como el uso de metodologías activas se potenció desde el cauce de implicar a los estudiantes y provocar una interrelación positiva en el aula para el aprendizaje, acompañado de las exigencias de atención individualizada para favorecer la inclusión en los contextos educativos, el diseño de prompts conduce a formas de programación de solicitudes que pueden personalizar los resultados y las interacciones, evidenciando un incremento en la utilidad de las tecnologías generativas.  Un ejemplo de lo descrito y que conecta muy bien con el desarrollo de prompts de tipo rol o con indicación de audiencias, se puede considerar en una secuencia didáctica que guíe para un diseño que conlleva: definir el rol o el contexto desde la consigna de cómo debe actuar; especificar lo requerido y que comúnmente se expresa con tareas puntuales; describir con la mayor precisión posible el formato de salida o la forma en que se quiere presentar la respuesta; describir los límites de los resultados esperados (Heston & Khun, 2023).

Si bien la secuencia anterior ilustra en lo referente a la planificación del prompt, otra parte importante del diseño didáctico es el desarrollo de varias estrategias para ir perfeccionando dicho diseño. Ampliar las peticiones con frases claras y bien redactadas que den un marco a las respuestas esperadas, indicando la segmentación del resultado si es que se pretende obtener salidas de información complejas, sin dejar de recordar que son redes artificiales por lo que no requieren un lenguaje cargado del por favor o de las gracias, pueden ser algunas estrategias clave para su desarrollo (Spasić & Janković, 2023).

Otra estrategia relevante para el diseño didáctico de prompts es el árbol de pensamientos, pues permite explorar múltiples soluciones tomando en cuenta las estructuras formadas desde las interacciones concatenadas y la jerarquía de los temas, para tomar la decisión más adecuada al problema, proyecto o caso planteado (Yao et al., 2023). La consistencia interna que ayuda a elegir la respuesta más adecuada, dentro de muchas posibilidades, se obtiene al hacer varias veces la solicitud al modelo de lenguaje de gran tamaño y así poder descartar, por ensayo y error, las salidas (respuestas) menos adecuadas, siendo por excelencia un proceso que se perfecciona desde el carácter iterativo.

Como en el proceso de enseñanza-aprendizaje que se evalúan las evidencias del desempeño, la evaluación de las respuestas son un aspecto toral para discutir y mejorar los diseños de prompts. El refinamiento iterativo y la comparación de distintas versiones del prompt, son algunas de las técnicas más importantes para la generación de respuestas precisas y relevantes. Una buena guía para la valoración de la respuesta que brinda la IA debe contemplar los criterios: completa, precisa, relevante, bajo los límites especificados, fundamentada en hechos para asumirla como correcta, adecuada en función del contexto definido desde la consigna (Lo, 2023).

En una investigación reciente se comprobó la efectividad de la IA generativa y la satisfacción percibida en estudiantes universitarios que trabajaron con el diseño de cuatro prompts, validados previamente por expertos en Métodos de Investigación en Educación, para generar ejemplos prácticos interactivos en la asignatura (Sánchez et al., 2025). Durante la evaluación de la utilidad de los prompts para el proceso de enseñanza-aprendizaje en el contexto universitario, mostraron un mejor potencial los diseños de instrucciones sencillas, pero que cumplían con los criterios estructurales de contexto, base de conocimiento e instrucciones (Reynolds & McDonell, 2021; Korzynski et al., 2023).

Cabe mencionar que el estudio presentó como principales limitaciones la poca formación de profesores y estudiantes para interactuar con la IA y para distinguir las cuestiones de fiabilidad en las respuestas obtenidas al ajustar el prompt. Por otro lado, algunas experiencias en pregrado y posgrado van demostrando que el uso de las IA es un imperativo situacional tecnológico para la educación, constituyéndose en un gran aliado pedagógico para las acciones de mejora evaluativa, más allá de las calificaciones, por el potencial de retroalimentación del aprendizaje con carácter instantáneo y personalizado (Morales, 2023; Armas & Iglesias, 2024).

Materiales y métodos

Desde el paradigma cuantitativo, se realizó un diseño experimental con posprueba únicamente y un grupo control (Ramos, 2021) para determinar los efectos del uso de la IA en el grupo experimental a partir del diseño didáctico de prompts en la evaluación del aprendizaje. La muestra se conformó por veintinueve estudiantes de la Licenciatura en Pedagogía, 7 hombres y 22 mujeres (ver Figura 1), pertenecientes a una institución pública de la Ciudad de México que se dedica a la formación de maestras y maestros.

La edad promedio de la muestra es de 21.3 años (27 máximo y 19 mínimo). Los sujetos del estudio participaron voluntariamente en un curso intersemestral sobre liderazgo educativo y organizacional basado en el servicio (Villa & Pizarro, 2024); para el experimento con diseño de prompts, el profesor del curso asignó de manera aleatoria a los estudiantes en dos grupos con 14 (control) y 15 (experimental) personas en cada uno.

Figura 1. Distribución de la muestra por sexo. Fuente. Elaboración propia

El desarrollo tradicional del curso se rigió por las actividades que se sintetizan a continuación y que se mantuvieron en el grupo control:

  1. Lectura por parte del estudiantado de varios artículos relacionados con el tema de liderazgo basado en el servicio.
  2. El profesor les presenta situaciones problemáticas sobre la falta de liderazgo en instituciones de educación superior.
  3. Cada estudiante presenta ante el grupo la propuesta de solución al problema, apoyándose en las dimensiones y acciones que distinguen un liderazgo basado en el servicio.
  4. El profesor evalúa a cada estudiante con una lista de cotejo.

La lista de cotejo está conformada por seis dimensiones y tres ítems por cada dimensión, permitiendo obtener una calificación mínima de 0 y una máxima de 18 puntos. Los criterios para calificar se basan en si se indica (1 punto) o no (0 punto) en la propuesta la acción asociada con la dimensión del liderazgo en servicio ya sea de forma explícita o implícita. A continuación, se detalla cada dimensión con sus respectivos indicadores, expresados como acciones.

·         Dimensión Visión y valores: autoevaluación continua, defensa activa de valores, comunicación clara de la visión.

·         Dimensión Dirección: planificación estratégica, definición de metas, monitorización y ajustes del rumbo.

·         Dimensión Persuasión: técnicas de comunicación, capacitación en oratoria, fomento de feedback.

·         Dimensión Apoyo: creación de redes de apoyo, capacitación y desarrollo de habilidades, establecimiento de prioridades.

·         Dimensión Desarrollo: programas de formación, mentoría y coaching, evaluaciones de desempeño.

·         Dimensión Reconocimiento: programas de reconocimiento, feedback positivo, celebración de logros.

Para el grupo experimental, mismo que fue atendido simultáneamente al control, se modificaron algunas actividades y se añadieron otras desde la intervención con la IA y el diseño de prompts. Esta estrategia se usó tanto para generar contenidos de las situaciones problémicas como para generar la evaluación de las propuestas de solución.

  1. Lectura por parte de los estudiantes de varios artículos relacionados con el tema de liderazgo baso en el servicio.
  2. Cada estudiante diseña uno o varios prompts, según se requiera, para generar contenidos que sirvan como situaciones problémicas relacionadas con la falta de liderazgo basado en el servicio.
  3. Cada estudiante presenta ante el grupo la propuesta de solución al problema, apoyándose en las dimensiones y acciones que distinguen un liderazgo basado en el servicio.
  4. Cada estudiante diseña uno o varios prompts, según se requiera, para evaluar sus propias propuestas (autoevaluación con la IA) a partir de criterios objetivos que se establecen con las dimensiones y acciones específicas del liderazgo basado en el servicio.
  5. El profesor provoca la reflexión y retroalimentación grupal sobre las evaluaciones asistidas con el diseño de prompts.
  6. El profesor evalúa con la misma lista de cotejo que en el grupo control.

Los estudiantes pudieron elegir la IA en función de su preferencia y acceso; cabe mencionar que el número máximo de solicitudes fue de dos y las IA elegidas fueron Chat GPT 3 y Gemini 2.0. Con el Paquete Estadístico para Ciencias Sociales (SPSS v.29) se realizaron los análisis descriptivos e inferenciales y las representaciones gráficas fueron desarrolladas en Excel.

Resultados y discusión

El propósito de la investigación exige un análisis de resultados a partir de las diferencias estadísticas entre los grupos control y experimental, pero de manera inicial se ofrecen datos relacionados con el desempeño general de los estudiantes matriculados  en el  curso, expresado a través de los puntajes obtenidos con la lista de cotejo, toda vez que corresponde con el conjunto de investigaciones encaminadas al perfeccionamiento del proceso de enseñanza-aprendizaje, específicamente en cuanto al tema de la evaluación con el uso de diferentes herramientas de inteligencia artificial generativa. En la Figura 2 se observa la diferencia de estudiantes con criterio de aprobación y reprobación, en función del uso o no de la IA para el desarrollo de las actividades (control y experimental), considerando que el criterio institucional para la acreditación de los cursos es el siguiente: aprobado con calificaciones entre 6 y 10; reprobado con calificaciones iguales o menores a 5.

Figura 2. Aprobación y reprobación en los grupos de análisis. Figura. Elaboración propia

Se puede apreciar que, en el grupo experimental, en donde se intervino el sistema de actividades con diseños de prompts, la proporción de estudiantes aprobados (93.3%) es muy superior al compararlo con el grupo control (64.3%). La Tabla 3 muestra puntualmente los puntajes obtenidos por cada estudiante una vez que el profesor empleó la lista de cotejo para evaluar las propuestas de solución a la problemática de la falta de liderazgo baso en servicio. Asimismo, se indica la calificación correspondiente con el criterio institucional con base en una escala de 0 a 10 puntos.

Estudiantes grupo control

Puntaje en lista de cotejo

Calificación

Estudiantes grupo experimental

Puntaje en lista de cotejo

Calificación

1

9

5.0

1

15

8.3

2

6

6.1

2

14

7.8

3

7

3.9

3

16

8.9

4

7

6.1

4

17

9.4

5

5

6.7

5

12

6.7

6

6

8.3

6

15

8.3

7

6

7.2

7

16

8.9

8

5

6.1

8

13

7.2

9

8

4.4

9

17

9.4

10

5

2.8

10

18

10.0

11

7

6.7

11

11

6.1

12

4

8.9

12

16

8.9

13

11

6.1

13

9

5.0

14

8

5.6

14

15

8.3

 

 

 

15

12

6.7

Tabla 3. Puntajes y calificaciones finales por cada estudiante del curso. Fuente. Elaboración propia

Es fácilmente distinguible en la tabla anterior la diferencia de puntajes, incluyendo las calificaciones aprobatorias mayores a 6.0, a favor del grupo experimental que fue en donde se modificó el sistema de actividades con los diseños de prompts. En la Tabla 4 se sintetiza el estadístico descriptivo que permite comparar los dos grupos en cuanto a los puntajes obtenidos al ser evaluados por el profesor con la lista de cotejo.

Grupo

N

Mínimo

Máximo

Media

Desviación estándar

Control

14

5

16

10.79

2.94

Experimental

15

9

18

14.40

2.53

Tabla 4. Estadístico descriptivo de cada grupo en función de los puntajes. Fuente. Elaboración propia

Para el análisis estadístico inferencial se realizó en primera instancia la prueba de Levene de igualdad de varianzas desde la prueba t de Students y se determinó aplicar la estadística no paramétrica. La decisión se tomó por los valores mostrados en la Tabla 5.

 

F

p

Calificación lista de cotejo

.016

.899

Tabla 5. Prueba de Levene de igualdad de varianzas. Fuente. Elaboración propia

El resultado de la prueba U de Mann-Whitney para muestras independientes (U = 174.0, p = 0.002), mostrado en la Tabla 6, permite observar la significancia que marca la diferencia entre las calificaciones obtenidas por medio de la lista de cotejo. Dicha diferencia denota la mejoría en el grupo experimental.

 

U de Mann-Whitney

p

Calificación lista de cotejo

174.0

.002

Tabla 6. Diferencias en los puntajes globales de la lista de cotejo en control y experimental. Fuente. Elaboración propia

En la Figura 3 se ofrece una representación gráfica que permite visualizar de otra forma la diferencia encontrada. Es decir, los grupos difieren de manera significativa en cuanto a los puntajes obtenidos en el control (Md = 11, Rango = 10.07) y el experimental (Md = 15, Rango = 19.60).

Figura 3. Prueba U de Mann-Whitney para muestras independientes. Fuente. Tomado del resultado obtenido con el Paquete Estadístico para Ciencias Sociales (SPSS v.29)

Los estudiantes usaron principalmente la combinación de diseños de prompts como son el reactivo o secuencial, con objetivos, estructural y de perspectiva profesional, ratificando la practicidad de las tipologías identificadas (Lopezosa & Codina, 2023; Morales, 2023). El desarrollo de cada una de las actividades en el grupo experimental se dio de manera satisfactoria, esencialmente en el espacio de reflexión sobre el diseño de la instrucción y la evaluación de la respuesta (Velásquez et al., 2023), acción que contribuyó fundamentalmente a la obtención de mejores calificaciones que las del grupo control.

La simplicidad de los prompts diseñados se pudo constatar, coincidiendo con Reynolds & McDonell (2021) y Korzynski et al. (2023) respecto a la mejora en el desempeño ante ese criterio, así como la satisfacción percibida por poder generar situaciones problémicas y evaluar las propuestas de solución en un marco interactivo de simulación efectiva (Sánchez et al., 2025). También se puede constatar el hecho de que el diseño de las adecuadas consignas, combinadas con factores de retroalimentación personalizada e inmediata, y con los suficientes elementos contextuales como fue el caso de la falta de liderazgo basado en servicio, potencian el uso de nuevos medios y formas alternativas para la evaluación del aprendizaje en el nivel de educación superior, coincidiendo con varios de los aspectos concluyentes que exponen tanto Lo (2023) como Armas & Iglesias (2024).

Conclusiones

Aunque queda un largo camino formativo para profesores y estudiantes con la experimentación en el proceso de enseñanza-aprendizaje que integra la IA, son alentadores los resultados que indican la mejora en el rendimiento académico. La combinación de estas tecnologías digitales con metodologías activas para implicar a los estudiantes en tareas de diseño didáctico de prompts para el aprendizaje basado en problemas, favorece en buena medida los resultados académicos expresados en sus calificaciones. Se sugiere prestar especial atención a los aspectos éticos que regulan el uso de esta tecnología digital y los diseños de prompts integrados al proceso de evaluación en pregrado, para que en vez de generar situaciones conflictivas en las relaciones de profesores y estudiantes pueda ser una herramienta efectiva que potencie el aprendizaje en entornos educativos de nivel superior.

Es importante señalar que, aunque los resultados conforman una valiosa aproximación desde la práctica para valorar el proceso de integración de inteligencia artificial en la formación de pregrado, el estudio tiene limitaciones que deben ser consideradas en futuras investigaciones. Para superar esas limitaciones y robustecer el diseño metodológico deberá ampliarse la muestra y conformarse de manera equilibrada por mujeres y hombres, así como también incluir otras herramientas de IA e implementar el diseño didáctico de prompts en los cursos regulares semestrales.

Se puede concluir que el propósito de la investigación ha sido alcanzado, dado que se tienen los elementos estadísticos suficientes para rechazar la hipótesis nula. Por lo tanto, se pudo alcanzar el objetivo de determinar la existencia de diferencias estadísticamente significativas entre el grupo control y el experimental, participantes en un curso de pregrado, como resultado del uso de la IA para intervenir con diseños didácticos de prompts en la evaluación del aprendizaje.

Referencias Bibliográficas

Armas Velasco, C. B. & Iglesias Marrero, J. (2024). La evaluación del aprendizaje asistida por IA en el proceso pedagógico del posgrado. Referencia Pedagógica, 12(3): 506–518. https://rrp.cujae.edu.cu/index.php/rrp/article/view/427

Heston, T. F. & Khun, C. (2023). Prompt Engineering in Medical Education. International Medical Education, 2(3), 198–205. https://doi.org/10.3390/ime2030019

 Korzynski, P., Mazurek, G., Krzypkowska, P. & Kurasniski, A. (2023). Artificial intelligence prompt engineering as a new digital competence: Analysis of generative AI technologies such as ChatGPT. Entrepreneurial Business and Economics Review, 11(3), 25–37. https://doi.org/10.15678/EBER.2023.110302

Lo, L. S. (2023). The CLEAR path: A framework for enhancing information literacy through prompt engineering. The Journal of Academic Librarianship, 49(4), 102720. https://doi.org/10.1016/j.acalib.2023.102720    

Lopezosa, C. (2023). La Inteligencia artificial generativa en la comunicación científica: retos y oportunidades. Revista de Investigación e Innovación en Ciencias de la Salud, 5(1), 1–5. https://doi.org/10.46634/riics.211

Lopezosa, C. & Codina, L. (2023, 27-28 abril). Inteligencia Artificial y métodos cualitativos de investigación: ChatGPT para revisiones de la literatura y análisis de entrevistas semiestructuradas. [Ponencia]. Jornada “IA Para Principiantes”, Universidad Pompeu Fabra, Barcelona. http://hdl.handle.net/10230/56505

Morales-Chan, M. A. (2023). Explorando el potencial de Chat GPT: Una clasificación de Prompts efectivos para la enseñanza. Galileo Dspace, Departamento De Investigación Y Desarrollo GES [Internet], 1-8. http://biblioteca.galileo.edu/tesario/handle/123456789/1348

Ramos-Galarza, C. (2021). Editorial: Diseños de investigación experimental. CienciAmérica, 10(1), 1–7. https://cienciamerica.edu.ec/index.php/uti/article/view/356

Reynolds, L. & McDonell, K. (2021, 8-13 mayo). Prompt Programming for Large Language Models: Beyond the Few-Shot Paradigm [Ponencia]. En Extended Abstracts of the 2021 CHI Conference on Human Factors in Computing Systems, Yokohama. https://doi.org/10.1145/3411763.3451760

Sánchez-Prieto, J. C., Izquierdo-Álvarez, V., del Moral-Marcos, M. T. & Martínez-Abad, F. (2025). Inteligencia artificial generativa para autoaprendizaje en educación superior: Diseño y validación de una máquina de ejemplos. RIED-Revista Iberoamericana de Educación a Distancia, 28(1), 59-81. Disponible en: https://doi.org/10.5944/ried.28.1.41548

Spasić, A. J. & Janković, D. S. (2023, 29 junio-1 julio). Using ChatGPT Standard Prompt Engineering Techniques in Lesson Preparation: Role, Instructions and Seed-Word Prompts [Ponencia]. 58th International Scientific Conference on Information, Communication and Energy Systems and Technologies (ICEST), Serbia. https://doi.org/10.1109/ICEST58410.2023.10187269   

Velásquez-Henao, J. D., Franco-Cardona, C. J. & Cadavid-Higuita, L. (2023). Prompt Engineering: a methodology for optimizing interactions with
AI-Language Models in the field of engineering.
Revista DYNA, 90(230), 9–17. https://doi.org/10.15446/dyna.v90n230.111700

Villa Sánchez, A. & Pizarro Fuentes, E. (2024). Liderazgo de Servicio: Un liderazgo altruista y transformador. Revista de Educación y Derecho, (30), 1–25. https://doi.org/10.1344/REYD2024.30.46622

Yao, S., Yu, D., Zhao, J., Shafran, I., Griffiths, T. L., Cao, Y. & Narasimhan, K. (2023). Tree of Thoughts: Deliberate Problem Solving with Large Language Models. Computation and Language, (2), 1–14. https://doi.org/10.48550/arXiv.2305.10601

Yong, G., Jeon, K., Gil, D. & Lee, G. (2023). Prompt engineering for zero‐shot and few‐shot defect detection and classification using a visual‐language pretrained model. Computer-Aided Civil and Infrastructure Engineering, 38(11), 1536–1554. https://onlinelibrary.wiley.com/doi/abs/10.1111/mice.12954?msockid=06c40c336121694f193e191a6086680c    


Contribución de los autores

No.

Roles de la contribución

Autor 1

Autor 2

1.        

Conceptualización:   

50%

50%

2.        

Análisis formal:  

50%

50%

3.        

Investigación:  

100%

 

4.        

Metodología:  

50%

50%

5.        

Administración del proyecto:  

50%

50%

6.        

Recursos:  

50%

50%

7.        

Supervisión:  

50%

50%

8.        

Visualización:  

50%

50%

9.        

Redacción – borrador original:  

50%

50%

10.    

Redacción – revisión y edición:  

50%

50%

 

Declaración de originalidad y conflictos de interés

El/los autor/es declara/n que el artículo: Diseño didáctico de prompts para evaluar el aprendizaje: integración de inteligencia artificial en formación pregrado   

Que el artículo es inédito, derivado de investigaciones y no está postulando para su publicación en ninguna otra revista simultáneamente.

A continuación, presento los nombres y firmas de los autores, que certifican la aprobación y conformidad con el artículo enviado.

Autores

Joel Iglesias Marrero

Camilo Boris Armas Velasco

asd

Revista Científica Pedagógica “Horizonte Pedagógico”. Vol. 14.
Artículo de investigación

asd