Evaluación de una herramienta de Inteligencia Artificial (ChatGPT 4.0) como asistente de aprendizaje en alumnos de Patología General

Loading...
Thumbnail Image

Official URL

Full text at PDC

Publication date

2025

Advisors (or tutors)

Editors

Journal Title

Journal ISSN

Volume Title

Publisher

Citations
Google Scholar

Citation

Abstract

El Proyecto de Innovación Docente nº 69 (Convocatoria 2024/25) evalúa la incorporación de Open Evidence, una herramienta de inteligencia artificial basada en modelos de lenguaje extensos (LLM), como asistente de aprendizaje para estudiantes de Patología General del Hospital Universitario Infanta Leonor (UCM). Su propósito fundamental es determinar la fiabilidad de las respuestas suministradas por la IA y, con ello, validar su utilidad como apoyo inmediato y continuo en la resolución de dudas académicas. Los objetivos secundarios incluyen (1) fomentar la interacción profesor-alumno a través del debate sobre las respuestas, (2) estimular el pensamiento crítico al obligar al alumnado a valorar la calidad de la información recibida, (3) optimizar el tiempo de estudio permitiendo concentrarse en contenidos complejos, y (4) promover la integración de nuevas tecnologías en la docencia médica Metodología Se diseñó un estudio observacional prospectivo con estudiantes de tercer curso de Medicina que aceptaron participar voluntariamente. El plan se desarrolló en tres fases. Formación y activación: un mes antes de cada examen parcial (diciembre 2024 y febrero 2025) se activó Open Evidence para uso individual, tras una breve sesión de entrenamiento. Uso y evaluación: cuando surgía una duda sobre el temario, el estudiante consultaba la IA y publicaba, en un foro Moodle creado ex profeso, la pregunta y la respuesta recibida. El profesorado revisaba cada entrada en un máximo de 48 h y calificaba la adecuación de la respuesta en una escala Likert 0-10; el estudiante recibía además retroalimentación personalizada por correo institucional. Análisis de resultados: concluido el periodo activo, se aplicó una encuesta de satisfacción para valorar utilidad, facilidad de uso y futuro interés. Resultados Durante el proyecto se registraron 50 preguntas. De los 24 alumnos matriculados, 12 (50 %) utilizaron la herramienta al menos una vez. La puntuación media otorgada por el profesorado a la pertinencia de las respuestas fue de 8,48/10, lo que respalda la fiabilidad buscada. En la encuesta final respondieron 11 de los 12 usuarios (91,6 %): 10 de 11 encuestados (91 %) consideraron la herramienta útil o muy útil para preparar la asignatura. El mismo porcentaje la valoró como fácil o muy fácil de manejar. Estos datos confirman el cumplimiento del objetivo principal y evidencian una alta aceptación entre quienes la probaron . Desarrollo y recursos La actividad se llevó a cabo sin necesidad de recursos humanos adicionales. Inicialmente se contempló usar ChatGPT, pero se optó por Open Evidence por su especialización en contenidos médicos y gratuidad para estudiantes y profesionales sanitarios. La interacción se canalizó a través del foro Moodle, activo 30 días antes de cada parcial, con un compromiso docente de respuesta rápida . Conclusiones y proyección El proyecto demuestra que un LLM específico en medicina puede constituir un recurso fiable, ágil y bien acogido para apoyar el aprendizaje en Patología General. La estrategia de publicar las interacciones en un foro y someterlas a evaluación docente fomenta tanto la discusión colectiva como la reflexión crítica sobre la información proporcionada por la IA. Aunque sólo la mitad del grupo utilizó la herramienta, quienes lo hicieron reportaron claros beneficios formativos, lo que sugiere la conveniencia de ampliar la difusión y explorarlo en otras asignaturas. La experiencia subraya, además, la importancia de supervisión experta para garantizar la calidad y seguridad de las respuestas y de encauzar el uso responsable de la inteligencia artificial en la educación médica.

Research Projects

Organizational Units

Journal Issue

Description

Unesco subjects

Keywords