La inteligencia artificial no va a reemplazar la formación médica: va a rediseñarla

La inteligencia artificial puede transformar la formación médica al permitir aprendizaje personalizado, pacientes virtuales interactivos, simulaciones clínicas avanzadas y apoyo en investigación. Su integración promete ampliar la capacidad educativa, pero requiere implementación cuidadosa, supervisión docente y marcos éticos sólidos para evitar sesgos y errores.

INTELIGENCIA ARTIFICIALEDUCACIÓN MÉDICA

Alfredo Manzano

3/14/20267 min read

Cada cierto tiempo aparece una tecnología que no sólo agrega herramientas nuevas, sino que obliga a replantear la arquitectura completa de un sistema. Eso es exactamente lo que veo hoy con la inteligencia artificial en educación médica. No estamos frente a una moda pedagógica más, ni ante un simple asistente para resumir textos o responder preguntas. Estamos frente a una tecnología que puede alterar de forma profunda cómo enseñamos medicina, cómo entrenamos a los residentes y cómo acompañamos el desarrollo profesional de los médicos a lo largo de toda su trayectoria. Ese es el eje central del artículo: la IA, y en particular la IA generativa, tiene el potencial de transformar de manera estructural la formación de estudiantes de medicina y médicos, pero sólo si se integra con criterios pedagógicos, éticos y organizacionales sólidos.

El punto de partida del texto que analizo es difícil de ignorar. La educación médica tradicional ya venía arrastrando tensiones importantes antes del auge reciente de los modelos generativos: currículos saturados, entornos clínicos cada vez más complejos, presión asistencial creciente y una escasez global de personal sanitario que, según la OMS, seguirá empeorando en los próximos años. En ese contexto, la IA no aparece como un lujo futurista, sino como una posible respuesta a un problema real de capacidad formativa. Si los sistemas de salud necesitan formar más profesionales, de manera más eficiente y con mejor adaptación a contextos cambiantes, entonces la pregunta deja de ser si la IA entrará a la educación médica. La pregunta pasa a ser cómo hacerlo sin deteriorar lo que hace valiosa a la formación médica.

Uno de los aportes más interesantes del artículo es que no limita la conversación a ChatGPT o a los grandes modelos de lenguaje. Los autores sitúan la discusión dentro de un ecosistema más amplio: procesamiento de lenguaje natural, modelos multimodales, generación de video, realidad virtual, realidad aumentada y metaverso educativo. Esta visión importa porque evita una simplificación frecuente. La transformación no depende sólo de tener un chatbot disponible; depende de combinar múltiples tecnologías para crear experiencias de aprendizaje más personalizadas, más inmersivas y más cercanas a la complejidad del mundo clínico real.

En la práctica, esto podría cambiar varias capas de la educación médica. En el nivel más inmediato, la IA puede ayudar a generar materiales didácticos, sintetizar retroalimentación narrativa, organizar evaluaciones por competencias y ofrecer apoyo conversacional para el estudio autónomo. Esto ya representa una ganancia importante, porque libera tiempo, reduce fricción en tareas repetitivas y puede hacer más accesible contenido complejo. Pero el verdadero salto no está ahí. El verdadero cambio aparece cuando la IA deja de ser una herramienta de productividad y empieza a comportarse como una capa adaptativa del aprendizaje. Es decir, cuando puede ajustar explicaciones al nivel del alumno, simular casos clínicos, ofrecer retroalimentación inmediata y sostener trayectorias formativas individualizadas.

Ese punto me parece especialmente relevante para medicina. Durante años hemos hablado de aprendizaje personalizado como un ideal deseable pero difícil de escalar. En grupos grandes, con docentes sobrecargados y horarios clínicos intensos, personalizar la enseñanza suele quedarse en el discurso. Los modelos de lenguaje y otros sistemas conversacionales cambian parcialmente esa ecuación. El artículo describe cómo estos sistemas ya se están usando para apoyar el aprendizaje de anatomía, el razonamiento clínico y la construcción de pacientes virtuales interactivos. En otras palabras, la IA podría convertirse en una especie de tutor disponible de forma continua, capaz de adaptar el nivel de dificultad, de reformular conceptos y de acompañar procesos de estudio con una flexibilidad que el sistema tradicional rara vez logra sostener.

Sin embargo, donde el artículo se vuelve más provocador es en la formación clínica de alta fidelidad, especialmente en residencia. Los autores plantean que la siguiente frontera no es sólo conversar con un modelo, sino entrenar con escenarios sintéticos mucho más ricos: pacientes virtuales, videos generados para simular hallazgos, interacciones difíciles con familiares, procedimientos clínicos o escenarios intraoperatorios complejos. Cuando esto se combina con realidad virtual o aumentada, la educación médica deja de parecerse a una plataforma de contenidos y empieza a parecerse a un laboratorio dinámico de toma de decisiones. El potencial aquí es enorme, sobre todo para entrenar competencias que dependen de repetición deliberada, exposición segura al error y práctica de situaciones poco frecuentes pero críticas.

Me parece importante subrayar algo: esta visión no sugiere reemplazar al paciente real ni al tutor clínico. Lo que propone es expandir el espacio de entrenamiento. En medicina, gran parte del aprendizaje depende de encontrarse con los casos adecuados en el momento adecuado, algo que rara vez ocurre de manera uniforme. La IA podría reducir esa arbitrariedad ofreciendo exposición controlada a escenarios complejos, con consistencia, repetibilidad y menor costo logístico. Eso tiene implicaciones muy serias para la equidad formativa. Un estudiante o residente no debería depender exclusivamente del azar de su rotación para desarrollar ciertas competencias esenciales.

El artículo también dedica un espacio muy pertinente a la investigación. Y aquí coincido plenamente con su planteamiento: la IA no sólo debe enseñarse como herramienta clínica, sino también como herramienta intelectual para investigar mejor. Los autores describen aplicaciones en revisión de literatura, detección de vacíos de conocimiento, cribado de resúmenes para revisiones sistemáticas e incluso automatización parcial de ciertas fases del pipeline de investigación. Esto no significa que la investigación científica pueda delegarse a una máquina, pero sí que algunas tareas mecánicas podrían acelerarse, permitiendo que estudiantes y residentes dediquen más tiempo a lo que sí requiere criterio humano: plantear preguntas relevantes, interpretar resultados y pensar con rigor.

Ahora bien, justamente porque el artículo no es ingenuo, su mayor valor está en el equilibrio. Los autores no venden una utopía tecnológica. Reconocen con claridad que la integración de IA en formación médica enfrenta obstáculos considerables. El primero es pedagógico: todavía falta evidencia robusta sobre estrategias de implementación efectivas. El segundo es epistémico: los modelos alucinan, inventan referencias, simplifican en exceso y pueden inducir confianza indebida. El tercero es ético: sesgos por sexo, raza, idioma o contexto social pueden infiltrarse en materiales, recomendaciones y simulaciones. El cuarto es legal y de privacidad: incluso herramientas aparentemente inocuas pueden exponer datos o introducir riesgos institucionales. Y el quinto, quizá el más subestimado, es estructural: integrar IA cuesta dinero, infraestructura, tiempo docente y gobernanza.

Este último punto merece más atención de la que suele recibir. En muchos discursos sobre IA educativa se asume que basta con abrir una suscripción y empezar a usarla. El artículo desmonta esa fantasía. Implementar IA de manera seria exige infraestructura tecnológica, curación de datos, adaptación local, capacitación docente, mecanismos de supervisión y evaluación continua. Incluso los modelos de código abierto, que suelen presentarse como solución más accesible, implican costos de despliegue, mantenimiento, moderación y personal especializado. Por eso los autores insisten en la necesidad de evaluaciones integrales de costo y en modelos híbridos de financiamiento. Me parece una observación especialmente lúcida para escuelas y hospitales que podrían caer en el error de adoptar herramientas sin una estrategia sostenible.

Hay además una dimensión de justicia global que el artículo aborda con acierto. La IA podría democratizar parte de la educación médica, pero también profundizar desigualdades si se diseña desde contextos anglófonos, con datasets poco representativos y requisitos tecnológicos inaccesibles para muchos entornos. Esto importa mucho para América Latina, África y otras regiones donde la necesidad de innovación es alta, pero los recursos no siempre acompañan. Si los modelos entienden mejor el inglés que otras lenguas, si sus ejemplos clínicos provienen sobre todo de sistemas de salud de altos ingresos y si su uso depende de conectividad estable o pagos recurrentes, la promesa de equidad se vuelve rápidamente una nueva fuente de exclusión.

Por eso me parece acertada una de las ideas más importantes del texto: la IA en educación médica debe concebirse como un co-tutor, no como un reemplazo del educador. Esta formulación es mucho más que una frase tranquilizadora. Tiene implicaciones prácticas. Significa que el docente sigue siendo el garante del sentido pedagógico, del juicio clínico, del contexto ético y de la validación del contenido. También significa que formar en medicina con IA no consiste sólo en usar herramientas, sino en enseñar a usarlas críticamente. Un estudiante necesita aprender no sólo a obtener una respuesta de un modelo, sino a cuestionarla, contrastarla, delimitar su confiabilidad y reconocer cuándo no debe seguirla. Ésa es probablemente una de las competencias médicas emergentes más importantes de esta década.

Si tuviera que sintetizar el mensaje del artículo en una sola idea, diría esto: la IA puede ampliar la capacidad, la flexibilidad y la sofisticación de la educación médica, pero sólo generará valor real si se integra dentro de una visión formativa más inteligente que la propia tecnología. La transformación no será automática. Requerirá diseño curricular, regulación, financiamiento, formación docente, evaluación rigurosa y una conversación seria sobre ética, acceso y calidad. Pero aun con todas esas cautelas, el horizonte que dibuja el artículo es convincente. No porque prometa una medicina enseñada por máquinas, sino porque imagina una formación médica más adaptable, más interactiva y potencialmente más justa.

Yo lo resumiría así: la educación médica del futuro no será menos humana por incorporar IA. Puede, de hecho, volverse más humana si usamos la tecnología para liberar tiempo cognitivo, enriquecer la práctica deliberada y acercar mejores oportunidades de aprendizaje a más personas. El riesgo no está en usar IA. El riesgo está en usarla sin criterio, sin supervisión y sin proyecto educativo. Ésa es la diferencia entre una innovación real y una simple fascinación tecnológica. Y este artículo, afortunadamente, entiende muy bien esa diferencia.

Referencia:
Ning Y, Ong JCL, Cheng H, Wang H, Ting DSW, Tham YC, Wong TY, Liu N. How can artificial intelligence transform the training of medical students and physicians? Lancet Digit Health. 2025;7(10):100900. doi:10.1016/j.landig.2025.100900.