José Martínez Olmos, profesor EASP y Ex Secretario General de Sanidad
La inteligencia artificial (IA) está irrumpiendo en muchos ámbitos de la vida cotidiana del conjunto de la ciudadanía, del funcionamiento de muchas empresas y organismos, así como en el ámbito de la asistencia sanitaria. Sin embargo, reducir este fenómeno a una cuestión tecnológica sería un error. La incorporación de la IA en medicina no es solo una oportunidad de mejora, sino una condición creciente para la sostenibilidad y la calidad del sistema sanitario tal y como hoy lo conocemos.
Los profesionales sanitarios y los pacientes se están viendo ya afectados por el uso de la IA, y comienzan a percibirse oportunidades y riesgos en la utilización de soluciones de inteligencia artificial en la práctica clínica cotidiana. Pero el verdadero debate no está en si estas tecnologías deben o no incorporarse, sino en cómo hacerlo con garantías, con qué objetivos y bajo qué modelo de gobernanza.
La incorporación de la IA en medicina es una condición creciente para la sostenibilidad y la calidad del sistema sanitario tal y como hoy lo conocemos
Profesionales de la medicina tienen ante sí una oportunidad para asegurar una asistencia sanitaria más eficiente y efectiva, con base en la evidencia científica y con una enorme capacidad potencial de disminuir de manera importante la variabilidad de la práctica clínica.
La IA permite, por primera vez, integrar grandes volúmenes de datos clínicos, epidemiológicos y organizativos para apoyar decisiones más informadas, más consistentes y, potencialmente, más equitativas.


Ahora bien, existen riesgos e incertidumbres que no pueden ser minimizados. No se trata solo de asegurar el respeto a la confidencialidad y protección de los datos, sino también de abordar cuestiones más complejas como la transparencia de los algoritmos, la explicabilidad de los modelos, la reproducibilidad de los resultados o la posible incorporación de sesgos que perpetúen desigualdades existentes.
Más aún, resulta enormemente importante asegurar que la IA accede a fuentes de evidencia validadas y que esta validación se realice mediante metodologías robustas, incluyendo evaluación clínica prospectiva y mecanismos comparables a los utilizados en la evaluación de tecnologías sanitarias.
En este contexto, trabajar en el objetivo de hacer posibles estas garantías exige avanzar hacia un modelo de gobernanza mucho más estructurado. No basta con la regulación formal: es necesario definir marcos operativos que permitan identificar, evaluar y monitorizar las soluciones de IA en función de su riesgo, su impacto clínico y su valor añadido.
Trabajar en el objetivo de hacer posibles estas garantías exige avanzar hacia un modelo de gobernanza mucho más estructurado
Esto implica reforzar el papel de las agencias evaluadoras, integrar criterios de evaluación específicos para algoritmos y establecer sistemas de auditoría continua que permitan corregir desviaciones en tiempo real.
Además, es esencial asegurar que las soluciones de IA que acrediten mayores garantías de calidad, seguridad y eficacia puedan incorporarse a la práctica asistencial con criterios de equidad. Este punto es crítico: el riesgo no es solo usar mal la inteligencia artificial, sino generar un sistema sanitario en el que su acceso quede limitado a determinados entornos, territorios o grupos de población, ampliando así brechas ya existentes.
Los médicos y médicas pueden tener en sus manos una tecnología muy disruptiva que les ayude a tomar decisiones con mayores probabilidades de éxito para los pacientes, siempre desde su autonomía profesional. Pero sería ingenuo pensar que esta autonomía no se verá tensionada. La progresiva incorporación de la IA va a modificar los procesos de decisión clínica, la organización del trabajo y la propia relación con el paciente.
La progresiva incorporación de la IA va a modificar los procesos de decisión clínica, la organización del trabajo y la propia relación con el paciente
En paralelo, el acceso de la IA al conjunto de la población va a conllevar un mayor empoderamiento del paciente. Este hecho, en sí mismo positivo, va a condicionar de manera significativa la relación clínica, introduciendo nuevos equilibrios entre conocimiento experto y acceso a información automatizada. El reto será evitar tanto la deshumanización de la atención como una delegación acrítica de decisiones en sistemas automatizados.
Todo esto requiere esfuerzos en materia formativa que hoy están claramente insuficientemente desarrollados. No se trata solo de formar en el uso de herramientas, sino de incorporar competencias en interpretación crítica de algoritmos, en comprensión de sus limitaciones y en integración de estas tecnologías en la toma de decisiones clínicas. Del mismo modo, serán necesarios cambios en la organización de la asistencia, en los circuitos de decisión y en la gestión de la información.
Igualmente, es imprescindible desarrollar mecanismos que ofrezcan garantía jurídica a la profesión médica. La introducción de la IA plantea interrogantes relevantes sobre la responsabilidad profesional, especialmente en contextos de decisiones asistidas por algoritmos. Esto obligará, previsiblemente, a una redefinición de las cláusulas de protección profesional en las compañías de seguros, así como a una adaptación del marco normativo vigente.
En definitiva, la inteligencia artificial no es solo una herramienta más en la práctica clínica. Es un elemento con capacidad de transformar de manera estructural el sistema sanitario. El verdadero reto no es si debemos incorporarla, sino si seremos capaces de hacerlo preservando los principios de calidad, equidad y buen uso de los recursos que han definido históricamente nuestro modelo sanitario. Porque, en última instancia, el riesgo no es tecnológico: es político, organizativo y ético.













Deja una respuesta