Uso de la inteligencia artificial en gastroenterología

La inteligencia artificial (IA) está cambiando rápidamente la medicina, y la gastroenterología —especialmente la endoscopia— es uno de los campos más avanzados en su aplicación. Existen sistemas capaces de ayudar a los médicos a detectar y clasificar pólipos durante las colonoscopias con gran eficacia, e incluso algunos ya cuentan con aprobación oficial para su uso. Sin embargo, llevar esta tecnología a la práctica diaria implica superar varios retos técnicos, legales, económicos y éticos. Puede encontrar el artículo completo del que se ha obtenido este resumen en este enlace

En cuanto a la regulación, cada región (como Estados Unidos o la Unión Europea) tiene sus propios procedimientos para autorizar dispositivos médicos basados en IA. Estos procesos buscan garantizar seguridad y eficacia, pero no siempre están adaptados al ritmo acelerado de la innovación en IA. En EE. UU., gran parte de los sistemas se aprueban usando comparaciones con dispositivos previos, mientras que en Europa hay subcategorías de riesgo y un control más fragmentado entre organismos privados. Las exigencias de ensayos clínicos también difieren: la FDA suele requerir estudios más rigurosos que la UE. Además, las nuevas leyes como el Reglamento Europeo de Dispositivos Médicos o la Ley de IA añaden requisitos de documentación, control de calidad y ciberseguridad que pueden ser difíciles de cumplir, sobre todo para pequeñas empresas.

Otro reto regulatorio es el surgimiento de la IA generativa, capaz de crear imágenes, textos o videos a partir de datos. Estas herramientas presentan riesgos especiales, como generar información falsa o poco fiable, y es complicado evaluarlas con los métodos tradicionales. Esto obliga a diseñar nuevos mecanismos de supervisión continua incluso después de su aprobación.

Más allá de lo legal, se necesita evidencia sólida de que estas tecnologías realmente mejoran la salud de los pacientes en la vida real, no solo en estudios controlados. La mayoría de las pruebas actuales provienen de investigaciones pequeñas o en entornos muy controlados, que no siempre reflejan la práctica diaria. En el caso de la detección asistida por computadora en colonoscopias, los ensayos más grandes muestran que aumenta la detección de pólipos, pero sobre todo de tamaño muy pequeño, cuyo impacto en la prevención del cáncer a largo plazo aún no está claro. También existen estudios “del mundo real” con resultados menos positivos, en parte porque el rendimiento depende de la interacción entre médico y máquina. Por ejemplo, si el profesional ignora las alertas del sistema o se confía demasiado en él, el beneficio puede reducirse.

El factor económico también es crucial. La adopción de IA requiere demostrar que es coste-efectiva: que los beneficios en salud compensen los gastos adicionales. Algunos modelos estiman que, a largo plazo, la detección temprana podría ahorrar cientos de millones de dólares al reducir la incidencia de cáncer de colon. Sin embargo, a corto plazo puede aumentar los costes por más biopsias y procedimientos. Además, los sistemas de reembolso no siempre contemplan la IA; en la mayoría de países no hay pagos específicos por usar estas herramientas, lo que limita su adopción. Se proponen modelos de pago basados en resultados o incentivos temporales para tecnologías nuevas.

En el terreno ético y legal, surgen preocupaciones sobre la gestión de datos, la responsabilidad en caso de error y la posible introducción de sesgos. El desarrollo de IA requiere grandes volúmenes de información, a menudo provenientes de distintos países, lo que plantea retos sobre privacidad y consentimiento. Las leyes actuales no siempre cubren todos los riesgos, como la posibilidad de identificar de nuevo datos que se creían anónimos. También es difícil obtener permisos individuales para usos futuros de los datos en nuevos proyectos de IA. Una opción sería el consentimiento más amplio, combinado con mecanismos de supervisión que garanticen que los datos se usan para fines que beneficien a los pacientes.

En cuanto a la responsabilidad, si una herramienta de IA falla y causa daño, podría considerarse responsable el médico, el hospital, el fabricante del algoritmo o incluso quienes aportaron datos para entrenarlo. Hoy la mayoría de sistemas son de apoyo a la decisión, pero si en el futuro se usan de forma totalmente autónoma, la carga legal podría desplazarse hacia los desarrolladores. Algunos fabricantes ya han contratado seguros de responsabilidad médica para cubrir este tipo de riesgos, como ocurre en otros sectores con sistemas autónomos (por ejemplo, en la industria automotriz).

Otro problema es el sesgo. Si los datos con los que se entrena la IA no representan adecuadamente a toda la población, el sistema puede funcionar peor para ciertos grupos y aumentar desigualdades en salud. Para reducirlo, se recomienda que los conjuntos de datos incluyan diversidad de pacientes y que se publiquen sus características. Sin embargo, esta transparencia no siempre se cumple. Iniciativas internacionales como STANDING Together buscan crear estándares para garantizar la diversidad y representatividad de los datos.

En conclusión, la IA en gastroenterología tiene un enorme potencial para mejorar el diagnóstico y la atención, pero para llegar a una implementación real y segura es necesario:

  • Adaptar las normativas para que sean ágiles pero garanticen seguridad.
  • Generar evidencia robusta en entornos reales, evaluando el impacto en los pacientes.
  • Desarrollar modelos de pago que fomenten la adopción sin abusos.
  • Crear políticas de gestión de datos claras y centradas en el paciente.
  • Establecer criterios de responsabilidad bien definidos.
  • Prevenir sesgos mediante transparencia y representatividad en los datos.

Lograrlo requerirá colaboración constante entre médicos, desarrolladores, reguladores, aseguradoras y pacientes, con el objetivo de que la tecnología aporte valor real y equitativo a la salud.

Onofre Alarcón
Últimas entradas de Onofre Alarcón (ver todo)