Por Jeffrey A. Singer*
La Inteligencia Artificial está transformando la práctica médica moderna, mejorando el diagnóstico por imágenes, la gestión de historiales clínicos y la atención virtual.
Muchos pacientes ya han recibido atención médica influenciada por la inteligencia artificial (IA), ya sea mediante el apoyo diagnóstico de un radiólogo o por mensajes automatizados en sus historiales clínicos. A medida que la IA pasa del laboratorio a la práctica médica, la pregunta central ya no es si transformará la medicina, sino cómo lo hará y quién establecerá los límites de su aplicación.
Ejemplos de esta integración ya son visibles. OpenEvidence permite a los médicos consultar literatura científica revisada por pares y obtener respuestas referenciadas a preguntas clínicas. Algosurg ayuda a cirujanos en procedimientos mínimamente invasivos al convertir tomografías y resonancias en modelos tridimensionales que facilitan la planificación quirúrgica. Por su parte, RadNet apoya la detección de lesiones mamarias y prostáticas, mientras que Aisel, orientada a la salud mental, recopila información de los pacientes antes y después de las consultas, optimizando tiempos y mejorando la atención.
IA en historias clínicas electrónicas
Epic y otros importantes proveedores de Historias Clínicas Electrónicas (HCE) han integrado herramientas de IA directamente en sus plataformas para que los profesionales clínicos, incluyendo médicos, enfermeras y personal de apoyo, no tengan que cambiar de aplicación. Redacta notas, resúmenes y gráficos, y predice riesgos como sepsis, caídas o reingresos. También genera mensajes de seguimiento para los pacientes después de las visitas, recordándoles sobre medicamentos, análisis de laboratorio o citas; funciones que pueden mejorar la adherencia y la continuidad de la atención. Para las enfermeras, identifica a los pacientes de alto riesgo, simplifica las listas de tareas e incluso redacta respuestas a los mensajes de los pacientes, lo que les permite centrarse más en la atención al paciente que en el papeleo.
Los límites de la IA y el factor humano
Tanto los bots de IA como los profesionales clínicos tienen fortalezas y debilidades. Los bots aún no pueden mostrar matices, y las diferencias lingüísticas o culturales pueden dar lugar a evaluaciones imprecisas. También pueden influir en las decisiones de los profesionales clínicos al sobreenfatizar el riesgo sin considerar las compensaciones riesgo-beneficio. Los bots carecen de empatía, vital no solo para brindar atención médica, sino también para el diagnóstico, ya que el lenguaje corporal y el tono de voz de los pacientes pueden revelar importantes pistas clínicas. Muchos profesionales humanos comparten algunas de estas mismas debilidades, y el temor a demandas por responsabilidad civil puede distorsionar aún más las recomendaciones que realizan.
Una debilidad de los profesionales humanos es su dificultad para evitar que los sesgos personales afecten el asesoramiento que brindan a sus pacientes. El psicoterapeuta neoyorquino Jonathan Alpert escribe en el Wall Street Journal: «En lugar de actuar como guías neutrales, demasiados terapeutas ahora actúan como transmisores de la polarización política: la diagnostican, la promueven y la difunden». Como resultado, afirma: «Los pacientes no están renunciando a la terapia. Están renunciando a los terapeutas. Cada vez más, recurren a influencers de TikTok, cámaras de resonancia partidistas o chatbots. La inteligencia artificial carece de profundidad y responsabilidad, pero puede ofrecer neutralidad, algo que muchos terapeutas humanos ya no ofrecen. Si esta tendencia continúa, la terapia cederá su propósito a los algoritmos y dejará a los pacientes desconectados de la realidad».
Seguirán surgiendo otras áreas que necesitan mejora a medida que los profesionales recurran más a la IA en su trabajo. Los proveedores continuarán perfeccionando estas herramientas para abordar estas limitaciones. Con el tiempo, los bots podrían igualar o incluso superar las habilidades diagnósticas, terapéuticas y sociales de los profesionales clínicos. Hospitales, clínicas y consultorios clínicos podrían permitir cada vez más que los bots asuman roles, colocándolos en la primera línea de la atención al paciente, incluso ofreciendo a los pacientes la opción de consultar a un bot o a un profesional clínico.
Panorama regulatorio
El papel de la IA en la atención médica se está expandiendo y evolucionando rápidamente. Sin embargo, varios estados ya han tomado medidas para establecer límites sobre cómo se utiliza la IA en la atención médica. Colorado, Connecticut y Virginia han promulgado leyes integrales de responsabilidad de la IA que exigen notificación, transparencia y protección contra el sesgo en áreas críticas, como la medicina.
En Illinois, la Ley de Bienestar y Supervisión de Recursos Psicológicos (WOPR) prohíbe que la IA administre psicoterapia o tome decisiones sobre tratamientos sin la supervisión de un profesional clínico colegiado. Nevada también prohíbe que los sistemas de IA se presenten como proveedores de salud mental o reemplacen las funciones de los profesionales clínicos en salud conductual. Utah exige una divulgación clara cuando se utiliza la IA en las comunicaciones con los pacientes y exige que se les informe si interactúan con un bot en lugar de un humano.
Los legisladores federales no han aprobado leyes para regular o restringir la IA en la atención médica. Una interesante propuesta presentada por el representante David Schweikert (republicano por Arizona), la “Ley de Tecnología Saludable” en enero de 2025, busca ampliar el acceso de los pacientes a la atención médica basada en IA. El proyecto de ley permitiría que los sistemas de IA prescriban medicamentos si se cumplen dos condiciones: la FDA debe aprobar, autorizar o autorizar el sistema, y el estado en el que opera debe permitir su uso para la prescripción. El proyecto de ley fue remitido al Comité de Energía y Comercio de la Cámara de Representantes. Al momento de escribir este artículo, el Comité no ha celebrado audiencias sobre el proyecto de ley.
Exigir la aprobación de la FDA para las herramientas de IA en la atención médica corre el riesgo de arrastrarlas al mismo embrollo burocrático que frena la innovación en medicamentos y dispositivos. El proceso es costoso, lento y vulnerable a alegatos de intereses especiales y consideraciones políticas, lo que otorga una ventaja a las grandes empresas establecidas mientras excluye a las startups y a los innovadores académicos. En lugar de impulsar el progreso, corre el riesgo de retrasar o incluso descarrilar la evolución natural de la IA en la atención médica.
La concesión de licencias estatales a las plataformas de prescripción de IA presenta riesgos similares a los asociados con la aprobación de la FDA. Los proveedores actuales suelen influir en las juntas médicas y las legislaturas para proteger su territorio, ejerciendo presión política y aprovechando la defensa de intereses particulares. Estas acciones pueden retrasar o bloquear la aprobación, obstaculizando la adopción de herramientas de IA que mejoran el acceso, reducen la carga de trabajo de los profesionales clínicos y optimizan la atención al paciente.
Equilibrio entre innovación, seguridad y autonomía
Las leyes que exigen a los proveedores informar claramente a los pacientes cuándo y cómo utilizan la IA para prestar servicios correctamente respetan el principio ético del consentimiento informado, esencial para respetar la autonomía del paciente (véase el capítulo uno de “Tu Cuerpo, Tu Atención Médica”). Sin embargo, las leyes que prohíben que los bots realicen diagnósticos, ofrezcan opiniones terapéuticas y sugieran tratamientos vulneran la autonomía del paciente. Si bien estas leyes podrían proteger a los proveedores existentes de la competencia, los adultos autónomos tienen derecho a decidir a quién y a qué recurren para obtener asesoramiento y tratamiento médico.
Las estrictas normas de gestión de datos y responsabilidad obligan a los desarrolladores a asumir mayores costes de cumplimiento, ampliar sus plazos y enfrentarse a la incertidumbre sobre lo que está permitido. Las pequeñas startups y los proyectos académicos son los más afectados, ya que a menudo carecen de los recursos legales y financieros para cumplir con estos requisitos. Limitar las decisiones diagnósticas y terapéuticas a los humanos obstaculiza aún más la innovación, ralentizando el desarrollo de la tecnología de IA en la atención sanitaria.
* Es miembro principal del Instituto Cato.
Foto: www.freepik.com


