Soler Company, E.
Director Honorario de ILAPHAR/Revista de la OFIL
Fundador y coordinador del Grupo ETHOS de bioética y ética clínica de la Sociedad Española de Farmacia Hospitalaria.
Fecha de recepción: 21/01/2026 Fecha de aceptación: 26/01/2026
La integración de la inteligencia artificial (IA) en el sistema sanitario ha desencadenado una revolución sin precedentes, ofreciendo un potencial transformador tanto para la experiencia del paciente como para los resultados de salud. Sin embargo, como bien se ha señalado, el verdadero avance y reto de la IA no reside en la potencia de cálculo, sino en un desafío mucho más profundo: integrar los principios éticos en el núcleo mismo de la tecnología.
Esta innovación no puede sostenerse únicamente sobre la eficacia técnica; debe fundarse sobre principios éticos sólidos que garanticen una implementación responsable, beneficiosa y segura. Diseñar un programa de IA para optimizar el tratamiento farmacológico exige ir más allá del algoritmo y considerar múltiples dimensiones éticas. El objetivo final debe ser poner en el centro los valores, preferencias y necesidades de cada paciente, adaptando el sistema no solo a parámetros clínicos, sino a los factores humanos y contextuales que determinan el éxito terapéutico. La pregunta esencial que debemos responder es: ¿Qué se necesita para que una IA no solo sea “inteligente”, sino también humana, justa y confiable?
El núcleo ético: la autonomía
La autonomía del paciente constituye el pilar fundamental que debe preservarse incondicionalmente. Este principio exige que los pacientes mantengan el control sobre las decisiones de su tratamiento. Los sistemas de IA farmacoterapéutica deben diseñarse para preservar y aumentar la capacidad humana, nunca para reemplazar el juicio clínico ni la toma de decisiones del paciente. Los algoritmos deben actuar como herramientas de apoyo que faciliten decisiones informadas, no como árbitros unilaterales de su tratamiento.
En este contexto, el consentimiento informado adquiere una nueva dimensión. Es imperativo que los pacientes sean informados explícitamente cuando un algoritmo participa en sus decisiones terapéuticas, comprendiendo tanto los beneficios potenciales como las limitaciones inherentes. Esta transparencia es la base esencial que sustenta la confianza en la relación terapéutica.
Beneficencia, no maleficencia y seguridad
El principio de beneficencia obliga a que estos sistemas estén diseñados para maximizar los beneficios individuales, considerando no solo la eficacia farmacológica, sino factores contextuales como el estilo de vida y las circunstancias socioeconómicas. Se requiere un enfoque holístico donde la IA integre múltiples fuentes de información para optimizar resultados a largo plazo, en lugar de limitarse a resolver problemas farmacológicos inmediatos.
Paralelamente, el principio de no maleficencia, primum non nocere, se vuelve complejo en la era digital. Los riesgos trascienden los efectos adversos tradicionales e incluyen errores algorítmicos, la perpetuación de sesgos y la dependencia excesiva de la automatización. Por ello, los sistemas deben incorporar mecanismos de seguridad robustos —alertas de interacción, validación de dosis y monitorización continua—, manteniendo siempre la supervisión humana como componente crítico para prevenir daños. Siguiendo las directrices de la OMS, esto implica promover el bienestar y la seguridad humana, demostrando beneficios clínicos claros y medibles.
Justicia, equidad y la lucha contra el sesgo
La justicia exige que todos los pacientes tengan acceso equitativo a los beneficios de la IA, independientemente de su origen, género o ubicación. Este es uno de los mayores desafíos, dado que muchos algoritmos se entrenan con datos que no representan la diversidad real de la población. Debemos asegurar la inclusividad y equidad, validando los sistemas en múltiples poblaciones para evitar que las recomendaciones algorítmicas perpetúen disparidades en salud.
Los sesgos algorítmicos representan una amenaza directa a esta equidad. Para mitigarlos, es necesario emplear datos de entrenamiento diversos, realizar auditorías regulares de sesgo y aplicar técnicas de pre y posprocesamiento, involucrando a comunidades diversas en el diseño de los sistemas.
Transparencia, explicabilidad y privacidad
Para que la IA sea una herramienta clínica válida, debe ser transparente, explicable e inteligible. Los profesionales de la salud necesitan comprender no solo qué recomienda el sistema, sino por qué lo hace. Esto requiere una “explicabilidad técnica” que incluya visualizaciones claras de los factores influyentes, explicaciones en lenguaje clínico y la capacidad de interrogar al sistema sobre decisiones específicas.
Asimismo, la protección de la privacidad es innegociable. Dado que los datos farmacológicos pueden revelar información íntima, los sistemas deben implementar encriptación robusta, técnicas de anonimización y controles de acceso estrictos, sometiéndose a auditorías regulares para prevenir accesos no autorizados.
Hacia una implementación sostenible y responsable
La implementación práctica de estos principios requiere una estructura de responsabilidad y rendición de cuentas clara, definiendo quién responde por los errores algorítmicos o efectos adversos no anticipados. Es crucial garantizar la supervisión humana continua en tres niveles: clínica (farmacéuticos/médicos), técnica (especialistas en IA) y ética (comités éticos evaluadores).
Esto conlleva la necesidad imperiosa de educación y competencia profesional. Los farmacéuticos y médicos deben desarrollar habilidades para interpretar recomendaciones de IA, identificar sus limitaciones y mantener su juicio clínico independiente.
Además, los sistemas deben ser responsivos y sostenibles, capaces de adaptarse a nuevos conocimientos médicos.
Finalmente, no debemos olvidar la armonización de estándares éticos globales para asegurar la interoperabilidad y una consideración seria sobre la sostenibilidad ambiental, equilibrando la sofisticación algorítmica con el consumo energético.
Conclusión
El diseño ético de programas de IA para farmacoterapia no es un añadido, sino un requisito fundamental que integra principios bioéticos tradicionales con las nuevas realidades tecnológicas. Debemos preservar la autonomía, maximizar beneficios, minimizar daños y asegurar la justicia. El éxito de esta empresa dependerá de una colaboración continua entre tecnólogos, profesionales de la salud, bioeticistas, reguladores y fundamentalmente, los pacientes.
Solo a través de este enfoque integrado y centrado en valores humanos podremos aprovechar plenamente el potencial transformador de la IA, protegiendo y promoviendo al mismo tiempo el bienestar humano.
____
