Cada éxito en el desarrollo de una tecnología
cierra un capítulo técnico y abre varios
antropológicos, sociales, éticos y estéticos
Pablo Sanguinetti
Soler Company, E.
Director Honorario de Ibero Latin American Journal of Health System Pharmacy
Coordinador del Grupo ETHOS de Bioética y Ética Clínica de la Sociedad Española de Farmacia Hospitalaria (SEFH)
Fecha de recepción: 20/08/2025 Fecha de aceptación: 21/08/2025
La irrupción de la inteligencia artificial (IA) en la sanidad contemporánea está generando avances impensables hace apenas unas décadas —desde sistemas capaces de diagnosticar el cáncer con precisión asombrosa, pasando por algoritmos que predicen deterioros clínicos meses antes de su manifestación sintomática, hasta plataformas que personalizan tratamientos farmacológicos con efectividad revolucionaria—. Sin embargo, estos progresos no han ido parejos a la preservación de la esencia humanista del cuidado: encuestas globales señalan que un alto porcentaje de pacientes declara no sentirse escuchado por los profesionales en entornos cada vez más automatizados. Este desequilibrio plantea uno de los desafíos éticos centrales de nuestro tiempo: ¿cómo integrar tecnologías de capacidades extraordinarias sin perder la esencia humanista que constituye el núcleo de las profesiones sanitarias?
La respuesta no es meramente técnica o regulatoria, sino, sobre todo, ética y filosófica. El concepto de “tecnohumanismo sanitario” emerge como un marco que propone una síntesis entre excelencia técnica y profundidad humanista. Lo que nos lleva a definir el “tecnohumanismo sanitario” como «la integración consciente y éticamente informada de tecnologías de IA para amplificar las capacidades de cuidado sin sustituir el juicio clínico, sin diluir la relación terapéutica y sin comprometer los principios éticos fundamentales que rigen las profesiones sanitarias».
Esta definición se sostiene en tres pilares que deben operar de forma sinérgica:
Primer pilar: el humanismo. Conjunto de valores centrados en la dignidad intrínseca, la autonomía moral y el bienestar integral del paciente como persona completa, no solo como portadora de una patología. El objetivo último de toda intervención sanitaria es el florecimiento humano en sus dimensiones física, psicológica, social y espiritual. En el contexto de la IA, toda implementación debe evaluarse no solo por su eficacia técnica, sino también por su contribución al desarrollo integral de las personas a las que sirve.
Segundo pilar: la ciencia. Compromiso con el rigor metodológico, la evidencia empírica y la excelencia técnica en el desarrollo, validación e implementación de sistemas de IA. El humanismo sin competencia técnica puede devenir en un sentimentalismo ineficaz; la competencia técnica sin orientación humanista, en tecnocracia deshumanizada. La ciencia tecnohumanista exige estándares particularmente rigurosos precisamente porque sus tecnologías afectan a dimensiones fundamentales de la experiencia humana.
Tercer pilar: la tecnología. Herramienta al servicio del cuidado humanizado, no fin en sí misma. Esta perspectiva instrumental no minimiza la tecnología, sino que la sitúa en su lugar: medio extraordinariamente poderoso para alcanzar fines humanistas, nunca objetivo que justifique cualquier medio para su desarrollo o implementación.
El “tecnohumanismo sanitario” propone situar la tecnología al servicio del ser humano, preservando la centralidad del juicio clínico, la relación terapéutica y los principios éticos que constituyen la esencia de las profesiones sanitarias. Su implementación requiere marcos operativos capaces de orientar decisiones cotidianas de médicos, farmacéuticos y enfermeras.
Para ello, propongo integrar dos tradiciones éticas complementarias:
1) Principialismo bioético (Tom L. Beauchamp y James F. Childress) —autonomía, beneficencia, no maleficencia y justicia—, que ofrece criterios universales para evaluar las implicaciones de la IA, y
2) Ética de la virtud (Edmund D. Pellegrino), que enfatiza el papel del profesional como agente moral: prudencia para discernir cuándo confiar en un algoritmo; justicia para velar para que sus beneficios alcancen a todos; templanza para evitar la dependencia ciega; y fortaleza para resistir presiones comerciales o institucionales que puedan comprometer el cuidado humanizado.
La integración práctica del principialismo bioético con la ética de la virtud se traduce en cinco principios operativos que guían el desarrollo, la evaluación y la implementación de la IA en contextos sanitarios. Estos principios combinan la claridad normativa del principialismo con la sensibilidad contextual de la ética de la virtud:
1. Garantizar la supervisión humana significativa (Autonomía + Prudencia). La IA debe informar la toma de decisiones, no sustituirla. Los profesionales mantienen la autoridad final y la responsabilidad ética de cada diagnóstico y tratamiento.
2. Asegurar transparencia y explicabilidad (Autonomía + Justicia). Los sistemas de IA han de ser comprensibles para los profesionales y fáciles de explicar a los pacientes, garantizando su derecho a entender cómo y por qué se toman decisiones que afectan a su salud.
3. Maximizar la beneficencia tecnológica integral (Beneficencia + Bien integral). La IA debe aportar beneficios concretos y medibles en resultados clínicos y en la experiencia del paciente, liberando tiempo de tareas rutinarias para reforzar la atención personalizada.
4. Prevenir la maleficencia algorítmica (No maleficencia + Templanza). Es imprescindible auditar datos y algoritmos para detectar y corregir sesgos antes de causar daño, con monitorización continua y protocolos de intervención inmediata ante errores sobrevenidos.
5. Promover la equidad estructural e inclusiva (Justicia + Fortaleza). Las tecnologías deben diseñarse y evaluarse con la participación de poblaciones vulnerables, asegurando el acceso y la validación en contextos diversos para evitar la ampliación de brechas sanitarias.
La adopción de estos principios requiere herramientas prácticas, como una matriz de análisis ético que cruce los cuatro principios bioéticos con las virtudes para generar preguntas operativas e indicadores de desempeño. Un protocolo de implementación debe establecer fases de evaluación previa, desarrollo de virtudes profesionales —con formación enfocada en capacidades y límites de la IA—,síntesis operativa con métricas duales (técnicas y humanistas) y mecanismos de mejora continua.
En el plano profesional, los códigos éticos y deontológicos de medicina, farmacia y enfermería deben enriquecerse con obligaciones específicas sobre IA (competencia, explicabilidad, equidad y seguridad). La formación universitaria y la certificación continua han de incluir ética tecnológica y evaluación de algoritmos. Las acreditaciones ya no deben valorar solo resultados clínicos, sino también el cumplimiento ético en las implementaciones tecnológicas.
Frente a desafíos emergentes —IA generativa, agentes autónomos, interfaces cerebro-ordenador—, el “tecnohumanismo sanitario” ofrece un norte: usar herramientas poderosas con prudencia y justicia, orientadas al bien integral de cada paciente.
El progreso real no se mide solo en precisión diagnóstica o reducción de costes, sino en la calidad del vínculo humano que da sentido a la medicina, la farmacia y la enfermería. Fundamentado en la integración de principialismo y virtudes, el “tecnohumanismo sanitario” ofrece un marco para que la revolución de la IA sea, a la vez, una revolución de la humanización del cuidado.
Si la IA ha de transformar la asistencia sanitaria, que lo haga multiplicando la presencia, no sustituyéndola.
