Soler Company E.
Ética de la Inteligencia Artificial, Tecnohumanismo, Bioética y Humanización.
Grupo ETHOS de Bioética y Ética Clínica de la Sociedad Española de Farmacia Hospitalaria. Miembro fundador.
Grupo de Investigación en Bioética de la Universitat de València (GIBUV).
Director Honorario de Ibero Latin American Journal of Health System Pharmacy (ILAPHAR).
Fecha de recepción: 27/03/2026 Fecha de aceptación: 30/03/2026
La profesión farmacéutica ha dejado de habitar un ecosistema relativamente estable. Hoy conviven en la práctica profesional algoritmos que priorizan alertas y estratifican riesgos, robots que preparan y dispensan, plataformas digitales que intervienen en decisiones clínicas, neurotecnologías capaces de generar y procesar neurodatos, nanomedicinas con propiedades emergentes que no siempre pueden anticiparse a partir de una lectura convencional de su composición y desarrollos de biología sintética que amplían la capacidad de diseñar sistemas terapéuticos, pero que plantean simultáneamente dilemas complejos relativos al uso dual, la bioseguridad, la bioprotección y la trazabilidad. A ello se suma un riesgo cultural que merece atención propia: la tendencia a antropomorfizar sistemas artificiales cada vez más autónomos y conversacionales, atribuyéndoles un juicio del que, en realidad, carecen.
El problema de fondo no es exclusivamente técnico; es también ético y profesional. No basta con saber que una herramienta funciona. Hay que preguntarse qué redistribuye, qué opacidades introduce, qué dependencias genera, a quién puede perjudicar y en qué condiciones resulta legítima su adopción. En el ejercicio de la farmacia, ese examen no es accesorio: afecta al núcleo mismo de la profesión. La protección del paciente, la custodia del medicamento, la integridad del juicio clínico y la responsabilidad ante la sociedad son obligaciones constitutivas de la profesión farmacéutica, no contingentes. No dependen de las circunstancias tecnológicas del momento: existen porque existe la profesión. Una tecnología puede transformar radicalmente el cómo —cómo se protege al paciente, cómo se custodia el medicamento, cómo se ejerce el juicio—, pero no puede anular el que: que haya que hacerlo, que alguien responda cuando algo falla, que el paciente reciba la explicación que necesita. Cuando una tecnología entra en la práctica farmacéutica, no lo hace de forma neutra. Entra con un modelo implícito de cuidado, de riesgo, de eficiencia y de control. Y frente a ese modelo, los deberes fundamentales de la profesión no se suspenden; se reafirman.
La responsabilidad se intensifica
Conviene decirlo con claridad: las tecnologías emergentes no reducen la responsabilidad del farmacéutico; la intensifican. Cuanto más complejo es el sistema sociotécnico—ese entramado de personas, normas, datos y algoritmos—menos sostenible resulta la coartada de la neutralidad. Un sistema de ayuda a la decisión clínica puede aportar utilidad real y, al mismo tiempo, sesgar prioridades; un robot puede reducir errores manuales y, a la vez, amplificar el impacto de un fallo de configuración; una nanomedicina puede ofrecer ventajas terapéuticas significativas y plantear incertidumbres relevantes de biodistribución, inmunogenicidad o equivalencia que no se resuelven por analogía superficial con formulaciones convencionales; un desarrollo de biología sintética puede ampliar el arsenal terapéutico y exigir, simultáneamente, controles mucho más estrictos de trazabilidad, bioseguridad y bioprotección. El progreso no elimina la ética; la vuelve más exigente.
Más allá del cumplimiento normativo
Durante años se ha tendido a simplificar la ética tecnológica hasta reducirla a privacidad, consentimiento informado y cumplimiento normativo. Todo eso importa, pero ya no es suficiente. La farmacia ha entrado en un escenario en el que los problemas decisivos incluyen también la opacidad algorítmica, los sesgos distributivos, la dependencia cognitiva, el desplazamiento del juicio prudencial, la sobreconfianza en sistemas automáticos, las asimetrías de acceso, la fragilidad de la trazabilidad y la erosión de la relación terapéutica. Cuando el profesional deja de comprender, de manera suficiente, por qué una herramienta recomienda, clasifica, bloquea o prioriza, se abre una grieta ética. Y cuando esa recomendación afecta a la seguridad, al acceso, a la adherencia o a la asignación de recursos, la grieta deja de ser teórica.
Por eso el farmacéutico necesita hoy algo más que alfabetización digital. Necesita criterio ético tecnológicamente informado: saber preguntar antes de implantar. ¿Qué problema clínico o asistencial resuelve realmente la herramienta? ¿Qué evidencia la respalda? ¿Qué población puede verse perjudicada? ¿Qué sesgos hereda del dato, del diseño o del contexto? ¿Qué grado de supervisión humana efectiva requiere? ¿Qué ocurre cuando falla, y quién responde? ¿Cómo se informa al paciente? ¿Qué datos se capturan y comparten? ¿Puede el proceso ser auditado y revisado? Estas preguntas no frenan la innovación; la vuelven éticamente habitable.
Inteligencia Artificial y salud digital
En inteligencia artificial y salud digital, la obligación principal es impedir que la eficiencia se convierta en sustituto del juicio. La decisión clínica prudente no puede quedar absorbida por una interfaz aparentemente más rápida o más objetiva. El farmacéutico sigue siendo responsable de validar, contextualizar, explicar y, cuando sea preciso, contradecir la sugerencia del sistema. La buena práctica no consiste en obedecer al algoritmo, sino en utilizarlo sin abdicar de la responsabilidad. Eso exige formación, conocimiento de límites, supervisión humana efectiva, gobernanza del dato y transparencia suficiente para saber cuándo confiar y cuándo desconfiar. También exige resistirse a una tentación muy contemporánea: confundir precisión técnica con relevancia clínica, y relevancia clínica con bien del paciente.
Neurociencias y neurotecnologías
En neurociencias y neurotecnologías el umbral ético es todavía más delicado. Los neurodatos no son un tipo de datos más. Pueden revelar información sobre atención, emoción, conducta, vulnerabilidad o estados mentales. Por eso reclaman una protección reforzada, especialmente frente a usos secundarios, inferencias abusivas o finalidades poco transparentes. Para el farmacéutico, esto implica una cautela adicional en contextos de monitorización, apoyo a decisiones en salud mental, adherencia terapéutica e investigación. No basta con la legalidad formal del tratamiento del dato; hay que considerar también la privacidad mental, la integridad cognitiva y la dignidad del paciente. Lo técnicamente capturable no es, por ese solo hecho, éticamente disponible.
Robótica y automatización
La robótica y la automatización farmacéutica enseñan otra lección igualmente importante: la automatización no elimina el error; lo desplaza y, en ocasiones, lo amplifica. Se reducen ciertos fallos manuales, pero aumentan los vinculados a la configuración, el mantenimiento, la validación, la interoperabilidad y la dependencia de proveedores. El profesional prudente no idolatra el robot ni lo demoniza: lo somete a protocolos rigurosos, a verificación sistemática y a rediseño cuando aparecen nuevos modos de fallo. En términos éticos, eso significa que la responsabilidad no puede difuminarse en la cadena técnica. Debe haber trazabilidad de procesos, criterios claros de validación y una asignación explícita de deberes.
Nanotecnología y nanomedicina
La nanotecnología y la nanomedicina introducen una exigencia ética muy concreta: dos medicamentos que parecen equivalentes por composición pueden no comportarse igual en el organismo. El tamaño de partícula, el recubrimiento superficial, la estabilidad, la biodistribución tisular o el potencial inmunogénico pueden modificar de forma clínicamente relevante la eficacia y la seguridad. Por eso, en estos productos no basta con una lectura rutinaria de la fórmula o del principio activo: es necesario revisar los atributos nanoespecíficos antes de asumir cualquier equivalencia. El farmacéutico debe extremar la evaluación crítica, la información al paciente, la trazabilidad por denominación comercial y lote, y la farmacovigilancia específica.
Biología sintética
La biología sintética amplía aún más el horizonte de responsabilidad. La pregunta ética ya no se detiene en el paciente individual ni en el episodio clínico inmediato. Es necesario atender también a la bioseguridad—prevención del daño accidental—, a la bioprotección—prevención del acceso no autorizado, el uso indebido o la liberación deliberada de materiales biológicos—, al potencial de uso dual, a la custodia de secuencias y datos, y a los efectos que una innovación puede generar más allá del caso singular: en la organización asistencial, la cadena de suministro, la salud pública, el medioambiente y la confianza social. El farmacéutico implicado en estos desarrollos—en contextos hospitalarios, industriales o de investigación—no puede evaluarlos únicamente como una promesa terapéutica. Debe verlos también como ámbitos en los que la prudencia, la trazabilidad y la gobernanza prospectiva son condiciones de legitimidad. El entusiasmo sin controles no es innovación responsable; es imprudencia sofisticada.
Artificiología
Incluso en debates todavía no consolidados terminológicamente—como los que algunos agrupan bajo el término de artificiología—, la advertencia ética tiene valor práctico: no conviene antropomorfizar sistemas artificiales, atribuirles criterio moral ni aceptar sin crítica una delegación que, en realidad, rebaja la vigilancia del profesional. Para la farmacia, la lección es nítida: ninguna tecnología debe ser tratada como sujeto moral sustitutorio. Puede distribuirse técnicamente el trabajo, pero no puede externalizarse íntegramente el deber.
Hacia un código ético para el siglo XXI
Todo ello conduce a una conclusión práctica e ineludible. La profesión farmacéutica necesita un código ético actualizado para el siglo XXI, no como gesto cosmético, sino como infraestructura moral de la práctica diaria. Un código que conserve los principios permanentes—beneficencia, no maleficencia, respeto a la autonomía, justicia, confidencialidad, veracidad, responsabilidad—y los traduzca en obligaciones concretas ante las nuevas tecnologías: validar antes de implantar, explicar antes de usar, vigilar después de introducir, registrar incidentes, auditar sesgos, proteger datos sensibles, evitar automatismos ciegos, mantener supervisión humana efectiva, rechazar soluciones que erosionen la dignidad, la equidad o la relación terapéutica, y deliberar institucionalmente cuando la novedad tecnológica genere una incertidumbre ética relevante.
Ese código no debería concebirse como una barrera frente a la innovación, sino como su condición de legitimidad. La farmacia tiene demasiado que aportar como para quedar atrapada entre dos caricaturas: la del tecnófilo acrítico y la del conservador temeroso. La postura madura es otra: una innovación genuinamente al servicio del paciente, evaluada con prudencia, gobernada con transparencia y compatible con una idea robusta de cuidado. En una época fascinada por la promesa de automatizarlo casi todo, el farmacéutico debe recordar algo elemental: cuidar no es solo ejecutar procesos correctos, sino responder de manera justa, prudente y humana ante situaciones concretas.
La cuestión decisiva, por tanto, ya no es si estas tecnologías estarán presentes en la práctica farmacéutica. Ya lo están. La cuestión es si entrarán gobernadas por criterios éticos explícitos o por inercias comerciales, entusiasmos institucionales y opacidades técnicas. Si la profesión renuncia a formular su propio marco ético, otros lo harán por ella: empresas, plataformas, burocracias o lógicas exclusivamente productivistas. El precio puede ser alto: pérdida de autonomía profesional, debilitamiento del juicio clínico y una atención técnicamente brillante, pero éticamente empobrecida.
La profesión farmacéutica del presente y del futuro necesita competencia científica, sí, pero también lucidez ética. Necesita profesionales capaces de usar tecnologías avanzadas sin rendirse a ellas; capaces de innovar sin sacrificar la prudencia; capaces de integrar automatización, datos y complejidad sin perder de vista que, al final, todo el edificio técnico solo es legítimo si sigue orientado al bien del paciente y al bien común. Ese es, en el fondo, el verdadero criterio de modernidad profesional: no el que más automatiza, sino el que mejor cuida.
Bibliografía
1. Barreda Hernández D, Mulet Alberola AM, Soler Company E. La necesidad de poseer un Código de Ética actualizado para el farmacéutico del siglo XXI. Rev OFIL·ILAPHAR. 2019;29(2):139-147.
2. Beauchamp TL, Childress JF. Principles of Biomedical Ethics. 8ª ed. Nueva York: Oxford University Press; 2019.
3. Consejo General de Colegios Oficiales de Farmacéuticos. Código de Deontología de la Profesión Farmacéutica. Madrid: CGCOF; 2023.
4. European Medicines Agency. Nanotechnology-based medicinal products for human use. EU-IN Horizon Scanning Report. Ámsterdam: EMA; 2025.
5. International Pharmaceutical Federation. Statement of Policy on Artificial Intelligence (AI) in Pharmacy Practice. La Haya: FIP; 2025.
6. OECD. Synthetic Biology in Focus: Policy Issues and Opportunities in Engineering Life. París: OECD; 2025.
7. Pellegrino ED, Thomasma DC. For the Patient’s Good: The Restoration of Beneficence in Health Care. Nueva York: Oxford University Press; 1988.
8. Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence. Official Journal of the European Union. 2024.
9. Soler Company E. Sapere aude en la era de la Inteligencia Artificial: despertar crítico frente al algoritmo. Rev OFIL·ILAPHAR. 2025;35(3):192-194.
10. Soler Company E. Tecnohumanismo sanitario: de la precisión a la presencia. Un marco tecnohumanista para la asistencia sanitaria. Rev OFIL·ILAPHAR. 2025;35(5):439-441.
11. UNESCO. Recommendation on the Ethics of Neurotechnology. París: UNESCO; 2025.
12. World Health Organization. Ethics and governance of artificial intelligence for health. Ginebra: WHO; 2021.
_____
