Domingo Moratalla, A
Catedrático de Filosofía Moral y Política. Universidad de Valencia.
Fecha de recepción: 11/04/2024 – Fecha de aceptación: 11/04/2024
La Inteligencia Artificial (en adelante IA) se ha convertido en uno de los temas importantes de nuestro tiempo. Aunque cada vez buscamos más precisión, cuando nos referimos a ella en el ámbito de la opinión pública, nos remitimos a la IA para describir el acel erado avance de la digitalización que nos permite realizar con recursos tecnológicos operaciones mentales, es decir, con máquinas (lo Artificial) lo que hasta entonces eran operaciones de la mente humana (la Inteligencia). Más que hablar de IA, deberíamos hablar de “sistemas de IA”, con lo que describimos un conjunto de tecnologías en rápida evolución que, por un lado, contribuye a generar beneficios económicos, medioambientales y sociales muy diversos en todos los sectores y actividades humanas. Por otro lado, dependiendo de las circunstancias relativas a la aplicación, utilización y nivel de desarrollo tecnológico concreto, puede generar riesgos y menoscabar los intereses públicos o deteriorar el horizonte ético global que abrió la Declaración Universal de los Derechos Humanos. Como ha reconocido recientemente la Unión Europea en la propuesta de Reglamento que realizó el pasado 13 de marzo de 2024, se trata de una tecnología que requiere una robusta reflexión ética porque está llena oportunidades y riesgos.
La reflexión ética que necesitamos tiene una dimensión global y universal porque no estamos únicamente ante un nuevo “producto tecnológico” o un “recurso de la industria” para la mejorar de calidad de vida, estamos ante un fenómeno complejo donde los algoritmos con los que actúan los sistemas de IA pueden condicionar todos los ámbitos de la acción humana. Desde el ámbito estrictamente individual donde proporcionamos datos a los sistemas de IA integrados en teléfonos móviles, hasta el ámbito global donde disponemos de datos sobre la temperatura del clima del planeta en tiempo real, pasando por el almacenamiento, procesamiento y gestión de datos que tienen las administraciones públicas o empresas, es muy difícil encontrar una dimensión de nuestra vida cotidiana que esté fuera del ámbito de los sistemas de IA. Aplicados al ámbito social, biomédico y sanitario, los sistemas de IA son sistemas de apoyo y ayuda a las decisiones de los profesionales que desarrollan su actividad en estos ámbitos. Aunque en el imaginario coloquial los “sistemas de IA” nos hacen pensar en la posibilidad de anular, sustituir o emular la inteligencia humana mediante las máquinas (algoritmos), a medida que conocemos de cerca su complejidad descubrimos que estamos ante herramientas, instrumentos o técnicas de apoyo, ayuda y mejora de las decisiones humanas.
Situando los sistemas de IA en el conjunto de los cambios culturales y sociales que afectan al conjunto de la acción humana en el mundo, en el contexto de la ética aplicada y las éticas profesionales donde la complejidad e incertidumbre es un factor importante, estamos ante una herramienta valiosa para la deliberación, el ensanchamiento de la capacidad de juicio y la co-decisión. Entonces podemos plantearnos en serio el tema de la responsabilidad en general y de las responsabilidades que tienen los diferentes profesionales en cada ámbito específico. Nos ayuda en la previsión, en la anticipación de escenarios de responsabilidad y nos anticipa cálculos de consecuencias antes, durante y después de los procesos humanos y organizativos de toma de decisiones. Aplicado al ámbito biomédico y sanitario, los sistemas de IA ofrecen numerosas posibilidades para procesar información biológica y genética, para gestionar datos sobre poblaciones, enfermedades y pacientes, para administrar con eficiencia información relacionada con datos de salud pública que se han ido procesando con el tiempo. También ofrecen numerosos riesgos en este ámbito y por ello la propuesta de Reglamento europeo sobre sistemas de IA sitúa la salud pública junto a cuestiones importantes como la seguridad y derechos fundamentales.
En este ámbito de la salud, los sistemas de IA pueden tener un gran valor en la gestión, previsión y planificación de las políticas públicas porque pueden ayudar a mejorar los cálculos, ganando en eficacia y eficiencia. Además, permitiendo que las decisiones estén mejor fundamentadas porque se reduce una incertidumbre y una complejidad cada vez mayor. A su vez, los sistemas de IA también están aplicándose en la mecanización de procesos y en la robotización de instalaciones o servicios. Aquí es donde las fronteras de la innovación en sistemas de IA nos ponen a las puertas de lo que técnicamente se llama una “IA General” y una “Superinteligencia”, dos modelos que no sólo elaboran predicciones o cálculos sino que buscan emular y sustituir las acciones humanas. Para ello, se pretende que los algoritmos no solo procesen ingentes cantidades de datos (Big Data) o evalúen y controlen procesos, sino que los algoritmos aprendan por sí mismos y hasta reacciones por sí mismos “como lo haría un ser humano”. Incluso en algunos diseños algorítmicos se plantea la posibilidad de que decidan y actúen “mejor que lo haría un ser humano”. Como si la digitalización no fuera una obra o producto humano sino que las cosas y los datos organizados algorítmicamente determinaran la vida humana.
En el ámbito de las profesiones sanitarias, cada vez es más importante conocer el alcance de los sistemas de IA. Se aplican para el desciframiento genético del origen de la vida, son una herramienta valiosa en el campo de la biología sintética, la biología molecular y todos los procesos donde los profesionales trabajan a pequeña escala. La vida biológica en sus niveles más mínimos y básicos aparece como predecible, controlable y calculable. Con ello la responsabilidad de los profesionales de estas áreas es cada vez mayor. Lo mismo sucede en el ámbito más general y global de las multinacionales de la industria farmacéutica o de la planificación sanitaria de las políticas públicas. Las estrategias de innovación, experimentación y desarrollo de nuevos productos estará condicionado por una información procesada, gestionada y administrada algorítmicamente. Los problemas éticos que aquí se plantean son muy grandes porque los “sistemas de IA” están en el mercado y, por ello, se plantea todos los temas relacionados con las diferentes dimensiones de la responsabilidad de quienes trabajan al servicio de estas empresas.
Para los profesionales sanitarios se plantean problemas relacionados con las dimensiones personales con las que se fabrican, construyen y aplican algoritmos, es decir, problemas relacionados con los “sesgos” o condicionamientos. También se plantean problemas relacionados con la autorregulación ética de los propios profesionales dentro de la empresa. Ahora bien, el gran reto ético que afecta a los sistemas de IA que trabajan con temas que afectan a la salud pública es la regulación o la ordenación del tráfico entre sistema de IA. Unos sistemas que, en una economía globalizada, pueden ser propiedad de accionistas o de gobiernos y que antes o después tendrán que regularse. Los esfuerzos realizados por la UE recientemente muestran una posibilidad de regulación que respeta la innovación empresarial y, a su vez, regula el tráfico o utilización de la IA según el nivel de riesgo que ofrece cada sistema. El reglamento invita a cada sector profesional para que elabore códigos de buenas práctica con los que promover una cultura de la responsabilidad social compartida.
Es importante que los profesionales trabajan en todos los ámbitos o niveles de la salud sean conscientes de la gravedad, alcance y responsabilidad de estos sistemas. Nos invitan a pensar la salud desde estos sistemas de IA que proporcionan información y, por tanto, poder y capacidad de uso hasta entonces desconocido. La salud en general no sólo puede estar condicionada por la utilización de dispositivos digitales sino que las grandes decisiones pueden llegar mecanizarse o robotizarse de tal manera que se generen procesos autónomos y mecánicos si ningún profesional que rinda cuentas. Una cultura de la responsabilidad social compartida exige promover y construir una nueva cultura de la responsabilidad donde el sistema tecnocrático y tecnoeconómico anule la capacidad humana de tomas decisiones. Es decir, la capacidad humana de rendir cuentas, pedir cuentas y dar cuentas de las decisiones profesionales.
Los profesionales sanitarios deberían conocer estas propuestas de regulación que se están generando y repensando las correspondientes éticas profesionales desde los sistemas de IA. Es una exigencia del principio de justicia y también una exigencia urgente de la dimensión global que hoy tienen las éticas del cuidado. Unas éticas que reclaman la organización de las prácticas profesionales aplicando el principio de no maleficencia en clave de prevención, precaución y, sobre todo, robusta responsabilidad en el ejercicio de las prácticas profesionales. No está de más recordar que junto al reglamento que se acaba de promover, el libro Blanco de la UE sobre sistemas de IA planteaba la necesidad que contar con siete principios: (1) acción y supervisión humana, (2) solidez técnica y seguridad de los sistemas; (3) gestión de la privacidad y los datos; (4) transparencia; (5) atención a la diversidad, la no discriminación y la equidad; (6) bienestar social y ambiental; y (7) cultura de la rendición de cuentas. Como vemos, el reto para los profesionales de la sanidad en general y para los profesionales de la farmacia hospitalaria en particular, es importante. Ocasiones habrá para ir profundizando las consecuencias y alcance de los sistemas de IA para promover una cultura de las buenas prácticas en la farmacia hospitalaria.
_____