La inteligencia artificial y su papel en la salud. Segunda parte
¿Herramienta o Amenaza? ¿Estamos Preparados? La mirada desde la Bioética.
Desde hace 20 años la digitalización entró en el campo de la salud y, a pesar de todos sus beneficios también tuvo sus riesgos. El beneficio se evidenció en la pandemia del Covid19 facilitando la atención de pacientes (telemedicina), y optimizando la comunicación de los pacientes aislados con sus allegados. Actualmente la Inteligencia Artificial presenta también beneficios y riesgos y es necesario reforzar el respeto por la autonomía de los pacientes y velar para que los beneficios sean accesibles a toda la población sin crear “brechas digitales” que provoquen más inequidades de las ya existentes. Respondiendo preguntas haremos algunas conceptualizaciones y marcaremos diferentes niveles de complejidad que tienen distintas valoraciones éticas y por último lo que puede aportar la bioética para evitar aquello que dijo el filósofo Immanuel Kant: “primero fabricamos el puñal y luego establecimos el imperativo de “no matarás”; en nuestro caso lograr avances tecnocientíficos y luego establecer las normas para su correcta aplicación. Señalaremos las recomendaciones para no llegar tarde para asegurar el bienestar, los derechos y seguridad de los pacientes.
¿Qué es la Inteligencia Artificial?
Inteligencia Artificial (I.A): disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico siendo su aplicación en el campo de la salud y medicina una realidad creciente en la última década.
¿Está produciendo daños esta creación de programas informáticos, en la actualidad?
“El uso de sistemas de I.A, de cualquier capacidad, crea daños tales como discriminación y sesgo, desinformación, concentración de poder económico, impacto adverso en el trabajo, armamento y degradación ambiental. Reconocemos y reafirmamos que estos daños también son profundamente preocupantes y merecen trabajo para resolverlos. Agradecemos el trabajo de muchos académicos, líderes empresariales, reguladores y diplomáticos que trabajan continuamente para sacarlos a la luz a nivel nacional e internacional.”
Esta respuesta es de la organización Future of Life Institute, que se encargó de la redacción de la carta abierta solicitando a todos los laboratorios de I.A para que pausen inmediatamente durante al menos 6 meses el entrenamiento de los sistemas de I.A más potentes que GPT-41.
Esta misma organización “Future of Life Institute”, en Asilomar (California) establece 23 principios que deben regir el desarrollo de la IA2, se conocen como “Principios de IA de Asilomar”.
¿Qué puede aportar la Bioética en esta situación tan compleja?
La Bioética surge por varios factores:
1.Como reacción al poder de los expertos en la gestión del cuerpo (médicos, sacerdotes y gobernantes) y empieza a instaurarse la autonomía moral personal como “Atributo del sujeto como ser, con la potestad de estar en la vida dándose a sí mismo el sentido y norma de la existencia”.
2.Desconfianza ante la técnica y temor al futuro (la física atómica nos trajo la resonancia nuclear magnética, pero también las armas nucleares (fascinación y horror) empezando a exigirse participación y deliberación pública para establecer que no todo lo viable es deseable.
3.Auge del neoliberalismo, con su propuesta de ciudadano autosuficiente y empresario de sí mismo; desaparece el ciudadano social y dependiente y especialmente en nuestra región se agudizan las inequidades de todo orden.
Una de las características de la Bioética es la interdisciplinariedad, lo que determina que en la problemática que plantea la IA, deben converger especialistas en informática, filósofos, psicólogos, médicos, sociólogos, abogados, economistas, etcétera.
Al ser una ética aplicada, no se limita a la deliberación pluralista sino a establecer normas y principios que intenten resolver (no disolver) los problemas a la luz de los principios y valores morales.
La fundamentación en los Derechos Humanos trata de garantizar una robustez a las recomendaciones, y son producto de largas luchas por establecerlos, aunque su cumplimiento requiera una lucha inacabable. Pensemos que los derechos de 3ra generación basados en el valor de la solidaridad son: el respeto del ambiente y la paz, hoy seriamente amenazados o ya vulnerados. Los derechos de 4ta generación serían los derechos digitales que promueven la correcta utilización de los avances en la informática, para que no sea la “infocracia” la dominante, sino el desarrollo sustentable, es decir “humanizador”.
Es interesante que desde el Derecho se marquen lineamientos que guíen estas aspiraciones, se recomienda leer la “Declaración de Deusto (Universidad de Bilbao) sobre Derechos Humanos en Entornos Digitales3”.
En Argentina:
1.Derechos y Ciudadanía Digital, Normativa actualizada que regula la vida y la ciudadanía digital Disponible AQUÍ
2.Subsecretaría de Tecnologías de la Información pública en el Boletín Oficial de la República Argentina con fecha 2/6/2023 la Disposición 2/2003 sobre “Recomendaciones para una Inteligencia Artificial Fiable “ basadas en las recomendaciones de UNESCO .Disponible AQUÍ
3.En 2021, la UNESCO (Organización de las Naciones Unidas para la Educación Ciencia y Cultura) elaboró “Recomendación sobre la Ética de la Inteligencia Artificial” (Disponible AQUÍ https://rb.gy/r676m). Considerada la más completa, se recomienda su cuidadosa lectura.
Haremos consideraciones que estimamos fundamentales.
¿Qué significan valores y principios según esta Recomendación de la UNESCO?
Los valores desempeñan una importante función como ideales que motivan la orientación de las medidas de política y las normas jurídicas. Mientras que el conjunto de valores que se enuncian a continuación inspira, por tanto, un comportamiento deseable y representa los fundamentos de los principios, los principios, por su parte, revelan los valores subyacentes de manera más concreta, de modo que estos últimos puedan aplicarse más fácilmente en las declaraciones de política y las acciones”
¿Qué valores se afirman en la Recomendación de UNESCO sobre I.A?
1 – Respeto, protección y promoción de los derechos humanos, las libertades fundamentales y la dignidad humana.
2 – Prosperidad del medio ambiente y los ecosistemas.
3 – Garantizar la diversidad y la inclusión.
4 – Vivir en sociedades pacíficas, justas e interconectadas.
¿Qué principios se establecen en la Recomendación de la UNESCO sobre la I.A y su relación con los principios “clásicos” de la Bioética?
Recordar que todo el texto de la Recomendación está disponible AQUÍ
1.Proporcionalidad e inocuidad. (Beneficencia)
2. Seguridad y protección. (Beneficencia y No-maleficencia)
3. Equidad y no discriminación. (Justicia)
4. Sostenibilidad. (Beneficencia)
5. Derecho a la intimidad y protección de datos. (Autonomía)
6. Supervisión y decisión humanas. (Autonomía)
7. Transparencia y explicabilidad. (Autonomía)
8. Sensibilización y educación. (Beneficencia)
9. Responsabilidad y rendición de cuentas. (Autonomía)
10. Gobernanza4 y colaboración adaptativas y de múltiples partes interesadas. (Autonomía y Justicia)
Se destaca el respeto a la Autonomía. Lo explica muy bien el filósofo español Jesús Conill (2019)
“Aunque a menudo se hable de “coches autónomos” y de “sistemas autónomos”, lo cierto es que la palabra “autonomía” sólo puede aplicarse a los seres humanos. La autonomía no consiste sólo en tomar decisiones y actuar con independencia respecto a otros, sino en la capacidad de autolegislarse y de autodeterminarse, es decir, en la capacidad de poder determinarse a sí mismo a seguir las leyes o eludirlas, la capacidad de darse metas y seguirlas, y de optar no solo por normas idiosincráticas, sino también por leyes universales. Estas capacidades están ligadas al reconocimiento de la dignidad de las personas, que es el núcleo de las orientaciones éticas. De ahí que sea un deber preservar y potenciar la autonomía y la agencia de las personas, también con el uso de sistemas inteligentes, llegando a la “inteligencia aumentada”, pero utilizando esos sistemas como instrumentos. Son las personas las que tienen un valor intrínseco y las personas son seres humanos. Por el contrario, los mal llamados “sistema autónomos” no lo son realmente: son artefactos, son autómatas, a pesar del aprendizaje profundo (deep learning).
No pueden ponerse en manos de máquinas inteligentes decisiones que afectan a la vida de las personas, sin supervisión humana, simplemente aplicando un algoritmo, que es una fórmula matemática, que a menudo ni siquiera sus creadores son capaces de explicar, y que suele ser diseñado por encargo por organizaciones distintas a las que lo aplican. Siempre tiene que ser un ser humano quien tome la decisión última y deba dar razón de ella, en caso necesario”.
Debemos promover debates públicos sobre la problemática, como ejemplo el siguiente: Inteligencia Artificial, Vida, Trabajo y Conocimiento bajo el capitalismo computacional” donde se destaca la protección de los datos obtenidos de los ciudadanos argentinos. (Disponible AQUÍ )
En el ámbito de la salud: “…Nada puede suplantar el “ver, tocar y escuchar” del arte médico. La “máquina” no resolverá los intrincados problemas del cuerpo y del alma del paciente …”!. como muy bien lo fundamenta el Dr. Juan Félix Brunetto en su artículo “Inteligencia artificial y relación médico paciente” en la Revista Ethica, N°158. Mayo 2023 pag.20 (Disponible AQUÍ )
¿Qué podemos hacer?
Fortalecer la Gobernanza (10° principio de la Recomendación de Unesco) y que los principios éticos no sean sólo una formulación de buena voluntad por un mundo mejor sino se plasmen en legislaciones y regulaciones realmente exigibles, si así fuera, el “debería” se transforma en “debe”, y el poder ciudadano estará en equilibrio con el poder político y el económico.
Estamos en un mundo digital y no podemos escapar de él, sino luchar para hacerlo “confiable”; trabajar para “utilizar” la IA como herramienta que optimice el desempeño de las personas, de lo contrario se cumplirá la profecía del historiador israelí Yuval Harari: “Los algoritmos de macrodatos (I.A.) pueden crear dictaduras digitales en las que todo el poder esté concentrado en las manos de una élite minúscula al tiempo que la mayor parte de la gente padezca no ya explotación, sino algo muchísimo peor: irrelevancia5 ” en Viega M. (2021).
///
1.ChatGPT (Generative Pre-trained Transformer – en español: Transformador Preentrenado Generativo), es un programa que ofrece respuestas y textos según las peticiones, pero hay una tecnología que está detrás y es la que lo hace funcionar. GPT-4 ,lanzado a fines de 2022, es el sistema que ha sido entrenado con datos y algoritmos para responder a las solicitudes en cualquier idioma, con la posibilidad de mantener una conversación, dar recomendaciones, ofrecer información, generar documentos y una larga lista de opciones, La palabra “algoritmo” viene del latín tardío “algobarismus” y ésta, del árabe clásico “hisabu Igubar”, que significa cálculo mediante cifras arábigas (RAE, 209). Un algoritmo es una secuencia ordenada y finita de pasos u operaciones algebraicas que permite encontrar un curso de acción plausible para la resolución de un dilema o problema concreto. La aplicación a la IA lleva a considerarlo como “un código software que procesa un conjunto limitado de instrucciones” (Monasterio, 2017, 186).
2. https://futureoflife.org/open-letter/ai-principles/
3. https://www.deusto.es/es/inicio/privacidad/declaracion-deusto-derechos-humanos-en-entornos-digitales
4. significado de gobernanza aparece recogido en el diccionario asesorado por la Real Academia Española desde el año 2001: ‘Arte o manera de gobernar que se propone como objetivo el logro de un desarrollo económico, social e institucional duradero, promoviendo un sano equilibrio entre el Estado, la sociedad civil y el mercado de la economía’ obtenido de : https://www.fundeu.es/recomendacion/gobernanza-nuevo-uso-para-un-antiguo-termino-espanol-
5. Viega M. J (2021) Conferencia: “Inteligencia artificial y Derechos Humanos” Universidad de la República Uruguay (UDELAR). Disponible enhttps://www.youtube.com/watch?v=TbYBWHV9U3s