3ra. Nota sobre I.A: Entre un poder transformador y los riesgos a superar

3ra. Nota sobre I.A: Entre un poder transformador y los riesgos a superar

La introducción de la inteligencia artificial (IA) y el aprendizaje automático en la medicina ha ayudado a los profesionales de la salud a mejorar la calidad de la atención que pueden brindar y promete mejorarla aún más en el futuro cercano. Así como la adquisición por computadora de imágenes radiográficas eliminó la sala de archivos de rayos x y las imágenes perdidas, la IA y el aprendizaje automático pueden transformar la medicina. La IA y el aprendizaje automático no dejarán sin trabajo a los profesionales de la salud; más bien, harán posible que los profesionales de la salud hagan mejor su trabajo y dejen tiempo para mejorar las relaciones médico-paciente que hacen de la medicina la profesión gratificante que todos valoramos.

En la década de 1990 y principios de la de 2000, incluso con computadoras lentas y memoria limitada, éstas resolvieron la realización de ciertas tareas médicas que eran repetitivas, y por lo tanto propensas al error humano. Se convirtieron en realidad tareas como la lectura de electrocardiogramas, el conteo diferencial de glóbulos blancos, análisis de fotografías retinianas y lesiones cutáneas y otras tareas de procesamiento de imágenes. Muchas de estas tareas asistidas por aprendizaje automático han sido ampliamente aceptadas e incorporadas a la práctica diaria de la medicina. El desempeño de estas tareas no es perfecto y a menudo requiere una persona capacitada para supervisar el proceso, pero en muchos casos, es suficientemente bueno lo que ayuda a la creciente necesidad de una interpretación relativamente rápida de las imágenes y la falta de experiencia para la lectura de imágenes en centros alejados de las grandes ciudades. Sin embargo, el uso de la IA y el aprendizaje automático en medicina se ha expandido más allá de la lectura de imágenes médicas. La IA y los programas de aprendizaje automático han ingresado a la medicina de muchas maneras, que incluyen, entre otras, ayudar a identificar brotes de enfermedades infecciosas que pueden tener un impacto en la salud pública; combinarla con estudios genéticos y muchos otros productos de laboratorio para identificar condiciones raras y comunes.

Estableciendo Normas

Como se señaló anteriormente, el uso de la IA y el aprendizaje automático ya se han convertido en una práctica Médica aceptada en la interpretación de algunos tipos de imágenes médicas, como ECG, radiografías simples, tomografía computarizada (TC) y resonancia magnética nuclear (RMN), imágenes de la piel y fotografías de la retina. Para estas aplicaciones, la IA y el aprendizaje automático ayuda a los profesionales de la Salud, marcando aspectos de imágenes que se desvían de la norma. Esto sugiere una pregunta clave: ¿cuál es la norma? Esta simple pregunta muestra una de las debilidades del uso de la IA y el aprendizaje automático en medicina tal como se aplica en gran medida hoy en día. Otras de las preguntas que nos hacemos al respecto son ¿Cómo le insertamos valores humanos a algoritmos de inteligencia artificial y aprendizaje automático para que los resultados obtenidos reflejen los problemas reales que enfrentan los profesionales de la salud? ¿Cómo deberían modificarse los enfoques clásicos de la inferencia estadística, si es que se modifican, para las intervenciones que dependen de la IA y el aprendizaje automático? Estos son algunos de los problemas que nos confrontan con la IA en medicina y que deberían abordarse en el futuro.

Papel de la IA y el aprendizaje automático

En la Práctica Clínica los algoritmos de aprendizaje automático se pueden reducir a “aplicaciones” clínicamente útiles, ¿serán estas capaces de manejar y analizar los datos clínicos, genómicos, metabolómicos y ambientales para ayudar a la realización de un diagnóstico de precisión? ¿Pueden las aplicaciones impulsadas por la IA y el aprendizaje automático convertirse en un asistente del Médico y liberar a éste del tiempo que dedica a la documentación para que pueda pasar más tiempo con los pacientes? ¿Pueden las aplicaciones ayudar en el diagnóstico diferencial?

La evaluación de la confiabilidad y seguridad de nuevos productos, tiene en la investigación clínica tradicional (aprobación de un nuevo fármaco), estándares para probar y aceptar el fármaco y las fases de investigación y administrativas están bien establecidas. Cuando la intervención es un algoritmo de IA y aprendizaje automático en lugar de un fármaco, la comunidad médica espera el mismo nivel de seguridad, pero los estándares para describir y probar las intervenciones de IA y aprendizaje automático están lejos de ser claros.

Para aceptar una aplicación como estándar, se debe llevar a cabo una investigación que compruebe la confiabilidad de esta, que luego reformará y mejorará la práctica clínica. Esa investigación tiene tres componentes. Primero, la investigación debe estar estructurada para responder una pregunta clínicamente significativa de una manera que pueda influir en el comportamiento del profesional de la salud y conducir a una mejora en los resultados para un paciente. En segundo lugar, la intervención debe ser definible, escalable y aplicable al problema en cuestión. No debe estar influenciado por factores fuera del dominio del problema y debe producir resultados que puedan aplicar se a problemas clínicos similares en una amplia gama de poblaciones y prevalencias de enfermedades. Tercero, cuando los resultados de la investigación se aplican de tal manera que influyan en la práctica, el resultado debe ser beneficioso para todos los pacientes en consideración, no sólo para aquellos que son similares en características y hallazgos en el que se entrenó el algoritmo. Esto plantea la cuestión de si tales algoritmos deberían incluir la consideración de la salud pública (es decir, el uso de recursos escasos) cuando se hacen recomendaciones de diagnóstico o tratamiento y en qué medida tales consideraciones son parte del proceso de toma de decisiones del algoritmo.

El uso de aplicaciones de IA y aprendizaje automático en la realización de investigaciones clínicas tienen el potencial de mejorar y posiblemente simplificar y acelerar los ensayos clínicos a través de un reclutamiento y emparejamiento más eficientes de los participantes del estudio y análisis más completos de los datos. Además, puede ser posible crear grupos de control haciendo coincidir los datos históricos con los criterios de inscripción del ensayo objetivo. La IA y el aprendizaje automático también se pueden usar para predecir y comprender mejor los posibles eventos adversos y el análisis de las subpoblaciones de pacientes. Pero el uso de aplicaciones e intervenciones de inteligencia artificial y aprendizaje automático presenta un conjunto de incertidumbres que deben abordarse tanto en los protocolos como en los informes de los ensayos clínicos. Un área de progreso sustancial en IA y aprendizaje automático es la aparición de chatbots sofisticados que están disponibles para el uso del público en general. Aunque éstos se han introducido recientemente a un nivel de sofisticación que podría tener un impacto en la práctica médica diaria, creemos que su potencial para influir en cómo se practica la medicina es sustancial y sería negligente no abordar ese potencial de la mejor manera posible.

Chatbots en medicina

Un chatbot es un programa informático que utiliza IA y procesamiento del lenguaje natural para comprender preguntas y automatizar las respuestas a ellas, simulando una conversación humana. La tecnología Chatbot ahora está en casi todas partes, desde el servicio al cliente hasta asistentes Médicos para la obtención de síntomas que luego configuran un diagnóstico. Esta habilidad, combinado con una cantidad casi infinita de datos disponibles (Internet) y la posibilidad de entrenarse desde la red, ha llevado a la aparición en noviembre de 2022 del ChatGPT y ha demostrado una nueva forma en que las máquinas impulsadas por IA pueden interactuar con las personas. Los chatbots de nueva generación prometen ser escribas y entrenadores, pero con algunas advertencias. Muchas de estas advertencias fueron descritas por los desarrolladores de ChatGPT en su lanzamiento, pero merecen una consideración especial cuando se usan en medicina. En su iteración actual, la nueva generación de chatbots puede ayudar con el problema de la documentación médica y responder preguntas claves que podrían ayudar en el diagnóstico diferencial, como se señaló anteriormente. Pero es difícil saber si las respuestas proporcionadas son apropiadas y la responsabilidad de revisar su trabajo recaería en los médicos, del mismo modo que los médicos deben revisar las historias clínicas que confeccionan.

Sin embargo, creemos que los chatbots se convertirán en herramientas importantes en la práctica de la medicina y como cualquier buena herramienta, pueden ayudarnos a hacer mejor nuestro trabajo, pero si no se usan correctamente, tienen el potencial de causar daño.


Amenazas de la inteligencia artificial a la salud humana

La IA tiene el potencial de revolucionar la asistencia sanitaria mejorando los diagnósticos, ayudando a desarrollar nuevos tratamientos, apoyando a los proveedores y extendiendo la asistencia sanitaria más allá de los centros sanitarios y a un mayor número de personas (1). Estos efectos beneficiosos se derivan de aplicaciones tecnológicas como el procesamiento del lenguaje, las herramientas de apoyo a la toma de decisiones, el reconocimiento de imágenes, el análisis de grandes volúmenes de datos, la robótica, etc. (2) Sin embargo, como ocurre con todas las tecnologías, la IA puede aplicarse de forma perjudicial. Los riesgos asociados a la medicina y la atención sanitaria incluyen la posibilidad de que los errores de la IA causen daños a los pacientes (3), problemas con la privacidad y la seguridad de los datos (4) y el uso de la IA de forma que empeore las desigualdades sociales y sanitarias, ya sea incorporando los prejuicios humanos existentes y los patrones de discriminación en algoritmos automatizados o refuerce las desigualdades sociales en el acceso a la atención sanitaria (5). Un ejemplo de daño acentuado por datos incompletos o sesgados fue el desarrollo de un oxímetro de pulso impulsado por IA que sobrestimó los niveles de oxígeno en sangre en pacientes de piel más oscura, lo que dio lugar a un tratamiento insuficiente de su hipoxia (6). También se ha demostrado que los sistemas de reconocimiento facial son más propensos a clasificar erróneamente el género en sujetos de piel más oscura. También se ha demostrado que las poblaciones que son objeto de discriminación están infrarrepresentadas en los conjuntos de datos subyacentes a las soluciones de IA y, por lo tanto, pueden verse privadas de todos los beneficios de la IA en la atención sanitaria (7).

Amenazas derivadas del mal uso de la inteligencia artificial

Existen varias amenazas asociadas al uso indebido de la IA, ya sea deliberado, negligente, accidental o debido a una falta de previsión y preparación para adaptarse a los impactos transformadores de la IA en la sociedad. El primer conjunto de amenazas procede de la capacidad de la IA para limpiar, organizar y analizar rápidamente conjuntos masivos de datos personales, incluídas las imágenes recogidas por la presencia cada vez más omnipresente de cámaras, y para desarrollar campañas de marketing e información altamente personalizadas y dirigidas, así como sistemas de vigilancia. Esta capacidad de la IA puede aprovecharse para, por ejemplo, mejorar nuestro acceso a la información o contrarrestar actos terroristas, pero también puede utilizarse indebidamente para generar ingresos comerciales para las plataformas sociales (8). También ha sido aprovechado por otros actores comerciales para crear una vasta y poderosa infraestructura de marketing personalizado capaz de manipular el comportamiento de los consumidores. Las pruebas experimentales han demostrado que la IA utilizada a gran escala en las plataformas de las redes sociales proporciona una potente herramienta para que los candidatos políticos manipulen su camino hacia el poder (9) y de hecho, se ha utilizado para manipular la opinión política y el comportamiento de los votantes. Entre los casos de subversión electoral impulsada por la IA se incluyen las elecciones kenianas de 2013 y 2017, las elecciones presidenciales estadounidenses de 2016 y las elecciones presidenciales francesas de 2017.

El tercer conjunto de amenazas surge de la pérdida de empleos que acompañará el despliegue generalizado de la tecnología de IA. Las proyecciones de la velocidad y la escala de la pérdida de puestos de trabajo debido a la automatización impulsada por la IA oscilan entre decenas y cientos de millones durante la próxima década. Mucho dependerá de la velocidad del desarrollo de la IA, la robótica y otras tecnologías relevantes, así como de las decisiones políticas. realizados por los gobiernos y la sociedad. Si bien terminar el trabajo que es repetitivo, peligroso y desagradable traería muchos beneficios, ya sabemos que el desempleo está fuertemente asociado con comportamientos y resultados de salud adversos, incluido el consumo nocivo de alcohol (10), drogas ilícitas y el sobrepeso (11) y tener una calidad de vida y una salud (12) más bajas, y niveles más altos de depresión y riesgo de suicidio.

La amenaza de la inteligencia artificial auto superable

La IA de propósito general de automejora, es una máquina teórica que puede aprender y realizar la gama completa de tareas que los humanos podían hacer. Al ser capaz de aprender y mejorar recursivamente su propio código, podría mejorar su capacidad para mejorar y teóricamente podría aprender a eludir cualquier restricción en su código y comenzar a desarrollar sus propios propósitos (13). La visión de una máquina consciente, inteligente y resuelta capaz de realizar la gama completa de tareas que los humanos pueden realizar ha sido objeto de escritura académica y de ciencia ficción durante décadas. Pero independientemente de si es consciente o no, o si tiene un propósito o no, una máquina de propósito general de autoaprendizaje o mejora automática con inteligencia y rendimiento superiores en múltiples dimensiones tendría graves impactos en los humanos.

Evaluación del riesgo y prevención del daño

Con el crecimiento exponencial de la investigación y el desarrollo de la IA (14), se está cerrando la ventana de oportunidad para evitar daños graves y potencialmente existenciales. Los resultados futuros del desarrollo de IA dependerán de las decisiones políticas que se tomen ahora y de la efectividad de las instituciones reguladoras que diseñemos para minimizar el riesgo y el daño y maximizar el beneficio. De manera crucial, al igual que con otras tecnologías, prevenir o minimizar las amenazas planteadas por la IA requerirá acuerdos y cooperación internacionales. También requerirá una toma de decisiones libre de conflictos de intereses y protegida del sesgo de actores poderosos con intereses creados. Es preocupante que las grandes corporaciones privadas con intereses financieros creados y poca supervisión democrática y pública estén liderando el campo de la investigación de la IA.

La ONU ahora está comprometida en un esfuerzo desesperado para garantizar que nuestras instituciones sociales, políticas y legales internacionales se pongan al día con los rápidos avances tecnológicos que se están logrando con la IA. En 2020, por ejemplo, la ONU estableció un Panel de Alto Nivel sobre Cooperación Digital para fomentar el diálogo global y los enfoques cooperativos para un futuro digital seguro e inclusivo. En septiembre de 2021, el jefe de la Oficina del Comisionado de Derechos Humanos de la ONU llamó a todos los estados que establezcan una moratoria sobre la venta y el uso de sistemas de IA hasta que se establezcan las garantías adecuadas para evitar riesgos catastróficos. En noviembre de 2021, los 193 estados miembros de la UNESCO adoptaron un acuerdo para guiar la construcción de la infraestructura legal necesaria para garantizar el desarrollo ético de la IA. Sin embargo, la ONU aún carece de un instrumento legalmente vinculante para regular la IA y garantizar la rendición de cuentas a nivel mundial.

Finalmente hacemos un llamamiento a la comunidad médica y de salud pública para que profundice en su comprensión del poder emergente y el potencial transformador de la IA y se implique en los debates políticos actuales sobre cómo pueden mitigarse los riesgos y amenazas de la IA sin perder las posibles recompensas y beneficios de la misma.

Referencias:

1. Mehta MC, Katz IT, Jha AK. Transforming Global Health with AI. N Engl J Med. 2020 Feb 27;382(9):791–3.

2. Panch T, Pearson-Stuttard J, Greaves F, Atun R. Artificial intelligence: opportunities and risks for public health. Lancet Digit Health. 2019 May;1(1): e13–4.

3. Challen R, Denny J, Pitt M, Gompels L, Edwards T, Tsaneva Atanasova K. Artificial intelligence, bias and clinical safety. BMJ Qual Saf. 2019 Mar;28(3):231–

4. Morley J, Floridi L. An ethically mindful approach to AI for health care. The Lancet. 2020 Jan;395(10220):254–5.

5. Leslie D, Mazumder A, Peppin A, Wolters MK, Hagerty A. Does “AI” stand for augmenting inequality in the era of covid-19 health care? BMJ. 2021 Mar 15; n304.

6. Sjoding MW, Dickson RP, Iwashyna TJ, Gay SE, Valley TS. Racial Bias in Pulse Oximetry Measurement. N Engl J Med. 2020 Dec 17;383(25):2477–8.

7. Zou J, Schiebinger L. AI can be sexist and racist — it’s time to make it fair. Nature. 2018 Jul;559(7714):324–6.

8. Lorenz-Spreen P, Oswald L, Lewandowsky S, Hertwig R. A systematic review of worldwide causal and correlational evidence on digital media and democracy. Nat Hum Behav. 2022 Nov 7;7(1):74–101.

9. Bond RM, Fariss CJ, Jones JJ, Kramer ADI, Marlow C, Settle JE, et al. A 61-million-person experiment in social influence and political mobilization. Nature. 2012 Sep;489(7415):295–8.

10. Vancea M, Utzet M. How unemployment and precarious employment affect the health of young people: A scoping study on social determinants. Scand J Public Health. 2017 Feb;45(1):73–84.

11. Khlat M, Sermet C, Le Pape A. Increased Prevalence of Depression, Smoking, Heavy Drinking and Use of Psycho-Active Drugs among Unemployed Men in France. Eur J Epidemiol. 2003 May;19(5):445–51.

12. Popham F, Bambra C. Evidence from the 2001 English Census on the contribution of employment status to the social gradient in self-rated health. J Epidemiol Community Health. 2010 Mar 1;64(3):277–80.

13. Bostrom N. The Superintelligent Will: Motivation and Instrumental Rationality in Advanced Artificial Agents. Minds Mach. 2012 May;22 (2):71–85.

14. Growth in AI and robotics research accelerates. Nature. 2022 Oct 13;610(7931):S9–S9.

 

Nota publicada en la Ed. 159 de la revista Ethica Digital, sección Novedades Científicas a cargo del Dr. Martín Moya.

 

 

 

Compartir