Inteligencia Artificial y Medicina (II): Centauros
Empezamos a hablar la semana pasada de Inteligencia Artificial, y nos preguntábamos qué puede hacer la IA por la medicina.
La conclusión fue: mucho.
Este post sigue la serie dedicada a la IA que empezó aquí comentando la obra de Eric Topol -Deep Medicine- y la de Daniel Kahneman (los problemas de nuestros sesgos humanos y cómo pueden ser superados por la inteligencia artificial), siguió aquí comentando la lentitud y dificultades -por razones muy humanas) de adopción de tecnologías disruptivas y la ejem, predicción de centauros de Cory Doctorow (humano cabalgando IAs o quizá, lo contrario).
También vimos la parte que no te suelen contar sobre la extracción de inferencias, o lo que es lo mismo, de dónde salen las predicciones algorítmicas.
Más adelante practicamos una autopsia a una decisión automatizada para descomponerla en sus partes (data set, predicción, criterio y acción) para ver las consecuencias económicas de refundir (automatizar) varias de esas partes, o adjudicárselas a personas distintas de las que hoy las controlan.
Y hoy revisaremos los sesgos más difíciles de detectar y (costosos de arreglar) los que afectan, no al modelo, sino al propio data set con la que se ha entrenado el modelo de Inteligencia Artificial.
Si te interesa la confluencia entre la Inteligencia Artificial y la normativa de protección de datos, es posible que te interese nuestra formación sobre la materia: «Aplicando el RGPD a la IA en la práctica» y «Entendiendo la AI Act».
El cerebro humano está lleno de sesgos y se puede beneficiar de cualquier segunda opinión, en especial si viene de una fuente bien formada.
Acabamos hablado de asistentes, y haciéndonos la pregunta con la que empezamos hoy:
Indice
¿Y si el asistente es una reluciente, moderna y epatante inteligencia artificial?
La inteligencia artificial promete resolver varios desafíos críticos en la medicina.
El primero y más evidente es la gestión e interpretación de volúmenes masivos de datos.
Como lo ilustra el caso del genoma de 125 gigabytes de un niño.
La IA, mediante el procesamiento de lenguaje natural y algoritmos de aprendizaje automático, puede analizar y sintetizar datos médicos complejos con una eficiencia y profundidad que supera ampliamente la capacidad humana.
Esta capacidad permite una comprensión más profunda y personalizada de las condiciones de salud de cada paciente, un enfoque en línea con la visión de Hipócrates de que es tan importante conocer al individuo como a la enfermedad.
Lo grasioso es que cuando se hace benchmarking, los resultados más acertados no vienen de profesionales, ni de modelos de IA, sino de la colaboración entre ambos.
Pero ya llegaremos a los centauros. Antes:
Aplicaciones puntuales: adopción inmediata
Eric Topol apunta una mejora nada evidente. Una aplicación puntual de la IA relativamente sencilla de implementar.
El tiempo y atención del profesional en cada consulta con el paciente no hace sino reducirse.
Todos estamos familiarizados con la imagen del médico de familia que dedica más de la mitad de su atención (y su mirada) a introducir los datos del paciente en el ordenador.
El contacto visual con el paciente representa una fracción del tiempo que haya durado la consulta.
A la vista de los avances en el procesamiento de voz a texto, parece un “no brainer” que, con las salvaguardias oportunas, el intercambio de preguntas y respuestas entre médico y paciente sea procesado por un LLM que
- resuma los datos más importantes,
- los someta al criterio y corrección del profesional antes de su registro en la Historia Clínica.
- e incluso al del paciente, que podría –después de la consulta- revisar –incluso llamar la atención sobre errores en- la información que ingresa en su historia y repasar el diagnóstico del profesional, desde la comodidad de su móvil o domicilio.
No es un misterio que algunas personas mayores (o no tan mayores) se ponen tan nerviosas en estas consultas que salen del centro médico con una idea vaga o inexistente de lo que les han dicho.
Pero puede que la gente se revuelva y rechace el invento. A veces pasa. De hecho, pasa todo el tiempo.
Gary Kasparov, el otrora campeón ruso de ajedrez tiene un par de cosas que enseñarnos sobre asumir derrotas dolorosas a manos de la última tecnología.
Y nos recuerda el ciclo inevitable de la adopción de la automatización: mucho, mucho miedo antes de la aceptación final, normalmente forzada.
Un ejemplo: los ascensores existen desde 1900 pero hasta 1950 no se normalizó su uso sin supervisión humana (esos aburridos “botones”) porque la gente tenía miedo. El punto de inflexión fue una huelga en plan ludita del colectivo de botones.
Con la Iglesia hemos topado
Sin embargo, estas promesas no suelen ser fáciles de implementar.
Hay encima de la mesa sugestivas propuestas: la IA puede revolucionar el diagnóstico de enfermedades, la cirugía automatizada, la monitorización de pacientes en casa, los tratamientos personalizados y el descubrimiento y reorientación de fármacos.
Aparte de lo obvio (¿cometerá errores letales la IA? ¿moriremos a manos de Skynet?) el principal problema de estas innovaciones es que, cuanto mayor es su potencial disruptivo, más difícil es integrarlas en el statu quo, en la estructura vigente en funcionamiento en el sector salud -o el que sea-.
Eso incluye la interminable normativa, las jerarquías establecidas, las inercias indomables pero también y sobre todo los incentivos. Y con ellos, quién manda y quién obedece, quién gana y quien sobrevive.
Dos ejemplos:
El primero: la IA ya está acelerando el desarrollo de medicinas al permitir entender y definir mejor el “reactoma” químico señalando las partes críticas de moléculas pequeñas.
De hecho algunas startups están conseguido más “candidatos” a medicamentos autorizados que las Big Pharma.
Yes but: El tema es que lo caro son los ensayos clínicos, y hay que pasar por ahí para demostrar la “calidad” de esos candidatos, por encima de la cantidad.
El segundo: En Camerún se inventó algo disruptivo y muy útil: el “Cardiopad”, un aparato que permite hacer electrocardiogramas de forma remota, sin necesidad de la presencia de un cardiólogo con el paciente.
Yes but: se sigue necesitando un cardiólogo, en algún sitio, para hacer el diagnóstico a la vista de la prueba. El Cardiopad se reveló muy eficaz, pero en Camerún hay un número limitado de instrumental para interpretar la prueba y de cardiólogos para hacer el diagnóstico: el sistema colapsó víctima del éxito de la iniciativa.
Last but not least: las cacareadas apps de contact-tracing en el contexto de la pandemia COVID-19 resultaron productos avanzadísimos sobre el papel, pero tuvieron un efecto neto pírrico por la misma razón.
La conclusión es que, cuanto más nos alejemos de aplicaciones spot que resuelvan problemas concretos, más difícil será convencer de abrazar el cambio a quien hoy decide. Porque quien decide no suele estar dispuesto a autoinmolarse en nombre del POGRESO.
Una representación gráfica publicada por el Congreso USA para explicar el ObamaCare, 2010.
Inercia estructural
Más en general, la incorporación de la inteligencia artificial a la fase de decisión tanto en la medicina (en la abogacía, uno dos tres, responda otra vez…) encontrará fuertes resistencias culturales y estructurales: no en vano todos esos mangutas llenos de sesgos somos justamente los que hoy deciden y mandan.
Y nadie se despide a sí mismo.
Dos melones más, ya que estamos:
Uno: Si no le gustan mis sesgos, tengo otros
Un problema específico y evidente es que los modelos de IA “heredan” los sesgos humanos, que están inmanentes en los data sets con los que han sido entrenados.
La “corrección” de estos sesgos o su sustitución por otros más “aceptables” por ser más éticos, es un melonazo irresoluble, porque los valores éticos varían entre culturas, países y si me apuras, barrios hoy en día. Y todo el mundo sabe que la mejor tortilla es la que cocina su madre.
Además los modelos sufren sus propios sesgos y problemas, muchos de los cuales estamos lejos, muy lejos siquiera de entender.
Dos: El mito del centauro
Hoy las mejores cabezas predicen y además deciden.
La predicción consiste en convertir información que tienes a tu alcance en información que necesitas.
La inteligencia artificial promete convertir las predicciones en una commodity (la capacidad de predecir será tan barata como la, ejem, electricidad, y por lo mismo, igual de disruptiva).
Y el valor añadido de quien tome buenas decisiones se incrementará en la misma medida. Mejor aún: el decision maker podrá centrarse en su fortaleza, lo de decidir, delegando las predicciones en la IA.
Así, la teoría dice que el mundo se poblará de virtuosos centauros.
Entendiendo por centauros a humanos subidos a hombros de poderosas inteligencias artificiales. La IA aportará predicciones vertiginosas y certeras para cada circunstancia y el humano el juicio definitivo, revisando y compensando la falta de contexto de su etérea compañera, el talón de Aquiles actual de los modelos.
Centauros inversos
Como conclusión a este montón de temas abiertos y sin resolver, todo apunta a que tardaremos en ver IAs autónomas diagnosticando nuestras dolencias.
La medicina, y también la abogacía se poblará de centauros.
Lo cual nos lleva al temazo del man in the loop, man out of the loop, y, la opción más tenebrosa: el “centauro inverso” acuñado por Cory Doctorow: el paradigma (muy común y actual) del humano que únicamente asiente -sin jamás cuestionar- la decisión automatizada que teóricamente supervisa.
Porque en la práctica hoy el mundo funciona sobre algoritmos de decisión automatizada motados exactamente al revés del paradigma propuesto: centauros inversos.
Los algoritmos deciden y el supervisor humano no supervisa nada, simplemente está puesto por el Ayuntamiento para dar su “sello de aprobación” y glups, evitar la aplicación del art. 22 RGPD.
El próximo día hablaremos del art. 22 y de tooodas esas normas del RGPD tan vigentes, importantes e incumplidas en el contexto de la inteligencia artificial, a la espera del Reglamento Europeo de IA que no se aplicará hasta 2026.
Jorge García Herrero
Abogado y Delegado de Protección de datos