Inteligencia Artificial y Medicina (I): Sesgos cognitivos
¿Qué puede hacer la inteligencia artificial por la medicina?
Toca hablar de Inteligencia Artificial. Lo haremos -como siempre- tratando áreas de interés, antes de machacar con lo jurídico. Y en series encadenadas de posts, para no atufar demasiado.
Este post sigue la serie dedicada a la IA que empezó aquí comentando la obra de Eric Topol -Deep Medicine- y la de Daniel Kahneman (los problemas de nuestros sesgos humanos y cómo pueden ser superados por la inteligencia artificial), siguió aquí comentando la lentitud y dificultades -por razones muy humanas) de adopción de tecnologías disruptivas y la ejem, predicción de centauros de Cory Doctorow (humano cabalgando IAs o quizá, lo contrario).
También vimos la parte que no te suelen contar sobre la extracción de inferencias, o lo que es lo mismo, de dónde salen las predicciones algorítmicas.
Más adelante practicamos una autopsia a una decisión automatizada para descomponerla en sus partes (data set, predicción, criterio y acción) para ver las consecuencias económicas de refundir (automatizar) varias de esas partes, o adjudicárselas a personas distintas de las que hoy las controlan.
Y hoy revisaremos los sesgos más difíciles de detectar y (costosos de arreglar) los que afectan, no al modelo, sino al propio data set con la que se ha entrenado el modelo de Inteligencia Artificial.
Si te interesa la confluencia entre la Inteligencia Artificial y la normativa de protección de datos, es posible que te interese nuestra formación sobre la materia: «Aplicando el RGPD a la IA en la práctica» y «Entendiendo la AI Act».
Indice
- Estas cosas se empiezan citando a un clásico
- No es tan difícil superar el criterio de un médico (o el tuyo): Hablemos de sesgos
- Sesgo de Confirmación:
- Sesgo de Disponibilidad:
- Heurística Representativa:
- Sesgo de Anclaje:
- Ceguera por despiste:
- Sesgo de exceso de confianza:
- Las necesarias segundas opiniones: la Inteligencia Artificial como Asistente
- Conclusión
Estas cosas se empiezan citando a un clásico
Hace más de 2.000 años, Hipócrates dijo: «Es más importante saber qué tipo de persona tiene una enfermedad que saber qué tipo de enfermedad tiene una persona«.
El juramento de Hipócrates ha llegado hasta nuestros días por méritos propios. Pero mejor quedémonos con el fundamento: el contexto ha cambiado lo suyo.
Su «sentencia» subraya la importancia de considerar y aplicar al mismo tiempo todo el conocimiento acumulado (i) sobre la enfermedad y (ii) sobre la persona del paciente en el momento de hacer el diagnóstico y la prescripción.
En un momento volveremos a Hipócrates.
Pero para entrar ya en materia, dejemos que la IA saque bola:
En su libro «Deep Medicine», Eric Topol describe como un proto-modelo de lenguaje (el libro es de 2017) se zampó la secuencia de genoma de un niño con una enfermedad rara: 125 gigabytes de datos, incluidos casi 5 millones de elementos en los que el genoma del niño difería de lo común.
En veinte segundos, este “ChatGPT baby” procesó la historia clínica del niño y destacó ochenta y ocho características fenotípicas (casi veinte veces más de las que los médicos habían destacado previamente). Y en veinte segundos.
Pero recordemos al Sr Lobo y no hagamos eso todavía: ojo cuidao.
Las inteligencias artificiales sólo son capaces de aprender de las “evidencias del pasado”. Confiar demasiado en ellas limita la capacidad de innovación.
Otro día hablaremos más tranquilamente de este “efecto fosilización” de las predicciones de la IA.
Por no hablar de las compañías aseguradoras que, al confiar en algoritmos, deniegan sistemáticamente la cobertura de técnicas o pruebas novedosas.
Pero ¡Un momento! Hoy tocaba hablar de médicos (u otros profesionales)
No es tan difícil superar el criterio de un médico (o el tuyo): Hablemos de sesgos
Cuanto más prestigio aporta el ejercicio de una profesión al pofesional, más vulnerable es a sus propios sesgos cognitivos.
Hoy hablamos de médicos, pero déjenme hacer así con la manita a ingenieros, abogados, jueces, asesores financieros y ejem, “expertos” o catedráticos de lo que sea: todos padecemos las mismas minusvalías.
Eso que ven ustedes miren a donde miren es la alargada sombra de Daniel Kahneman: si de alguna manera el nuevo paradigma del RGPD nació 16 años antes con el privacy by design de Ann Cavoukian, me atrevo a decir que el siglo XXI nació de verdad unos años antes del 2000, cuando Daniel Kahneman y Amos Tsversky dinamitaron todo lo que creíamos saber sobre el funcionamiento de nuestro cerebro.
Gracias a ellos sabemos que es cualquier cosa menos racional… al menos la mayor parte del tiempo.
Los sesgos cognitivos, tal como los define Kahneman, son esos atajos que toma a cada segundo nuestro cerebro para ahorrar tiempo y esfuerzo en sus decisiones, y que a menudo nos llevan a cometer errores de juicio y percepción.
Estos sesgos son particularmente relevantes en la práctica médica, donde las decisiones rápidas y precisas son cruciales.
A continuación, algunos de estos sesgos y cómo afectan a los profesionales de la medicina:
Sesgo de Confirmación:
Este sesgo implica favorecer información que confirma nuestras creencias preexistentes y descartar información que las contradice. En medicina, esto puede llevar a un médico a interpretar los síntomas y resultados de pruebas de una manera que respalde su diagnóstico inicial, ignorando señales que podrían sugerir una alternativa.
A ti también te pasa. Ejemplo típico: literalmente todo el mundo se cree que conduce “mejor que la media”. O que sus hijos –al menos de pequeños- son superdotados.
Sesgo de Disponibilidad:
Se refiere a la tendencia a sobreestimar la probabilidad de eventos basándose en lo fácilmente que “te vienen” a la mente. En el contexto médico, un doctor podría diagnosticar una enfermedad común o recientemente vista, ignorando otras posibilidades menos «disponibles» –porque no las ha visto tan recientemente- pero igualmente probables.
A ti también te pasa. Ejemplo: Ese miedo que tienes de pronto a coger un avión o a un viaje largo en coche justo después de un accidente que ha sido relevante en medios.
Heurística Representativa:
Este sesgo ocurre cuando las personas juzgan la probabilidad de un evento basándose en “lo normal”, aunque tengan un dato o evidencia delante de las narices que apunte en dirección distinta.
A ti también te pasa. Ejemplo: En la ruleta, después de que la bolita caiga en el rojo 15 veces consecutivas, la probabilidad de que vuelva a caer en el rojo sigue siendo del 50%. Melón, que eres un melón.
Sesgo de Anclaje:
Consiste en depender demasiado del primer flash de información recibida (el «ancla») al tomar decisiones. En la medicina, esto puede manifestarse cuando un médico se enfoca en un síntoma o resultado de prueba inicial y no reevalúa su diagnóstico a pesar de nueva información contradictoria.
A ti también te pasa. Ejemplo típico: En el menú de cualquier restaurante, hay un plato y un vino carísimos para que los demás te parezcan –por comparación- más baratos de lo que en realidad son. Y funciona: oh, cómo funciona.
Ceguera por despiste:
Esto ocurre cuando una persona no percibe un estímulo inesperado porque su atención está enfocada en otra cosa. En la práctica médica, esto puede llevar a pasar por alto hallazgos clínicos críticos porque están enfocados en buscar algo específico.
A ti también te pasa. Ejemplo: El mítico vídeo del “monkey business”.
Sesgo de exceso de confianza:
Este sesgo implica tener una confianza desmedida en nuestras propias habilidades o juicio. En medicina, puede llevar a los médicos a estar demasiado seguros de sus diagnósticos o tratamientos, rechazando la posibilidad de error o la necesidad de una segunda opinión. En el fondo, todos los sesgos se resumen en este: «Yo no me equivoco: yo no soy tonto». Un acertadísimo eslogan publicitario.
A ti también te pasa. Has hecho el cuñao muchas veces. Y lo sabes.
Ni que decir tiene que este es mi favorito y uno de los puntales del éxito de Twitter. ¡¡Zasca deporte olímpico!!
Todos estos sesgos, presentes en todas las personas humanas, como digo, pueden tener consecuencias significativas en contextos como la medicina, donde las decisiones rápidas y precisas son vitales.
Pero la realidad es que el diagnóstico se basa en la información que el médico obtiene en una consulta de -en el mejor de los casos- 15 minutos. Desconociendo lo que pasa en el cuerpo y la vida del paciente antes y después. Durante esos 15 minutos la mayor parte de la atención está en la pantalla del ordenador, no en el paciente.
Además, el profesional en sus años de experiencia habrá conocido sólo una fracción de todas las enfermedades posibles, y aplicará su expertise (bajo todos los sesgos comentados).
«Datos insuficientes, tiempo insuficiente, contexto insuficiente: shallow medicine» como dice Topol.
Esta situación es la que aconseja llevarse la medicina, hasta ayer un arte, al territorio data-driven, acercarlo a una ciencia basada en datos.
Porque ahora tenemos la capacidad de capturar e interpretar datos 24/7 del paciente, y tenerlos en cuenta en el diagnóstico. Y reevaluar y comparar sus resultados para confirmar, superando el sesgo de confirmación, lo que funciona mejor para cada enfermedad, pero sobre todo -acuérdate de Hipócrates- para cada paciente.
De hecho, la participación de un LLM, como veremos la próxima semana, resuelve a lo tonto ese problema que causa descontento en el paciente y depresión en los profesionales: el del médico que no despega la vista de la pantalla.
Las necesarias segundas opiniones: la Inteligencia Artificial como Asistente
Y aquí entran los asistentes.
No las enfermeras, no. Está demostrado que los médicos no les hacen ni puto caso (ver el último sesgo comentado).
En el estupendo libro “Conformity” Susstein explica cómo colectivos rollo uhm, abogados, médicos, ingenieros, etc perpetúan errores por el efecto de “cascadas de opinión” coincidentes.
El “efecto pelotón”, -pertenencia a un grupo que se comporta u opina de modo uniforme- nos dificulta discrepar con la opinión mayoritaria.
En “Superforecasting”, Philip Tetlock concluye: «Si no recibes feedback, tu confianza crece mucho más rápido que tu precisión«.
En efecto, todos nos beneficiamos de la sana crítica. Y de cruzar nuestro criterio con el ajeno.
¿Aunque sea el de un modelo de IA? Especialmente si es el de un modelo de IA que mejore nuestro rendimiento en esas tareas en las que somos especialmente negados: nuestros puntos ciegos son profundos y terribles, como hemos insinuado antes.
Particularmente en medicina, el análisis de imágenes radiológicas se ha beneficiado del apoyo de inteligencias artificiales, que son capaces de buscar y detectar cientos de patrones en tiempo real. No como los radiólogos.
Otro tema es el peso del criterio de la IA. Quién tenga la última palabra. En definitiva, quién acabe siendo el asistente de quién.
Y así llegamos a lo de qué pasa si el «asistente» es una reluciente, moderna y inteligencia artificial de esas que «nunca se equivocan».
La próxima semana hablaremos de centauros…
Conclusión
Por hoy, la conclusión o takeaway es la siguiente:
- Si eres un decision-maker, más te vale rodearte de elementos -incluso no humanos- con criterio y libertad para llevarte la contraria y el incentivo de hacerlo si resulta oportuno. Si, en cambio, te rodeas de abrazafarolas y sicofantes… buena suerte: vas a necesitarla.
- Si trabajas para alguien con responsabilidad de decisión y no te hace caso -o incluso te penaliza- cuando le adviertes de que su criterio es manifiestamente erróneo… bueno, ya estás tardando en buscar un sitio decente.
Cierto: esta conclusión no tiene mucho que ver con la Inteligencia Artificial pero… aquí el menda lerenda escribe de lo que le da la Real Gana TM.
Jorge García Herrero
Abogado y Delegado de Protección de datos