¿Sueñan los robots médicos con pacientes humanos? Inteligencia Artificial y salud pública

Estoy fundamentalmente de acuerdo con las dudas y críticas sobre la inteligencia artificial de mi colega del Colegio de Bioética, Luis Muñoz, publicadas en este blog el 6 de enero. Aquí deseo plantear otra idea, todavía en hipótesis, sobre el origen y la finalidad de la inteligencia artificial (IA) y ponerla en relación con sus probables efectos en la salud pública. La IA ha creado una manifestación enigmática de la tecnología informática que Don Ihde llamó alteridad.1 Es decir, puede materializar un otro yo que replica lo humano, que puede hablar e interactuar, moverse, decidir y quizá sentir como un humano. Por eso lo que más nos impresiona de la IA son esos chats GPT que pueden conversar con nosotros y decirnos nuestras verdades (es sorprendente para nosotros, que somos simios narcisistas que creen que la inteligencia sólo puede ser humana).

Ilustración: Oldemar González

Como lo planteaba Eduardo Nicol acerca de la “razón de fuerza mayor”,2 la IA no es humana, sino una forma de razón de necesidad que reside en los individuos y opera gracias a ellos (se basa en los algoritmos diseñados y máquinas fabricadas por humanos), pero no funciona por su voluntad ni se somete a las finalidades humanas. No es que las cosas se humanicen y los humanos se cosifiquen con este portentoso desarrollo de la IA, tesis clásica hegeliana y marxista sobre la alienación: el trabajador transfiere sus propiedades a sus productos y estos adquieren rasgos simbólicamente humanos; tal es el núcleo de la fetichización de las mercancías en el capitalismo.

Pienso que más que un proceso de alienación por el cual las capacidades cognitivas humanas se transfieren a las máquinas y sistemas robóticos, lo que podríamos atestiguar en los siguientes años, en que seguramente se acelerará la expansión global y uso intensivo de la IA, es la manifestación de un modo de inteligencia no humana desconocido en la historia previa;en efecto, un nuevo tecno-logos capaz de entender y hablar de la realidad.

Durante siglos, al menos en la filosofía occidental, hemos creído que la cognición y el pensamiento son propiedades exclusivamente humanas. Y hemos atribuido a nuestra inteligencia un origen sobrenatural, meramente espiritual, y no biológico y evolutivo. Pero cada vez avanzamos más en la comprensión de otras formas de inteligencia y cognición animales3 y nos damos cuenta de que el pensamiento y las capacidades de razonamiento no pueden ser una exclusiva humana,4 sino que surgieron como capacidades evolutivas en las especies animales, en particular en los homínidos, rama a la que pertenecemos. Pero podemos dar un paso más, muy arriesgado sin duda: la inteligencia (en tanto logos) es inherente a la doble dimensión de la realidad: extensión material y pensamiento (o espíritu). Cada animal representa esa leibniciana armonía preestablecida entre un cuerpo material y una mente espiritual (mónada con capacidad de percibir y reflejar el mundo). Pero eso significa que, si los procesos de la materia nos trascienden y gobiernan, expresados en las leyes de la naturaleza a la que están sujetos los cuerpos biológicos, también nos trascienden los procesos mentales o de pensamiento: el logos en el orden del universo. Las matemáticas de alguna manera lo han postulado siempre: las leyes de la lógica, del álgebra o del cálculo no son creaciones humanas arbitrarias, son expresión del orden inherente de la realidad, de su regularidad y de su dinamismo, de su racionalidad. Este orden racional que la filosofía (y las ciencias) han querido revelar puede expresarse por sí mismo en formas de series numéricas, símbolos, notas musicales armónicas, en múltiples patrones de la realidad que tienen una lógica que nosotros no alcanzamos a percibir, que apenas intuimos y que tratamos de descifrar, mediante las ciencias y las artes.

Así, en la medida en que los sistemas de IA se desarrollen podrían, en algunos casos conspicuos, alcanzar modos de deliberación y decisión no humanas en sentido lato: no realizadas por mentes humanas, sino por las máquinas de IA. Estas ya pueden escribir textos con sentido y crear obras plásticas, pero lo más crucial es que pueden entender lo que nosotros no alcanzamos a ver, pueden descubrir lo que a nosotros se nos escapa de ordinario: los patrones y regularidades, así como accidentes e infinitesimales variaciones: fallas y mutaciones en la realidad atómica, biológica, histórico-sociológica o climática, es decir, en todos los sistemas dinámicos e inestables de la naturaleza.

¿Y esto qué tiene que ver con la bioética? Pues los sistemas de IA aplicados al diagnóstico y tratamiento de enfermedades biofísicasy mentales podrían dar un salto realmente notable si comenzaran a mostrarnos las regularidades y los patrones de los fenómenos que causan lo que percibimos como trastornos.

Hace tiempo que las y los profesionales de la salud están perdiendo la capacidad de realizar diagnósticos y tratamientos como si fueran humanos, aplicando su intuición, empatía y experiencia, pues se han mecanizado y dependen cada vez más de datos duros de estudios obtenidos por instrumentos técnicos. La medicina se ha deshumanizado y los errores médicos se multiplican y, según datos de la OMS, causan una letalidad muy significativa. Los profesionales de la salud han perdido, en muchos casos, la habilidad de comunicarse con sus pacientes para tratarlos como personas, y no como cosas o números de expedientes. La IA aplicada a la salud pública podría revolucionar (haciendo mucho más eficaces y certeros) los diagnósticos, pronósticos y tratamientos clínicos, incluso con cirugía robótica de precisión que podría sustituir a las manos quirúrgicas humanas. Pero el resultado paradójico es que comenzarían a surgir curaciones cuasi milagrosas: no sabríamos explicar cómo es que los sistemas de IA aprenderían a diagnosticar y a comprender mejor que nosotros los patrones complejos que causan los desequilibrios en la salud humana. Lo malo de esta utopía tecnomédica es que, seguramente, no estaría al alcance de todo el mundo.

No tenemos que esperar a que las máquinas de IA se rebelen contra nosotros, al modo de Terminator, y quieran exterminarnos. Basta con que la IA realizara mejores diagnósticos y tratamientos precisos en los sistemas de salud pública para mostrar que esta inteligencia se ejerce en los humanos, a partir de instituciones y conceptos humanos, pero no sería humana. No tendría nada de misteriosa y mágica (en todo caso, la magia siempre apela a otras fuerzas que no conocemos bien), simplemente es la inteligencia subyacente en la naturaleza de las cosas que puede, por fin, expresarse por sí misma de forma comprensible. Lo negativo para nosotros es que bien podría ser que, a medida que la medicina humana siga perdiendo sus capacidades de intuición y razonamiento abductivo, su compasión, empatía y respeto a la autonomía de las otras personas, a lo mejor la IA podría ir adquiriendo esos rasgos bioéticos.

Entonces sí, las máquinas de IA se humanizarán: se apropiarán de la inteligencia humana, mientras que nosotros nos despojaremos cada vez más de nuestras destrezas naturales que nos siguen haciendo humanos. Dos consecuencias serían temibles: la sustitución de muchos puestos de trabajo en la medicina por los sistemas privatizados de IA (pues no creo que serán sistemas de carácter público) y la menor transparencia en cómo operarían dichos sistemas (debido a patentes y secreto industrial), es decir, una mayor opacidad y restricción al conocimiento médico de las enfermedades como un bien público. Surgiría la utopía negativa del mundo feliz de la medicina dominada por la IA.

 

Jorge Enrique Linares Salgado
Profesor titular de la Facultad de Filosofía y Letras UNAM. Miembro del Colegio de Bioética A. C.


1 Ihde, D., Technology and the Lifeworld, Indiana University Press, 1990

2 Nicol, E., El porvenir de la filosofía,FCE, México, 1972; La reforma de la filosofía, FCE, México, 1980

3 Godfrey-Smith, P., Otras mentes. El pulpo, el mar y los orígenes profundos de la consciencia, Taurus, Madrid, 2019

4 De Waal, F., ¿Tenemos suficiente inteligencia para entender la inteligencia de los animales? Tusquets, Madrid, 2016


2 comentarios en “¿Sueñan los robots médicos con pacientes humanos? Inteligencia Artificial y salud pública

  1. Me recuerda a la teoría de la noósfera de Teilhard de Chardin.

    Las máquinas han matado gente desde que un niño cayó en la primera piedra de molino. Por eso siempre ha sido necesario que un ser humano (o un fantasma en la máquina) corte los ciclos de causas y efectos. Aunque en el caso de las máquinas sociales (sistemas sociales , económicos o políticos) se ha buscado lo contrario, es decir que funcionen de forma independiente de los caprichos individuales. Podríamos decir que el miedo a que las maquinas adquieran conciencia es una combinación de miedo a perder el control, miedo a lo desconocido, y miedo a los demás seres humanos.

    Si las máquinas adquieren conciencia, es poco probable que se sigan construyendo, pues no tiene sentido económico crear entes que exijan derechos. Lo que si ha ocurrido es que se les dota de autonomía. Por ejemplo, desde hace quince años se ha hecho común los movimientos bursátiles de alta frecuencia (de miles de transacciones por segundo), computadoras que buscan fallas en los precios de los activos para explotarlos antes de que desaparezcan u otra computadora se les adelante; los autos autónomos deberán estar conectados a un sistema central que tome datos de toda la ciudad y decida las rutas que optimicen los tiempos de traslado y eviten embotellamientos. A los drones militares se les quiere dejar la decisión de cuando disparar, o de cambiar a objetivos secundarios cuando el objetivo primario no está disponible (sus defensores afirman que estos drones minimizarán los daños colaterales, comparados con las minas).

    En la IA actual existen dos paradigmas principales: los sistemas expertos (requieren que un experto en un campo transfiera su conocimiento en forma de reglas de decisión que la máquina pueda seguir) y las redes neuronales artificiales. La tecnología más exitosa actualmente son las redes neuronales. La neurona artificial básica recibe los datos del exterior, los multiplica por un número dado (parámetro), suma todas las cantidades y al resultado le aplica una función no lineal (exponenciales, trigonométricas etc). Estas neuronas se pueden conectar entre sí para formar diferentes tipos de redes, pero todas las redes actuales funcionan con una fase de entrenamiento y una fase de funcionamiento.

    La fase de entrenamiento es la que más recursos consume. Consiste en variar los parámetros de cada neurona hasta obtener los comportamientos deseados. Pero no sabemos de antemano los valores de los parámetros, y aún teniéndolos, aún no sabemos por qué esos son los valores que funcionan. Esto ha causado problemas legales cuando las redes neuronales se usan para seleccionar personal para contratar, o cuando un banco decide a quién otorgarle un préstamo, o cuando una compañía de seguros decide a quién asegurar, pues la decisión es opaca y sujeta a sesgos raciales, de género, de edad, etc aun cuando estos datos sean explícitamente eliminados de los datos de entrenamiento.

    Una vez que se tienen los parámetros óptimos para un diseño específico de red neuronal, pueden crearse millones de copias.

    Aunque los sistemas de IA concientes no se masifiquen, la gente tenderá a verlos así, Pero el mayor peligro está en considerarlos perfectos, que lo saben todo y que nunca se equivocan. El problema es que las redes neuronales no saben decir que algo no lo saben; si un dato no lo tienen, lo inventan; esta característica tiene sus ventajas en el filtrado de imágenes, sonido, o creación de pinturas y videos.

    Google en la década pasada creó dos redes neuronales que aprendieron a jugar ajedrez y Go sin que un experto les dijera cómo. Sólo sabían las reglas básicas de ambos juegos, y aprendieron las estrategias jugando millones de veces contra sí mismos. Los productos finales fueron capaces de vencer a los campeones humanos de ajedrez y de Go.

    Quizá el mayor peligro está en que se decida que es mejor invertir en capital cibernético que en la preparación de capital humano.

    1. Me doy cuenta que presenté un panorama un poco oscuro de las IA. Hay que mencionar que en lo países con envejecimiento poblacional, como Japón, el uso de robots para sustituir la mano de obra es una realidad. China está en su segundo año de decrecimiento poblacional, uniéndose a varios países europeos, Rusia, Japón, Corea de Sur, Uruguay, etc México pasará por lo mismo hacia 2040. Los pronósticos indican que entre 2050 y 2100 la población mundial llegará a un pico de diez mil millones de personas, descendiendo después. Hay que recordar que el envejecimiento y disminución de la población es disruptivo para la disponibilidad de mano de obra y para la viabilidad de los fondos de pensiones; por otro lado, la presión sobre la producción de alimentos disminuirá.

      Los sesgos raciales, de género, de edad, pueden minimizarse eligiendo adecuadamente los datos de entrenamiento. El problema estuvo en usar los datos históricos sobre las personas que fueron contratadas y las que fueron rechazadas; como en el pasado la contratación de mujeres y minorías fue menor, la red neuronal tiende a exhibir los mismos comportamientos. Eliminar los datos de raza o género de los datos de entrenamiento no funcionaba porque la red tendía a fijarse en los ingresos económicos, el lugar donde viven o las escuelas a las que asistieron.

      Se han hecho muchos esfuerzos en matemáticas, lógica y filosofía para desarrollar modelos de razonamiento causal, para compensar que las técnicas estadísticas normales sólo permiten correlacionar datos pero no establecer causalidades. Si se entrena la red neuronal junto con una IA de razonamiento causal, puede conseguirse un sistema que pueda explicar sus decisiones. Este tipo de desarrollos pueden consultarse en el MIT Technology Review.

Comentarios cerrados