Deckard: “Bésame”.
Rachel:“No sé”.
Deckard:“Tú dime, bésame”.
—Blade Runner (Ridley Scott, 1982)

La idea de que el desarrollo científico terminará desplazando a nuestra especie no es reciente, pero desde la presentación de los más primitivos robots la sensación ha crecido. El debut social de la Inteligencia Artificial interactiva (ChatGPT4) ha despertado un explosivo interés que está plenamente justificado. En mi percepción, la humanidad ha llegado a una nueva frontera en su evolución, y no hay más que seguir adelante. El asunto es extraordinario, complejo y abrumador. También indetenible, llegó y sólo puede crecer. Como en otros momentos fundamentales de nuestra historia, el descubrimiento del lenguaje, de la escritura, el establecimiento de la agricultura o la revolución industrial, la Inteligencia Artificial (IA), se está incorporando a nuestra forma de vida y tendrá un altísimo impacto en nuestra evolución.

Estamos en el más temprano capítulo de esta historia y continuaremos juntos al futuro (humanos y replicantes) para bien o para mal. Podría ser que en sentido estricto todavía dependa de nosotros cuál será el rumbo de esta relación, entre Inteligencia Artificial, con todo lo que implica (machine learning, redes, etc.) y nuestra especie.

Ilustración: Patricio Betteo
Ilustración: Patricio Betteo

Desde luego, por ahora privan el desorden, miedo y la confusión. Se escuchan diversas opiniones, que van desde el llamado de los dueños del mundo —Elon Musk y otros multibillonarios— por una moratoria que debería hacernos pensar que la irrupción en todos los celulares y ordenadores del mundo de ChatGPT es un asunto que puede afectar sus intereses (sus ganancias y control) al permitirse el acceso popular a una herramienta tan poderosa potencialmente. Por otra parte, tenemos la condescendiente opinión de los “expertos” en informática, que afirman, con una sonrisa de conmiseración, que en realidad Frankenstein no existió y es tan sólo una ridícula y desorbitada historia.

Lo cierto es que existen enormes riesgos que deben ser considerados y, en consecuencia, es necesario anticipar acciones. Universidades, sociedades de profesionistas, ciudadanos, investigadores debemos empujar a los legisladores para crear las regulaciones necesarias, con nuestra participación. Es ingenuo suponer que esta revolución ocurre sin consecuencias en temas de justicia, equidad, respeto, autonomía, y con oportunidades para todos. La pobreza continúa ampliándose cada vez más rápidamente, la explotación del planeta se acelera y el deterioro ambiental es imparable. Es evidente que necesitamos directrices bioéticas que deriven en normativas y regulaciones donde la IA podría ayudar a mitigar los desequilibrios, y programas para nuestra seguridad como especie y la del planeta.

En medicina, la IA se vislumbra como una posibilidad de incrementar el número de consultas, potencialmente disminuir los errores, y realizar intervenciones quirúrgicas complejas, entre otras muchas intervenciones. En principio, es cierto que un robot médico correctamente programado puede diagnosticar un catarro, una lesión maligna, o una anomalía metabólica y no prescribiría antibióticos innecesariamente en el tratamiento. Muy diversos procedimientos quirúrgicos son ejecutados con éxito por robots.

Desde hace tiempo se implementan las aplicaciones digitales en medicina; es necesario estudiar su impacto en el cuidado médico, sobre los enfermos y en la atención clínica. La relación paciente-médico, como hasta hoy la hemos concebido, será diferente. Enfatizo que el hombre o la mujer que enferman buscan en el cuidado médico más que diagnóstico y recetas. Las médicas y los médicos deberemos ampliar y afinar nuestras capacidades de acompañamiento para con las enfermas y los enfermeros, que han sido relegadas ante la presión asistencial. La empatía, la compasión, la reflexión volverían a ser temas predominantes en la relación médico-paciente, que con la incorporación de sistemas de atención robotizados podría reconstruirse.

La práctica clínica es mucho más que ordenar estudios de laboratorio y prescribir, o debería serlo. Tenemos entonces la oportunidad de mejorar el cuidado de los enfermos con sistemas complementarios de IA para ejecutar procedimientos, diagnóstico y tratamiento, con espacios para una relación en donde los médicos acompañemos el proceso del cuidado que se requiere para cumplir con el proceso de la atención médica. A pesar del sofisticado desarrollo de la IA, difícilmente los algoritmos cumplirán (por ahora) con lo que se requiere en términos de empatía y solidaridad implícitos en la atención y cuidado de los enfermos.

De tiempo atrás, la evolución de la relación médico–paciente se ha desdibujado en la práctica institucional, en donde las consultas hoy no tienen espacio para lograr una correcta comunicación. Esto podría mejorar si encontramos un equilibrio entre las acciones de la maquinaria cibernética y un espacio donde médicas y médicos dialoguemos con los enfermos y modulemos las recomendaciones algorítmicas.

Han pasado apenas ochenta años desde que Alan Turing postuló las bases del desarrollo computacional y hoy ya conversamos, discrepamos, bromeamos, analizamos, trabajamos y discutimos con y sobre ChatGPT y otros modelos de IA. Nuestra vida está inmersa en algoritmos que dirigen nuestras acciones a través del internet en nuestros correos electrónicos, mensajes de política, teléfonos, medios, vigilancia, finanzas, medicina, seguridad, viajes, y este es sólo el principio. Mientras trabajamos y utilizamos todos estos sistemas computarizados se alimenta el desarrollo del propio sistema, y es urgente tratar de modular su desarrollo.

Imaginar el futuro es el territorio de la ciencia ficción o ficción científica. Issac Asimov anticipó la necesidad de regular la interacción entre máquinas —cerebros positrónicos, los denominó— y humanos. En 1942 postuló las leyes de la robótica:

  1. Un robot no puede dañar a un ser humano ni, por inacción, permitir que un ser humano sufra daño.
  2. Un robot debe cumplir las órdenes de los seres humanos, excepto si dichas órdenes entran en conflicto con la Primera Ley.
  3. Un robot debe proteger su propia existencia en la medida en que ello no entre en conflicto con la Primera o la Segunda Ley

Las recuerdo aquí para enfatizar la necesidad urgente de reflexionar sobre nuestra responsabilidad de imaginar límites, fronteras, condiciones, que impidan o mitiguen un uso que represente riesgos o daños a los individuos y a nuestra especie. Es necesario discutir cómo debería encauzarse el desarrollo y nuestra relación con esta poderosa maquinaria, para trabajar juntos por un mejor futuro y no sólo para continuar fortaleciendo la acumulación de la riqueza.

En el proemio de este texto cito la escena donde el humano —Deckard— instruye a la replicante qué debe hacer en su interacción sexual. Ya no es impensable un futuro con replicantes inteligentes como los imagina Philip K. Dick, y se personifican en la película Blade Runner. Y tendremos que prepararnos para sobrevivir y convivir con ellos.

 

Samuel Ponce de León R.
Investigador emérito. Profesor de Medicina, UNAM.


Un comentario en “Blade Runner 2023

  1. Samuel Ponce de León hace un excelente recuento de las potenciales implicaciones de la IA, tanto positivas como negativas, así como la necesidad de regulación de su desarrollo y posterior utilización.
    Existen escritos alarmistas e hiperalarmistas al respecto y otros mesurados, como el de Ponce de León. Muchos hablan de una “total ausencia de reglas en el desarrollo de la IA”, incluso éticas, pero no es exacto. Hace 6 años, en 2017, varios científicos, pensadores y empresarios fueron convocados por Max Tegmark, cosmólogo del MIT, para discutir la problemática de la inteligencia artificial. De esa reunión derivó la enunciación de “los Principios de Asilomar” (por el lugar donde se llevó a cabo la reunión) los cuales se consideran reglas básicas de tipo epistémico y ético para el desarrollo de la inteligencia artificial general, la que realmente importa (https://futureoflife.org/person/asilomar-ai-principles/). Yo los interpreto como una expansión racional de los tres principios de Asimov que menciona Ponce de León en su escrito.
    Además, dicho grupo conformó una asociación denominada El Instituto de la Vida Futura (FLI o Future of Life Institute) cuyo
    objetivo declarado es de reducir los riesgos catastróficos y existenciales globales que enfrenta la humanidad, particularmente el riesgo existencial de la inteligencia artificial avanzada. Su misión declarada es de dirigir y empujar la tecnología transformativa hacia la producción de beneficio para la vida y alejar o evitar los riesgos de gran escala que pueden generar. También reflexiona sobre las preocupaciones derivadas del desarrollo de la biotecnología, del uso de armas nucleares y del cambio climático.
    En el mes de marzo pasado lanzaron una moratoria de seis meses para el desarrollo de AIG. También apoya la declaratoria lanzada en mayo por el Cenro para la Seguridad de la IA (CAIS por sus siglas en inglés)que reza así:
    “Mitigar el riesgo de una extinción debido a la IA debe ser una prioridad global a la par de otros riesgos sociales tales como las pandemias y la guerra nuclear”.
    Me parece que, para empezar, esta es una postura ética que todos debemos atender.
    La otra es dar importancia a la idea de Daniel Dennett de dejar de lado la absurda insistencia en querer “antropomorfizar” la IA, ya que lo único que traera es la creación de personas falsas ( https://www.theatlantic.com/technology/archive/2023/05/problem-counterfeit-people/674075/).
    Mas nos vale darnos cuenta del asunto desde ahora en que solo existe el ChatGPT; de otra forma podemos terminar en en un futuro no tan lejano como el “blade runner” Decker, queriendo enseñar a besar (y no se diga otras cosas…) a una máquina muy bien antropomorfizada.

Comentarios cerrados