
Hemos leído en diversos medios que el cambio climático no es neutro, puesto que afecta a quienes menos lo provocan. En marzo de 2025, las redes sociales se inundaron con imágenes creadas por ChatGPT al estilo de las películas del Studio Ghibli. La nueva función, celebrada por su creatividad, pronto despertó polémica: no sólo reavivó debates sobre derechos de autoría, sino que puso en evidencia el enorme impacto ambiental de estas aplicaciones. Según cálculos recientes, tan sólo en una semana de operación la plataforma habría consumido 216 millones de litros de agua para sostener la infraestructura que permite generar esos contenidos (Meza Capcha, 2025).
Este dato nos obliga a preguntarnos: ¿qué responsabilidad tienen las empresas —y también las personas usuarias— sobre los costos ambientales de estas tecnologías? ¿Cómo se informa a quien usa la inteligencia artificial IA sobre las implicaciones ambientales de cada clic, cada consulta, cada imagen generada? Y, sobre todo, ¿a quiénes terminan afectando estos costos?
La preocupación no es nueva. Ya en 2017, Greenpeace advertía sobre la “huella energética” de Internet, señalando los altos costos de sus centros de datos, la fabricación de equipos y la infraestructura necesaria para mantenerlos (Greenpeace, s.f.). Hoy, el reto se ha intensificado: para 2030, los centros de datos de inteligencia artificial podrían consumir hasta 4.5% de toda la energía generada en el mundo (Gaspar, 2024).
A esto se suma la “huella hídrica”. En teoría, los centros de datos podrían enfriarse mediante aire, pero el método más común —y más barato energéticamente— sigue siendo el agua. En zonas afectadas por crisis hídricas, como ocurrió en Chile con la suspensión judicial de un centro de datos de Google (Mazumdar, 2024), esta demanda genera conflictos socioambientales y pone en riesgo derechos básicos como la salud, la alimentación y el acceso al agua. Aquí se revela una primera dimensión de desigualdad: en contextos de escasez, son las mujeres quienes suelen asumir mayores cargas para procurar agua para sus hogares, quienes ven su salud afectada por la contaminación y quienes tienen menos posibilidades de acceder a los beneficios económicos que promete la tecnología.
Desde una perspectiva ética, la UNESCO propuso en 2022 algunos principios para regular la IA. Entre ellos destacan la transparencia y explicabilidad de los sistemas, que permitirían a las y los usuarios conocer su funcionamiento, decidir informadamente y exigir responsabilidades (UNESCO, 2022). También subraya la obligación de los Estados y las empresas de evaluar el impacto ambiental directo e indirecto de la IA a lo largo de todo su ciclo de vida, incluyendo la huella de carbono, el consumo energético y la extracción de materias primas.
En este contexto, la bioética principialista —con sus cuatro pilares: autonomía, beneficencia, no maleficencia y justicia— ofrece un marco para analizar los dilemas que plantea el uso de la IA sobre el medio ambiente y para problematizar quién paga el costo de este desarrollo.
El principio de autonomía exige información clara y accesible para que las personas usuarias puedan decidir si utilizar una aplicación y asumir sus implicaciones. Pero si la información es opaca, quienes consumen quedan privadas de su derecho a decidir informadamente, y las comunidades afectadas no tienen margen para defender sus territorios ni para plantear alternativas.
El principio de beneficencia, vinculado al derecho a gozar de los beneficios del progreso científico, obliga a preguntarnos: ¿quién decide qué es un “beneficio”? ¿Las mujeres rurales que enfrentan crisis hídricas se benefician por igual que los directivos de las empresas tecnológicas?
El principio de no maleficencia invita a no dañar a otras y otros con nuestras acciones, aunque el daño sea indirecto. En países con estrés hídrico, la construcción indiscriminada de centros de datos podría vulnerar derechos humanos fundamentales, profundizando desigualdades de género y clase. Finalmente, el principio de justicia nos recuerda que los beneficios y los costos ambientales no suelen distribuirse de manera equitativa: las mujeres, los pueblos indígenas, las comunidades rurales y las economías del Sur Global suelen pagar las consecuencias de un desarrollo tecnológico que no las incluye ni las consulta.
Las discusiones en torno a la inteligencia artificial durante la COP28 (2023) y COP29 (2024) han puesto sobre la mesa estas tensiones: por un lado, la IA podría ser una herramienta poderosa para mitigar los efectos del cambio climático; por otro, su desarrollo desregulado puede profundizar desigualdades y dañar el ambiente. La llamada “Declaración de la COP29 sobre la Acción Digital Verde” insistió en la necesidad de promover prácticas digitales sostenibles e informar a las personas usuarias sobre las consecuencias de su consumo digital (United Nations, 2024).
En esa misma línea, el Acuerdo de Escazú y los Principios Rectores sobre las Empresas y los Derechos Humanos señalan que el acceso a la información y la transparencia son esenciales para que las sociedades puedan exigir cuentas y ejercer sus derechos ambientales. Incluso la Corte Interamericana, en su Opinión Consultiva 32/2025, subraya la obligación de los Estados de producir y divulgar datos ambientales para guiar la toma de decisiones y garantizar justicia climática.
Sin criterios claros para evaluar el impacto ambiental de los sistemas de IA —huella hídrica, gasto energético, emisiones—, corremos el riesgo de caer en el greenwashing: una narrativa “verde” que maquilla prácticas insostenibles y desinforma a la ciudadanía (De Freitas Netto et al., 2020).
La anécdota del ChatGPT convertido en Ghibli nos deja una lección: urge repensar nuestra relación con la tecnología, exigir información clara sobre sus impactos ambientales y asumir nuestra responsabilidad como usuarias. Y en esa reflexión cabe preguntarse también: ¿por qué seguimos invisibilizando las voces de quienes más sufren estos impactos? ¿No sería deseable que, así como aceptamos las cookies cada vez que entramos a un sitio web, también apareciera un aviso sobre la huella ambiental de la aplicación? ¿Tendría sentido imponer un impuesto ambiental que pudiera financiar proyectos de conservación y reparación dirigidos a las comunidades más afectadas?
Aunque en países como México no exista aún una regulación específica de la IA, contamos con un andamiaje normativo internacional en derechos humanos y ambiente que obliga a empresas y gobiernos a actuar con transparencia, rendición de cuentas y precaución. Aprovecharlo no sólo es posible: es indispensable si queremos que el desarrollo tecnológico sea compatible con la protección del planeta y con la justicia social y de género.
María de Jesús Medina Arellano
Investigadora del Instituto de Investigaciones Jurídicas de la UNAM. Nivel II del Sistema Nacional de Investigadoras, SECIHTI, México. Doctora en Bioética y Jurisprudencia Médica por la Universidad de Manchester en Reino Unido. Asociada del Colegio de Bioética, A.C.
Paulina Elisa Lagunes Navarro
Investigadora del INFOTEC, Centro de Investigación e Innovación en Tecnologías de la Información y Comunicación. Doctora en Derecho por la Universidad Cristóbal Colón.
El artículo de María de Jesús Medina Arellano y Paulina Elisa Lagunes Navarro logra algo poco común: unir la reflexión ética con datos duros y ejemplos concretos que sacuden la comodidad con la que solemos relacionarnos con la tecnología. Conectan el uso cotidiano de la IA con las desigualdades ambientales y sociales que puede provocar, recordándonos que cada “clic” tiene un costo real que casi nunca vemos. Es un texto que no sólo informa, interpela, cuestiona y llama a asumir responsabilidad colectiva.
Felicidades a ambas autoras por construir un análisis riguroso, sensible y valiente, capaz de poner en el centro lo que muchas veces queda fuera de la conversación: la justicia ambiental y la dignidad de las comunidades más vulnerables.
Queridas Marichuy y Paulina:
Tocan ustedes con gran acierto el talón de Aquiles de la inteligencia artificial. El asunto no es menor y ya está teniendo un impacto enorme en las comunidades en las que se asientan los centros procesadores de datos de las compañías desarrolladoras de estos sistemas. Y además, como ustedes lo enfatizan en su texto, ese impacto negativo recae con mayor dureza en las personas con menos recursos y/o que son parte de poblaciones vulnerables por diversas causas, lo que no debería sorprendernos puesto que suele suceder así: «el hilo se rompe por lo más delgado». Como complemento, he aquí un texto que hoy publica el periódico español El País:
https://elpais.com/tecnologia/2025-07-31/el-patio-trasero-de-la-ia-un-mapa-de-la-fiebre-del-oro-del-siglo-xxi.html
Muchas felicidades por su texto tan valioso y pertinente.