miércoles, 1 de octubre de 2025

Hybris de la IA y su Némesis.

 

Hybris de la Inteligencia Artificial y su Némesis 

La IA como símil prometeico de la chispa robada a los dioses,
si no se diseña y utiliza con límites se convertirá en apocalíptico incendio.
Su némesis será la frontera de aquello que quiso sustituir,
Imagen generada con IA

la fragilidad, inteligencia, memoria y dignidad de lo humano.


Dr. Xavier A. López y de la Peña

La disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico, es la que se ha dado en llamar Inteligencia Artificial (IA), término acuñado en 1955 por John McCarthy, profesor asociado de matemáticas en el Dartmouth College, EUA, al organizar un panel de ideas para desarrollar “máquinas pensantes”.
La IA podría equipararse entonces como un instrumento tecnológico que llamaríamos prometeico. De Prometeo, el ingenioso Titán mitológico griego que trajo el fuego robado a los dioses para dárselo a la humanidad, por lo que se le simboliza entonces como figura bienhechora y protectora de los mortales, de la prosperidad el progreso y la civilización.
            Sin embargo, el enorme potencial que nos ofrece esta IA puede caer en una catastrófica hybris tecnológica, esto es, el creer que podemos controlarlo todo.
Etimológicamente el vocablo hybris proviene del griego antiguo ὕβρις (hýbris), que significa arrogancia, altanería, insolencia, desmesura, exceso o desenfreno. Se asociaba con el verbo υβρίζω (hybrízō), que implicaba un comportamiento arrogante, la provocación y el insulto hacia otros, así como la transgresión de los límites humanos y divinos, llevando a la transgresión y a la ruina del individuo que cae en ella. Como consecuencia actuaba entonces la diosa de la mitología griega Némesis, diosa de la justicia retributiva que se encargaría de castigar dicho descontrol o desenfreno: la hybris.
Su némesis entonces, sería la consecuencia de su exceso y defectos con respuestas varias como -entre otras-, la pérdida de autonomía humana, desigualdad económica y social extrema, o de tecnologías fuera de control.
De entrada, la IA ya tiene su némesis en problemas externos e internos que ponen en jaque su desarrollo:
Entre los primeros está la enorme demanda de energía, agua e insumos que se requieren para su operación y puesta en marcha. De hecho, la Agencia Internacional de la Energía estima que el consumo mundial de electricidad de los centros de datos computacionales tendrá una cifra que podría superar los 1,000 Tera vatios-hora (TWh) en 2026, lo que representa aproximadamente el equivalente a todo el consumo eléctrico de Japón.
Un informe de 2024 estimó que, en 2023, los centros de datos de EU consumieron 64 mil millones de litros de agua directamente a través de la refrigeración; simplemente en 2022, Google utilizó 19,700 millones de litros (5200 para refrigerar sus centros de datos y proyecta que para 2028, esas cifras podrían duplicarse, o incluso cuadruplicarse.1
En cuanto al costo de insumos se estima que el chip cuántico de Google Sycamore, una de las tecnologías de procesamiento cuántico de Google, tuvo un costo superior a los 50 millones de dólares para su desarrollo y, además, no está a la venta.
En el terreno ético, su némesis se da en primer lugar cuando reemplaza vínculos humanos esenciales en la socialización, educación, cuidado, creatividad, innovación y otras que contribuyen a la pérdida de lo inherentemente humano como núcleo de la civilización; cuando se le utiliza para explotar vulnerabilidades como ocurre con la pornografía no consentida o la manipulación emocional en varios órdenes; cuando produce injusticias como la discriminación, inequidad y cuando se generan datos sesgados que pueden conducir al racismo, sexismo o sectarismo.
            Socialmente la IA tiene como némesis diversas reacciones humanas frente a sus abusos como lo es la desconfianza pública y el rechazo ante las llamadas deepfakes (imágenes, audios o videos manipulados o creados utilizando IA) y la manipulación electoral y el surgimiento de varios movimientos culturales como la defensa del arte humano frente a la creación automatizada.
Por ejemplo, la IA llamada generativa tiene la capacidad de crear algo nuevo y original a partir de los datos que ha aprendido -de múltiples autores-, ya en imágenes, audio, video o código, basado en un modelo denominado deep learning o aprendizaje profundo, para generar respuestas, ideas o elementos completamente nuevos en lugar de simplemente procesar o analizar información existente, pero sin que en ello intervengan vivencias o experiencias, emociones o intenciones; es pues una máquina que crea emulando y combinando patrones sin sentido humano. Es, de esta manera, un producto de “creatividad algorítmica”sin alguna intencionalidad ni emotividad humana.
La IA aplicada particularmente en el campo de la salud modela una frontera emergente y prometedora, pero, sin embargo, plantea múltiples y serios desafíos bioéticos trascendentes a saber:
En primer lugar, está la despersonalización en la atención y el cuidado médico. La IA puede afectar el contacto interpersonal paciente-médico rompiendo la comunicación bidireccional y empática entre ellos, eliminando el vínculo vivencial-emocional terapéutico en detrimento de su atención y promoción al bienestar.
Confidencialidad y privacidad en los datos de salud. Se mantiene latente la preocupación de cómo mantener y proteger estos datos extremadamente sensibles ante el riesgo de que pudieran ser hackeados o utilizados sin el consentimiento adecuado del sujeto y que pudieren ser utilizados para discriminar o explotar en contextos de los seguros de salud o empleos.
También existen barreras en la claridad y transparencia acerca de las conclusiones que la IA ofrezca para tomar decisiones en situaciones de salud críticas, como consecuencia de posibles sesgos u omisiones en la programación que pudieran haberle dado sus propios desarrolladores y la dificultad de entender, cabalmente, cómo demonios la máquina llegó a llegar a estas decisiones. Aún más, ¿quién se responsabilizará por ello si el resultado del diagnóstico o el tratamiento fueron inapropiados?
            La posibilidad de manipular con la IA datos de salud para favorecer ciertos intereses corporativos para promover el empleo de medicamentos o procedimientos médicos innecesarios (consultas “preventivas”, análisis de laboratorio o de gabinete varios) también están en la mira.
            Para otorgar un consentimiento informado ¿Cómo se puede garantizar que el paciente comprenda y consienta de manera correcta en uso de la IA en su diagnóstico y tratamiento? Se abre entonces la posibilidad de dar entrada a un paternalismo tecnológico en la atención de la salud priorizando la decisión “algorítmica” sobre la autonómica humana.
            El empleo de la IA por su altísimo costo actualmente tampoco está al alcance de todos, particularmente en países en vías de desarrollo y poblaciones vulnerables por lo que se hace necesario que se implementen políticas públicas que fomenten la distribución equitativa de la tecnología para garantizar que se eliminen las disparidades en la salud frente a esta novedosa herramienta.
            Es necesario también intervenir en la regulación de la mejora humana cognitiva y física con empleo de la IA con limitaciones en la modificación o mejoría de las capacidades humanas más allá del tratamiento de enfermedades, como el caso de la mejora cognitiva o el uso de tecnologías para modificar genéticamente a un paciente.
            ¿En dónde quedan la responsabilidad y el control legal con el uso de la IA? ¿En el desarrollador, en el proveedor, en el profesional de la salud que lo utiliza o en el propio paciente?
            ¿Quién cubre los daños y los compensará?
Dicho de otra manera, la némesis despierta y alerta sobre la necesidad de frenar, corregir o incluso prohibir ciertos usos de la IA. No es un único enemigo externo el que tiene, sino un conjunto de límites naturales, éticos, sociales y tecnológicos que emergen como respuesta a su propia hybris determinada en su crecimiento acelerado.
Además, la infraestructura de la IA puede ser susceptible a fallos involuntarios o ataques premeditados lo que puede llevarnos a un “apagón digital” que interrumpiría servicios tan esenciales como agua, transporte y hospitales; bloqueo en la comunicación y la información que paralizaría la actividad económica; pérdida de datos de gran importancia, daños a la cadena de suministros y a varios servicios tecnológicos entre ellos interconectados.
Los riesgos de un apagón digital son generalizados e incluyen la interrupción de servicios esenciales (agua, transporte, hospitales), la pérdida de acceso a información y comunicaciones, la paralización de la actividad económica y la potencial violación de derechos fundamentales como la libertad de expresión. Un apagón también puede causar pérdidas de datos, fallos en la cadena de suministro y un impacto económico severo, además de exponer la vulnerabilidad de los sistemas tecnológicos interconectados. Por ello, la Agencia Europea de Ciberseguridad subraya que los sistemas energéticos del futuro deberán ser más resilientes, incorporando fuentes de energía descentralizadas (como microrredes solares o baterías comunitarias) para evitar apagones totales, entre otras medidas urgentes.3
Finalmente deberemos no olvidarnos que ya desde el año 1968, en pleno apogeo del movimiento contracultural, el filósofo y novelista estadounidense Theodore Roszak expresaba sus ideas sobre el papel de la ciencia y la tecnología en el mundo contemporáneo; aplicable ahora en nuestro caso a la IA diciendo:
Cualesquiera que sean las aclaraciones y los adelantos benéficos que la explosión universal de la investigación produce en nuestro tiempo, el principal interés de quienes financian pródigamente esa investigación seguirá polarizado hacia el armamento, las técnicas de control social, productos comerciales, la manipulación del mercado y la subversión del proceso democrático a través del monopolio de la información y el consenso prefabricado.4
Liberémonos -en la medida de lo posible- del llamado Síndrome de Frankenstein que se refiere al temor de que las mismas fuerzas utilizadas por el ser humano para controlar la naturaleza se vuelvan contra nosotros, destruyendo a la humanidad,5 por ello digamos:

Escúchame IA.
Yo, tu Némesis, no soy tu enemiga,
soy tu frontera.
Y en esa frontera,
se medirá la grandeza de la humanidad que te creó.


1. https://www.eleconomista.com.mx/arteseideas/china-toma-delantera-llevar-inteligencia-artificial-espacio-20250526-760733.html
2 . Ricardo Martínez. Inteligencia artificial: transforma el arte y redefine la creatividad. noviembre 15, 2024. https://unamglobal.unam.mx/global_revista/inteligencia-artificial-transforma-el-arte-y-redefine-la-creatividad/
3. https://es.gizmodo.com/apagones-en-la-era-digital-que-tan-vulnerables-somos-realmente-2000162872
4 . The Making of a Counterculture; From Satori to Silicon Valley is based on Roszak's 1985 Alvin Fine Memorial Lecture at San Francisco State University.
5. https://es.wikipedia.org/wiki/S%C3%ADndrome_de_Frankenstein