Hybris de la Inteligencia
Artificial y su Némesis
La IA como
símil prometeico de la chispa robada a los dioses,
si no se
diseña y utiliza con límites se convertirá en apocalíptico incendio.
Su
némesis será la frontera de aquello que quiso sustituir,

Imagen generada con IA
la
fragilidad, inteligencia, memoria y dignidad de lo humano.

Dr.
Xavier A. López y de la Peña
La disciplina científica que se ocupa de crear programas informáticos
que ejecutan operaciones comparables a las que realiza la mente humana, como el
aprendizaje o el razonamiento lógico, es la que se ha dado en llamar
Inteligencia Artificial (IA), término acuñado en 1955 por John McCarthy,
profesor asociado de matemáticas en el Dartmouth College, EUA, al organizar un
panel de ideas para desarrollar “máquinas pensantes”.
La IA podría equipararse entonces como un
instrumento tecnológico que llamaríamos prometeico. De Prometeo, el
ingenioso Titán mitológico griego que trajo el fuego robado a los dioses para dárselo
a la humanidad, por lo que se le simboliza entonces como figura bienhechora y protectora
de los mortales, de la prosperidad el progreso y la civilización.
Sin
embargo, el enorme potencial que nos ofrece esta IA puede caer en una
catastrófica hybris tecnológica, esto es, el creer que podemos
controlarlo todo.
Etimológicamente el vocablo hybris proviene
del griego antiguo ὕβρις (hýbris), que significa arrogancia, altanería,
insolencia, desmesura, exceso o desenfreno. Se asociaba con el verbo υβρίζω
(hybrízō), que implicaba un comportamiento arrogante, la provocación y el
insulto hacia otros, así como la transgresión de los límites humanos y divinos,
llevando a la transgresión y a la ruina del individuo que cae en ella. Como
consecuencia actuaba entonces la diosa de la mitología griega Némesis, diosa de
la justicia retributiva que se encargaría de castigar dicho descontrol o
desenfreno: la hybris.
Su némesis entonces, sería la consecuencia de
su exceso y defectos con respuestas varias como -entre otras-, la pérdida de
autonomía humana, desigualdad económica y social extrema, o de tecnologías
fuera de control.
De entrada, la IA ya tiene su némesis en
problemas externos e internos que ponen en jaque su desarrollo:
Entre los primeros está la enorme demanda de
energía, agua e insumos que se requieren para su operación y puesta en marcha.
De hecho, la Agencia Internacional de la Energía estima que el consumo mundial
de electricidad de los centros de datos computacionales tendrá una cifra que
podría superar los 1,000 Tera vatios-hora (TWh) en 2026, lo que representa aproximadamente
el equivalente a todo el consumo eléctrico de Japón.
Un informe de 2024 estimó que, en 2023, los centros
de datos de EU consumieron 64 mil millones de litros de agua directamente a
través de la refrigeración; simplemente en 2022, Google utilizó 19,700 millones
de litros (5200 para refrigerar sus centros de datos y proyecta que para 2028,
esas cifras podrían duplicarse, o incluso cuadruplicarse.1
En cuanto al costo de insumos se estima que el chip
cuántico de Google Sycamore, una de las tecnologías de procesamiento cuántico
de Google, tuvo un costo superior a los 50 millones de dólares para su
desarrollo y, además, no está a la venta.
En el terreno ético, su némesis se da en
primer lugar cuando reemplaza vínculos humanos esenciales en la socialización, educación,
cuidado, creatividad, innovación y otras que contribuyen a la pérdida de lo inherentemente
humano como núcleo de la civilización; cuando se le utiliza para explotar
vulnerabilidades como ocurre con la pornografía no consentida o la manipulación
emocional en varios órdenes; cuando produce injusticias como la discriminación,
inequidad y cuando se generan datos sesgados que pueden conducir al racismo,
sexismo o sectarismo.
Socialmente la IA
tiene como némesis diversas reacciones humanas frente a sus abusos como lo
es la desconfianza pública y el rechazo ante las llamadas deepfakes (imágenes,
audios o videos manipulados o creados utilizando IA) y la manipulación
electoral y el surgimiento de varios movimientos culturales como la defensa del
arte humano frente a la creación automatizada.
Por ejemplo, la IA llamada generativa tiene
la capacidad de crear algo nuevo y original a partir de los datos que ha
aprendido -de múltiples autores-, ya en imágenes, audio, video o código, basado
en un modelo denominado deep learning o aprendizaje profundo, para generar
respuestas, ideas o elementos completamente nuevos en lugar de simplemente
procesar o analizar información existente, pero sin que en ello intervengan
vivencias o experiencias, emociones o intenciones; es pues una máquina que crea
emulando y combinando patrones sin sentido humano. Es, de esta manera, un
producto de “creatividad algorítmica”2 sin alguna intencionalidad ni emotividad humana.
La IA aplicada particularmente en el campo de la
salud modela una frontera emergente y prometedora, pero, sin embargo, plantea
múltiples y serios desafíos bioéticos trascendentes a saber:
En primer lugar, está la despersonalización en la
atención y el cuidado médico. La IA puede afectar el contacto interpersonal
paciente-médico rompiendo la comunicación bidireccional y empática entre ellos,
eliminando el vínculo vivencial-emocional terapéutico en detrimento de su
atención y promoción al bienestar.
Confidencialidad y privacidad en los datos de salud.
Se mantiene latente la preocupación de cómo mantener y proteger estos datos
extremadamente sensibles ante el riesgo de que pudieran ser hackeados o
utilizados sin el consentimiento adecuado del sujeto y que pudieren ser
utilizados para discriminar o explotar en contextos de los seguros de salud o
empleos.
También existen barreras en la claridad y
transparencia acerca de las conclusiones que la IA ofrezca para tomar
decisiones en situaciones de salud críticas, como consecuencia de posibles
sesgos u omisiones en la programación que pudieran haberle dado sus propios
desarrolladores y la dificultad de entender, cabalmente, cómo demonios la
máquina llegó a llegar a estas decisiones. Aún más, ¿quién se responsabilizará
por ello si el resultado del diagnóstico o el tratamiento fueron inapropiados?
La posibilidad de
manipular con la IA datos de salud para favorecer ciertos intereses
corporativos para promover el empleo de medicamentos o procedimientos médicos
innecesarios (consultas “preventivas”, análisis de laboratorio o de gabinete
varios) también están en la mira.
Para otorgar un consentimiento
informado ¿Cómo se puede garantizar que el paciente comprenda y consienta
de manera correcta en uso de la IA en su diagnóstico y tratamiento? Se abre
entonces la posibilidad de dar entrada a un paternalismo tecnológico en
la atención de la salud priorizando la decisión “algorítmica” sobre la
autonómica humana.
El empleo de la IA por
su altísimo costo actualmente tampoco está al alcance de todos, particularmente
en países en vías de desarrollo y poblaciones vulnerables por lo que se hace
necesario que se implementen políticas públicas que fomenten la distribución
equitativa de la tecnología para garantizar que se eliminen las disparidades en
la salud frente a esta novedosa herramienta.
Es necesario también
intervenir en la regulación de la mejora humana cognitiva y física con empleo
de la IA con limitaciones en la modificación o mejoría de las capacidades
humanas más allá del tratamiento de enfermedades, como el caso de la mejora
cognitiva o el uso de tecnologías para modificar genéticamente a un paciente.
¿En dónde quedan la
responsabilidad y el control legal con el uso de la IA? ¿En el desarrollador,
en el proveedor, en el profesional de la salud que lo utiliza o en el propio
paciente?
¿Quién cubre los daños
y los compensará?
Dicho de otra manera, la némesis despierta y
alerta sobre la necesidad de frenar, corregir o incluso prohibir ciertos usos
de la IA. No es un único enemigo externo el que tiene, sino un conjunto de
límites naturales, éticos, sociales y tecnológicos que emergen como respuesta a
su propia hybris determinada en su crecimiento acelerado.
Además, la infraestructura de la IA puede ser
susceptible a fallos involuntarios o ataques premeditados lo que puede
llevarnos a un “apagón digital” que interrumpiría servicios tan esenciales como
agua, transporte y hospitales; bloqueo en la comunicación y la información que
paralizaría la actividad económica; pérdida de datos de gran importancia, daños
a la cadena de suministros y a varios servicios tecnológicos entre ellos
interconectados.
Los riesgos de un apagón digital son generalizados e
incluyen la interrupción de servicios esenciales (agua, transporte,
hospitales), la pérdida de acceso a información y comunicaciones, la
paralización de la actividad económica y la potencial violación de derechos
fundamentales como la libertad de expresión. Un apagón también puede causar
pérdidas de datos, fallos en la cadena de suministro y un impacto económico
severo, además de exponer la vulnerabilidad de los sistemas tecnológicos
interconectados. Por ello, la Agencia Europea de Ciberseguridad subraya que los
sistemas energéticos del futuro deberán ser más resilientes, incorporando
fuentes de energía descentralizadas (como microrredes solares o baterías
comunitarias) para evitar apagones totales, entre otras medidas urgentes.3
Finalmente deberemos no olvidarnos que ya desde el
año 1968, en pleno apogeo del movimiento contracultural, el filósofo y
novelista estadounidense Theodore Roszak expresaba sus ideas sobre el papel de
la ciencia y la tecnología en el mundo contemporáneo; aplicable ahora en
nuestro caso a la IA diciendo:
Cualesquiera que sean las aclaraciones y los
adelantos benéficos que la explosión universal de la investigación produce en
nuestro tiempo, el principal interés de quienes financian pródigamente esa
investigación seguirá polarizado hacia el armamento, las técnicas de control
social, productos comerciales, la manipulación del mercado y la subversión del
proceso democrático a través del monopolio de la información y el consenso
prefabricado.4
Liberémonos -en la medida de lo posible- del llamado
Síndrome de Frankenstein que se refiere al temor de que las mismas
fuerzas utilizadas por el ser humano para controlar la naturaleza se vuelvan
contra nosotros, destruyendo a la humanidad,5 por ello digamos:
Escúchame IA.
Yo, tu Némesis, no soy tu enemiga,
soy tu frontera.
Y en esa frontera,
se medirá la grandeza de la humanidad que te creó.
1. https://www.eleconomista.com.mx/arteseideas/china-toma-delantera-llevar-inteligencia-artificial-espacio-20250526-760733.html
2 . Ricardo Martínez.
Inteligencia artificial: transforma el arte y redefine la creatividad.
noviembre 15, 2024.
https://unamglobal.unam.mx/global_revista/inteligencia-artificial-transforma-el-arte-y-redefine-la-creatividad/
3. https://es.gizmodo.com/apagones-en-la-era-digital-que-tan-vulnerables-somos-realmente-2000162872
4 . The Making of a Counterculture; From
Satori to Silicon Valley is based on Roszak's 1985 Alvin Fine Memorial
Lecture at San Francisco State University.
5. https://es.wikipedia.org/wiki/S%C3%ADndrome_de_Frankenstein
No hay comentarios:
Publicar un comentario