Cristianisme i Justícia. Papeles nº 269. Autor: Xavier Casanovas Combalia.
A finales de 2022 se dio a conocer al gran
público el llamado ChatGPT, un software programado para reproducir el
lenguaje humano y con la capacidad
de responder a cualquier pregunta que se le plantee.
El hecho de que este software haya
aprendido a dar respuestas no prefijadas, gracias a un entrenamiento algorítmico mediante redes neuronales, sumado a la cantidad de información
que ha llegado a digerir han puesto la expresión inteligencia artificial (IA) en boca de todos. Tenemos una
herramienta capaz de escribir desde un poema romántico inédito al estilo de
Goethe hasta un trabajo académico en el que se comparen dos autores que nunca
han sido estudiados juntos y de hacerlo mejor que el 99 % de los mortales. Las preguntas que esto nos suscita son muchas: ¿Es realmente inteligente la IA?, ¿dónde radica su novedad?,
¿qué consecuencias puede tener su pularización?, ¿ayudará a mejorar nuestro mundo?, ¿qué podemos
esperar? Nos aventuramos, a continuación, a compartir algunas respuestas distintas de las que
nos proporcionaría ChatGPT.
El problema no reside
en la verdad, sino en la verosimilitud
Uno de los debates más importantes en torno a ChatGPT —y a todos
los modelos de lenguaje
extenso (LLM, por sus siglas en
inglés: Large Language Models)— no es si lo que dice es verdad o mentira, si se equivoca mucho
o poco, sino que ha logrado una verosimilitud total, logrando que la
conversación con el chat sea indistinguible de una conversación real. El teórico
Ramón López de Mántaras
lo escribía hace poco: el problema con ChatGPT es su antropomorfismo, que
nos hace caer en la falsa sensación de realismo. Nos lo creemos
no porque diga la
verdad o se acerque, sino porque imita a la perfección la conversación
humana, sus respuestas están muy bien escritas y transmite credibilidad. Pero
tengamos siempre presente que la IA ni sabe por qué sabe lo que sabe ni
entiende lo que dice o responde. Su respuesta busca simular el lenguaje humano
y, por tanto, después de una frase como «El mejor
jugador de fútbol de la historia es...» nos responderá aquello que
haya aprendido de frases similares escritas en internet, añadiendo a la frase
una palabra detrás de otra siguiendo criterios probabilísticos
y garantizando que lo que dice tiene sentido, pareciendo incluso que se ha forjado una opinión sobre ello. Pero
lo que hay detrás es, como ha descrito la profesora de lingüística computacional Emily Bender,
«un loro estocástico».
En verdad, ante una herramienta como esta, la confusión está garantizada y la posibilidad de utilizarla para
aprovecharse de nuestras vulnerabilidades aún lo está más. La IA aumenta de
forma notable lo que el mundo digital y las redes sociales iniciaron: la
posverdad. Las posibilidades de manipulación, de utilización no contrastada de
información, de chantaje emocional, nos obligan a una formación ciudadana que tenga criterios de discernimiento para poner bajo sospecha aquello que lee y haya interiorizado
suficientemente el sentido
común para distinguir si se está siendo
o no manipulado mediante la información que se recibe.
En definitiva, deberemos ser
más escépticos y menos confiados.
La irrupción de la
IA puede dar lugar a un giro epistémico definitivo en nuestra escala
de valores, en la cual la verdad deja de tener importancia y lo que cuenta
es la verosimilitud, es decir,
la apariencia de verdad.
Su insostenibilidad material
Gran parte del debate generado en torno a la IA tiene que
ver con el peligro de sus sesgos. Nos preocupa que, siendo la IA una caja negra
(no sabemos por qué dice lo que dice o hace lo que hace), acabe reproduciendo aquellas discriminaciones
que se dan de facto en la sociedad.
Pero es evidente que, si la IA es racista o
machista, lo será porque nuestra sociedad lo es. Ni la IA es autónoma ni podrá
sustituir nuestro juicio
moral; menos aún mejorarlo. La preocupación por el
sesgo de los algoritmos —pero sobre todo de los datos de los que se nutre—
participa de una gran ingenuidad tecno-optimista: la creencia de que la tecnología ha venido para
resolver nuestros dilemas morales, para convertirnos en mejores personas. No
podemos esperar más de la IA de lo que esperamos de nosotros mismos.
La segunda preocupación más extendida tiene
que ver con el hecho de que la IA
pueda sustituir definitivamente el trabajo humano. Un artículo reciente
publicado por Fortune exponía lo que se conoce como la paradoja de la productividad:
el cambio digital
introducido desde mediados de los noventa, contrariamente a lo que se esperaba,
no ha provocado grandes aumentos en la productividad. Es decir,
disponer de tecnología digital no nos hace más eficientes ni elimina realmente
lugares de trabajo; solo los transforma. Más bien, la pregunta que debemos formularnos es quién
se beneficia de estas tecnologías
y de qué manera permiten acumular cada vez más poder en menos manos.
Aquello que realmente tendría que ser motivo de debate, y es uno de los
temas de los que menos se ha hablado, es la insostenibilidad de la IA. Cuando se comenta
la cuestión con informáticos, lo que más les preocupa es la capacidad
computacional necesaria para entrenar y mantener la IA en funcionamiento: los
cálculos utilizados para entrenar redes neuronales se han multiplicado por cien
millones en los últimos diez años. A nosotros nos parece inocuo, casi mágico,
pero pedir a ChatGPT que te explique el chiste más divertido que conoce implica
una utilización de servidores, un consumo de energía y una cantidad de cálculos
que hacen inviable su uso extenso y universal. Un divertimento como este se
convierte en un coste computacional imposible de asumir a gran escala.
Una lectura antropológica y
teológica
La lectura más
interesante del fenómeno siempre cae del lado humano. Y nosotros, ¿cómo nos
relacionaremos con la IA? Hace poco, con los alumnos de un seminario sobre
pensamiento científico vimos un capítulo de la serie Black Mirror titulado «Be right back». Tiene exactamente diez años.
Una mujer joven pierde a su pareja. Una empresa ha desarrollado una tecnología
que permite, recuperando la información de la persona en videos, fotos y redes
sociales, simular una conversación por chat con el muerto, propuesta que más
adelante se convierte en una conversación telefónica y, finalmente, en un robot
idéntico a la persona muerta. Como podéis imaginar, el supuesto retorno del muerto
no llega a satisfacer en ningún momento a la persona viva, más bien al contrario:
la aísla, la desestabiliza y la incapacita para reprender su vida. La hunde aún
más en un pozo sin luz.
Esto ya es posible hoy.
Los LLM como los de ChatGPT permiten, dándole información al respecto, simular una
conversación por chat con cualquier persona fallecida, por ejemplo, con John
Fitzgerald Kennedy o Freddie Mercury. Otras herramientas ya desarrolladas pueden
tomar muestras de sus voces con cortes de tres segundos y simular a partir de
ellas una conversación sonora real. ¿Y ahora qué? Si esto ya es posible,
¿estamos obligados a desarrollarlo? Imaginad la cantidad de dinero que podría
conseguir un tipo de reclamo así: «¡Vuelve a hablar con tus muertos por
teléfono!». ¿Cuánta gente pagaría por este servicio? Estamos a pocos meses de
saberlo por macabra que nos suene la idea.
En este sentido, la mejor
reflexión al respecto me la compartió un alumno: «Es que a la mujer no se le ha
dado ni la oportunidad de superar el duelo». Aquí radica la cuestión más
relevante: la tecnología nos permite huir y no tener que enfrentarnos a
aquello que nos da miedo, nos amenaza o supone un reto vital. Pero eso
parte de una mala comprensión de la antropología humana: recordando a
Hölderlin, «donde hay adversidades nace aquello que nos salva». Queremos ahorrar
al humano tener que ser humano. No hacemos ningún favor a nadie negándole
la posibilidad del duelo en aquello que forma parte central de una vida. La muerte
de un ser querido puede ser la peor de las desgracias, pero la vida va exactamente
de esto. Como afirma Josep Maria Esquirol, no se trata de cerrar la herida infinita
que nos constituye, sino de aprender a «acompañar y responder a su exceso». Con
cada muleta tecnológica que añadimos a nuestro día a día, nos empequeñecemos y hacemos
más débiles, más incapaces; en definitiva, menos humanos.
No cabe ninguna duda
de que la IA participa de un cierto gnosticismo. Se trata de la vieja herejía
cristiana según la cual la salvación se puede alcanzar a través del conocimiento
y la iluminación. A la vez, se rechaza el mundo material e incluso el cuerpo, por
imperfecto. El culto a los datos,
la posibilidad de trascender nuestra vida mortal vaciándonos «en la nube» es,
de hecho, la versión contemporánea de la herejía gnóstica. Y es sobre todo la
ilusión de que una vez el cuerpo acaba nuestra alma se perpetúe, aunque sea a
base de bits. ¿Será la IA la puerta de entrada a la inmortalidad del alma? La tecnolatría como religión es el gnosticismo
del siglo xxi. Sea como sea no es lo mismo la resurrección de la carne que la
inmortalidad del alma. La primera no es ni será nunca posible; la segunda, ya
la tenemos al alcance gracias a un chat que puede hacer creíble la conversación
con personas muertas. Deberíamos protegernos de ello. En tiempos de secularización
extendida, donde nada está provisto de lo sagrado, la posibilidad de
trascendencia se ha trasladado al campo digital. Buscamos la salvación a través
de la tecnología. No la obtendremos. Lo que tendremos, más bien, será una
pesadilla de confusión, una desconexión de nuestro ser natural y la incapacidad
de entender la vida como seres finitos que somos.
Regular la IA y dotarnos de
herramientas para el discernimiento
Nadie niega que la IA puede
ser muy útil en aplicaciones de diagnóstico médico, de predicción climática o
de prevención de accidentes en la conducción. Ahora bien, no a cualquier
precio. Expresiones como «la IA ha venido para quedarse» o «la IA es neutra;
todo depende del uso que le des» forman parte de una mirada miope a lo que es e
implica la tecnología para nuestras vidas. La fascinación que genera la
tecnología a menudo viene acompañada de un discurso ingenuo, alimentado, a su
vez, por el interés de tanto dinero invertido que busca rentabilidad. La buena
noticia: aún estamos a tiempo de limitar las peores consecuencias, evitando
cualquier negocio con las vulnerabilidades del alma humana. La mala noticia:
una vez la tecnología está desarrollada transforma nuestro medio, y su simple
existencia ya ha cambiado la manera que tenemos de relacionarnos con el mundo.
El antídoto personal será
cultivar nuestra capacidad de discernimiento; esto es, saber lo que hacemos y
por qué lo hacemos: «Adónde voy y a qué», que se preguntaba San Ignacio. Solo
nuestra intencionalidad, el hecho de que nuestras acciones y palabras estén dotadas
de orientación, puede hacernos hoy diferentes a las máquinas. Y, como sociedad,
más nos vale que empecemos a regular con legislaciones y protocolos éticos cada
nuevo desarrollo digital, porque hay muchos millones invertidos esperando su retorno
económico y a punto para aprovecharse de todas nuestras debilidades. ¿Que quieres
volver a hablar por WhatsApp con tu hermana que murió el año pasado? Lo tenemos
a un clic. ¿Dejaremos que esto se desarrolle como un negocio? Espero que seamos
lo suficientemente inteligentes, perdón, lo suficientemente humanos como para
no permitir que esto suceda.
Xavier Casanovas Combalia Profesor de la Cátedra de Ética de IQS
Cristianisme i Justícia. Papeles nº 269. Septiembre de 2023. Suplemento
del Cuaderno CJ n. 234
Ediciones Rondas SL ISSN: 1135-7584 DL: B-45397-95
No hay comentarios:
Publicar un comentario