TribunaGigi Rancilio

Inteligencia artificial, ante el miedo o la indiferencia

La irrupción de la inteligencia artificial en prácticamente todos los aspectos de la vida lleva a cada uno de nosotros a preguntarnos qué posición adoptar ante el cambio de época que resulta de la aplicación extensa de herramienta. 

7 de enero de 2024·Tiempo de lectura: 6 minutos
inteligencia artificial

«Inteligencia artificial y paz». El tema elegido por el Papa Francisco para la Jornada Mundial de la Paz del 1 de enero de 2024 encierra tres palabras que han cobrado más actualidad que nunca en el último año. Desde que el mundo conoció ChatGPT en noviembre de 2022, el término inteligencia artificial no sólo se ha vuelto familiar para todos, sino que ha entrado (a veces, vuelto) a formar parte de reflexiones éticas, conferencias, artículos y análisis.

Tras años en los que lo digital se consideraba «sólo cosa de expertos», todos nos hemos dado cuenta de lo profundamente que afecta a la vida de todos. Sin embargo, nunca se habla lo suficiente de la paz. Porque en el mundo, como nos ha recordado repetidamente el Papa Francisco, la tercera guerra mundial hace tiempo que se libra a pedazos. Y en particular dos de sus trozos, Ucrania y Oriente Medio, en Europa los sentimos muy cercanos.

Obviamente -y no por casualidad- el Papa Francisco ha querido poner cerca la inteligencia artificial y la paz para señalarnos un peligro muy real: “las nuevas tecnologías están dotadas de un potencial perturbador y de efectos ambivalentes”. Todos nos hemos dado cuenta ya de ello, especialmente en el último año: “Los notables progresos realizados en el campo de la inteligencia artificial tienen un impacto cada vez más profundo en la actividad humana, en la vida personal y social, en la política y en la economía”.

No todo el mundo lo entiende, pero lo que está ocurriendo en el mundo digital es un doble desafío: por un lado, económico y de poder (quien gestione los grandes sistemas de Inteligencia Artificial gestionará de hecho partes importantes del mundo), y por otro cultural, social y antropológico. Quien crea un sistema de Inteligencia Artificial sabe muy bien que una de las cosas que debe tratar de evitar es entrenar a las máquinas con sus propias ideas preconcebidas, no sólo culturales.

Ya hoy existen sistemas que deforman la realidad y hacen “arraigar la lógica de la violencia y la discriminación (…) a costa de los más frágiles y excluidos”. Si lo pensamos bien, el mundo necesita que el uso de las inteligencias artificiales se haga de forma responsable, “para que estén al servicio de la humanidad y de la protección de nuestra casa común (…). La protección de la dignidad de la persona y el cuidado de una fraternidad verdaderamente abierta a toda la familia humana son condiciones indispensables para que el desarrollo tecnológico contribuya a promover la justicia y la paz en el mundo”.

Es imposible no estar de acuerdo con las palabras del Papa Francisco.Pero es igualmente imposible, después de leerlos, no preguntarse: ¿qué puedo hacer yo a mi pequeña manera para que sean fructíferos? No todos somos expertos en estos temas. Y no todos podemos hacernos oír por quienes tienen que tomar decisiones al respecto. Es más, no es raro que muchos se sientan tan alejados de estas cosas que deleguen «en los expertos» cada razonamiento, cada decisión, cada palabra sobre cuestiones tan complejas.

Desde este punto de vista, los europeos tenemos más suerte que otros pueblos. Tras más de 36 horas de negociaciones, el pasado 9 de diciembre, la Comisión Europea, el Consejo de la Unión Europea y el Parlamento llegaron a un acuerdo sobre el texto de la llamada AI Act, la ley europea sobre inteligencia artificial. Se trata del primer marco normativo del mundo sobre sistemas de Inteligencia Artificial.

El primer objetivo es garantizar que los sistemas de inteligencia artificial comercializados en Europa y utilizados en la UE sean seguros y respeten los derechos y valores fundamentales de la UE. Para ello se ha ideado un sistema que divide los sistemas de Inteligencia Artificial en función de su riesgo. El máximo se refiere a los sistemas de inteligencia artificial que operan en sectores de utilidad pública y neurálgicos como el agua, el gas, la electricidad, la sanidad, el acceso a la educación, la aplicación de la ley, el control de fronteras, la administración de justicia y los procesos democráticos, así como la contratación.

Los sistemas biométricos de identificación, categorización y reconocimiento de emociones también se consideran de alto riesgo. Lo que ha hecho Europa es un paso importante y que orientará (al menos en parte) la regulación que están debatiendo otras grandes potencias como Estados Unidos. ¿Todo bien, entonces? Sí y no. Porque es cierto que este es uno de los caminos correctos a seguir en el planteamiento de la Inteligencia Artificial, pero no es menos cierto que otras realidades del mundo, orientales, rusas y africanas, sobre todo, parecen empeñadas en salirse de estas reglas.

Porque, como hemos escrito, se trata de un reto económico (que ya mueve billones de dólares) pero también -y sobre todo- de poder. Porque más allá del éxito de chatbots como ChatGPT, ya hay tres mil sistemas en nuestras vidas que utilizan la inteligencia artificial y la están gobernando y, en algunos casos, dirigiendo. En palabras del sociólogo Derrick de Kerckhove, uno de los mayores expertos en cultura digital y nuevos medios, “la IA es poderosa y eficaz en muchísimos campos, desde la medicina a las finanzas, desde el derecho a la guerra. Supera lo humano con el algoritmo y crea una separación radical entre el poder del discurso humano y el poder del discurso hecho de secuencias de cálculos”.

En resumen, el uso de la Inteligencia Artificial nos está cambiando. Cambia nuestra forma de movernos (cada vez somos más perezosos y buscamos atajos fáciles) y hasta cierto punto incluso nuestro razonamiento. Nos empuja hacia un sistema binario, de 0 y 1, de blancos y negros y opuestos, eliminando gradualmente todos los matices intermedios.

Por no hablar de cómo la Inteligencia Artificial puede empujarnos en una determinada dirección aprovechando nuestros sesgos cognitivos. Y aquí vuelven con fuerza las palabras del Papa: «las nuevas tecnologías están dotadas de un potencial perturbador y de efectos ambivalentes». Con la Inteligencia Artificial, anunció Bill Gates, “podremos vencer el hambre en el mundo”, mientras que, en muchos hospitales, incluidos los italianos, ya se utiliza para comprender mejor ciertas enfermedades, a fin de tratarlas y prevenirlas con mayor eficacia.

Los ejemplos positivos son numerosos y afectan a casi todos los ámbitos. Incluso en el ámbito católico, hay quien ha intentado educar a los ChatGPt para que puedan crear homilías valiosas. El resultado, en este último caso, ha sido poco más que suficiente pero lo suficientemente bueno como para escandalizar a algunos sacerdotes y hacer reflexionar a algunos fieles sobre cómo muchas homilías dominicales no son, por desgracia, mejores que las de ChatGPT.

Es cierto que hablamos de máquinas, pero quienes las entrenan, piensan y crean, y quienes interactúan con ellas, a través de comandos (los llamados prompts), son personas.

Al final, hay dos pequeñas verdades que debemos tener siempre presentes cuando leemos y hablamos de inteligencia artificial. La primera es que las cosas cambian tan deprisa en este campo que cada vez lo que escribimos corre el riesgo, al menos en parte, de verse superado por los hechos. La segunda es que cada uno de nosotros, incluso los que admiten saber muy poco, aborda el tema con su propia idea en mente.

Una idea preconcebida que es también el resultado de los libros que hemos leído, las películas y las series de televisión que hemos visto: de las novelas de Asimov a las reflexiones de Luciano Floridi, de 2001: Una odisea del espacio y Terminator a los últimos episodios de Black Mirror. Y cada vez, nuestro mayor temor es siempre el mismo: convertirnos en esclavos de las máquinas y/o llegar a ser como máquinas, renunciando a nuestra humanidad en cualquiera de los dos casos.

Al fin y al cabo. si el mundo no descubrió la existencia de la inteligencia artificial hasta noviembre de 2022, se lo debemos a que la llegada del ChatGPT nos ha mostrado la existencia de una máquina que hace (aunque sería mejor decir: nos engaña para que hagamos) cosas que hasta hace poco eran prerrogativa sólo de los hombres. A saber, escribir, dibujar, crear arte y dialogar. Por eso, cada vez que ChatGPT u otra IA comete un error, se nos dibuja una sonrisa en la cara y respiramos hondo. Es señal de que, por un tiempo todavía, estaremos a salvo.

En el otro lado, ya hay quien está creando armamento comandado por inteligencia artificial. Auténticas máquinas de guerra que sólo saben matar y no tienen culpa. Más aún: precisamente porque parecen actuar de forma autónoma, borran el sentimiento de culpa en quienes las crearon y en quienes las pusieron en el campo de batalla. Como si dijeran: no he sido yo quien ha matado, ha sido la máquina. Por tanto, la culpa es sólo suya.

Nadie sabe exactamente qué futuro nos espera, pero no pasa un día sin que alguien haga anuncios que suenan ominosos. Uno de los últimos se refiere a la Agi, o inteligencia general artificial. Se trata de la próxima evolución de la inteligencia artificial. Según Masayoshi Son, consejero delegado de SoftBank y gran experto en tecnología, “llegará dentro de diez años y será al menos diez veces más inteligente que la suma total de toda la inteligencia humana”. La confirmación también parece venir de Open AI, creadora de ChatGPT.

La empresa ha anunciado que está formando un equipo dedicado a gestionar los riesgos asociados al posible desarrollo de una inteligencia artificial capaz de cruzar el umbral de lo aceptable y convertirse en «superinteligente». Si cree que estas fronteras son ciencia ficción, debe saber que un grupo de científicos de la Universidad John Hopkins se ha preguntado: ¿y si en lugar de intentar que la inteligencia artificial se parezca a la humana, hiciéramos lo contrario, es decir, transformáramos partes del cerebro humano como base de los ordenadores del futuro?

Esta técnica se denomina inteligencia organoide (IO) y utiliza cultivos tridimensionales de células neuronales obtenidas en el laboratorio a partir de células madre. Porque si bien es cierto que las inteligencias artificiales procesan datos y números mucho más rápido que los humanos, nuestros cerebros siguen siendo muy superiores a la hora de tomar decisiones complejas y basadas en la lógica.

Y aquí volvemos a la pregunta planteada hace muchas líneas: ¿qué podemos hacer cada uno de nosotros ante todo esto? En primer lugar, tomar conciencia de que el ciudadano de los años 2000 y el cristiano de los años 2000 deben interesarse por estos cambios. Sin alarmismo, pero con la conciencia de que estamos ante cambios de época.

El autorGigi Rancilio

Periodista de “Avvenire”

Newsletter La Brújula Déjanos tu mail y recibe todas las semanas la actualidad curada con una mirada católica
Banner publicidad
Banner publicidad