La tecnología digital ha contribuido a la polarización. Al reforzar las ideas propias y desechar las ajenas, el algoritmo contribuye a que disminuya el dialogo y, así, se conozca menos lo que piensa el otro. Esta es una de las tesis que sostiene el franciscano Paolo Benanti en su último libro, El colapso de Babel, publicado por Encuentro. Pero la polarización no es ni mucho menos el único riesgo.
A principios de enero se sabía la polémica que ha surgido a raíz de que Grok, el modelo de IA de Elon Musk facilitaba la creación de imágenes de índole sexual a partir de imágenes que algunas mujeres habñian subido a la red social “X”.
Fray Paolo Benanti (Roma, 1973), teólogo moral, es uno de los máximos expertos mundiales en la ética de la Inteligencia Artificial (IA). Preside el grupo de trabajo de IA del gobierno italiano y de la comisión de expertos de la ONU sobre esta cuestión. Su punto de vista es especialmente autorizado para hablar sobre un tema de actualidad, que preocupa a gobiernos y a la sociedad.
La última vez que se le ha podido escuchar en España fue hace dos meses, en la Fundación Telefónica y en EncuentroMadrid, el evento anual que organiza Comunión y Liberación, en Cuatro Vientos (Madrid). En esta edición, Benanti habló precisamente sobre “La inteligencia artificial y la fabricación de lo eterno”.
¿Quién vigila la IA?
– Cuando hablamos de inteligencia artificial, no hablamos de una sola tecnología, sino de una familia de algoritmos, muy diferentes entre ellos. Alguno es muy explicable. Recuerda un poco a los primeros GPS. ¿Cuántas veces el GPS te dice que salgas por la derecha para volver a entrar inmediatamente después hacia la izquierda? Era inteligente, pero entendíamos que era inteligente porque era más corto. Esa inteligencia artificial hace un trabajo, que es lo mismo que una inteligencia natural haría.
Pero son una caja negra. Algunos de estos algoritmos pueden tener resultados mucho más inteligentes, pero son una caja negra.
La cuestión es: ¿Podemos usar todo tipo de algoritmos para todo tipo de funciones?
Este es uno de los problemas éticos de la IA. Imagina que quieres usar la IA para seleccionar los granos de café en una fábrica que produce café. Es algo que antes se hacía a mano, se seleccionaba grano a grano porque si un solo grano de café tiene moho, da mal sabor a todos los demás.
Este proceso se hace con un algoritmo que se llama Deep Learning. Pero no es explicable.
Lo peor que puede suceder es que nosotros tiremos granos de café que valen. Pero quizá eso sea más económico que contratar a una persona que elige grano a grano.
Pero ese mismo algoritmo se puede usar en urgencias de un hospital para elegir qué paciente entra primero.
Se puede entender que no es un problema del algoritmo, sino de dónde lo ponemos funcionando dentro de la estructura social.
El problema de la IA hoy ya no es una cuestión técnica, sino un problema de justicia social que nos dice qué función tiene que desarrollar un hombre o un algoritmo. Esto requiere multidisciplinariedad.
Ahora, lo interesante de esto es que es la matriz de la doctrina social de la Iglesia. Y es el motivo por el que el Papa León XIV, en su primer discurso público, afirmó que los católicos, como tales, lo único que podemos ofrecer es la doctrina social de la Iglesia, que no son respuestas, sino preguntas. Las preguntas que intentan tutelar la dignidad del hombre y del trabajo del hombre.
No tenemos miedo de los cambios, pero queremos ponernos de parte del hombre.
El segundo elemento es que Papa Francisco, cuando escribió las líneas para la formación católica, sobre todo para los futuros presbíteros, habla de interdisciplinariedad y transdisciplinariedad. Por tanto, otra vez, el desafío es más que técnico, cultural. Esta es la frontera en la que hoy se suceden los debates.
Detrás de la IA
Pero, detrás de esta tecnología, ¿quién está?
– Lo primero que hay que comprender es que esta tecnología cambia la forma en la que nos acercamos al problema. Todo el siglo XIX ha visto una fractura en la racionalidad científica. Antes estábamos convencidos de un modelo determinístico.
Pero si uno piensa en lo que ha sucedido con la física subatómica, donde gracias al principio de indeterminación de Heisenberg no sabemos dónde está un electrón, o a qué velocidad va, hemos tenido que mutar a un modelo probabilístico. Lo mismo sucede con la astrofísica, donde lo que dijo Einstein habla de una relatividad. Desde un modelo de la certeza hemos pasado a un modelo de la probabilidad.
Si el modelo es estadístico, no hay una mente que determine los pasos, sino que hay una máquina que extrae modelos de los datos que tiene delante.
Este modelo hace muy complejo responder si hay alguien detrás o no. A menudo se habla de “prejuicios”, que en inglés se expresa con la palabra “bias”. Pero bias también se puede traducir como “preferencia sistemática”.
Supongamos que yo quiero crear un automóvil autónomo. Tomo todos los datos de cómo se conduce en Madrid. Y la máquina ve que hay una preferencia sistemática en pararse con el semáforo en rojo (hablo de Madrid, no de Roma…). Yo quiero que exista esa preferencia sistemática.
Pero, por ejemplo, la máquina podría ver que el coche no se detiene de la misma manera cuando cruza un niño o un adulto. Y podría decidir no frenar cuando hay niños. ¿Por qué? Porque el niño es menos visible y el conductor lo ve después. Por tanto, aquí la máquina tiene un bias, un prejuicio, con los niños. Podría ocurrir lo mismo por la noche con, por ejemplo, las personas de piel oscura. ¿Alguien sería malo por aplicar ese “prejuicio”?
Hay tantos datos que no hay una mente humana que pueda controlar a todos. ¿Cuál es el problema? Silicon Valley nos dice que estamos cambiando el mundo. Pero no sabemos, nadie sabe hasta el fondo, cuáles son los esquemas que la máquina (el ordenador) ha encontrado.
Es un problema epistemológico. Y ético. Y legal. ¿Quién es el responsable si el coche golpea al niño? ¿El propietario? No está conduciendo. ¿El productor? ¿El ingeniero del software? Es muy complejo.
El verdadero problema de la inteligencia artificial es la complejidad.
Por otra parte, nos puede hacer ahorrar mucho dinero. Por tanto, se produce una tensión y de alguna manera debemos regular esta tensión para evitar que los que decidan lo hagan solo por intereses económicos o por miedo.
La IA y el trabajo
La inteligencia artificial, ¿puede acabar convirtiendo en superfluo el trabajo humano?
– Una inteligencia artificial no es capaz de hacer todas las tareas de la misma manera. Hay una paradoja, que fue desarrollada por un informático llamado Moravec, que dice que es mucho más sencillo para una máquina realizar una tarea intelectual alta que una baja. O sea, una calculadora solar que hace una raíz cuadrada la compras en internet a un euro. Pero una mano robótica que toma una cucharilla y gira el café, cuesta de 150.000 a 200.000 euros. Aplícalo al trabajo.
Un banquero trabaja con muchos números. Un trabajador manual, del metal, trabaja con mucho martillo. Esto significa que los primeros trabajos que van a saltar son los mejor pagados. Ello podría generar una tensión social que si no se gestiona políticamente podría dañar el sistema democrático.
¿Y, en concreto, en el campo, por ejemplo, del periodismo?
– ¿El periodista es simplemente alguien que transforma algo en texto? Lo podemos reemplazar con replicar con una máquina de texto. ¿O es una función social que garantiza un espacio democrático?
Yo soy presidente de la Comisión del gobierno italiano para el estudio del impacto de la IA sobre el periodismo y el mundo editorial. Y hemos concluido que el periodista tiene una función fundamental para la democracia. Pero lo que permite tener periodistas es que haya una industria editorial que les pueda pagar.
Pero entonces hay que reconocer un problema, que no nace con la IA, sino con las redes sociales. ¿Por qué si ustedes los periodistas escriben algo pueden ser llevados frente a un juez, pero si es una red social nadie le dice nada?
¿Por qué un director puede ser llevado a juicio? Y un algoritmo de una red social que elige lo que yo leo, es libre de todo. Hoy a esto se añade la capacidad de escribir del ordenador. Pero aquí el problema de nuevo no es la capacidad de la máquina. Es la conveniencia económica.
En la naturaleza de la profesión está que sea esencial para la supervivencia del espacio democrático.
Hace años unos científicos pedían una moratoria sobre la IA para ver qué hacer con ella.
– Hay demasiado, demasiado dinero en juego. Hay demasiados intereses geopolíticos. La competición entre China y Estados Unidos es demasiado alta para que ninguno se fíe del otro en esa supuesta moratoria.
El año pasado hizo cambiar mucho la narrativa sobre esto. Antes hablábamos de ciencia y tecnología, actividades en las que, si yo descubro algo (pienso por ejemplo en los premios Nobel), es para todos. Todos se benefician.
Pero hoy se habla de carrera. Si yo gano, vosotros perdéis. Esto hace que el planteamiento sea imposible.



