TribunaGigi Rancilio

L'intelligenza artificiale di fronte alla paura o all'indifferenza

L'irruzione dell'intelligenza artificiale praticamente in tutti gli aspetti della vita porta ognuno di noi a chiedersi quale posizione assumere nel cambiamento dei tempi derivante dall'applicazione diffusa di questo strumento. 

7 gennaio 2024-Tempo di lettura: 6 minuti
intelligenza artificiale

"Intelligenza artificiale e pace". Il tema scelto da Papa Francesco per la Giornata mondiale della pace La scadenza del 1° gennaio 2024 racchiude tre parole che nell'ultimo anno sono diventate più attuali che mai. Da quando il mondo conosce ChatGPT nel novembre 2022, il termine intelligenza artificiale Non solo è diventato familiare a tutti, ma è entrato (a volte tornato) a far parte di riflessioni etiche, conferenze, articoli e analisi.

Dopo anni in cui il digitale è stato considerato "solo per gli esperti", ci siamo resi conto di quanto incida profondamente sulla vita di tutti. Eppure di pace non si parla mai abbastanza. Perché nel mondo, come ci ha ricordato più volte Papa Francesco, la terza guerra mondiale imperversa da tempo a pezzi. E due di questi pezzi in particolare, l'Ucraina e il Medio Oriente, ci stanno a cuore in Europa.

Ovviamente - e non a caso - Papa Francesco ha voluto accostare l'intelligenza artificiale alla pace per segnalare un pericolo molto concreto: "Le nuove tecnologie sono dotate di un potenziale dirompente e di effetti ambivalenti". Ne siamo già tutti consapevoli, soprattutto nell'ultimo anno: "I notevoli progressi compiuti nel campo dell'intelligenza artificiale stanno avendo un impatto sempre più profondo sulle attività umane, sulla vita personale e sociale, sulla politica e sull'economia.

Non tutti lo capiscono, ma quello che sta accadendo nel mondo digitale è una doppia sfida: da un lato una sfida economica e di potere (chi gestisce grandi sistemi di Intelligenza Artificiale gestirà infatti parti importanti del mondo), dall'altro una sfida culturale, sociale e antropologica. Chi crea un sistema di IA sa bene che una delle cose che deve cercare di evitare è addestrare le macchine con le proprie idee preconcette, non solo culturali.

Già oggi esistono sistemi che distorcono la realtà e fanno "attecchire la logica della violenza e della discriminazione (...) a scapito dei più fragili ed esclusi". Se ci pensiamo bene, il mondo ha bisogno di usare le intelligenze artificiali in modo responsabile, "affinché siano al servizio dell'umanità e della protezione della nostra casa comune (...). La tutela della dignità della persona e la cura di una fraternità veramente aperta a tutta la famiglia umana sono condizioni indispensabili affinché lo sviluppo tecnologico contribuisca alla promozione della giustizia e della pace nel mondo".

È impossibile non essere d'accordo con le parole di Papa Francesco, ma è altrettanto impossibile, dopo averle lette, non chiedersi: cosa posso fare nel mio piccolo per farle fruttare? Non tutti siamo esperti in queste materie. E non tutti possiamo farci ascoltare da chi deve prendere decisioni in merito. Inoltre, non è raro che molti si sentano così lontani da queste cose da delegare "agli esperti" ogni ragionamento, ogni decisione, ogni parola su questioni così complesse.

Da questo punto di vista, noi europei siamo più fortunati di altri popoli. Dopo oltre 36 ore di negoziati, lo scorso 9 dicembre la Commissione europea, il Consiglio dell'Unione europea e il Parlamento hanno raggiunto un accordo sul testo del cosiddetto "Fondo di solidarietà dell'Unione europea". Legge sull'AIla legge europea sull'intelligenza artificiale. Si tratta del primo quadro normativo al mondo per i sistemi di intelligenza artificiale.

Il primo obiettivo è garantire che i sistemi di intelligenza artificiale immessi sul mercato europeo e utilizzati nell'UE siano sicuri e rispettino i diritti e i valori fondamentali dell'UE. A tal fine, è stato elaborato un sistema che suddivide i sistemi di intelligenza artificiale in base al loro rischio. Il massimo riguarda i sistemi di Intelligenza Artificiale che operano in settori di pubblica utilità e nevralgici come acqua, gas, elettricità, sanità, accesso all'istruzione, applicazione della legge, controllo delle frontiere, amministrazione della giustizia e processi democratici, nonché appalti.

Anche i sistemi biometrici per l'identificazione, la categorizzazione e il riconoscimento delle emozioni sono considerati ad alto rischio. Ciò che l'Europa ha fatto è un passo importante e guiderà (almeno in parte) la regolamentazione discussa da altre grandi potenze come gli Stati Uniti. Tutto bene, quindi? Sì e no. Perché è vero che questa è una delle strade giuste da seguire nell'approccio all'Intelligenza Artificiale, ma non è meno vero che altre realtà del mondo, soprattutto in Oriente, Russia e Africa, sembrano decise a infrangere queste regole.

Perché, come abbiamo scritto, è una sfida economica (che vale già miliardi di dollari) ma anche - e soprattutto - una sfida di potere. Perché al di là del successo di chatbot Come ChatGPT, nella nostra vita ci sono già tremila sistemi che utilizzano l'intelligenza artificiale e la governano e, in alcuni casi, la dirigono. Come dice il sociologo Derrick de Kerckhove, uno dei maggiori esperti mondiali di cultura digitale e nuovi media, "L'IA è potente ed efficace in tantissimi campi, dalla medicina alla finanza, dalla legge alla guerra. Supera l'umano con l'algoritmo e crea una separazione radicale tra il potere del discorso umano e il potere del discorso fatto di sequenze di calcoli".

In breve, l'uso dell'intelligenza artificiale ci sta cambiando. Cambia il nostro modo di muoverci (stiamo diventando sempre più pigri e cerchiamo facili scorciatoie) e in parte anche il nostro modo di ragionare. Ci spinge verso un sistema binario di 0 e 1, di bianchi e neri e di opposti, eliminando gradualmente tutte le sfumature intermedie.

Per non parlare di come l'intelligenza artificiale possa spingerci in una certa direzione sfruttando i nostri pregiudizi cognitivi. E qui le parole del Papa tornano a farsi sentire: "... le parole del Papa tornano a farsi sentire".le nuove tecnologie sono dotate di un potenziale dirompente e di effetti ambivalenti". Con l'intelligenza artificiale, ha annunciato Bill Gates, "Possiamo sconfiggere la fame nel mondo"Viene già utilizzato in molti ospedali, anche italiani, per comprendere meglio alcune malattie al fine di curarle e prevenirle in modo più efficace".

Gli esempi positivi sono numerosi e riguardano quasi tutti i campi. Anche in ambito cattolico, c'è chi ha cercato di educare i ChatGPt affinché potessero creare omelie di valore. Il risultato, in quest'ultimo caso, è stato poco più che sufficiente ma abbastanza buono da scandalizzare alcuni sacerdoti e far riflettere alcuni fedeli su come molte omelie domenicali non siano, purtroppo, migliori di quelle di ChatGPT.

È vero che stiamo parlando di macchine, ma chi le addestra, le pensa e le crea, e chi interagisce con loro, attraverso i comandi (i cosiddetti prompt), sono persone.

Alla fine, ci sono due piccole verità che dobbiamo sempre tenere a mente quando leggiamo e parliamo di intelligenza artificiale. La prima è che in questo campo le cose cambiano così velocemente che ogni volta ciò che scriviamo rischia, almeno in parte, di essere superato dai fatti. Il secondo è che ognuno di noi, anche chi ammette di saperne molto poco, si avvicina all'argomento con le proprie idee in mente.

Un'idea preconcetta che è anche il risultato dei libri che abbiamo letto, dei film e delle serie televisive che abbiamo visto: dai romanzi di Asimov alle riflessioni di Luciano Floridi, da 2001: Odissea nello spazio e Terminator alle ultime puntate di Specchio nero. E ogni volta la nostra paura più grande è sempre la stessa: diventare schiavi delle macchine e/o diventare come le macchine, rinunciando in entrambi i casi alla nostra umanità.

In fondo, se il mondo ha scoperto l'esistenza dell'intelligenza artificiale solo nel novembre del 2022, lo dobbiamo al fatto che l'avvento della ChatGPT ci ha mostrato l'esistenza di una macchina che fa (anche se sarebbe meglio dire: ci inganna) cose che fino a poco tempo fa erano prerogativa dei soli esseri umani. Vale a dire, scrivere, disegnare, creare arte e dialogare. Ecco perché ogni volta che ChatGPT o un'altra IA commette un errore, sorridiamo e facciamo un respiro profondo. È un segno che, ancora per un po', saremo al sicuro.

Dall'altra parte, c'è già chi sta creando armi comandate dall'intelligenza artificiale. Vere e proprie macchine da guerra che sanno solo uccidere e non hanno sensi di colpa. Di più: proprio perché sembrano agire autonomamente, cancellano il senso di colpa in chi le ha create e in chi le mette sul campo di battaglia. Come a dire: non sono stato io a uccidere, è stata la macchina. Quindi, la colpa è solo loro.

Nessuno sa con esattezza cosa ci riservi il futuro, ma non passa giorno senza che vi siano annunci dal tono minaccioso. Uno dei più recenti riguarda l'Agi, o intelligenza artificiale generale. È la prossima evoluzione dell'intelligenza artificiale. Secondo Masayoshi Son, CEO di SoftBank e uno dei maggiori esperti di tecnologia, "arriverà tra dieci anni e sarà almeno dieci volte più intelligente della somma di tutte le intelligenze umane". La conferma sembra arrivare anche da Open AI, il creatore di ChatGPT.

L'azienda ha annunciato la formazione di un team dedicato alla gestione dei rischi associati al possibile sviluppo di un'intelligenza artificiale in grado di superare la soglia di accettabilità e diventare "superintelligente". Se pensate che queste frontiere siano fantascienza, sappiate che un gruppo di scienziati della John Hopkins University si è posto la domanda: e se invece di cercare di rendere l'intelligenza artificiale simile all'uomo, facessimo il contrario, cioè trasformassimo parti del cervello umano come base per i computer del futuro?

Questa tecnica è chiamata intelligenza organoide (IoT) e utilizza colture tridimensionali di cellule neurali ottenute in laboratorio da cellule staminali. Sebbene le intelligenze artificiali elaborino dati e numeri molto più velocemente degli esseri umani, il nostro cervello è ancora di gran lunga superiore quando si tratta di prendere decisioni complesse e basate sulla logica.

E qui torniamo alla domanda posta molte righe fa: cosa può fare ciascuno di noi di fronte a tutto questo? Innanzitutto, dobbiamo essere consapevoli che il cittadino del Duemila e il cristiano del Duemila devono interessarsi a questi cambiamenti. Senza allarmismi, ma con la consapevolezza che siamo di fronte a cambiamenti epocali.

L'autoreGigi Rancilio

Giornalista di "Avvenire

Per saperne di più
Newsletter La Brújula Lasciateci la vostra e-mail e riceverete ogni settimana le ultime notizie curate con un punto di vista cattolico.
Banner pubblicitari
Banner pubblicitari