Vaticano

La moralità dell'IA dipende dalle decisioni umane, dice il Vaticano in un nuovo documento

Il Vaticano mette in guardia sull'uso etico dell'intelligenza artificiale, ricordando che dovrebbe servire il bene comune e non causare danni. Pur riconoscendone il potenziale positivo, il documento chiede una regolamentazione per garantire la dignità umana e prevenire gli abusi.

Cindy Wooden-30 gennaio 2025-Tempo di lettura: 4 minuti
IA

(Notizie OSV). "Il progresso tecnologico fa parte del piano di Dio per la creazione", ha dichiarato il Vaticano, ma le persone devono assumersi la responsabilità di utilizzare tecnologie come l'intelligenza artificiale (AI) per aiutare l'umanità e non danneggiare individui o gruppi.

"Come per ogni strumento, il IA è un'estensione del potere umano, e mentre le sue capacità future sono imprevedibili, le azioni passate dell'umanità forniscono chiari avvertimenti", afferma il documento firmato dai cardinali Víctor Manuel Fernández, prefetto del Dicastero per la Dottrina della Fede, e José Tolentino de Mendonça, prefetto del Dicastero per la Cultura e l'Educazione.

Il documento, approvato da Papa Francesco il 14 gennaio e reso pubblico dal Vaticano il 28 gennaio - il giorno dopo la Giornata internazionale della memoria dell'Olocausto - afferma che "le atrocità commesse nel corso della storia sono sufficienti a suscitare profonda preoccupazione per eventuali abusi dell'IA".

Antiqua et Nova

Intitolato "Antiqua et Nova (Old and New): A Note on the Relationship between Artificial Intelligence and Human Intelligence", il documento si concentra in particolare sull'uso morale della tecnologia e sull'impatto che l'intelligenza artificiale sta già avendo o potrebbe avere sulle relazioni interpersonali, sull'istruzione, sul lavoro, sull'arte, sull'assistenza sanitaria, sulla legge, sulla guerra e sulle relazioni internazionali.

La tecnologia AI non è utilizzata solo in applicazioni come ChatGPT e motori di ricerca, ma anche nella pubblicità, nelle auto a guida autonoma, nei sistemi di armi autonome, nei sistemi di sicurezza e sorveglianza, nella robotica nelle fabbriche e nell'analisi dei dati, persino nella sanità.

I Papi e le istituzioni vaticane, in particolare la Pontificia Accademia delle Scienze, monitorano ed esprimono preoccupazione per lo sviluppo e l'uso dell'intelligenza artificiale da oltre 40 anni.

"Come ogni prodotto della creatività umana, l'intelligenza artificiale può essere indirizzata verso fini positivi o negativi", si legge nel documento vaticano. Se usata in modo da rispettare la dignità umana e promuovere il benessere degli individui e delle comunità, può dare un contributo positivo alla vocazione umana".

Decisioni umane

"Tuttavia, come in tutti gli ambiti in cui gli esseri umani sono chiamati a fare delle scelte, anche qui l'ombra del male incombe", hanno affermato i dicasteri. "Laddove la libertà umana consente la possibilità di scegliere ciò che è sbagliato, la valutazione morale di questa tecnologia deve tenere conto del modo in cui viene diretta e utilizzata".

Sono gli esseri umani, non le macchine, a prendere le decisioni morali, si legge nel documento. Pertanto, "è importante che la responsabilità ultima delle decisioni prese utilizzando l'IA spetti ai decisori umani e che vi sia una responsabilità per l'uso dell'IA in ogni fase del processo decisionale".

Il documento vaticano insiste sul fatto che l'intelligenza artificiale, pur essendo in grado di svolgere rapidamente alcuni compiti molto complessi o di accedere a grandi quantità di informazioni, non è veramente intelligente, almeno non allo stesso modo degli esseri umani.

"Una corretta comprensione dell'intelligenza umana non può essere ridotta alla mera acquisizione di fatti o alla capacità di svolgere compiti specifici. Al contrario, implica l'apertura di una persona alle questioni ultime della vita e riflette un orientamento verso il vero e il bene.

L'aspetto specificamente umano

L'intelligenza umana implica anche l'ascolto degli altri, l'empatia, la costruzione di relazioni e la formulazione di giudizi morali, azioni che nemmeno i programmi di intelligenza artificiale più sofisticati sono in grado di eseguire.

"Tra una macchina e un essere umano, solo l'essere umano può essere sufficientemente consapevole di sé al punto da ascoltare e seguire la voce della coscienza, per discernere con prudenza e cercare il bene possibile in ogni situazione", si legge nel documento.

I dicasteri vaticani hanno lanciato diversi avvertimenti o avvertenze nel documento, invitando i singoli utenti, gli sviluppatori e persino i governi a esercitare un controllo sull'uso dell'IA e a impegnarsi "a garantire che l'IA sostenga e promuova sempre il valore supremo della dignità di ogni essere umano e la pienezza della vocazione umana".

In primo luogo, hanno osservato, "impersonare l'IA dovrebbe essere sempre evitato; farlo per scopi fraudolenti è una grave violazione etica che potrebbe erodere la fiducia sociale". Allo stesso modo, l'uso dell'IA per ingannare in altri contesti - come l'istruzione o le relazioni umane, compresa l'area della sessualità - dovrebbe essere considerato immorale e richiede un'attenta supervisione per evitare danni, mantenere la trasparenza e garantire la dignità di tutte le persone".

Nuove discriminazioni

I dicasteri hanno avvertito che "l'IA potrebbe essere usata per perpetuare l'emarginazione e la discriminazione, creare nuove forme di povertà, ampliare il 'divario digitale' e peggiorare le disuguaglianze sociali esistenti".

Se da un lato l'IA promette di aumentare la produttività sul posto di lavoro "assumendo compiti banali", dall'altro, secondo il documento, "spesso costringe i lavoratori ad adattarsi alla velocità e alle richieste delle macchine, piuttosto che le macchine siano progettate per aiutare chi lavora".

Anche i genitori, gli insegnanti e gli studenti dovrebbero fare attenzione alla loro dipendenza dall'IA e conoscere i loro limiti.

"L'uso diffuso dell'intelligenza artificiale nell'istruzione potrebbe aumentare la dipendenza degli studenti dalla tecnologia, compromettendo la loro capacità di svolgere alcuni compiti in modo autonomo e aggravando la loro dipendenza dagli schermi", si legge nel documento.

Secondo il documento, l'intelligenza artificiale può fornire informazioni, ma non è in grado di educare, cosa che richiede pensiero, ragionamento e discernimento.

IA e disinformazione

Gli utenti devono inoltre essere consapevoli del "grave rischio che l'IA generi contenuti manipolati e informazioni false, che possono facilmente indurre in errore le persone a causa della loro somiglianza con la verità". Questa disinformazione può verificarsi involontariamente, come nel caso dell'"allucinazione" dell'IA, in cui un sistema di IA generativa produce risultati che sembrano reali ma non lo sono, poiché è programmato per rispondere a tutte le richieste di informazioni, indipendentemente dal fatto che vi abbia accesso o meno.

Naturalmente, secondo il documento, la falsa rappresentazione dell'IA può anche "essere intenzionale: individui o organizzazioni generano e diffondono intenzionalmente contenuti falsi con lo scopo di ingannare o causare danni, come immagini, video e audio". deepfake - riferito a una falsa rappresentazione di una persona, modificata o generata da un algoritmo di intelligenza artificiale.

Secondo il documento, le applicazioni militari della tecnologia AI destano particolare preoccupazione a causa della "facilità con cui le armi autonome rendono più praticabile la guerra", del potenziale dell'AI di eliminare la "supervisione umana" dell'impiego delle armi e della possibilità che le armi autonome diventino oggetto di una nuova "corsa agli armamenti destabilizzante, con conseguenze catastrofiche per i diritti umani".

L'autoreCindy Wooden

Notizie OSV

Newsletter La Brújula Lasciateci la vostra e-mail e riceverete ogni settimana le ultime notizie curate con un punto di vista cattolico.