(OSV News). "Le progrès technologique fait partie du plan de Dieu pour la création", a déclaré le Vatican, mais les gens doivent prendre la responsabilité d'utiliser des technologies telles que l'intelligence artificielle (IA) pour aider l'humanité et ne pas nuire à des individus ou à des groupes.
"Comme pour tout outil, les IA est une extension de la puissance humaine, et bien que ses capacités futures soient imprévisibles, les actions passées de l'humanité constituent des avertissements clairs", déclare la Commission européenne. document signée par les cardinaux Víctor Manuel Fernández, préfet du dicastère pour la doctrine de la foi, et José Tolentino de Mendonça, préfet du dicastère pour la culture et l'éducation.
Le document, approuvé par le pape François le 14 janvier et rendu public par le Vatican le 28 janvier - le lendemain de la Journée internationale de commémoration de l'Holocauste - indique que "les atrocités commises tout au long de l'histoire sont suffisantes pour susciter une profonde inquiétude quant à d'éventuels abus de l'IA".
Antiqua et Nova
Intitulé "Antiqua et Nova (Old and New) : A Note on the Relationship between Artificial Intelligence and Human Intelligence", le document se concentre en particulier sur l'utilisation morale de la technologie et sur l'impact que l'intelligence artificielle a déjà ou pourrait avoir sur les relations interpersonnelles, l'éducation, le travail, l'art, les soins de santé, le droit, la guerre et les relations internationales.
La technologie de l'IA n'est pas seulement utilisée dans des applications telles que le ChatGPT et les moteurs de recherche, mais aussi dans la publicité, les voitures autonomes, les systèmes d'armes autonomes, les systèmes de sécurité et de surveillance, la robotique dans les usines et l'analyse de données, et même dans les soins de santé.
Les papes et les institutions du Vatican, en particulier l'Académie pontificale des sciences, surveillent le développement et l'utilisation de l'intelligence artificielle et expriment leurs préoccupations à ce sujet depuis plus de 40 ans.
"Comme tout produit de la créativité humaine, l'intelligence artificielle peut être orientée vers des fins positives ou négatives", indique le document du Vatican. "Lorsqu'elle est utilisée de manière à respecter la dignité humaine et à promouvoir le bien-être des individus et des communautés, elle peut apporter une contribution positive à la vocation humaine.
Décisions humaines
"Toutefois, comme dans tous les domaines où les êtres humains sont appelés à faire des choix, l'ombre du mal plane ici aussi", ont déclaré les dicastères. "Là où la liberté humaine permet de choisir ce qui est mal, l'évaluation morale de cette technologie doit tenir compte de la manière dont elle est dirigée et utilisée.
Ce sont les humains, et non les machines, qui prennent les décisions morales. Par conséquent, "il est important que la responsabilité ultime des décisions prises à l'aide de l'IA incombe aux décideurs humains et qu'il y ait une obligation de rendre compte de l'utilisation de l'IA à chaque étape du processus de prise de décision".
Le document du Vatican insiste sur le fait que si l'intelligence artificielle peut accomplir rapidement certaines tâches très complexes ou accéder à de grandes quantités d'informations, elle n'est pas véritablement intelligente, du moins pas de la même manière que les humains.
"Une bonne compréhension de l'intelligence humaine ne peut se réduire à la simple acquisition de faits ou à la capacité d'accomplir des tâches spécifiques. Au contraire, elle implique l'ouverture d'une personne aux questions ultimes de la vie et reflète une orientation vers le vrai et le bien.
La spécificité humaine
L'intelligence humaine implique également d'écouter les autres, de faire preuve d'empathie, d'établir des relations et de porter des jugements moraux - des actions que même les programmes d'IA les plus sophistiqués ne peuvent pas réaliser, ajoute-t-il.
"Entre une machine et un être humain, seul l'être humain peut être suffisamment conscient de lui-même pour écouter et suivre la voix de sa conscience, pour discerner avec prudence et pour rechercher le bien possible dans chaque situation", précise le document.
Les dicastères du Vatican ont émis plusieurs avertissements ou mises en garde dans le document, appelant les utilisateurs individuels, les développeurs et même les gouvernements à exercer un contrôle sur la manière dont l'IA est utilisée et à s'engager "à faire en sorte que l'IA soutienne et promeuve toujours la valeur suprême de la dignité de chaque être humain et la plénitude de la vocation humaine".
Tout d'abord, ils ont noté que "l'usurpation de l'identité de l'IA devrait toujours être évitée ; le faire à des fins frauduleuses est une violation éthique grave qui pourrait éroder la confiance sociale". De même, l'utilisation de l'IA pour tromper dans d'autres contextes - tels que l'éducation ou les relations humaines, y compris dans le domaine de la sexualité - devrait également être considérée comme immorale et nécessite une surveillance attentive afin d'éviter tout préjudice, de maintenir la transparence et de garantir la dignité de toutes les personnes.
Nouvelles discriminations
Les dicastères ont averti que "l'IA pourrait être utilisée pour perpétuer la marginalisation et la discrimination, créer de nouvelles formes de pauvreté, élargir la "fracture numérique" et aggraver les inégalités sociales existantes".
Si l'IA promet d'accroître la productivité sur le lieu de travail en "prenant en charge les tâches banales", selon le document, "elle oblige souvent les travailleurs à s'adapter à la vitesse et aux exigences des machines, au lieu que les machines soient conçues pour aider ceux qui travaillent".
Selon lui, les parents, les enseignants et les élèves doivent également se méfier de leur dépendance à l'égard de l'IA et connaître leurs limites.
"L'utilisation généralisée de l'IA dans l'éducation pourrait accroître la dépendance des élèves à l'égard de la technologie, en réduisant leur capacité à effectuer certaines tâches de manière autonome et en exacerbant leur dépendance à l'égard des écrans", peut-on lire dans le document.
Selon le document, si l'IA peut fournir des informations, elle ne permet pas d'éduquer, ce qui nécessite de la réflexion, du raisonnement et du discernement.
IA et désinformation
Les utilisateurs doivent également être conscients du "risque sérieux que l'IA génère des contenus manipulés et de fausses informations, qui peuvent facilement induire les gens en erreur en raison de leur ressemblance avec la vérité". Cette désinformation peut être involontaire, comme dans le cas d'une "hallucination" de l'IA, où un système d'IA génératif produit des résultats qui semblent réels mais qui ne le sont pas, car il est programmé pour répondre à toutes les demandes d'information, qu'il y ait accès ou non.
Bien entendu, selon le document, la fausse représentation de l'IA peut aussi "être intentionnelle : des individus ou des organisations génèrent et diffusent intentionnellement de faux contenus dans le but d'induire en erreur ou de causer un préjudice, tels que des images, des vidéos et des sons". faux profond -Il s'agit d'une fausse représentation d'une personne, éditée ou générée par un algorithme d'intelligence artificielle.
Les applications militaires de la technologie de l'IA sont particulièrement préoccupantes, selon le document, en raison de "la facilité avec laquelle les armes autonomes rendent la guerre plus viable", de la possibilité pour l'IA d'éliminer la "surveillance humaine" du déploiement des armes, et de la possibilité que les armes autonomes deviennent l'objet d'une nouvelle "course aux armements déstabilisante, avec des conséquences catastrophiques pour les droits de l'homme".
OSV News