"Intelligence artificielle et paix". Le thème choisi par le pape François pour la Journée mondiale de la paix L'échéance du 1er janvier 2024 englobe trois mots qui sont plus que jamais d'actualité depuis un an. Depuis que le monde connaît ChatGPT en novembre 2022, le terme intelligence artificielle Il est non seulement devenu familier à tous, mais il est entré (parfois revenu) dans le cadre de réflexions éthiques, de conférences, d'articles et d'analyses.
Après des années où le numérique était considéré comme "réservé aux experts", nous avons tous réalisé à quel point il affecte profondément la vie de chacun. Pourtant, on ne parle jamais assez de la paix. Car dans le monde, comme nous l'a rappelé à plusieurs reprises le pape François, la troisième guerre mondiale fait rage depuis longtemps, par morceaux. Et en particulier deux de ses morceaux, l'Ukraine et le Moyen-Orient, nous tiennent à cœur en Europe.
Manifestement - et ce n'est pas un hasard - le pape François a voulu associer intelligence artificielle et paix pour pointer un danger bien réel : "Les nouvelles technologies sont dotées d'un potentiel perturbateur et d'effets ambivalents. Nous en avons tous déjà pris conscience, surtout au cours de l'année écoulée : "Les progrès remarquables réalisés dans le domaine de l'intelligence artificielle ont un impact de plus en plus profond sur l'activité humaine, sur la vie personnelle et sociale, sur la politique et sur l'économie.
Tout le monde ne le comprend pas, mais ce qui se passe dans le monde numérique est un double défi : d'une part, un défi économique et de pouvoir (celui qui gère les grands systèmes d'intelligence artificielle gérera en fait des parties importantes du monde), et d'autre part, un défi culturel, social et anthropologique. Quiconque crée un système d'intelligence artificielle sait très bien que l'une des choses qu'il doit essayer d'éviter est de former des machines avec leurs propres idées préconçues, et pas seulement culturelles.
Aujourd'hui déjà, il existe des systèmes qui déforment la réalité et font en sorte que "la logique de la violence et de la discrimination s'enracine (...) au détriment des plus fragiles et des plus exclus". A bien y réfléchir, le monde a besoin d'utiliser les intelligences artificielles de manière responsable, "pour qu'elles soient au service de l'humanité et de la protection de notre maison commune (...). La protection de la dignité de la personne et le souci d'une fraternité réellement ouverte à toute la famille humaine sont des conditions indispensables pour que le développement technologique contribue à la promotion de la justice et de la paix dans le monde".
Il est impossible de ne pas être d'accord avec les paroles du pape François, mais il est tout aussi impossible, après les avoir lues, de ne pas se demander : que puis-je faire à ma petite échelle pour les rendre fructueuses ? Nous ne sommes pas tous des experts en la matière. Et nous ne sommes pas tous en mesure de nous faire entendre de ceux qui doivent prendre des décisions à leur sujet. D'ailleurs, il n'est pas rare que beaucoup se sentent si éloignés de ces choses qu'ils délèguent "aux experts" chaque raisonnement, chaque décision, chaque mot sur des questions aussi complexes.
De ce point de vue, nous, Européens, avons plus de chance que d'autres peuples. Après plus de 36 heures de négociations, le 9 décembre dernier, la Commission européenne, le Conseil de l'Union européenne et le Parlement sont parvenus à un accord sur le texte du "Fonds de solidarité de l'Union européenne". Loi sur l'IAla loi européenne sur l'intelligence artificielle. Il s'agit du premier cadre réglementaire au monde pour les systèmes d'intelligence artificielle.
Le premier objectif est de garantir que les systèmes d'intelligence artificielle mis sur le marché européen et utilisés dans l'UE sont sûrs et respectent les droits fondamentaux et les valeurs de l'UE. À cette fin, un système a été conçu pour diviser les systèmes d'intelligence artificielle en fonction du risque qu'ils présentent. Le maximum concerne les systèmes d'IA opérant dans les secteurs d'utilité publique et névralgiques tels que l'eau, le gaz, l'électricité, les soins de santé, l'accès à l'éducation, l'application de la loi, le contrôle des frontières, l'administration de la justice et les processus démocratiques, ainsi que la passation des marchés publics.
Les systèmes biométriques d'identification, de catégorisation et de reconnaissance des émotions sont également considérés comme présentant un risque élevé. Ce que l'Europe a fait est une étape importante et guidera (au moins en partie) la réglementation discutée par d'autres grandes puissances telles que les États-Unis. Tout va bien, alors ? Oui et non. Car s'il est vrai qu'il s'agit d'une des bonnes voies à suivre dans l'approche de l'intelligence artificielle, il n'en est pas moins vrai que d'autres réalités dans le monde, notamment à l'Est, en Russie et en Afrique, semblent déterminées à enfreindre ces règles.
Parce que, comme nous l'avons écrit, il s'agit d'un enjeu économique (qui se chiffre déjà en milliards de dollars) mais aussi - et surtout - d'un enjeu de pouvoir. Parce qu'au-delà de la réussite de chatbots En tant que ChatGPT, il y a déjà trois mille systèmes dans notre vie qui utilisent l'intelligence artificielle et qui la gouvernent et, dans certains cas, la dirigent. Comme le dit le sociologue Derrick de Kerckhove, l'un des plus grands experts mondiaux en matière de culture numérique et de nouveaux médias, "il y a déjà trois mille systèmes dans notre vie qui utilisent l'intelligence artificielle et qui la gouvernent, voire la dirigent", "L'IA est puissante et efficace dans de nombreux domaines, de la médecine à la finance, du droit à la guerre. Elle dépasse l'humain par l'algorithme et crée une séparation radicale entre le pouvoir de la parole humaine et le pouvoir de la parole faite de séquences de calculs".
En bref, l'utilisation de l'intelligence artificielle nous change. Elle modifie notre façon de nous déplacer (nous devenons de plus en plus paresseux et cherchons des raccourcis faciles) et même, dans une certaine mesure, notre raisonnement. Elle nous pousse vers un système binaire de 0 et de 1, de noir et de blanc et d'opposés, éliminant progressivement toutes les nuances intermédiaires.
Sans parler de la façon dont l'intelligence artificielle peut nous pousser dans une certaine direction en exploitant nos biais cognitifs. Et c'est là que les mots du pape reviennent en force : "...les mots du pape reviennent en force.les nouvelles technologies sont dotées d'un potentiel perturbateur et d'effets ambivalents". Avec l'intelligence artificielle, a annoncé Bill Gates, "Nous pouvons vaincre la faim dans le monde"Elle est déjà utilisée dans de nombreux hôpitaux, y compris des hôpitaux italiens, pour mieux comprendre certaines maladies afin de les traiter et de les prévenir plus efficacement.
Les exemples positifs sont nombreux et touchent presque tous les domaines. Même dans le domaine catholique, certains ont essayé d'éduquer ChatGPt afin qu'il puisse créer des homélies de qualité. Le résultat, dans ce dernier cas, a été à peine plus que suffisant, mais suffisamment bon pour scandaliser certains prêtres et faire réfléchir certains fidèles sur le fait que de nombreuses homélies dominicales ne sont malheureusement pas meilleures que celles de ChatGPt.
Il est vrai que nous parlons de machines, mais ceux qui les forment, les pensent et les créent, et ceux qui interagissent avec elles, par le biais de commandes (les "prompteurs"), sont des personnes.
En fin de compte, il y a deux petites vérités que nous devons toujours garder à l'esprit lorsque nous lisons et parlons d'intelligence artificielle. La première est que les choses évoluent si vite dans ce domaine qu'à chaque fois ce que nous écrivons risque, au moins en partie, d'être dépassé par les faits. La seconde est que chacun d'entre nous, même celui qui avoue ne pas savoir grand-chose, aborde le sujet avec ses propres idées en tête.
Une idée préconçue qui est aussi le résultat des livres que nous avons lus, des films et des séries télévisées que nous avons vus : des romans d'Asimov aux réflexions de Luciano Floridi, de 2001 : L'Odyssée de l'espace et Terminator aux derniers épisodes de Miroir noir. Et à chaque fois, notre plus grande peur est toujours la même : devenir des esclaves des machines et/ou devenir comme des machines, en abandonnant notre humanité dans les deux cas.
Après tout, si le monde n'a découvert l'existence de l'intelligence artificielle qu'en novembre 2022, nous le devons au fait que l'avènement du ChatGPT nous a montré l'existence d'une machine qui fait (mais il vaudrait mieux dire : qui nous fait faire) des choses qui, jusqu'à récemment, étaient l'apanage des seuls humains. À savoir, écrire, dessiner, créer de l'art et dialoguer. C'est pourquoi, chaque fois que ChatGPT ou une autre IA commet une erreur, nous sourions et respirons profondément. C'est le signe que, pour un temps encore, nous ne risquons rien.
De l'autre côté, il y a déjà ceux qui créent des armes commandées par l'intelligence artificielle. De véritables machines de guerre qui ne savent que tuer et n'éprouvent aucune culpabilité. Plus encore : précisément parce qu'elles semblent agir de manière autonome, elles effacent le sentiment de culpabilité chez ceux qui les ont créées et ceux qui les placent sur le champ de bataille. Comme pour dire : ce n'est pas moi qui ai tué, c'est la machine. La culpabilité leur revient donc à eux seuls.
Personne ne sait exactement ce que l'avenir nous réserve, mais il ne se passe pas un jour sans que des annonces inquiétantes ne soient faites. L'une des dernières en date concerne l'Agi, ou intelligence artificielle générale. Il s'agit de la prochaine évolution de l'intelligence artificielle. Selon Masayoshi Son, PDG de SoftBank et expert en technologie, "arrivera dans dix ans et sera au moins dix fois plus intelligente que la somme totale de l'intelligence humaine". La confirmation semble également venir d'Open AI, le créateur de ChatGPT.
L'entreprise a annoncé la formation d'une équipe dédiée à la gestion des risques liés au développement éventuel d'une intelligence artificielle capable de franchir le seuil d'acceptabilité et de devenir "superintelligente". Si vous pensez que ces frontières relèvent de la science-fiction, sachez qu'un groupe de scientifiques de l'université John Hopkins s'est posé la question suivante : et si, au lieu d'essayer de faire ressembler l'intelligence artificielle à l'homme, on faisait l'inverse, c'est-à-dire qu'on transformait des parties du cerveau humain pour en faire la base des ordinateurs du futur ?
Cette technique est appelée l'intelligence des organoïdes (IoT) et utilise des cultures tridimensionnelles de cellules neuronales obtenues en laboratoire à partir de cellules souches. Car si les intelligences artificielles traitent les données et les chiffres beaucoup plus rapidement que les humains, notre cerveau reste de loin supérieur lorsqu'il s'agit de prendre des décisions complexes fondées sur la logique.
Et nous revenons ici à la question posée il y a plusieurs lignes : que peut faire chacun d'entre nous face à tout cela ? Tout d'abord, nous devons être conscients que le citoyen des années 2000 et le chrétien des années 2000 doivent s'intéresser à ces changements. Sans alarmisme, mais avec la conscience que nous sommes face à des changements d'époque.
Journaliste de "Avvenire