Dossier

Les progrès de l'intelligence artificielle

Les termes "intelligent" et "intelligence artificielle" sont très utilisés et suscitent presque toujours l'admiration. Mais qu'est-ce que l'intelligence artificielle, qui n'est qu'un autre nom de l'informatique ? L'auteur est professeur d'université, ingénieur et informaticien. Il a travaillé chez IBM et est l'auteur de nombreuses publications, tant scientifiques que de vulgarisation.

Manuel Alfonseca-31 mars 2020-Temps de lecture : 9 minutes

L'intelligence artificielle est au cœur de la transformation actuelle des méthodes de travail, des modes de relation et des mentalités, caractérisée par la rapidité et la complexité technique. Ce dossier vise à nous aider à comprendre ses différents aspects et ses répercussions, y compris ses implications éthiques, avec l'aide d'experts professionnels et les réflexions offertes par le pape François sur ces développements.

Presque dès le début de l'histoire de l'informatique, les ordinateurs ont été programmés pour agir intelligemment. En 1956, Herbert Gelernter, du laboratoire Poughkeepsie d'IBM, a construit un programme capable de résoudre des théorèmes de géométrie plane, l'un des premiers exemples d'intelligence artificielle. La même année, John McCarthy et d'autres pionniers de l'informatique se sont rencontrés lors d'un séminaire au Dartmouth College de Hanovre (États-Unis). Après avoir nommé la nouvelle discipline (intelligence artificielle) a prédit que d'ici une décennie, il y aurait des programmes capables de traduire entre deux langues humaines et de jouer aux échecs mieux que le champion du monde. Des machines dotées d'une intelligence égale ou supérieure à la nôtre seraient alors construites, et nous entrerions dans une nouvelle voie de l'évolution humaine. Le vieux rêve de construire des hommes artificiels serait devenu réalité.

Mais les choses ne se sont pas passées comme les optimistes l'avaient prédit. Bien qu'Arthur Samuel d'IBM ait créé un programme pour jouer aux dames qui stockait des informations sur le déroulement des parties et les utilisait pour modifier ses futurs mouvements (c'est-à-dire apprendre), les échecs se sont avérés être un objectif beaucoup plus difficile. L'objectif de battre le champion du monde a pris plus de 30 ans de retard.

La traduction de textes entre deux langues naturelles s'est également avérée plus difficile que prévu. Nos langues sont ambiguës, car un même mot peut avoir plusieurs significations, qui sont souvent différentes selon les langues, et de plus, dans une même phrase, un mot peut jouer différents rôles syntaxiques. 

L'échec des prédictions des experts a découragé les chercheurs en intelligence artificielle, dont beaucoup se sont tournés vers d'autres recherches. En outre, en 1969, Marvin Minski et Seymour Papert ont montré que les réseaux neuronaux artificiels à une ou deux couches, étudiés depuis les années 1950, ne sont pas capables de résoudre des problèmes très simples. 

Au cours des années 1970, l'intérêt pour l'intelligence artificielle a été renouvelé par les systèmes experts. Une fois de plus, on a tiré la sonnette d'alarme et prédit des avancées immédiates trop ambitieuses. Le gouvernement japonais, par exemple, a lancé, à la fin des années 1970, la projet de cinquième générationdont l'objectif était de développer en dix ans (toujours en dix ans) des machines capables de pensez à L'objectif du projet est de développer la capacité à communiquer avec nous dans notre propre langue, et à traduire des textes écrits en anglais et en japonais.

Effrayés par le projet, les États-Unis et l'Union européenne ont lancé leurs propres programmes de recherche, avec des objectifs moins ambitieux. Les Américains ont concentré leurs efforts sur les programmes militaires, tels que la Initiative informatique stratégique (SCI), qui s'est concentré sur la construction de véhicules autonomes sans pilote sur terre et dans les airs ; les armes "intelligentes" ; et le projet surnommé Star Warsqui devait protéger les États-Unis d'une attaque nucléaire. L'Europe, en revanche, s'est concentrée sur le problème de la traduction automatique avec le projet Eurotra.

Au début des années 1990, le projet japonais s'est soldé par un échec cuisant. Le programme militaire américain a eu plus de succès, comme on a pu le constater lors de la deuxième guerre d'Irak. Et bien que le projet Star Wars n'a jamais été mise en œuvre, son annonce a fait pression sur l'Union soviétique, raison pour laquelle certains analystes estiment qu'elle a été l'une des causes de la fin de la guerre froide. Quant au projet EurotraCela n'a pas donné naissance à un système de traduction automatique autonome, mais cela a conduit à la construction d'outils permettant aux traducteurs humains d'augmenter leur productivité, de la même manière que Google Translate.

En 1997, 30 ans plus tard que prévu, un ordinateur a finalement réussi à battre le champion du monde d'échecs (Garri Kasparov) dans un tournoi de six parties. La conduite automatisée des véhicules (voitures et avions) a également beaucoup progressé. C'est pourquoi on dit de plus en plus souvent que nous sommes sur le point d'atteindre le véritable... intelligence artificielleEst-ce possible, est-ce vraiment aussi proche que certains experts (pas beaucoup) et les médias semblent le croire ? 

Définition de l'intelligence artificielle

Les chercheurs ne sont pas toujours d'accord sur la définition de cette branche de l'informatique, si bien qu'il n'est pas facile de distinguer clairement les disciplines et les applications qui appartiennent à ce domaine. Dernièrement, il est devenu à la mode d'utiliser le terme intelligence artificielle pour désigner toute application informatique, de sorte que sa délimitation est de plus en plus floue et confuse. Un système de bancs publics intégrant un répéteur wifi et un panneau solaire permettant de recharger un téléphone portable a même été présenté comme une intelligence artificielle. Où est l'intelligence ? Si ce n'est dans l'être humain qui a eu l'idée d'assembler de tels dispositifs.

La définition la plus répandue du domaine de l'intelligence artificielle est la suivante : un ensemble de techniques qui tentent de résoudre des problèmes liés au traitement symbolique de l'information, en utilisant des méthodes heuristiques

Une application d'intelligence artificielle doit répondre aux trois conditions suivantes : a) l'information à traiter doit être de nature symbolique ; b) le problème à résoudre doit être non trivial ; c) la manière la plus pratique d'aborder le problème est d'utiliser des règles heuristiques (basées sur l'expérience). Le programme doit être capable d'extraire ces règles heuristiques de sa propre expérience, c'est-à-dire qu'il doit être capable d'apprendre.

Applications de l'intelligence artificielle

En plus de concevoir des champions pour les jeux généralement considérés comme étant intelligentIl existe de nombreuses autres applications de l'intelligence artificielle. Dans certains cas, les résultats ont été spectaculaires et se rapprochent de ce que nous comprenons intuitivement comme une machine à penser.

Il existe de nombreux domaines dans lesquels il a été possible d'appliquer des techniques d'intelligence artificielle, à tel point que le domaine est devenu un peu hétéroclite. Examinons-en quelques-uns :

-Des jeux intelligents. En 1997, le programme Bleu profond (une machine IBM dédiée) a battu le champion du monde, alors Garri Kasparov. Actuellement, le meilleur programme est AlphaZerode l'entreprise DeepMind (propriété de Google), qui ne repose pas sur des règles introduites par des humains, mais sur l'auto-apprentissage (il a joué cinq millions de parties contre lui-même). Parmi les autres jeux résolus avec succès, citons le backgammon (backgammon), les dames, Jeopardy !certaines formes de poker, et Allez sur

-Réalisation d'un raisonnement logique. Il existe trois types de raisonnement logique : déductif (essentiel en mathématiques), inductif (utilisé par les sciences expérimentales) et abductif (utilisé principalement dans les sciences humaines, l'histoire et certaines branches de la biologie, comme la paléontologie). Le problème de la programmation des ordinateurs pour effectuer des déductions logiques peut être considéré comme résolu. En revanche, il est beaucoup plus difficile de programmer des processus de raisonnement inductif ou abductif, si bien que ce champ de recherche en intelligence artificielle reste ouvert.

-Processus d'expression orale. L'objectif est de faire en sorte que les ordinateurs comprennent la voix humaine, afin qu'il soit possible de leur donner des commandes de manière plus naturelle, sans avoir à utiliser un clavier. La recherche dans ce domaine a été entravée par le fait que chaque personne a sa propre façon de prononcer, et que la langue parlée est encore plus ambiguë que la langue écrite, mais de nombreux progrès ont été réalisés récemment, et souvent plus de 90 % des mots sont compris. 

-Traitement des textes écrits. Il se subdivise en deux grands domaines : le traitement du langage naturel et la traduction automatique. 

Un domaine relativement récent est le l'exploration des donnéesL'objectif est d'extraire des informations de textes écrits et d'essayer d'en comprendre le sens. Pour ce faire, on utilise des méthodes statistiques et on construit des corpus annotés contenant des informations sur les termes. En les utilisant, les programmes améliorent ou accélèrent la compréhension des textes qu'ils doivent interpréter.

Dans le domaine de la traduction automatique, les problèmes se multiplient, car les programmes doivent traiter deux langues naturelles au lieu d'une seule, toutes deux entachées d'ambiguïtés et d'irrégularités et qui souvent ne coïncident pas. L'objectif de ces programmes est généralement de produire une traduction approximative (et non parfaite) des textes sources, sur laquelle un traducteur humain peut travailler pour l'améliorer, augmentant ainsi considérablement ses performances.

-Traitement automatique des véhicules et des images. Lorsque nous observons une scène par la vue, nous sommes capables d'interpréter les informations que nous recevons et d'identifier des objets indépendants. Ce domaine de recherche vise à programmer les machines et les robots pour qu'ils reconnaissent visuellement les éléments avec lesquels ils doivent interagir. L'une de ses applications les plus spectaculaires est la voiture automatique. Ce projet, actuellement bien avancé par plusieurs entreprises, vise à construire des véhicules sans conducteur capables de naviguer sur les routes et les rues d'une ville. Cette recherche, qui a débuté à l'Université Carnegie Mellon Les premières voitures sans conducteur ont été introduites à la fin des années 1980 et ont connu un grand essor dans les années 1990, lorsqu'une voiture sans conducteur a emprunté pour la première fois les autoroutes allemandes. Jusqu'à présent, au XXIe siècle, la recherche dans le domaine des voitures sans conducteur a continué à progresser, et le moment n'est pas loin où elles pourront être commercialisées.

-Systèmes experts. Il s'agit de programmes qui effectuent des déductions logiques pour appliquer des règles de connaissances fournies par des experts humains en la matière afin de résoudre des problèmes concrets. 

La première tentative (un programme appelé DENDRAL, capable d'obtenir la formule d'un composé chimique à partir de son spectrogramme de masse) a été réalisée vers 1965 à l'université de Stanford. Dans les années 1970 et 1980, la recherche sur les systèmes experts a été appliquée au diagnostic médical, aux mathématiques, à la physique, à la prospection minière, à la génétique, à la fabrication automatique, à la configuration automatique des ordinateurs, etc. Mais à la fin des années 1980, ils ont connu un déclin. Bien qu'ils n'aient pas complètement disparu, ils ne jouent pas aujourd'hui un rôle majeur dans la recherche en intelligence artificielle.

-Réseaux neuronaux artificiels. C'est l'une des plus anciennes applications de l'intelligence artificielle, et aussi l'une des plus utilisées aujourd'hui. Le site neurones qui composent ces réseaux sont très simplifiés, comparés à ceux qui font partie du système nerveux humain et à ceux de nombreux animaux. Ces réseaux sont capables de résoudre des problèmes très complexes en un temps très court, bien que la solution obtenue ne soit généralement pas optimale, mais seulement une approximation, qui est souvent suffisante pour nos besoins. Aujourd'hui, les réseaux neuronaux sont utilisés dans de nombreuses applications d'apprentissage automatique, telles que les traducteurs automatiques mentionnés ci-dessus.

-L'informatique cognitive et les bases de connaissances sur le monde. L'un des problèmes qui ont entravé la recherche en intelligence artificielle est le fait que les ordinateurs ont peu de connaissances du monde qui nous entoure, ce qui les place dans une situation de désavantage évident par rapport à n'importe quel être humain, qui possède ces informations, les ayant acquises depuis l'enfance, et peut les utiliser pour résoudre des problèmes de bon sens qui semblent triviaux, mais qui sont extrêmement difficiles à résoudre pour les machines qui ne disposent pas des informations nécessaires. IBM a lancé un projet d'informatique cognitive qui vise à construire des programmes qui, à partir de données très abondantes (données massives) et en utilisant des techniques d'intelligence artificielle et d'apprentissage automatique, sont capables de faire des prédictions et des déductions utiles, et de répondre à des questions exprimées en langage naturel. 

Pour l'instant, ces systèmes ne peuvent être comparés à l'homme et sont généralement limités à un domaine d'application spécifique.

Une machine peut-elle être intelligente ?

En 1950, en avance sur son temps, le mathématicien et chimiste anglais Alan Turing a tenté de définir les conditions dans lesquelles il serait possible de dire qu'une machine est capable de penser comme nous (la "machine"). Test de Turing). C'est ce qu'on appelle une forte intelligence artificiellepour le distinguer du une intelligence artificielle faibleLa nouvelle "machine", qui couvre toutes les applications que nous avons jusqu'à présent, auxquelles la machine ne pense manifestement pas. 

Le test de Turing stipule qu'une machine sera aussi intelligente que l'homme (ou sera capable de penser) lorsqu'elle sera capable de tromper un nombre suffisant (30 %) d'êtres humains en leur faisant croire qu'ils échangent des informations avec un autre être humain, et non avec une machine. Turing ne s'est pas contenté de proposer le test, mais a prédit qu'il serait réalisé dans une cinquantaine d'années. Il n'avait pas tout à fait tort, puisqu'en 2014, un... chatbot (un programme qui participe à une conversation de chat) a réussi à convaincre 33 % de ses collègues participants, après cinq minutes de conversation, qu'il était un jeune Ukrainien de 13 ans. Cependant, certains analystes ne voient pas les choses aussi clairement. Evan Ackerman a écrit : "Le test de Turing ne prouve pas qu'un programme est capable de penser. Elle indique plutôt si un programme peut tromper un être humain. Et les êtres humains sont vraiment stupides".

De nombreux chercheurs estiment que le test de Turing n'est pas suffisant pour définir ou détecter l'intelligence. En 1980, le philosophe John Searle a tenté de le démontrer en proposant l'expression le site Chambre chinoise. Selon Searle, pour qu'un ordinateur soit considéré comme intelligent, outre le test de Turing, deux autres éléments sont nécessaires : qu'il comprenne ce qu'il écrit et qu'il soit conscient de la situation. Tant que ce n'est pas le cas, nous ne pouvons pas parler de... une forte intelligence artificielle.

Un problème très important est sous-jacent à tout cela : pour construire une intelligence artificielle forte, les machines doivent être dotées d'une conscience. Mais si nous ne savons pas ce qu'est la conscience, pas même la nôtre, comment pouvons-nous faire cela ? 

De nombreux progrès ont été réalisés ces derniers temps dans le domaine des neurosciences, mais nous sommes encore loin de pouvoir définir ce qu'est la conscience, d'où elle vient et comment elle fonctionne, sans parler de la créer, et encore moins de la simuler.

Est-il possible que les progrès de l'informatique nous amènent, à plus ou moins long terme, à créer quelque chose dans nos machines qui se comporte comme une superintelligence ? Ray Kurzweil le prédit depuis des décennies pour un avenir presque immédiat qui, comme l'horizon, s'éloigne à mesure que nous nous en approchons. 

Nous ne savons pas s'il sera possible, par des moyens informatiques, de construire des intelligences égales ou supérieures à la nôtre, avec la capacité d'avoir une conscience de soi. Mais si l'intelligence artificielle était réalisable, nous serions confrontés à un problème majeur : le "problème du confinement".

Problème de confinement

La question est la suivante : est-il possible de programmer une superintelligence de manière à ce qu'elle ne puisse pas nuire à un être humain ?

Essentiellement, le problème du confinement est équivalent à la première loi de la robotique d'Isaac Asimov. Eh bien, il y a des indications mathématiques récentes selon lesquelles il n'est pas possible de résoudre le problème du confinement. Si cela se confirme, deux possibilités s'offrent à nous : a) renoncer à créer des superintelligences, et b) renoncer à être sûr que ces superintelligences ne pourront pas nous nuire. 

Il est toujours risqué de prédire l'avenir, mais il semble évident que bon nombre des développements que l'on annonce à la légère comme imminents sont loin d'être réalisés.

L'auteurManuel Alfonseca

Professeur de systèmes et langages informatiques (retraité)

Bulletin d'information La Brújula Laissez-nous votre adresse e-mail et recevez chaque semaine les dernières nouvelles traitées d'un point de vue catholique.
Bannières publicitaires
Bannières publicitaires