Dossier

I progressi dell'intelligenza artificiale

I termini "intelligente" e "intelligenza artificiale" sono molto utilizzati e suscitano quasi sempre ammirazione. Ma cos'è l'intelligenza artificiale - solo un altro nome per l'informatica? L'autore è un professore universitario, ingegnere e informatico. Ha lavorato presso l'IBM ed è autore di numerose pubblicazioni, sia scientifiche che divulgative.

Manuel Alfonseca-31 marzo 2020-Tempo di lettura: 9 minuti

L'intelligenza artificiale è al centro dell'attuale trasformazione dei metodi di lavoro, dei modi di relazionarsi e della mentalità, caratterizzata da velocità e complessità tecnica. Questo dossier vuole aiutarci a comprenderne i vari aspetti e le ripercussioni, comprese le implicazioni etiche, con l'aiuto di esperti professionisti e le riflessioni offerte da Papa Francesco su questi sviluppi.

Quasi dall'inizio della storia dell'informatica, i computer sono stati programmati per agire in modo intelligente. Nel 1956, Herbert Gelernter del Laboratorio IBM di Poughkeepsie costruì un programma in grado di risolvere teoremi di geometria piana, uno dei primi esempi di intelligenza artificiale. Nello stesso anno, John McCarthy e altri pionieri dell'informatica si incontrarono in un seminario al Dartmouth College di Hanover (USA). Dopo aver dato un nome alla nuova disciplina (intelligenza artificiale) prevedeva che entro un decennio ci sarebbero stati programmi in grado di tradurre tra due lingue umane e di giocare a scacchi meglio del campione del mondo. A quel punto sarebbero state costruite macchine con un'intelligenza pari o superiore alla nostra e saremmo entrati in un nuovo percorso dell'evoluzione umana. Il vecchio sogno di costruire uomini artificiali si sarebbe avverato.

Ma le cose non sono andate come avevano previsto quegli ottimisti. Sebbene Arthur Samuel dell'IBM abbia costruito un programma per giocare a dama che memorizzava le informazioni sull'andamento delle partite e le utilizzava per modificare le sue mosse future (cioè per imparare), gli scacchi si sono rivelati un obiettivo molto più difficile. L'obiettivo di battere il campione del mondo era in ritardo di oltre 30 anni.

Anche la traduzione di testi tra due lingue naturali si è rivelata più difficile del previsto. Le nostre lingue sono ambigue, perché la stessa parola può avere diversi significati, che spesso sono diversi nelle varie lingue, e inoltre, nella stessa frase, una parola può svolgere diversi ruoli sintattici. 

Il fallimento delle previsioni degli esperti ha scoraggiato i ricercatori di intelligenza artificiale, molti dei quali si sono dedicati ad altre ricerche. Inoltre, nel 1969, Marvin Minski e Seymour Papert hanno dimostrato che le reti neurali artificiali a uno o due strati, studiate fin dagli anni Cinquanta, non sono in grado di risolvere problemi molto semplici. 

Negli anni '70, l'interesse per l'intelligenza artificiale è stato rinnovato dai sistemi esperti. Ancora una volta, sono stati suonati i campanelli e sono stati pronosticati progressi immediati troppo ambiziosi. Il governo giapponese, ad esempio, alla fine degli anni Settanta ha lanciato il progetto progetto di quinta generazioneil cui obiettivo era quello di sviluppare in dieci anni (sempre in dieci anni) macchine in grado di pensare L'obiettivo del progetto è sviluppare la capacità di comunicare con noi nella nostra lingua e di tradurre testi scritti in inglese e giapponese.

Spaventati dal progetto, gli Stati Uniti e l'Unione Europea hanno lanciato i propri programmi di ricerca, con obiettivi meno ambiziosi. Gli americani hanno concentrato i loro sforzi su programmi militari, come la Iniziativa informatica strategica (SCI), che si è concentrato sulla costruzione di veicoli autonomi senza pilota a terra e in aria; armi "intelligenti"; e il progetto soprannominato Guerre stellariche doveva proteggere gli Stati Uniti da un attacco nucleare. L'Europa, invece, si è concentrata sul problema della traduzione automatica con il progetto Eurotra.

All'inizio degli anni Novanta, il progetto giapponese si è concluso con un fallimento totale. Il programma militare statunitense ha avuto più successo, come si è visto durante la seconda guerra in Iraq. E sebbene il progetto Guerre stellari non è mai stato attuato, ma il suo annuncio ha messo sotto pressione l'Unione Sovietica, motivo per cui alcuni analisti ritengono che sia stato una delle cause della fine della Guerra Fredda. Per quanto riguarda il progetto EurotraQuesto non ha dato vita a un sistema di traduzione automatica autonomo, ma ha portato alla costruzione di strumenti che aiutano i traduttori umani ad aumentare la loro produttività, allo stesso modo in cui Google Translate.

Nel 1997, 30 anni dopo il previsto, un computer è finalmente riuscito a battere il campione mondiale di scacchi (Garri Kasparov) in un torneo di sei partite. Anche la guida automatizzata dei veicoli (auto e aerei) ha fatto molta strada. Per questo motivo si dice sempre più spesso che siamo sul punto di raggiungere il vero e proprio intelligenza artificialeÈ possibile, è davvero così vicino come alcuni esperti (non molti) e i media sembrano credere? 

Definizione di intelligenza artificiale

I ricercatori non sono sempre d'accordo sulla definizione di questa branca dell'informatica, quindi non è facile distinguere chiaramente tra le discipline e le applicazioni che appartengono a questo campo. Ultimamente è diventato di moda utilizzare il termine intelligenza artificiale per riferirsi a qualsiasi applicazione informatica, per cui la sua delimitazione è sempre più sfumata e confusa. Un sistema di panchine pubbliche che incorpora un ripetitore wifi e un pannello solare per ricaricare un telefono cellulare è stato addirittura presentato come intelligenza artificiale. Dov'è l'intelligenza? Semmai nell'essere umano che ha avuto l'idea di assemblare tali dispositivi.

La definizione più diffusa del campo dell'intelligenza artificiale è la seguente: un insieme di tecniche che tentano di risolvere problemi legati all'elaborazione simbolica delle informazioni, utilizzando metodi euristici

Un'applicazione di intelligenza artificiale deve soddisfare le seguenti tre condizioni: a) le informazioni da elaborare devono essere di natura simbolica; b) il problema da risolvere deve essere non banale; c) il modo più pratico di affrontare il problema è quello di utilizzare regole euristiche (basate sull'esperienza). Il programma deve essere in grado di estrarre queste regole euristiche dalla propria esperienza, cioè deve essere in grado di imparare.

Applicazioni di intelligenza artificiale

Oltre a progettare campioni per giochi generalmente considerati come intelligenteLe applicazioni dell'intelligenza artificiale sono molte di più. In alcuni casi, i risultati sono stati spettacolari e si avvicinano a ciò che intuitivamente intendiamo per macchina pensante.

Sono molti i settori in cui è stato possibile applicare le tecniche di intelligenza artificiale, al punto che il campo assomiglia a un piccolo cassetto. Vediamone alcuni:

-Giochi intelligenti. Nel 1997, il programma Blu profondo (una macchina IBM dedicata) ha battuto il campione del mondo, l'allora Garri Kasparov. Attualmente il programma migliore è AlfaZerodell'azienda DeepMind (di proprietà di Google), che non si basa su regole introdotte dall'uomo, ma sull'autoapprendimento (ha giocato cinque milioni di partite contro se stesso). Altri giochi risolti con successo sono il backgammon (backgammon), le signore, Jeopardy!alcune forme di poker e Vai

-Esecuzione di un ragionamento logico. Esistono tre tipi di ragionamento logico: deduttivo (essenziale in matematica), induttivo (utilizzato dalle scienze sperimentali) e abduttivo (utilizzato principalmente nelle scienze umane, nella storia e in alcune branche della biologia, come la paleontologia). Il problema di programmare i computer per eseguire deduzioni logiche può considerarsi risolto. D'altra parte, è molto più difficile programmare i processi di ragionamento induttivo o abduttivo, per cui questo campo di ricerca nell'intelligenza artificiale rimane aperto.

-Processo verbale. L'obiettivo è far sì che i computer comprendano la voce umana, in modo da poter impartire loro comandi in modo più naturale, senza dover usare la tastiera. La ricerca in questo campo è stata ostacolata dal fatto che ogni persona ha un proprio modo di pronunciare e che il linguaggio parlato è ancora più ambiguo di quello scritto, ma negli ultimi tempi sono stati fatti molti progressi e spesso più del 90% delle parole viene compreso. 

-Elaborazione di testi scritti. È suddivisa in due aree principali: l'elaborazione del linguaggio naturale e la traduzione automatica. 

Un campo relativamente recente è quello della data miningL'obiettivo è estrarre informazioni da testi scritti e cercare di comprenderne il significato. Ciò avviene utilizzando metodi statistici e costruendo corpora annotati con informazioni sui termini. Utilizzandoli, i programmi migliorano o accelerano la comprensione dei testi che devono interpretare.

Nel campo della traduzione automatica, i problemi si moltiplicano, poiché i programmi devono trattare due lingue naturali invece di una, entrambe afflitte da ambiguità e irregolarità e spesso non coincidenti tra loro. Di solito l'obiettivo di questi programmi è produrre una traduzione approssimativa (non perfetta) dei testi di partenza, sulla quale un traduttore umano può lavorare per migliorarla, aumentando così notevolmente le sue prestazioni.

-Elaborazione automatica di veicoli e immagini. Quando osserviamo una scena attraverso la vista, siamo in grado di interpretare le informazioni che riceviamo e di identificare gli oggetti indipendenti. Questo campo di ricerca mira a programmare macchine e robot per riconoscere visivamente gli elementi con cui devono interagire. Una delle sue applicazioni più spettacolari è l'automobile automatica. Questo progetto, attualmente in fase avanzata da parte di diverse aziende, mira a costruire veicoli senza conducente in grado di navigare nelle strade e nelle vie di una città. Questa ricerca, iniziata presso l'Università Carnegie Mellon Le prime auto senza conducente sono state introdotte alla fine degli anni '80 e hanno ricevuto un notevole impulso negli anni '90, quando un'auto senza conducente ha percorso per la prima volta le autostrade tedesche. Nel 21° secolo, la ricerca nel campo delle auto senza conducente ha continuato a fare progressi e non è lontano il momento in cui sarà possibile commercializzarle.

-Sistemi esperti. Si tratta di programmi che eseguono deduzioni logiche per applicare regole di conoscenza fornite da esperti umani della materia per risolvere problemi concreti. 

Il primo tentativo (un programma chiamato DENDRAL, in grado di ottenere la formula di un composto chimico dal suo spettrogramma di massa) è stato realizzato intorno al 1965 presso l'Università di Stanford. Negli anni '70 e '80, la ricerca sui sistemi esperti è stata applicata alla diagnostica medica, alla matematica, alla fisica, alla prospezione mineraria, alla genetica, alla produzione automatica, alla configurazione automatica dei computer e così via. Ma alla fine degli anni '80 sono andati in declino. Anche se non sono scomparsi del tutto, oggi non svolgono un ruolo importante nella ricerca sull'intelligenza artificiale.

-Reti neurali artificiali. È una delle applicazioni più antiche dell'intelligenza artificiale e anche una delle più utilizzate oggi. Il neuroni che compongono queste reti sono molto semplificate, rispetto a quelle che fanno parte del sistema nervoso umano e a quelle di molti animali. Queste reti sono in grado di risolvere problemi molto complessi in tempi molto brevi, anche se la soluzione ottenuta di solito non è ottimale, ma solo un'approssimazione, che spesso è sufficiente per le nostre esigenze. Oggi le reti neurali sono utilizzate in molte applicazioni di apprendimento automatico, come i traduttori automatici menzionati in precedenza.

-Informatica cognitiva e basi di conoscenza sul mondo. Uno dei problemi che hanno ostacolato la ricerca sull'intelligenza artificiale è stato il fatto che i computer hanno una scarsa conoscenza del mondo che ci circonda, il che li pone in un evidente svantaggio rispetto a qualsiasi essere umano, che invece possiede queste informazioni, acquisite fin dall'infanzia, e può usarle per risolvere problemi di buon senso che sembrano banali, ma che sono estremamente difficili da risolvere per le macchine che non hanno le informazioni necessarie. IBM ha lanciato un progetto sul cognitive computing che mira a costruire programmi che, a partire da dati molto abbondanti (grandi dati) e utilizzando tecniche di intelligenza artificiale e di apprendimento automatico, sono in grado di fare previsioni e inferenze utili e di rispondere a domande espresse in linguaggio naturale. 

Per il momento, questi sistemi non possono essere paragonati agli esseri umani e sono solitamente limitati a un campo di applicazione specifico.

Una macchina può essere intelligente?

Nel 1950, in anticipo sui tempi, il matematico e chimico inglese Alan Turing cercò di definire le condizioni in base alle quali sarebbe stato possibile affermare che una macchina è in grado di pensare come noi (la "macchina"). Test di Turing). Questo si chiama forte intelligenza artificialeper distinguerlo dal intelligenza artificiale deboleLa nuova "macchina", che copre tutte le applicazioni che abbiamo finora, a cui la macchina chiaramente non pensa. 

Il test di Turing afferma che una macchina sarà intelligente come l'uomo (o sarà in grado di pensare) quando sarà in grado di ingannare un numero sufficiente (30 %) di esseri umani facendo loro credere che stanno scambiando informazioni con un altro essere umano e non con una macchina. Turing non si limitò a proporre il test, ma predisse che sarebbe stato realizzato in circa cinquant'anni. Non si sbagliava di molto, visto che nel 2014 una chatbot (un programma che partecipa a una conversazione di chat) è riuscito a convincere 33 % dei suoi compagni di viaggio, dopo cinque minuti di conversazione, di essere un ragazzo ucraino di 13 anni. Tuttavia, alcuni analisti non vedono le cose in modo così chiaro. Evan Ackerman ha scritto: "Il test di Turing non prova che un programma sia in grado di pensare. Piuttosto, indica se un programma può ingannare un essere umano. E gli esseri umani sono davvero stupidi".

Molti ricercatori ritengono che il test di Turing non sia sufficiente per definire o rilevare l'intelligenza. Nel 1980, il filosofo John Searle ha cercato di dimostrarlo proponendo la teoria del il Camera cinese. Secondo Searle, perché un computer possa essere considerato intelligente, oltre al test di Turing, sono necessarie altre due cose: che capisca ciò che sta scrivendo e che sia consapevole della situazione. Finché questo non accade, non si può parlare di forte intelligenza artificiale.

Alla base di tutto questo c'è un problema molto importante: per costruire una forte intelligenza artificiale, le macchine devono essere dotate di coscienza. Ma se non sappiamo cosa sia la coscienza, nemmeno la nostra, come possiamo farlo? 

Negli ultimi tempi sono stati compiuti molti progressi nelle neuroscienze, ma siamo ancora lontani dal poter definire che cos'è la coscienza, da dove viene e come funziona, per non parlare di crearla o di simularla.

È possibile che i progressi dell'informatica ci portino, a lungo o a breve termine, a creare nelle nostre macchine qualcosa che si comporti come una superintelligenza? Ray Kurzweil lo prevede da decenni per un futuro quasi immediato che, come l'orizzonte, si allontana man mano che ci si avvicina. 

Non sappiamo se sarà possibile, con mezzi computazionali, costruire intelligenze uguali o superiori alla nostra, con capacità di autocoscienza. Ma se l'intelligenza artificiale fosse praticabile, ci troveremmo di fronte a un problema importante: il "problema del contenimento".

Problema di contenimento

La domanda è la seguente: è possibile programmare una superintelligenza in modo che non possa causare danni a un essere umano?

In sostanza, il problema del contenimento è equivalente alla prima legge della robotica di Isaac Asimov. Ebbene, ci sono recenti indicazioni matematiche che indicano che il problema del contenimento non può essere risolto. Se questo viene confermato, abbiamo due possibilità: a) rinunciare a creare superintelligenze e b) rinunciare a essere sicuri che queste superintelligenze non saranno in grado di danneggiarci. 

È sempre rischioso prevedere il futuro, ma sembra chiaro che molti degli sviluppi annunciati come imminenti sono molto lontani.

L'autoreManuel Alfonseca

Professore di sistemi e linguaggi informatici (in pensione)

Newsletter La Brújula Lasciateci la vostra e-mail e riceverete ogni settimana le ultime notizie curate con un punto di vista cattolico.