Dossier

Postępy sztucznej inteligencji

Terminy "inteligentny" i "sztuczna inteligencja" są używane bardzo często, prawie zawsze wywołując podziw. Czym jednak jest sztuczna inteligencja - po prostu inna nazwa informatyki? Autor jest profesorem uniwersyteckim, inżynierem i informatykiem. Pracował w IBM i jest autorem licznych publikacji, zarówno naukowych, jak i popularnych.

Manuel Alfonseca-31 marca 2020 r.-Czas czytania: 9 minuty

Sztuczna inteligencja leży u podstaw obecnych przemian metod pracy, sposobów odnoszenia się i mentalności, charakteryzujących się szybkością i złożonością techniczną. Niniejsze opracowanie ma na celu pomóc nam zrozumieć różne aspekty i reperkusje, w tym implikacje etyczne, z pomocą profesjonalnych ekspertów i refleksji zaproponowanych przez papieża Franciszka na temat tych wydarzeń.

Niemal od początku historii informatyki komputery były programowane do inteligentnego działania. W 1956 roku Herbert Gelernter w IBM's Poughkeepsie Laboratory zbudował program zdolny do rozwiązywania twierdzeń dotyczących geometrii płaskiej, co było jednym z pierwszych przykładów sztucznej inteligencji. W tym samym roku John McCarthy i inni pionierzy informatyki spotkali się na seminarium w Dartmouth College w Hanowerze (USA). Po nadaniu nazwy nowej dyscyplinie (sztuczna inteligencja) przewidywał, że w ciągu dekady pojawią się programy zdolne do tłumaczenia między dwoma ludzkimi językami i grające w szachy lepiej niż mistrz świata. Wtedy powstałyby maszyny o inteligencji równej lub większej od naszej, a my weszlibyśmy na nową ścieżkę ewolucji człowieka. Spełniłoby się dawne marzenie o budowie sztucznych ludzi.

Ale sprawy nie potoczyły się tak, jak przewidywali ci optymiści. O ile Arthur Samuel z IBM zbudował program do gry w drejdla, który przechowywał informacje o przebiegu rozgrywek i wykorzystywał je do modyfikowania swoich przyszłych ruchów (czyli uczył się), o tyle szachy okazały się znacznie trudniejszym celem. Cel, jakim było pokonanie mistrza świata, został zrealizowany z ponad 30-letnim opóźnieniem.

Tłumaczenie tekstów pomiędzy dwoma językami naturalnymi również okazało się trudniejsze niż się spodziewano. Nasze języki są wieloznaczne, ponieważ to samo słowo może mieć kilka znaczeń, które często są różne w różnych językach, a ponadto w tym samym zdaniu słowo może pełnić kilka ról składniowych. 

Niepowodzenie przewidywań ekspertów zniechęciło badaczy sztucznej inteligencji, z których wielu zwróciło się ku innym badaniom. Co więcej, w 1969 roku Marvin Minski i Seymour Papert wykazali, że badane od lat 50. ubiegłego wieku jedno- lub dwuwarstwowe sztuczne sieci neuronowe nie są w stanie rozwiązywać bardzo prostych problemów. 

W latach 70. XX wieku zainteresowanie sztuczną inteligencją odnowiły systemy ekspertowe. Po raz kolejny dzwoniono w dzwony i przewidywano zbyt ambitne natychmiastowe postępy. Na przykład rząd japoński uruchomił pod koniec lat 70. projekt piątej generacjiktórego celem było opracowanie w ciągu dziesięciu lat (zawsze w ciągu dziesięciu lat) maszyn zdolnych do pomyśl Celem projektu jest rozwijanie umiejętności komunikowania się z nami w naszym własnym języku oraz tłumaczenie tekstów napisanych w języku angielskim i japońskim.

Przerażone tym projektem Stany Zjednoczone i Unia Europejska uruchomiły własne programy badawcze, o mniej ambitnych celach. Amerykanie skupili swoje wysiłki na programach wojskowych, m.in. Strategiczna inicjatywa komputerowa (SCI), który skupiał się na budowie autonomicznych, bezpilotowych pojazdów na ziemi i w powietrzu; "inteligentnych" broni; oraz projektu o nazwie Gwiezdne wojnyktóra miała chronić Stany Zjednoczone przed atakiem nuklearnym. Z kolei Europa skupiła się na problemie tłumaczenia maszynowego, realizując projekt Eurotra.

Na początku lat 90. japoński projekt zakończył się sromotną porażką. Program wojskowy USA był bardziej udany, co widać podczas drugiej wojny w Iraku. I chociaż projekt Gwiezdne wojny nigdy nie została zrealizowana, jej ogłoszenie wywarło presję na Związek Radziecki, dlatego niektórzy analitycy uważają, że była to jedna z przyczyn zakończenia zimnej wojny. Co do projektu EurotraNie doprowadziło to do powstania autonomicznego systemu tłumaczenia maszynowego, ale doprowadziło do skonstruowania narzędzi pomagających ludzkim tłumaczom zwiększyć ich produktywność, w taki sam sposób jak Google Translate.

W 1997 roku, 30 lat później niż się spodziewano, komputerowi udało się wreszcie pokonać mistrza świata w szachach (Garri Kasparow) w turnieju sześcioosobowym. Automatyzacja prowadzenia pojazdów (samochodów i samolotów) również przeszła długą drogę. Dlatego coraz częściej mówi się, że jesteśmy u progu osiągnięcia prawdziwego sztuczna inteligencjaCzy to możliwe, czy rzeczywiście jest tak blisko, jak zdają się wierzyć niektórzy eksperci (nieliczni) i media? 

Definicja sztucznej inteligencji

Badacze nie zawsze są zgodni co do definicji tej gałęzi informatyki, dlatego nie jest łatwo jednoznacznie wyodrębnić dyscypliny i aplikacje należące do tej dziedziny. Ostatnio modne stało się używanie terminu sztuczna inteligencja odnosić się do każdej aplikacji komputerowej, więc jej rozgraniczenie jest coraz bardziej rozmyte i niejasne. System publicznych ławek ulicznych zawierających repeater wifi i panel słoneczny, który dostarcza energii do ładowania telefonu komórkowego, został nawet przedstawiony jako sztuczna inteligencja. Gdzie jest inteligencja? Jeśli w ogóle, to w człowieku, który wpadł na pomysł zmontowania takich urządzeń.

Najbardziej rozpowszechniona definicja dziedziny sztucznej inteligencji brzmi tak: zbiór technik, które próbują rozwiązywać problemy związane z symbolicznym przetwarzaniem informacji, wykorzystując metody heurystyczne

Aplikacja sztucznej inteligencji powinna spełniać trzy następujące warunki: a) przetwarzana informacja powinna mieć charakter symboliczny; b) problem do rozwiązania powinien być nietrywialny; c) najbardziej praktycznym sposobem podejścia do problemu jest zastosowanie reguł heurystycznych (opartych na doświadczeniu). Program powinien umieć wydobyć te heurystyczne reguły z własnego doświadczenia, czyli powinien umieć się uczyć.

Zastosowania sztucznej inteligencji

Oprócz projektowania mistrzów w grach powszechnie uważanych za smartZastosowań sztucznej inteligencji jest znacznie więcej. U niektórych wyniki były spektakularne i zbliżały się do tego, co intuicyjnie rozumiemy jako maszynę myślącą.

Istnieje wiele obszarów, w których możliwe było zastosowanie technik sztucznej inteligencji, do tego stopnia, że dziedzina ta stała się nieco mieszanym workiem. Przyjrzyjmy się niektórym z nich:

-Smart games. W 1997 r. program Deep Blue (dedykowana maszyna IBM) pokonał mistrza świata, wówczas Garri Kasparowa. Obecnie najlepszy program to. AlphaZeroprzedsiębiorstwa DeepMind (należący do Google), który nie opiera się na zasadach wprowadzonych przez człowieka, ale na samouczeniu się (rozegrał pięć milionów gier przeciwko sobie). Inne pomyślnie rozwiązane gry to m.in. backgammon (backgammon), panie, Jeopardy!niektóre formy pokera, oraz Wejdź na stronę

-Prowadzenie logicznego rozumowania. Istnieją trzy rodzaje rozumowania logicznego: dedukcyjne (niezbędne w matematyce), indukcyjne (stosowane przez nauki eksperymentalne) i abdukcyjne (stosowane głównie w naukach o człowieku, historii i niektórych gałęziach biologii, np. paleontologii). Problem programowania komputerów do przeprowadzania dedukcji logicznej można uznać za rozwiązany. Znacznie trudniej jest jednak zaprogramować procesy rozumowania indukcyjnego czy abdukcyjnego, dlatego ten obszar badań w sztucznej inteligencji jest wciąż otwarty.

-Proces słowotwórczy. Celem jest sprawienie, aby komputery rozumiały ludzki głos, dzięki czemu możliwe będzie wydawanie im poleceń w bardziej naturalny sposób, bez konieczności używania klawiatury. Badania w tej dziedzinie utrudniał fakt, że każda osoba ma swój własny sposób wymowy, a język mówiony jest jeszcze bardziej wieloznaczny niż język pisany, ale ostatnio poczyniono znaczne postępy i często ponad 90 procent słów jest rozumianych. 

-Przetwarzanie tekstów pisanych. Dzieli się na dwa główne obszary: przetwarzanie języka naturalnego i tłumaczenie maszynowe. 

Stosunkowo niedawno powstałą dziedziną jest eksploracja danychCelem jest wydobycie informacji z tekstów pisanych i próba zrozumienia ich znaczenia. Odbywa się to poprzez zastosowanie metod statystycznych i budowanie anotowanych korpusów z informacjami o terminach. Dzięki ich zastosowaniu programy poprawiają lub przyspieszają zrozumienie tekstów, które muszą zinterpretować.

W dziedzinie tłumaczenia maszynowego problemy się mnożą, ponieważ programy muszą radzić sobie z dwoma językami naturalnymi zamiast jednego, z których oba są nękane przez wieloznaczności i nieregularności i często nie pokrywają się ze sobą. Zazwyczaj celem tych programów jest stworzenie przybliżonego (nie doskonałego) tłumaczenia tekstów źródłowych, nad którym może pracować ludzki tłumacz, poprawiając go, co znacznie zwiększa jego wydajność.

-Automatyczne przetwarzanie pojazdów i obrazów. Kiedy obserwujemy scenę za pomocą wzroku, jesteśmy w stanie zinterpretować otrzymane informacje i zidentyfikować niezależne obiekty. Ta dziedzina badań ma na celu zaprogramowanie maszyn i robotów tak, aby wizualnie rozpoznawały elementy, z którymi mają wejść w interakcję. Jednym z jego najbardziej spektakularnych zastosowań jest samochód automatyczny. Projekt ten, obecnie mocno zaawansowany przez kilka firm, ma na celu zbudowanie pojazdów bez kierowcy, które mogą poruszać się po drogach i ulicach miasta. Badania te, które rozpoczęły się na Uniwersytecie Carnegie Mellon Pierwsze samochody bez kierowcy pojawiły się pod koniec lat 80. i otrzymały duży impuls w latach 90. ubiegłego wieku, kiedy to samochód bez kierowcy po raz pierwszy wyjechał na niemieckie autostrady. Jak na razie w XXI wieku badania w dziedzinie samochodów bez kierowcy wciąż czynią postępy, a czas, kiedy zostaną one dopuszczone do komercjalizacji, nie jest odległy.

-Systemy eksperckie. Są to programy, które przeprowadzają logiczne dedukcje w celu zastosowania reguł wiedzy dostarczonej przez ludzkich znawców tematu do rozwiązania konkretnych problemów. 

Pierwsza próba (program o nazwie DENDRAL, potrafiący uzyskać wzór związku chemicznego z jego spektrogramu masowego) została zbudowana około 1965 roku na Uniwersytecie Stanforda. W latach 70. i 80. badania nad systemami ekspertowymi znalazły zastosowanie w diagnostyce medycznej, matematyce, fizyce, poszukiwaniach górniczych, genetyce, automatycznej produkcji, automatycznej konfiguracji komputerów itd. Jednak pod koniec lat 80. przeszły do lamusa. Choć nie zniknęły one całkowicie, dziś nie odgrywają większej roli w badaniach nad sztuczną inteligencją.

-Sztuczne sieci neuronowe. Jest to jedno z najstarszych zastosowań sztucznej inteligencji, a także jedno z najszerzej stosowanych obecnie. Na stronie neurony tworzące te sieci są bardzo uproszczone, w porównaniu z tymi, które stanowią część układu nerwowego człowieka i wielu zwierząt. Sieci te są w stanie rozwiązać bardzo złożone problemy w bardzo krótkim czasie, choć uzyskane rozwiązanie nie jest zazwyczaj optymalne, a jedynie przybliżone, co często jest wystarczające dla naszych potrzeb. Obecnie sieci neuronowe są wykorzystywane w wielu aplikacjach uczenia maszynowego, takich jak wspomniane wcześniej translatory maszynowe.

-Kognitywne obliczenia i bazy wiedzy o świecie. Jednym z problemów utrudniających badania nad sztuczną inteligencją był fakt, że komputery mają niewielką wiedzę o otaczającym nas świecie, co stawia je w oczywistej niekorzystnej sytuacji w porównaniu z każdym człowiekiem, który posiada te informacje, nabywając je od dzieciństwa, i może je wykorzystać do rozwiązywania zdroworozsądkowych problemów, które wydają się banalne, ale które są niezwykle trudne do rozwiązania dla maszyn nieposiadających niezbędnych informacji. IBM uruchomił projekt dotyczący cognitive computing, którego celem jest zbudowanie programów, które na podstawie bardzo obfitych danych (big data) oraz wykorzystując techniki sztucznej inteligencji i uczenia maszynowego, są w stanie dokonywać użytecznych przewidywań i wnioskowań oraz odpowiadać na pytania wyrażone w języku naturalnym. 

Na razie systemy te nie mogą być porównywane z ludźmi i są zwykle ograniczone do określonej dziedziny zastosowań.

Czy maszyna może być inteligentna?

W 1950 roku, wyprzedzając swoje czasy, angielski matematyk i chemik Alan Turing próbował zdefiniować warunki, w których można by powiedzieć, że maszyna jest w stanie myśleć tak jak my ("maszyna"). Test Turinga). To się nazywa silna sztuczna inteligencjaaby odróżnić go od słaba sztuczna inteligencjaNowa "maszyna", która obejmuje wszystkie dotychczasowe zastosowania, o których maszyna wyraźnie nie myśli. 

Test Turinga stwierdza, że maszyna będzie tak inteligentna jak człowiek (lub będzie w stanie myśleć), gdy będzie w stanie oszukać wystarczającą liczbę (30 %) istot ludzkich, aby uwierzyły, że wymieniają informacje z innym człowiekiem, a nie z maszyną. Turing nie ograniczył się do zaproponowania testu, ale przewidział, że zostanie on spełniony za około pięćdziesiąt lat. Niewiele się pomylił, gdyż w 2014 r. a chatbot (a) program, który bierze udział w rozmowie czat) zdołał po pięciu minutach rozmowy przekonać 33 % swoich współuczestników, że jest 13-letnim chłopcem z Ukrainy. Niektórzy analitycy nie widzą jednak sprawy tak jasno. Evan Ackerman napisał: "Test Turinga nie dowodzi, że program jest zdolny do myślenia. Wskazuje raczej, czy program może oszukać człowieka. A istoty ludzkie są naprawdę głupie".

Wielu badaczy uważa, że test Turinga nie jest wystarczający do zdefiniowania lub wykrycia inteligencji. W 1980 roku filozof John Searle próbował to wykazać, proponując the Pokój chiński. Według Searle'a, aby komputer można było uznać za inteligentny, oprócz testu Turinga potrzebne są jeszcze dwie rzeczy: że rozumie to, co pisze, oraz że jest świadomy sytuacji. Dopóki to nie nastąpi, nie możemy mówić o silna sztuczna inteligencja.

U podstaw tego wszystkiego leży bardzo ważny problem: aby zbudować silną sztuczną inteligencję, maszyny muszą być obdarzone świadomością. Ale jeśli nie wiemy, czym jest świadomość, nawet nasza własna, to jak możemy to zrobić? 

W ostatnich czasach dokonano znacznego postępu w neuronaukach, ale wciąż jesteśmy daleko od możliwości zdefiniowania, czym jest świadomość, skąd pochodzi i jak działa, nie mówiąc już o jej stworzeniu, a tym bardziej symulacji.

Czy jest możliwe, że postępy w dziedzinie informatyki doprowadzą w dłuższej lub krótszej perspektywie do stworzenia w naszych maszynach czegoś, co zachowuje się jak superinteligencja? Ray Kurzweil od dziesięcioleci zapowiada ją na niemal natychmiastową przyszłość, która, jak horyzont, oddala się w miarę zbliżania się do niej. 

Nie wiemy, czy będzie możliwe, za pomocą środków obliczeniowych, skonstruowanie inteligencji równej lub wyższej od naszej, ze zdolnością do samoświadomości. Gdyby jednak sztuczna inteligencja była możliwa do zrealizowania, stanęlibyśmy przed poważnym problemem: "problemem powstrzymania".

Problem zamknięcia

Pytanie jest następujące: czy możliwe jest takie zaprogramowanie superinteligencji, aby nie mogła wyrządzić krzywdy człowiekowi?

Zasadniczo problem powstrzymywania jest równoważny z pierwszym prawem robotyki Isaaca Asimova. Otóż ostatnio pojawiły się matematyczne przesłanki, że nie da się rozwiązać problemu powstrzymywania. Jeśli to się potwierdzi, mamy dwie możliwości: a) zrezygnować z tworzenia superinteligencji i b) zrezygnować z pewności, że te superinteligencje nie będą w stanie nam zaszkodzić. 

Przewidywanie przyszłości jest zawsze ryzykowne, ale wydaje się jasne, że wiele z wydarzeń, które są lekko zapowiadane jako nieuchronne, jest bardzo odległych.

AutorManuel Alfonseca

Profesor systemów i języków komputerowych (na emeryturze)

Biuletyn informacyjny La Brújula Zostaw nam swój e-mail i otrzymuj co tydzień najnowsze wiadomości z katolickim punktem widzenia.