Watykan

Moralność sztucznej inteligencji zależy od ludzkich decyzji, stwierdza Watykan w nowym dokumencie

Watykan ostrzega przed etycznym wykorzystaniem sztucznej inteligencji, przypominając, że powinna ona służyć wspólnemu dobru i nie powodować szkód. Uznając jej pozytywny potencjał, dokument wzywa do regulacji gwarantujących godność ludzką i zapobiegających nadużyciom.

Cindy Wooden-30 Styczeń 2025-Czas czytania: 4 minuty
IA

(OSV News). "Postęp technologiczny jest częścią Bożego planu stworzenia", powiedział Watykan, ale ludzie muszą wziąć odpowiedzialność za wykorzystanie technologii takich jak sztuczna inteligencja (AI), aby pomóc ludzkości, a nie szkodzić jednostkom lub grupom.

"Jak w przypadku każdego narzędzia IA jest przedłużeniem ludzkiej potęgi i chociaż jego przyszłe możliwości są nieprzewidywalne, przeszłe działania ludzkości dostarczają wyraźnych ostrzeżeń" - czytamy w komunikacie. dokument podpisany przez kardynałów Víctora Manuela Fernándeza, prefekta Dykasterii Nauki Wiary, i José Tolentino de Mendonça, prefekta Dykasterii Kultury i Edukacji.

Dokument, zatwierdzony przez papieża Franciszka 14 stycznia i upubliczniony przez Watykan 28 stycznia - dzień po Międzynarodowym Dniu Pamięci o Holokauście - stwierdza, że "okrucieństwa popełnione w całej historii są wystarczające, aby wzbudzić głębokie zaniepokojenie możliwymi nadużyciami w zakresie sztucznej inteligencji".

Antiqua et Nova

Zatytułowany "Antiqua et Nova (Old and New): A Note on the Relationship between Artificial Intelligence and Human Intelligence", artykuł koncentruje się w szczególności na moralnym wykorzystaniu technologii i wpływie, jaki sztuczna inteligencja już ma lub może mieć na relacje międzyludzkie, edukację, pracę, sztukę, opiekę zdrowotną, prawo, wojnę i stosunki międzynarodowe.

Technologia AI jest wykorzystywana nie tylko w aplikacjach takich jak ChatGPT i wyszukiwarki, ale także w reklamie, autonomicznych samochodach, autonomicznych systemach broni, systemach bezpieczeństwa i nadzoru, robotyce w fabrykach i analizie danych, a nawet w opiece zdrowotnej.

Papieże i instytucje watykańskie, w szczególności Papieska Akademia Nauk, od ponad 40 lat monitorują i wyrażają zaniepokojenie rozwojem i wykorzystaniem sztucznej inteligencji.

"Jak każdy produkt ludzkiej kreatywności, sztuczna inteligencja może być ukierunkowana na pozytywne lub negatywne cele" - czytamy w watykańskim dokumencie. "Kiedy jest używana w sposób, który szanuje ludzką godność i promuje dobrobyt jednostek i społeczności, może wnieść pozytywny wkład w ludzkie powołanie.

Ludzkie decyzje

"Jednak, podobnie jak we wszystkich obszarach, w których istoty ludzkie są wezwane do dokonywania wyborów, również tutaj pojawia się cień zła" - stwierdziły dykasterie. "Tam, gdzie ludzka wolność pozwala na wybór tego, co złe, moralna ocena tej technologii musi uwzględniać sposób, w jaki jest ona kierowana i wykorzystywana".

Ludzie, a nie maszyny, podejmują decyzje moralne. Dlatego "ważne jest, aby ostateczna odpowiedzialność za decyzje podejmowane przy użyciu sztucznej inteligencji spoczywała na ludzkich decydentach i aby istniała odpowiedzialność za wykorzystanie sztucznej inteligencji na każdym etapie procesu decyzyjnego".

Watykański dokument podkreśla, że chociaż sztuczna inteligencja może szybko wykonywać bardzo złożone zadania lub uzyskiwać dostęp do dużych ilości informacji, to nie jest naprawdę inteligentna, a przynajmniej nie w taki sam sposób, jak ludzie.

"Właściwe rozumienie ludzkiej inteligencji nie może być zredukowane do zwykłego przyswajania faktów lub zdolności do wykonywania określonych zadań. Wręcz przeciwnie, implikuje ona otwartość osoby na ostateczne pytania życia i odzwierciedla orientację na prawdę i dobro.

Specyficznie ludzki

Ludzka inteligencja obejmuje również słuchanie innych, wczuwanie się w nich, budowanie relacji i dokonywanie ocen moralnych - działania, których nawet najbardziej wyrafinowane programy AI nie są w stanie wykonać, mówi.

"Pomiędzy maszyną a istotą ludzką, tylko istota ludzka może być wystarczająco samoświadoma, aby słuchać i podążać za głosem sumienia, roztropnie rozeznawać i szukać dobra, które jest możliwe w każdej sytuacji" - czytamy w dokumencie.

Watykańskie dykasterie wydały kilka ostrzeżeń lub zastrzeżeń w dokumencie, wzywając indywidualnych użytkowników, programistów, a nawet rządy do sprawowania kontroli nad sposobem wykorzystania sztucznej inteligencji i do "zapewnienia, że sztuczna inteligencja zawsze wspiera i promuje najwyższą wartość godności każdej istoty ludzkiej i pełnię ludzkiego powołania".

Po pierwsze, zauważyli, że "zawsze należy unikać podszywania się pod sztuczną inteligencję; robienie tego w oszukańczych celach jest poważnym naruszeniem etyki, które może podważyć zaufanie społeczne". Podobnie, wykorzystywanie sztucznej inteligencji do oszukiwania w innych kontekstach - takich jak edukacja lub relacje międzyludzkie, w tym w obszarze seksualności - powinno być również uważane za niemoralne i wymaga starannego nadzoru w celu uniknięcia szkód, zachowania przejrzystości i zapewnienia godności wszystkich osób".

Nowe dyskryminacje

Dykasterie ostrzegły, że "sztuczna inteligencja może być wykorzystywana do utrwalania marginalizacji i dyskryminacji, tworzenia nowych form ubóstwa, poszerzania "przepaści cyfrowej" i pogłębiania istniejących nierówności społecznych".

Podczas gdy sztuczna inteligencja obiecuje zwiększyć produktywność w miejscu pracy poprzez "przejęcie przyziemnych zadań", według artykułu "często zmusza pracowników do dostosowania się do szybkości i wymagań maszyn, zamiast maszyn zaprojektowanych tak, aby pomagały tym, którzy pracują".

Rodzice, nauczyciele i uczniowie powinni również uważać na swoją zależność od sztucznej inteligencji i znać swoje ograniczenia.

"Powszechne wykorzystanie sztucznej inteligencji w edukacji może zwiększyć zależność uczniów od technologii, upośledzając ich zdolność do samodzielnego wykonywania niektórych zadań i pogłębiając ich uzależnienie od ekranów" - czytamy w artykule.

I chociaż sztuczna inteligencja może dostarczać informacji, zgodnie z dokumentem, nie edukuje, co wymaga myślenia, rozumowania i rozeznania.

Sztuczna inteligencja i dezinformacja

Użytkownicy powinni być również świadomi "poważnego ryzyka generowania przez sztuczną inteligencję zmanipulowanych treści i fałszywych informacji, które mogą łatwo wprowadzić ludzi w błąd ze względu na ich podobieństwo do prawdy". Takie dezinformacje mogą wystąpić nieumyślnie, na przykład w przypadku "halucynacji" AI, gdzie generatywny system AI generuje wyniki, które wydają się prawdziwe, ale nie są, ponieważ jest zaprogramowany tak, aby odpowiadać na wszystkie prośby o informacje, niezależnie od tego, czy ma do nich dostęp, czy nie.

Oczywiście, zgodnie z dokumentem, fałszywa sztuczna inteligencja może być również "zamierzona: osoby lub organizacje celowo generują i rozpowszechniają fałszywe treści w celu wprowadzenia w błąd lub wyrządzenia szkody, takie jak obrazy, wideo i audio. deepfake -odnosi się do fałszywej reprezentacji osoby, edytowanej lub generowanej przez algorytm sztucznej inteligencji.

Według dokumentu, wojskowe zastosowania technologii AI są szczególnie niepokojące ze względu na "łatwość, z jaką autonomiczna broń czyni działania wojenne bardziej opłacalnymi", potencjał AI do wyeliminowania "ludzkiego nadzoru" nad rozmieszczeniem broni oraz możliwość, że autonomiczna broń może stać się przedmiotem nowego "destabilizującego wyścigu zbrojeń, z katastrofalnymi konsekwencjami dla praw człowieka".

AutorCindy Wooden

OSV News

Biuletyn informacyjny La Brújula Zostaw nam swój e-mail i otrzymuj co tydzień najnowsze wiadomości z katolickim punktem widzenia.