"Künstliche Intelligenz und Frieden". Das von Papst Franziskus gewählte Thema für die Weltfriedenstag Die Frist 1. Januar 2024 umfasst drei Wörter, die im letzten Jahr aktueller denn je geworden sind. Seit die Welt weiß ChatGPT im November 2022, die Laufzeit künstliche Intelligenz Es ist nicht nur allen bekannt geworden, sondern auch in ethische Überlegungen, Konferenzen, Artikel und Analysen eingeflossen (und manchmal wieder eingeflossen).
Nachdem die Digitalisierung jahrelang als "nur für Experten" galt, ist uns allen klar geworden, wie tiefgreifend sie das Leben aller Menschen beeinflusst. Dennoch kann nicht genug über den Frieden gesprochen werden. Denn in der Welt, daran hat Papst Franziskus immer wieder erinnert, tobt der Dritte Weltkrieg schon lange in Stücken. Und zwei seiner Teile, die Ukraine und der Nahe Osten, liegen uns in Europa besonders am Herzen.
Offensichtlich - und nicht zufällig - wollte Papst Franziskus künstliche Intelligenz und Frieden zusammenbringen, um auf eine sehr reale Gefahr hinzuweisen: "Die neuen Technologien haben ein disruptives Potenzial und ambivalente Auswirkungen". Dies ist uns allen bereits bewusst geworden, insbesondere im letzten Jahr: "Die bemerkenswerten Fortschritte auf dem Gebiet der künstlichen Intelligenz haben immer tiefgreifendere Auswirkungen auf das menschliche Handeln, auf das persönliche und gesellschaftliche Leben, auf Politik und Wirtschaft.
Nicht jeder versteht das, aber was in der digitalen Welt geschieht, ist eine doppelte Herausforderung: einerseits eine wirtschaftliche und machtpolitische Herausforderung (wer auch immer große Systeme der künstlichen Intelligenz verwaltet, wird in der Tat wichtige Teile der Welt verwalten), und andererseits eine kulturelle, soziale und anthropologische Herausforderung. Wer ein KI-System entwickelt, weiß sehr wohl, dass er unter anderem vermeiden muss, Maschinen mit seinen eigenen vorgefassten Meinungen zu trainieren, nicht nur mit kulturellen.
Schon heute gibt es Systeme, die die Realität verzerren und "die Logik der Gewalt und der Diskriminierung (...) auf Kosten der Schwächsten und Ausgegrenzten" entstehen lassen. Wenn wir darüber nachdenken, muss die Welt künstliche Intelligenzen auf verantwortungsvolle Weise nutzen, "damit sie im Dienst der Menschheit und des Schutzes unseres gemeinsamen Hauses stehen (...). Der Schutz der Würde der Person und die Pflege einer Brüderlichkeit, die wirklich der ganzen Menschheitsfamilie offensteht, sind unabdingbare Voraussetzungen dafür, dass die technologische Entwicklung zur Förderung von Gerechtigkeit und Frieden in der Welt beiträgt".
Es ist unmöglich, den Worten von Papst Franziskus nicht zuzustimmen, aber es ist ebenso unmöglich, sich nach der Lektüre dieser Worte nicht zu fragen: Was kann ich auf meine eigene kleine Weise tun, um sie fruchtbar zu machen? Nicht alle von uns sind Experten in diesen Fragen. Und nicht alle von uns können sich bei denjenigen Gehör verschaffen, die darüber zu entscheiden haben. Außerdem ist es nicht ungewöhnlich, dass sich viele von diesen Dingen so weit entfernt fühlen, dass sie jede Überlegung, jede Entscheidung, jedes Wort zu solch komplexen Themen "an die Experten" delegieren.
Unter diesem Gesichtspunkt haben wir Europäer mehr Glück als andere Völker. Nach mehr als 36 Stunden Verhandlungen haben sich die Europäische Kommission, der Rat der Europäischen Union und das Parlament am 9. Dezember letzten Jahres auf den Text des sogenannten "Solidaritätsfonds der Europäischen Union" geeinigt. AI-Gesetzdas europäische Gesetz über künstliche Intelligenz. Es ist der weltweit erste Rechtsrahmen für Systeme der künstlichen Intelligenz.
Das erste Ziel besteht darin, sicherzustellen, dass Systeme der künstlichen Intelligenz, die auf den europäischen Markt gebracht und in der EU verwendet werden, sicher sind und die Grundrechte und -werte der EU respektieren. Zu diesem Zweck wurde ein System entwickelt, das die Systeme der künstlichen Intelligenz nach ihrem Risiko einteilt. Das Maximum betrifft KI-Systeme, die in öffentlichen Versorgungseinrichtungen und neuralgischen Sektoren wie Wasser, Gas, Strom, Gesundheitswesen, Zugang zu Bildung, Strafverfolgung, Grenzkontrolle, Rechtspflege und demokratische Prozesse sowie im Beschaffungswesen eingesetzt werden.
Biometrische Systeme zur Identifizierung, Kategorisierung und Erkennung von Emotionen gelten ebenfalls als hochriskant. Was Europa getan hat, ist ein wichtiger Schritt und wird (zumindest teilweise) die von anderen Großmächten wie den Vereinigten Staaten diskutierte Regulierung leiten. Alles gut also? Ja und nein. Denn es stimmt, dass dies einer der richtigen Wege ist, um sich der Künstlichen Intelligenz anzunähern, aber es stimmt auch, dass andere Realitäten in der Welt, insbesondere im Osten, in Russland und Afrika, entschlossen scheinen, diese Regeln zu brechen.
Weil es sich, wie wir geschrieben haben, um eine wirtschaftliche Herausforderung handelt (die bereits Milliarden von Dollar wert ist), aber auch - und vor allem - um eine Herausforderung der Macht. Denn über den Erfolg von Chatbots Als ChatGPT gibt es bereits dreitausend Systeme in unserem Leben, die künstliche Intelligenz nutzen und diese steuern und in einigen Fällen auch lenken. Mit den Worten des Soziologen Derrick de Kerckhove, einem der weltweit führenden Experten für digitale Kultur und neue Medien, "Die KI ist in so vielen Bereichen, von der Medizin bis zum Finanzwesen, vom Recht bis zum Krieg, leistungsstark und effektiv. Sie überwindet den Menschen durch den Algorithmus und schafft eine radikale Trennung zwischen der Macht der menschlichen Sprache und der Macht der Sprache, die aus einer Folge von Berechnungen besteht".
Kurz gesagt, der Einsatz von künstlicher Intelligenz verändert uns. Sie verändert die Art und Weise, wie wir uns bewegen (wir werden immer fauler und suchen nach einfachen Abkürzungen), und in gewissem Maße sogar unsere Denkweise. Sie drängt uns zu einem binären System von 0 und 1, von Schwarz und Weiß und Gegensätzen, das allmählich alle Schattierungen dazwischen eliminiert.
Ganz zu schweigen davon, wie künstliche Intelligenz uns in eine bestimmte Richtung drängen kann, indem sie unsere kognitiven Verzerrungen ausnutzt. Und hier kehren die Worte des Papstes mit aller Macht zurück: "...the Pope's words come back with a vengeance.Die neuen Technologien haben ein disruptives Potenzial und ambivalente Auswirkungen". Mit künstlicher Intelligenz, kündigte Bill Gates an, "Wir können den Welthunger besiegen"Sie wird bereits in vielen Krankenhäusern, auch in Italien, eingesetzt, um bestimmte Krankheiten besser zu verstehen, damit sie wirksamer behandelt und verhindert werden können.
Positive Beispiele sind zahlreich und betreffen fast jeden Bereich. Sogar im katholischen Bereich gibt es Leute, die versucht haben, ChatGPt auszubilden, damit sie wertvolle Predigten verfassen können. Das Ergebnis ist im letzteren Fall kaum mehr als ausreichend, aber gut genug, um einige Priester zu skandalisieren und einige Gläubige zum Nachdenken darüber zu bringen, dass viele Sonntagspredigten leider nicht besser sind als die von ChatGPT.
Es stimmt zwar, dass wir über Maschinen sprechen, aber diejenigen, die sie trainieren, denken und erschaffen, und diejenigen, die mit ihnen durch Befehle (die so genannten Prompts) interagieren, sind Menschen.
Letztendlich gibt es zwei kleine Wahrheiten, die wir immer im Hinterkopf behalten müssen, wenn wir über künstliche Intelligenz lesen und sprechen. Die erste ist, dass sich die Dinge auf diesem Gebiet so schnell ändern, dass jedes Mal die Gefahr besteht, dass das, was wir schreiben, zumindest teilweise von den Fakten überholt wird. Zweitens geht jeder von uns, selbst diejenigen, die zugeben, sehr wenig zu wissen, mit seinen eigenen Vorstellungen an das Thema heran.
Eine vorgefasste Meinung, die auch das Ergebnis der Bücher ist, die wir gelesen haben, der Filme und Fernsehserien, die wir gesehen haben: von Asimovs Romanen bis zu den Überlegungen von Luciano Floridi, von 2001: Odyssee im Weltraum und Terminator bis zu den letzten Episoden von Schwarzer Spiegel. Und jedes Mal ist unsere größte Angst dieselbe: Sklaven von Maschinen zu werden und/oder wie Maschinen zu werden, wobei wir in beiden Fällen unsere Menschlichkeit aufgeben.
Denn wenn die Welt erst im November 2022 die Existenz künstlicher Intelligenz entdeckt hat, so verdanken wir das der Tatsache, dass uns das Aufkommen von ChatGPT gezeigt hat, dass es eine Maschine gibt, die Dinge tut (oder besser gesagt: uns dazu bringt), die bis vor kurzem nur dem Menschen vorbehalten waren. Nämlich schreiben, zeichnen, Kunst und Dialoge schaffen. Deshalb lächeln wir jedes Mal, wenn ChatGPT oder eine andere KI einen Fehler macht, und atmen tief durch. Es ist ein Zeichen dafür, dass wir noch eine Weile in Sicherheit sein werden.
Auf der anderen Seite gibt es bereits diejenigen, die Waffen entwickeln, die von künstlicher Intelligenz gesteuert werden. Echte Kriegsmaschinen, die nur wissen, wie man tötet und keine Schuldgefühle haben. Mehr noch: Gerade weil sie scheinbar autonom handeln, löschen sie das Schuldgefühl bei denen aus, die sie geschaffen haben, und bei denen, die sie auf das Schlachtfeld schicken. Als wollten sie sagen: Nicht ich habe getötet, sondern die Maschine. Daher ist die Schuld allein bei ihnen zu suchen.
Niemand weiß genau, was die Zukunft bringt, aber es vergeht kein Tag ohne ominös klingende Ankündigungen. Eine der jüngsten betrifft die Agi, oder künstliche allgemeine Intelligenz. Es ist die nächste Evolution der künstlichen Intelligenz. So Masayoshi Son, CEO von SoftBank und ein führender Technologieexperte, "wird in zehn Jahren kommen und mindestens zehnmal intelligenter sein als die Summe aller menschlichen Intelligenz". Eine Bestätigung scheint auch von Open AI, dem Erfinder von ChatGPT, zu kommen.
Das Unternehmen hat angekündigt, ein Team zu bilden, das sich mit den Risiken befasst, die mit der möglichen Entwicklung einer künstlichen Intelligenz verbunden sind, die in der Lage ist, die Schwelle des Akzeptablen zu überschreiten und "superintelligent" zu werden. Wenn Sie diese Grenzen für Science-Fiction halten, sollten Sie wissen, dass eine Gruppe von Wissenschaftlern der John Hopkins University die Frage gestellt hat: Was wäre, wenn wir nicht versuchen würden, künstliche Intelligenz wie Menschen aussehen zu lassen, sondern das Gegenteil täten, d.h. Teile des menschlichen Gehirns als Grundlage für die Computer der Zukunft umwandeln würden?
Diese Technik wird als organoide Intelligenz (IoT) und verwendet dreidimensionale Kulturen von Nervenzellen, die im Labor aus Stammzellen gewonnen werden. Denn obwohl künstliche Intelligenzen Daten und Zahlen viel schneller verarbeiten als der Mensch, ist unser Gehirn immer noch weit überlegen, wenn es darum geht, komplexe, auf Logik basierende Entscheidungen zu treffen.
Und hier kommen wir wieder auf die Frage zurück, die vor vielen Zeilen gestellt wurde: Was kann jeder von uns angesichts all dessen tun? Zunächst einmal müssen wir uns bewusst sein, dass der Bürger der 2000er Jahre und der Christ der 2000er Jahre sich für diese Veränderungen interessieren muss. Ohne Panikmache, aber in dem Bewusstsein, dass wir vor epochalen Veränderungen stehen.
Journalist der "Avvenire