(OSV News). "Der technologische Fortschritt ist Teil von Gottes Plan für die Schöpfung", sagte der Vatikan, aber die Menschen müssen Verantwortung dafür übernehmen, Technologien wie künstliche Intelligenz (KI) zu nutzen, um der Menschheit zu helfen und nicht Einzelpersonen oder Gruppen zu schaden.
"Wie bei jedem Werkzeug muss die IA ist eine Erweiterung der menschlichen Macht, und obwohl ihre zukünftigen Fähigkeiten unvorhersehbar sind, geben die vergangenen Handlungen der Menschheit klare Warnungen", sagt die Dokument unterzeichnet von den Kardinälen Víctor Manuel Fernández, Präfekt des Dikasteriums für die Glaubenslehre, und José Tolentino de Mendonça, Präfekt des Dikasteriums für Kultur und Bildung.
In dem Dokument, das von Papst Franziskus am 14. Januar verabschiedet und vom Vatikan am 28. Januar - dem Tag nach dem Internationalen Holocaust-Gedenktag - veröffentlicht wurde, heißt es, dass "die im Laufe der Geschichte begangenen Gräueltaten ausreichen, um tiefe Besorgnis über möglichen Missbrauch von künstlicher Intelligenz zu wecken".
Antiqua et Nova
Unter dem Titel "Antiqua et Nova (Alt und Neu): Eine Anmerkung zum Verhältnis zwischen künstlicher Intelligenz und menschlicher Intelligenz" befasst sich das Papier vor allem mit der moralischen Nutzung von Technologie und den Auswirkungen, die künstliche Intelligenz bereits jetzt auf zwischenmenschliche Beziehungen, Bildung, Arbeit, Kunst, Gesundheitswesen, Recht, Krieg und internationale Beziehungen hat oder haben könnte.
Die KI-Technologie wird nicht nur in Anwendungen wie ChatGPT und Suchmaschinen eingesetzt, sondern auch in der Werbung, in selbstfahrenden Autos, autonomen Waffensystemen, Sicherheits- und Überwachungssystemen, der Robotik in Fabriken und der Datenanalyse, ja sogar im Gesundheitswesen.
Die Päpste und die vatikanischen Institutionen, insbesondere die Päpstliche Akademie der Wissenschaften, beobachten die Entwicklung und den Einsatz künstlicher Intelligenz seit mehr als 40 Jahren und äußern sich besorgt darüber.
"Wie jedes Produkt menschlicher Kreativität kann künstliche Intelligenz zu positiven oder negativen Zwecken eingesetzt werden", heißt es in dem Dokument des Vatikans. "Wenn sie in einer Weise eingesetzt wird, die die Menschenwürde achtet und das Wohlergehen von Individuen und Gemeinschaften fördert, kann sie einen positiven Beitrag zur menschlichen Berufung leisten.
Menschliche Entscheidungen
"Doch wie in allen Bereichen, in denen der Mensch Entscheidungen treffen muss, droht auch hier der Schatten des Bösen", so die Dikasterien. "Wo die menschliche Freiheit die Möglichkeit zulässt, das Falsche zu wählen, muss die moralische Bewertung dieser Technologie berücksichtigen, wie sie gelenkt und genutzt wird."
Menschen, nicht Maschinen, treffen die moralischen Entscheidungen, heißt es in dem Papier. Daher "ist es wichtig, dass die Verantwortung für Entscheidungen, die mit Hilfe von KI getroffen werden, letztlich bei den menschlichen Entscheidungsträgern liegt und dass in jeder Phase des Entscheidungsprozesses Rechenschaft über den Einsatz von KI abgelegt wird".
In dem Dokument des Vatikans wird betont, dass künstliche Intelligenz zwar einige sehr komplexe Aufgaben schnell ausführen oder auf große Informationsmengen zugreifen kann, aber nicht wirklich intelligent ist, zumindest nicht in der gleichen Weise wie der Mensch.
"Ein angemessenes Verständnis der menschlichen Intelligenz kann nicht auf die bloße Aneignung von Fakten oder die Fähigkeit, bestimmte Aufgaben zu erfüllen, reduziert werden. Vielmehr impliziert sie die Offenheit eines Menschen für die letzten Fragen des Lebens und spiegelt eine Orientierung am Wahren und Guten wider.
Das spezifisch Menschliche
Zur menschlichen Intelligenz gehört auch, anderen zuzuhören, sich in sie einzufühlen, Beziehungen aufzubauen und moralische Urteile zu fällen - Handlungen, die selbst die ausgefeiltesten KI-Programme nicht leisten können, sagt er.
"Zwischen einer Maschine und einem Menschen ist nur der Mensch in der Lage, sich seiner selbst so bewusst zu sein, dass er auf die Stimme seines Gewissens hören und ihr folgen kann, um klug zu entscheiden und das Gute zu suchen, das in jeder Situation möglich ist", heißt es in dem Dokument.
Die vatikanischen Behörden haben in dem Dokument mehrere Warnungen und Vorbehalte formuliert. Sie fordern einzelne Nutzer, Entwickler und sogar Regierungen auf, den Einsatz von KI zu kontrollieren und sich zu verpflichten, "sicherzustellen, dass KI immer den höchsten Wert der Würde jedes Menschen und die Fülle der menschlichen Berufung unterstützt und fördert".
Erstens: "Es sollte immer vermieden werden, sich als KI auszugeben; dies zu betrügerischen Zwecken zu tun, ist ein schwerwiegender ethischer Verstoß, der das gesellschaftliche Vertrauen untergraben könnte. Ebenso sollte der Einsatz von KI zur Täuschung in anderen Zusammenhängen - etwa in der Bildung oder in zwischenmenschlichen Beziehungen, auch im Bereich der Sexualität - als unmoralisch betrachtet werden und erfordert eine sorgfältige Überwachung, um Schaden zu vermeiden, Transparenz zu wahren und die Würde aller Menschen zu gewährleisten.
Neue Unterscheidungen
Die Ministerien warnten, dass "KI dazu genutzt werden könnte, Marginalisierung und Diskriminierung aufrechtzuerhalten, neue Formen der Armut zu schaffen, die 'digitale Kluft' zu vergrößern und bestehende soziale Ungleichheiten zu verschärfen".
Während KI verspricht, die Produktivität am Arbeitsplatz zu steigern, indem sie "alltägliche Aufgaben übernimmt", zwingt sie laut dem Papier "die Arbeitnehmer häufig dazu, sich an die Geschwindigkeit und die Anforderungen der Maschinen anzupassen, anstatt dass die Maschinen so konzipiert sind, dass sie den Arbeitnehmern helfen".
Auch Eltern, Lehrer und Schüler sollten sich ihrer Abhängigkeit von der KI bewusst sein und ihre Grenzen kennen, sagt er.
"Der weit verbreitete Einsatz von KI in der Bildung könnte die Abhängigkeit der Schüler von der Technologie erhöhen, ihre Fähigkeit zur eigenständigen Ausführung bestimmter Aufgaben beeinträchtigen und ihre Abhängigkeit von Bildschirmen verstärken", heißt es in dem Papier.
Die KI kann zwar Informationen liefern, so das Papier, aber sie kann nicht wirklich erziehen, was Denken, Argumentation und Urteilsvermögen erfordert.
KI und Desinformation
Die Nutzer sollten sich auch des "ernsten Risikos bewusst sein, dass KI manipulierte Inhalte und falsche Informationen erzeugt, die die Menschen aufgrund ihrer Ähnlichkeit mit der Wahrheit leicht in die Irre führen können". Diese Fehlinformationen können unbeabsichtigt auftreten, wie im Fall der KI-"Halluzination", bei der ein generatives KI-System Ergebnisse erzeugt, die real erscheinen, es aber nicht sind, da es so programmiert ist, dass es auf alle Informationsanfragen reagiert, unabhängig davon, ob es Zugang dazu hat oder nicht.
Natürlich, so heißt es in dem Dokument, kann eine KI-Fehldarstellung auch "absichtlich erfolgen: Einzelpersonen oder Organisationen erzeugen und verbreiten absichtlich falsche Inhalte mit dem Ziel, in die Irre zu führen oder Schaden anzurichten, wie z. B. Bilder, Videos und Audioaufnahmen. deepfake -bezieht sich auf eine falsche Darstellung einer Person, die von einem KI-Algorithmus bearbeitet oder erzeugt wurde.
Militärische Anwendungen der KI-Technologie sind dem Papier zufolge besonders besorgniserregend, weil "autonome Waffen die Kriegsführung erleichtern", weil KI die "menschliche Aufsicht" über den Einsatz von Waffen ausschalten könnte und weil autonome Waffen Gegenstand eines neuen "destabilisierenden Wettrüstens mit katastrophalen Folgen für die Menschenrechte" werden könnten.
OSV Nachrichten