Dossier

Fortschritte bei der künstlichen Intelligenz

Die Begriffe "intelligent" und "künstliche Intelligenz" werden häufig verwendet und rufen fast immer Bewunderung hervor. Aber was ist künstliche Intelligenz - nur ein anderer Name für Informatik? Der Autor ist Universitätsprofessor, Ingenieur und Computerwissenschaftler. Er hat bei IBM gearbeitet und ist Autor zahlreicher wissenschaftlicher und populärer Veröffentlichungen.

Manuel Alfonseca-31. März 2020-Lesezeit: 9 Minuten

Künstliche Intelligenz steht im Mittelpunkt des gegenwärtigen Wandels der Arbeitsmethoden, der Beziehungsformen und der Mentalität, der durch Geschwindigkeit und technische Komplexität gekennzeichnet ist. Dieses Dossier soll uns helfen, die verschiedenen Aspekte und Auswirkungen, einschließlich der ethischen Implikationen, mit Hilfe von Fachleuten und den Überlegungen von Papst Franziskus zu diesen Entwicklungen zu verstehen.

Fast seit Beginn der Geschichte der Informatik wurden Computer so programmiert, dass sie intelligent handeln. 1956 entwickelte Herbert Gelernter im Poughkeepsie Laboratory von IBM ein Programm, das in der Lage war, Theoreme der ebenen Geometrie zu lösen - eines der ersten Beispiele für künstliche Intelligenz. Im selben Jahr trafen sich John McCarthy und andere Pioniere der Computerwissenschaft auf einem Seminar am Dartmouth College in Hannover (USA). Nach der Benennung der neuen Disziplin (künstliche Intelligenz) sagte voraus, dass es innerhalb eines Jahrzehnts Programme geben wird, die zwischen zwei menschlichen Sprachen übersetzen und besser Schach spielen können als der Weltmeister. Dann würden Maschinen mit gleicher oder höherer Intelligenz als der unseren gebaut werden, und wir würden einen neuen Weg in der menschlichen Evolution einschlagen. Der alte Traum vom Bau künstlicher Menschen wäre in Erfüllung gegangen.

Doch die Dinge entwickelten sich nicht so, wie es die Optimisten vorausgesagt hatten. Obwohl Arthur Samuel von IBM ein Programm für das Damespiel entwickelte, das Informationen über den Spielverlauf speicherte und diese nutzte, um seine zukünftigen Züge zu ändern (d.h. zu lernen), erwies sich Schach als ein viel schwierigeres Ziel. Das Ziel, den Weltmeister zu schlagen, lag mehr als 30 Jahre hinter dem Zeitplan zurück.

Auch die Übersetzung von Texten zwischen zwei natürlichen Sprachen erwies sich als schwieriger als erwartet. Unsere Sprachen sind mehrdeutig, da ein und dasselbe Wort mehrere Bedeutungen haben kann, die in den verschiedenen Sprachen oft unterschiedlich sind, und außerdem kann ein Wort in ein und demselben Satz verschiedene syntaktische Rollen spielen. 

Das Scheitern der Vorhersagen der Experten entmutigte die Forscher im Bereich der künstlichen Intelligenz, von denen sich viele anderen Forschungen zuwandten. Außerdem zeigten Marvin Minski und Seymour Papert 1969, dass die ein- oder zweischichtigen künstlichen neuronalen Netze, die seit den 1950er Jahren untersucht wurden, nicht in der Lage sind, sehr einfache Probleme zu lösen. 

In den 1970er Jahren wurde das Interesse an künstlicher Intelligenz durch Expertensysteme neu belebt. Wieder einmal wurden die Alarmglocken geläutet und überambitionierte sofortige Fortschritte vorausgesagt. Die japanische Regierung zum Beispiel startete Ende der 1970er Jahre das Projekt der fünften Generationdessen Ziel es war, in zehn Jahren (immer in zehn Jahren) Maschinen zu entwickeln, die in der Lage sind denken Ziel des Projekts ist es, die Fähigkeit zu entwickeln, mit uns in unserer eigenen Sprache zu kommunizieren und auf Englisch und Japanisch verfasste Texte zu übersetzen.

Aufgeschreckt durch das Projekt starteten die Vereinigten Staaten und die Europäische Union ihre eigenen Forschungsprogramme mit weniger ehrgeizigen Zielen. Die Amerikaner konzentrierten ihre Bemühungen auf militärische Programme, wie z. B. das Strategische Computer-Initiative (SCI), das sich auf den Bau von autonomen, pilotenlosen Fahrzeugen am Boden und in der Luft, "intelligente" Waffen und das Projekt mit dem Spitznamen Krieg der Sternedie die Vereinigten Staaten vor einem nuklearen Angriff schützen sollte. Europa hingegen konzentrierte sich auf das Problem der maschinellen Übersetzung mit dem Projekt Eurotra.

In den frühen 1990er Jahren scheiterte das japanische Projekt. Das US-Militärprogramm war erfolgreicher, wie der zweite Irakkrieg gezeigt hat. Und obwohl das Projekt Krieg der Sterne nie umgesetzt wurde, übte ihre Ankündigung Druck auf die Sowjetunion aus, weshalb einige Analysten glauben, dass sie eine der Ursachen für das Ende des Kalten Krieges war. Was das Projekt betrifft EurotraDies führte zwar nicht zur Entwicklung eines autonomen maschinellen Übersetzungssystems, aber es führte zur Entwicklung von Werkzeugen, die den menschlichen Übersetzern helfen, ihre Produktivität zu steigern, so wie es bei der Google Übersetzen.

1997, 30 Jahre später als erwartet, gelang es einem Computer endlich, den Schachweltmeister (Garri Kasparow) in einem Turnier mit sechs Partien zu schlagen. Auch das automatisierte Fahren von Fahrzeugen (Autos und Flugzeugen) ist weit fortgeschritten. Deshalb heißt es immer häufiger, dass wir kurz vor der Verwirklichung des wahren Lebens stehen. künstliche IntelligenzIst es möglich, ist es wirklich so knapp, wie einige Experten (nicht viele) und die Medien zu glauben scheinen? 

Definition von künstlicher Intelligenz

Die Forscher sind sich nicht immer einig über die Definition dieses Zweigs der Informatik, so dass es nicht einfach ist, die Disziplinen und Anwendungen, die zu diesem Bereich gehören, klar zu unterscheiden. In letzter Zeit ist es in Mode gekommen, den Begriff künstliche Intelligenz auf eine beliebige Computeranwendung zu beziehen, so dass die Abgrenzung zunehmend unscharf und verworren ist. Ein System öffentlicher Straßenbänke, das einen WLAN-Repeater und ein Solarmodul zum Aufladen eines Mobiltelefons enthält, wurde sogar als künstliche Intelligenz vorgestellt. Wo ist die Intelligenz? Wenn überhaupt, dann bei dem Menschen, der auf die Idee kam, solche Geräte zusammenzubauen.

Die am weitesten verbreitete Definition für den Bereich der künstlichen Intelligenz lautet wie folgt: eine Reihe von Techniken, die versuchen, Probleme im Zusammenhang mit der symbolischen Informationsverarbeitung mit Hilfe heuristischer Methoden zu lösen

Eine Anwendung der künstlichen Intelligenz sollte die folgenden drei Bedingungen erfüllen: a) die zu verarbeitenden Informationen sollten symbolischer Natur sein; b) das zu lösende Problem sollte nicht trivial sein; c) die praktischste Art, an das Problem heranzugehen, ist die Verwendung heuristischer (erfahrungsbasierter) Regeln. Das Programm sollte in der Lage sein, diese heuristischen Regeln aus seiner eigenen Erfahrung zu extrahieren, d. h. es sollte lernfähig sein.

Anwendungen der künstlichen Intelligenz

Neben der Entwicklung von Champions für die Spiele, die allgemein als smartEs gibt noch viele weitere Anwendungen der künstlichen Intelligenz. In einigen Fällen sind die Ergebnisse spektakulär und kommen dem nahe, was wir intuitiv als eine denkende Maschine verstehen.

Es gibt viele Bereiche, in denen Techniken der künstlichen Intelligenz angewandt werden können, so dass das Feld ein wenig unübersichtlich geworden ist. Schauen wir uns einige von ihnen an:

-Intelligente Spiele. Im Jahr 1997 wurde das Programm Tiefblau (eine spezielle IBM-Maschine) schlug den damaligen Weltmeister Garri Kasparow. Das derzeit beste Programm ist AlphaZerodes Unternehmens DeepMind (im Besitz von Google), das nicht auf von Menschen eingeführten Regeln, sondern auf Selbstlernen beruht (er hat fünf Millionen Spiele gegen sich selbst gespielt). Andere erfolgreich gelöste Spiele sind Backgammon (Backgammon), die Damen, Jeopardy!bestimmte Formen des Pokerspiels, und Weiter

-Leistung des logischen Denkens. Es gibt drei Arten des logischen Schlussfolgerns: deduktiv (wesentlich in der Mathematik), induktiv (in den experimentellen Wissenschaften) und abduktiv (hauptsächlich in den Humanwissenschaften, der Geschichte und einigen Zweigen der Biologie, wie der Paläontologie). Das Problem der Programmierung von Computern zur Durchführung logischer Schlussfolgerungen kann als gelöst betrachtet werden. Andererseits ist es sehr viel schwieriger, induktive oder abduktive Denkprozesse zu programmieren, so dass dieses Forschungsfeld der künstlichen Intelligenz offen bleibt.

-Gesprochenes Wort Prozess. Ziel ist es, Computern die menschliche Stimme verständlich zu machen, so dass es möglich ist, ihnen auf natürlichere Weise Befehle zu erteilen, ohne eine Tastatur benutzen zu müssen. Die Forschung auf diesem Gebiet wurde durch die Tatsache behindert, dass jeder Mensch seine eigene Aussprache hat und dass die gesprochene Sprache noch mehrdeutiger ist als die geschriebene, aber in letzter Zeit wurden große Fortschritte erzielt, und oft werden mehr als 90 Prozent der Wörter verstanden. 

-Verarbeitung schriftlicher Texte. Sie ist in zwei Hauptbereiche unterteilt: Verarbeitung natürlicher Sprache und maschinelle Übersetzung. 

Ein relativ neuer Bereich ist die Data-MiningZiel ist es, Informationen aus schriftlichen Texten zu entnehmen und zu versuchen, deren Bedeutung zu verstehen. Dazu werden statistische Methoden eingesetzt und annotierte Korpora mit Informationen zu den Begriffen erstellt. Durch ihren Einsatz verbessern oder beschleunigen die Programme das Verständnis der zu interpretierenden Texte.

Im Bereich der maschinellen Übersetzung vervielfachen sich die Probleme, da die Programme statt mit einer mit zwei natürlichen Sprachen arbeiten müssen, die beide mit Mehrdeutigkeiten und Unregelmäßigkeiten behaftet sind und oft nicht miteinander übereinstimmen. In der Regel besteht das Ziel dieser Programme darin, eine ungefähre (nicht perfekte) Übersetzung der Ausgangstexte zu erstellen, an der ein menschlicher Übersetzer arbeiten kann, um sie zu verbessern und so ihre Leistung erheblich zu steigern.

-Automatische Fahrzeug- und Bildverarbeitung. Wenn wir eine Szene durch das Sehen beobachten, sind wir in der Lage, die erhaltenen Informationen zu interpretieren und unabhängige Objekte zu identifizieren. Dieser Forschungsbereich zielt darauf ab, Maschinen und Roboter so zu programmieren, dass sie die Elemente, mit denen sie interagieren sollen, visuell erkennen. Eine der spektakulärsten Anwendungen ist das automatische Auto. Dieses Projekt, das derzeit von mehreren Unternehmen vorangetrieben wird, zielt darauf ab, fahrerlose Fahrzeuge zu bauen, die sich auf den Straßen einer Stadt bewegen können. Diese Forschung, die an der Universität Carnegie Mellon Die ersten fahrerlosen Autos wurden in den späten 1980er Jahren eingeführt und erhielten in den 1990er Jahren einen großen Schub, als erstmals ein fahrerloses Auto auf deutschen Autobahnen fuhr. Im 21. Jahrhundert hat die Forschung auf dem Gebiet der fahrerlosen Autos weitere Fortschritte gemacht, und es ist nicht mehr lange hin, bis sie kommerziell genutzt werden können.

-Experten-Systeme. Dabei handelt es sich um Programme, die logische Schlussfolgerungen ziehen, um Wissensregeln anzuwenden, die von menschlichen Fachleuten für die Lösung konkreter Probleme bereitgestellt werden. 

Der erste Versuch (ein Programm namens DENDRAL, das in der Lage war, die Formel einer chemischen Verbindung aus ihrem Massenspektrogramm zu ermitteln) wurde um 1965 an der Stanford University entwickelt. In den 1970er und 1980er Jahren wurde die Forschung im Bereich der Expertensysteme in der medizinischen Diagnostik, der Mathematik, der Physik, der Bergbausuche, der Genetik, der automatischen Fertigung, der automatischen Computerkonfiguration usw. eingesetzt. In den späten 1980er Jahren ging es jedoch mit ihnen bergab. Obwohl sie nicht völlig verschwunden sind, spielen sie heute in der Forschung zur künstlichen Intelligenz keine große Rolle mehr.

-künstliche neuronale Netze. Es handelt sich um eine der ältesten Anwendungen der künstlichen Intelligenz, die heute auch am weitesten verbreitet ist. Die Neuronen die diese Netze bilden, sind sehr vereinfacht, verglichen mit denen des menschlichen Nervensystems und denen vieler Tiere. Diese Netze sind in der Lage, sehr komplexe Probleme in sehr kurzer Zeit zu lösen, obwohl die erhaltene Lösung in der Regel nicht optimal ist, sondern nur eine Annäherung darstellt, die für unsere Bedürfnisse oft ausreichend ist. Neuronale Netze werden heute in vielen Anwendungen des maschinellen Lernens eingesetzt, z. B. in den oben erwähnten maschinellen Übersetzern.

-Kognitives Rechnen und Wissensbasis über die Welt. Eines der Probleme, die die Forschung im Bereich der künstlichen Intelligenz behindert haben, war die Tatsache, dass Computer nur wenig Wissen über die Welt um uns herum haben, was sie gegenüber dem Menschen, der diese Informationen seit seiner Kindheit besitzt und sie zur Lösung von Problemen des gesunden Menschenverstands nutzen kann, die trivial erscheinen, aber für Maschinen, die nicht über die notwendigen Informationen verfügen, äußerst schwierig zu lösen sind, in einen klaren Nachteil versetzt. IBM hat ein Projekt zum kognitiven Computing gestartet, das darauf abzielt, Programme zu entwickeln, die auf der Grundlage sehr umfangreicher Daten (große Daten) und unter Verwendung von Techniken der künstlichen Intelligenz und des maschinellen Lernens in der Lage sind, nützliche Vorhersagen und Schlussfolgerungen zu treffen und in natürlicher Sprache formulierte Fragen zu beantworten. 

Diese Systeme sind vorerst nicht mit dem Menschen vergleichbar und in der Regel auf einen bestimmten Anwendungsbereich beschränkt.

Kann eine Maschine intelligent sein?

Im Jahr 1950 versuchte der englische Mathematiker und Chemiker Alan Turing, seiner Zeit voraus, die Bedingungen zu definieren, unter denen man sagen kann, dass eine Maschine in der Lage ist, wie wir zu denken (die "Maschine"). Turing-Test). Dies wird als starke künstliche Intelligenzzur Unterscheidung von der schwache künstliche IntelligenzDie neue "Maschine", die alle bisher bekannten Anwendungen abdeckt, an die die Maschine offensichtlich nicht denkt. 

Der Turing-Test besagt, dass eine Maschine dann so intelligent wie ein Mensch ist (oder denken kann), wenn sie in der Lage ist, einer ausreichenden Anzahl (30 %) von Menschen vorzugaukeln, dass sie Informationen mit einem anderen Menschen und nicht mit einer Maschine austauschen. Turing beschränkte sich nicht darauf, den Test vorzuschlagen, sondern sagte voraus, dass er in etwa fünfzig Jahren erfüllt sein würde. Er hatte nicht ganz unrecht, denn 2014 wurde ein Chatbot (ein Programm, das an einer Konversation teilnimmt von Chat) gelang es, 33 % seiner Mitstreiter nach fünf Minuten Gespräch davon zu überzeugen, dass er ein 13-jähriger ukrainischer Junge sei. Einige Analysten sehen die Dinge jedoch nicht so klar. Evan Ackerman schrieb: "Der Turing-Test beweist nicht, dass ein Programm zum Denken fähig ist. Vielmehr zeigt sie an, ob ein Programm einen Menschen täuschen kann. Und die Menschen sind wirklich dumm".

Viele Forscher glauben, dass der Turing-Test nicht ausreicht, um Intelligenz zu definieren oder zu erkennen. Im Jahr 1980 versuchte der Philosoph John Searle dies zu demonstrieren, indem er den Vorschlag machte die Chinesisches Zimmer. Damit ein Computer als intelligent gelten kann, sind nach Searle neben dem Turing-Test zwei weitere Dinge erforderlich: dass er versteht, was er schreibt, und dass er sich der Situation bewusst ist. Solange dies nicht der Fall ist, kann man nicht von starke künstliche Intelligenz.

Hinter all dem verbirgt sich ein sehr wichtiges Problem: Um eine starke künstliche Intelligenz zu schaffen, müssen die Maschinen mit einem Bewusstsein ausgestattet werden. Aber wenn wir nicht wissen, was Bewusstsein ist, nicht einmal unser eigenes, wie können wir das tun? 

Die Neurowissenschaften haben in letzter Zeit große Fortschritte gemacht, aber wir sind noch weit davon entfernt, definieren zu können, was Bewusstsein ist, woher es kommt und wie es funktioniert, geschweige denn, es zu erzeugen oder zu simulieren.

Ist es möglich, dass die Fortschritte in der Computertechnik über kurz oder lang dazu führen werden, dass wir in unseren Maschinen etwas schaffen, das sich wie eine Superintelligenz verhält? Ray Kurzweil prophezeit sie seit Jahrzehnten für eine fast unmittelbare Zukunft, die wie der Horizont immer weiter zurückgeht, je näher wir ihr kommen. 

Wir wissen nicht, ob es möglich sein wird, mit Hilfe von Computern Intelligenzen zu konstruieren, die der unsrigen gleichwertig oder überlegen sind und die Fähigkeit haben, sich selbst zu erkennen. Doch wenn künstliche Intelligenz praktikabel wäre, stünden wir vor einem großen Problem: dem "Problem der Eindämmung".

Problem der Eindämmung

Die Frage lautet wie folgt: Ist es möglich, eine Superintelligenz so zu programmieren, dass sie einem Menschen keinen Schaden zufügen kann?

Im Wesentlichen entspricht das Problem der Eindämmung dem ersten Gesetz der Robotik von Isaac Asimov. Nun, es gibt jüngste mathematische Hinweise darauf, dass es nicht möglich ist, das Eindämmungsproblem zu lösen. Wenn sich dies bestätigt, haben wir zwei Möglichkeiten: a) die Erschaffung von Superintelligenzen aufzugeben, und b) die Gewissheit aufzugeben, dass diese Superintelligenzen uns nicht schaden können. 

Es ist immer riskant, die Zukunft vorherzusagen, aber es scheint klar zu sein, dass viele der Entwicklungen, die leichtfertig als unmittelbar bevorstehend angekündigt werden, in weiter Ferne liegen.

Der AutorManuel Alfonseca

Professor für Computersysteme und Sprachen (im Ruhestand)

Newsletter La Brújula Hinterlassen Sie uns Ihre E-Mail-Adresse und erhalten Sie jede Woche die neuesten Nachrichten, die aus katholischer Sicht kuratiert sind.
Bannerwerbung
Bannerwerbung