SIND WIR NOCH HERR IM EIGENEN HAUS –
Globale Herausforderung durch Künstliche Intelligenz (KI)
Unter diesem Thema fand im hessischen Kloster Salmünster vom 21. bis 23. Juni 2024 die 40.Tagung des AK Naturwissenschaft und Glaube statt. Etwa 30 Teilnehmer hatten sich im Bildungshaus der Diözese Fulda zu einem derzeit äußerst aktuellen Thema getroffen. Das sei bei der Wahl des Themas vor zwei Jahren noch gar nicht absehbar gewesen, sagte AK-Leiter Gerd Weckwerth bei seiner Einführung am Freitagabend, dass u.a. mit Verabschiedung des EU AI-Act im Mai und der Papstrede auf dem G7-Gipfel in der Vorwoche auch das politische Interesse an KI gerade weltweit so im Fokus stehen könnte.
Er ging zunächst auf Überschneidungen zu früheren Themen ein. So habe vor allem die Tagung im Jahr 2013 „Künstliches Bewusstsein – der (Alp-)Traum der Hirnsimulation“ zum Start des Human Brain Projects der EU schon ähnliche Fragen angesprochen. Beim letztjährigen Abschluss des Projekts kam es zwar weder zu künstlichem Bewusstsein noch zu einer vollständigen Hirnsimulation, aber in vielen Teilprojekten wurden wertvolle Ansätze für neuronale Netze und andere KI-Methoden entwickelt.
Greifbar für eine breitere Öffentlichkeit wurde die KI aber vor allem durch den im November 2022 vom US-Unternehmen OpenAI kostenlos zugängig gemachten Chatbot „ChatGPT“ mit einem Sprachmodell, das an mehreren 100 Milliarden Texten trainiert wurde und erstmals in der Lage war, umfassende Antworten zu frei formulierten Fragen von Nutzern zu generieren. Innerhalb der ersten 5 Tagen hatten sich über 1 Million Nutzer registriert. Bezeichnend für die neuen Möglichkeiten von KI ist u.a. das aktuelle Problem von Schulen, auf die steigende Zahl von Schülern zu reagieren, die mit wenig Aufwand mittels ChatGPT ihre Hausaufgaben machen. Wenn das zu leicht möglich ist, könnte das den angestrebten Lernerfolg dieser Schüler gefährden.
Nach Erklärung einiger Fachbegriffe und KI-Techniken, z.B. Deep Fakes (KI-Fälschungen), endete die Einführung mit einem Video, das an vielen Beispielen zeigte, wie KI sogar schon heute unser Leben bestimmt. Dass wir immer mehr die Kontrolle über unser eigenes Haus zu verlieren drohen, weist sicherlich Parallelen zur Ballade des Zauberlehrlings von Goethe auf. Einen wassertragenden Besen mit Roboterkopf habe er daher zum Logo der Tagung gewählt. Mit KI schaffen wir uns teils ähnlich magisch wirkende Diener, die wir im Ernstfall vielleicht auch nicht mehr los werden.
KI – Überschätzte Technik?
Zum ersten Vortrag am Samstagmorgen konnte der Arbeitskreis Dr. Eva Brucherseifer gewinnen, die seit 2017 Professorin für Embedded und intelligente Systeme an der Hochschule Darmstadt ist. Sie orientierte sich zur Einführung in den Begriff KI zunächst an der nachzubildenden Intelligenz des Menschen. Auch dessen Intelligenz lässt sich kaum exakt definieren und wird mit Begriffen wie Wissen, Lernen oder Autonomie verbunden. Auch wenn die zur KI genutzten Computer und Maschinen manches heute bereits deutlich besser als Menschen können (z.B. schneller rechnen) ist das als „starke KI“ bezeichnete Ziel, jede Aufgabe ähnlich gut oder gar besser als Menschen zu lösen, aus ihrer Sicht noch in weiter Ferne.
Auch der Erfolg einer schwachen KI, mit beschränkter Funktionalität, war erst nach der Jahrtausendwende in größerem Umfang möglich. So war das Weltwissen von Expertensystemen noch nicht in einer für Computer greifbaren, digitalen Form abbildbar. Nach Brucherseifer bedurfte es zusätzlich einer sogenannten prädikatenlogischen Codierung, die in einem Mammutprojekt (Cyc) 1984 begonnen wurde, aber letztlich wegen des Umfangs nicht weiter verfolgt wird. In vereinfachter Form nutzt man heute die Definitionen von Begriffen und Beziehungen als abstrakte Schemata (Ontologien) und über Wissensgraphen (faktenbasierte Zuordnungen) für abgegrenzte Anwendungsgebiete. In dieser Weise codiert, erhält Wissen aus Expertensystemen Normierung und Transparenz sowie die Möglichkeit zu umfassender Vernetzung.
Um damit optimale Lösungen für ein gegebenes Problem zu finden, nutzt man geeignete Suchalgorithmen, wie man sie z.B. von Routenplanern oder Spielen wie Schach und Go kennt. Für komplexere Umfelder werden u.a. auch evolutionäre Algorithmen eingesetzt, die Mechanismen der Evolution nachahmen. Der Hauptschritt zu einer KI, die wie Menschen vorausschauende Entscheidungen trifft, ohne explizit dafür programmiert zu sein, ist sog. „Maschinelles Lernen“. Solche Systeme nutzen Mustererkennung, um neue Daten nach bestimmten Modellen zu bewerten und zuzuordnen.
Wenn dabei Abweichungen von bisherigen Bilanzen auftreten, werden die Parameter in dem zugrunde liegenden Modell aktualisiert. Dies kann durch gezielte Beispiele und unter Überwachung durch Menschen (sogenannte Supervisoren) geschehen oder durch Interaktion mit der Umgebung, was den verwendeten Algorithmus beeinflusst.
Überwachtes Lernen benutzt dazu schon gekennzeichnete Daten, um Vorhersagemodelle zu trainieren, während unüberwachtes Lernen Muster in ungekennzeichneten Daten erkennt und verstärkendes Lernen durch Interaktion mit der Umgebung und Belohnungen lernt. Diese drei Methoden des maschinellen Lernens unterscheiden sich in ihren Ansätzen und Anwendungsbereichen und im erforderlichen Aufwand von Ressourcen zur Datenkennzeichnung.
Prinzipiell wird überwachtes Lernen hauptsächlich für Klassifikation und Regression, unüberwachtes Lernen für Clustering und Mustererkennung sowie verstärkendes Lernen für interaktive Problemlösungen und Optimierung eingesetzt. Ob ein Training unüberwacht erfolgreich möglich ist, hängt davon ab, wie gut die verwendeten Algorithmen (wie Regression, Clustering, Entscheidungsbäume) zur Art der Daten passen und wie weit das System bereits vortrainiert wurde.
Brucherseifer zeigte am Beispiel von Flugzeugturbinen, wie ein statistisches maschinelles Lernen funktioniert. Dabei werden Sensordaten gezielt vorverarbeitet, um sie vergleichbarer und aussagekräftiger zu machen. Daraus werden dann auffällige Merkmale generiert und auf typische, aussagekräftige Aspekte reduziert. Diesen werden Fehlerzustände und soweit möglich Schadensmodelle zugeordnet, die dann zur Evaluation von Fehlerdiagnosen und Prognosen der Restlebensdauer nutzbar sind.
Zur Vermeidung langwieriger Suche nach geeigneten, aber oft nur begrenzt einsatzfähigen Rechenmodellen, war ein Weg der KI-Forschung, Systeme zu erarbeiten, die von der Funktionsweise menschlicher Gehirne inspiriert sind, sogenannte „Neuronale Netze“. Sie bestehen aus mehreren miteinander verbundenen Knoten (Neuronen), die in der Regel in Schichten organisiert werden. Ein Knoten kann durch die Summe von Eingaben aktiviert werden, die in einem Lernprozess meist angepasst gewichtet einen nötigen Schwellwert erreichen. Lernen kann ein solches System auch durch Aufbauen und Löschen von Verbindungen bzw. ganzen Knoten.
Meist ist die Architektur eines Netzwerks aber schon in Hinblick auf die angestrebte Aufgabe konstruiert z.B. Unterteilung in sich wiederholend erneuernde und langzeitig unveränderliche Eingabereiche. Als Beispiel führte Brucherseifer die Erkennung von Verkehrszeichen in wechselnden Umgebungen an. Dazu werden Tausende von Bildern in ein bereits vortrainiertes Modell eingegeben, um durch Rückkopplungen aus richtig oder falsch erkannten Schildern eine immer höhere Zuverlässigkeit zu erzielen.
Der häufiger von Zwischenfragen begleitete Vortrag kam gegen Ende zur sogenannten „Generativen künstlichen Intelligenz“. Damit sind Systeme gemeint, die die Fähigkeit besitzen, neue Inhalte z.B. Bilder, Texte, Musik zu generieren, und zwar sowohl aus Vorgaben von KI-Systemen (z.B. neuronale Netze) als auch im Dialog mit Menschen, basierend auf einem Sprachmodell, wie das bereits oben angesprochene ChatGPT.
Typische Aufgabe ist es, in Daten unterschiedlicher Herkunft zunächst einen Code zu entschlüsseln (Encoder) und in einem zweiten Schritt nach einer Bearbeitung oder Reaktion die Daten wieder zu Codieren wie die Eingaben (Decoder). Für ChatGPT geht es darum, die Semantik einer Eingabe in einen Kontext zu stellen. Dabei kann in vielfältigerweise eine konzeptionelle Form von Aufmerksamkeit auf einzelne Wörter angewandt werden. Unter zahlreichen Varianten wird dann meist nach den wahrscheinlichsten Möglichkeiten eines nächsten Wortes gesucht. In neuesten Versionen von ChatGPT sind immer mehr Beispiele guter Texte (~1 TB) in das System eingestellt worden und zum Training bei der Erzeugung von Antworten über menschliches Feedback bewertet bzw. angepasst worden. Das gilt vor allem für die Aktualisierung der Texte, die in den Gratis-Versionen von Chat GPT noch auf dem Stand von 2021 sind.
Am Schluss des Vortrags versuchte Frau Brucherseifer an wenigen Beispielen die Bedeutung dieser neuen KI-Techniken für die Weiterentwicklung unserer Gesellschaft einzuordnen. Sie erwähnte vor allem die Integration von KI in physische Roboter, meist um diese dadurch autonomer und vielfältiger Aufgaben lösen zu lassen, wie z.B. autonomes Fahren auf Straßen oder Steuerung von Drohnen.
Hauptproblem bleibt dabei die Abbildung bzw. Anpassung der digitalen Welt an die physische Welt und das oft noch über Sensorik in Echtzeit-Kopplung. Um das vor allem sicher zu machen, muss der Mensch als Risikofaktor berücksichtigt werden, dessen Fehlbedienung, falsche Erwartungen, geringes Kritikbewusstsein und Bequemlichkeit zu ungewollten Interaktionen mit KI-Systemen führen kann, speziell wenn Transparenz und Nachvollziehbarkeit für den Menschen abnehmen.
Als weitere Gefahren erwähnte Brucherseifer Diskriminierungen und Ungerechtigkeit von KI-Systemen durch unreflektiertes Training und durch Einsatz von KI-Systemen in ursprünglich nicht geplanten Bereichen und Umfängen. Daher könne man die Verabschiedung des ersten KI-Gesetzes der EU im Vormonat nur begrüßen, bei der KI-Systeme nach Risikoklassen von unbedenklich bis völlig inakzeptabel bewertet werden.
Neben einer Arbeitsgruppe für weitere Nachfragen zum Referat von Frau Brucherseifer wurden anschließend noch zwei aktuelle Gesprächsgruppen angeboten. Die einen befassten sich anhand des verteilten Textes der Rede von Papst Franziskus auf dem G7-Gipfel mit den darin angesprochen Gefahren durch KI-Technik und den damit verbundenen Appellen an die dort versammelten Staatsoberhäupter. Ein zweite Gruppe beschäftigte sich mit einem Text in der aktuellen Ausgabe von Bild der Wissenschaft zu sogenannten Deep Fakes; das sind perfekte, mit Hilfe von KI erstellte Fälschungen.
KI-Systeme haben kein „Ich“
Am Nachmittag knüpfte Tobias Müller, Inhaber der Professur für Religionsphilosophie und Fundamentaltheologie an der Universität Rostock, in seinem Vortrag nahtlos an die Ausführungen von Eva Brucherseifer an. Zunächst beschrieb er nochmals aus seiner Sicht die Grundlagen, die Funktionsweise und die Einsatzfelder von KI.
Dabei stellte er fest, dass diese Technologie in rasantem Tempo und zunehmend fast alle gesellschaftlichen Bereiche durchdringt und auch die menschliche Lebenswelt längst erfasst hat. Er wies darauf hin, dass die neuen technischen Systeme wie etwa ChatGPT bereits täuschend ähnlich menschliche kognitive Funktionen simulieren.
Dies wirft neben ethisch hoch brisanten Fragen die anthropologische Frage auf, ob KI-Systeme als menschenähnliche Wesen verstanden werden können und umgekehrt, ob wir Menschen womöglich selbst nichts anderes als biologisch verkörperte Rechenmaschinen sind, was die erneute Kränkung unseres Selbstverständnisses bedeuten würde.
Müller näherte sich diesen Fragen mit den Mitteln der sogenannten „Philosophie des Geistes“. Dies ist eine im anglo-amerikanischen Raum entstandene Denkrichtung, die darauf zielt, möglichst genau zu beschreiben, was Begriffe wie Denken, Lernen, Intelligenz und Bewusstsein eigentlich bedeuten. Ergebnis seiner Analyse ist, dass alle diese Begriffe auf KI-Systeme allenfalls metaphorisch angewendet werden können.
Tatsächlich spricht nichts dafür, dass ein KI-System Bewusstsein hat, lernt, etwas empfindet oder gar denkt. Warum ist das so? Weil ein Rechner wie ChatGPT kein Verhältnis zu sich selbst hat und keine Ich-Perspektive entwickelt. Er weiß nicht, dass er ein Rechner ist. Es fehlt ihm die reflexive Distanz zu sich selbst und zu seiner Umwelt. Was er tut, ist lediglich, aus vorgegebenem und eingespeistem Datenmaterial anhand eines programmierten Algorithmus Wahrscheinlichkeiten für ein bestimmtes Muster, z.B. für einen Text oder ein Bild, zu errechnen und dieses Muster innerhalb von oft nur Millisekunden „auszuwerfen“. So funktioniert z.B. die Textproduktion bei ChatGPT.
Daher ist es auch gänzlich unmöglich, zu einem Computer eine quasi-personale Beziehung aufzubauen. Natürlich können sich mit Maschinen auch Emotionen verbinden (z.B. mit Autos), aber die Vorstellung einer empathischen Beziehung zu einem Rechner und die Erwartung, dass dieser darauf empathisch reagiert, ist absurd.
Gleichwohl können „Pflegeroboter“ zumindest als Assistenzsysteme in Zukunft eine wichtige Rolle spielen. Für den Einsatz von KI-Systemen braucht es dringend eine chancen- und risikobewusste gesellschaftliche und auch rechtliche Rahmung, wie sie von der EU bereits in einem ersten Anlauf vorgenommen wurde. ———-
Die Tagung schloss am Sonntag mit einem Gottesdienst zum Thema „Intelligentes Verantwortungsbewusstsein“, in dem Pfarrer Bernd Weckwerth nochmals an den Appell des Papstes aus der Vorwoche erinnerte, Entscheidungen über Leben und Tod von Menschen nicht an KI-Systeme abzugeben.
Die Jubiläumstagung „40 Jahre AK“ wird vom 27.-29. Juni 2025 im Kloster Salmünster stattfinden.