SIND WIR NOCH HERR IM EIGENEN HAUS  –
Globale Herausforderung durch Künstliche Intelligenz (KI)

Unter diesem Thema fand im hessischen Kloster Salmünster vom 21. bis 23. Juni 2024 die 40.Tagung des AK Naturwissenschaft und Glaube statt. Etwa 30 Teilneh­mer hatten sich im Bildungshaus der Diözese Fulda zu einem derzeit äußerst aktuellen Thema ge­troffen. Das sei bei der Wahl des Themas vor zwei Jahren noch gar nicht absehbar gewe­sen, sagte AK-Leiter Gerd Weckwerth bei seiner Einführung am Freitagabend, dass u.a. mit Verabschiedung des EU AI-Act im Mai und der Papstrede auf dem G7-Gipfel in der Vorwoche auch das politische Interesse an KI gerade weltweit so im Fokus stehen könnte.

Er ging zunächst auf Überschneidungen zu früheren Themen ein. So habe vor allem die Tagung im Jahr 2013 Künstliches Bewusstsein – der (Alp-)Traum der Hirnsimula­tion“ zum Start des Human Brain Projects der EU schon ähnliche Fragen angespro­chen. Beim letztjährigen Abschluss des Projekts kam es zwar weder zu künst­lichem Be­wusstsein noch zu einer vollständigen Hirnsimulation, aber in vielen Teil­projek­ten wurden wertvolle Ansätze für neuronale Netze und andere KI-Methoden entwickelt.

Greifbar für eine breitere Öffentlichkeit wurde die KI aber vor allem durch den im No­vem­ber 2022 vom US-Unternehmen OpenAI kostenlos zugängig gemachten Chatbot „ChatGPT“ mit einem Sprachmodell, das an mehreren 100 Milliarden Texten trai­niert wurde und erstmals in der Lage war, umfassende Antworten zu frei formu­lierten Fra­gen von Nutzern zu generieren. Innerhalb der ersten 5 Tagen hatten sich über 1 Mil­lion Nutzer registriert. Bezeichnend für die neuen Möglichkeiten von KI ist u.a. das aktuel­le Problem von Schulen, auf die steigende Zahl von Schülern zu reagie­ren, die mit wenig Aufwand mittels ChatGPT ihre Hausaufga­ben machen. Wenn das zu leicht möglich ist, könnte das den angestrebten Lernerfolg dieser Schüler gefährden.

Nach Erklärung einiger Fachbegriffe und KI-Techniken, z.B. Deep Fakes (KI-Fälschungen), endete die Einführung mit einem Video, das an vielen Beispielen zeigte, wie KI sogar schon heute unser Leben bestimmt. Dass wir immer mehr die Kontrolle über unser eigenes Haus zu verlieren drohen, weist sicherlich Parallelen zur Ballade des Zauber­lehrlings von Goethe auf. Einen wassertragenden Besen mit Roboter­­kopf habe er daher zum Logo der Tagung gewählt. Mit KI schaffen wir uns teils ähnlich magisch wirkende Diener, die wir im Ernstfall vielleicht auch nicht mehr los werden.

KI – Überschätzte Technik?
Zum ersten Vortrag am Samstagmorgen konnte der Arbeitskreis Dr. Eva Brucher­seifer gewinnen, die seit 2017 Professorin für Embedded und intelligente Systeme an der Hochschule Darmstadt ist. Sie orientierte sich zur Einführung in den Begriff KI zu­nächst an der nachzubildenden Intelligenz des Menschen. Auch dessen Intel­li­genz lässt sich kaum exakt definieren und wird mit Begriffen wie Wissen, Lernen oder Autonomie verbunden. Auch wenn die zur KI genutzten Computer und Maschi­nen manches heute bereits deutlich besser als Menschen können (z.B. schneller rechnen) ist das als „starke KI“ bezeichnete Ziel, jede Aufgabe ähnlich gut oder gar besser als Men­schen zu lösen, aus ihrer Sicht noch in weiter Ferne.

Auch der Erfolg einer schwachen KI, mit beschränkter Funktionalität, war erst nach der Jahrtausendwende in größerem Umfang möglich. So war das Weltwissen von Expertensystemen noch nicht in einer für Computer greifbaren, digitalen Form ab­bildbar. Nach Brucherseifer be­durfte es zusätzlich einer sogenannten prädi­katenlo­gischen Codierung, die in einem Mammutprojekt (Cyc) 1984 begonnen wurde, aber letztlich wegen des Umfangs nicht weiter verfolgt wird. In vereinfachter Form nutzt man heute die Definitionen von Begriffen und Beziehungen als abstrakte Sche­mata (Ontolo­gien) und über Wissensgraphen (faktenbasierte Zuordnungen) für abge­grenzte Anwendungsgebiete. In dieser Weise codiert, erhält Wissen aus Expertensy­ste­men Normierung und Tran­sparenz sowie die Möglichkeit zu umfassender Vernetzung.

Um damit optimale Lösungen für ein gegebenes Problem zu finden, nutzt man geeig­nete Suchalgorithmen, wie man sie z.B. von Routenplanern oder Spielen wie Schach und Go kennt. Für komplexere Umfelder werden u.a. auch evolutionäre Algorithmen eingesetzt, die Mechanismen der Evolution nachahmen. Der Hauptschritt zu einer KI, die wie Menschen vorausschauende Entschei­dungen trifft, ohne explizit da­für pro­grammiert zu sein, ist sog. „Maschi­nelles Lernen“. Solche Systeme nutzen Musterer­kennung, um neue Daten nach bestimmten Modellen zu bewerten und zuzuordnen.

Wenn dabei Abweichungen von bisherigen Bilanzen auftreten, werden die Para­meter in dem zugrunde liegenden Modell aktualisiert. Dies kann durch gezielte Bei­spiele und unter Überwachung durch Menschen (sogenannte Supervisoren) gesche­hen oder durch Interaktion mit der Umgebung, was den verwendeten Algorithmus beeinflusst.

Überwachtes Lernen benutzt dazu schon gekennzeichnete Daten, um Vorhersagemo­delle zu trainieren, während unüberwachtes Lernen Muster in ungekenn­zeichne­ten Daten erkennt und verstärkendes Lernen durch Interaktion mit der Umgebung und Belohnungen lernt. Diese drei Methoden des maschinellen Lernens unterscheiden sich in ihren Ansätzen und Anwendungsbereichen und im erforderlichen Aufwand von Ressourcen zur Datenkennzeichnung.

Prinzipiell wird überwachtes Lernen hauptsächlich für Klassifikation und Regression, unüberwachtes Lernen für Clustering und Mustererkennung sowie verstärkendes Lernen für interaktive Problemlösungen und Optimierung eingesetzt. Ob ein Training unüberwacht erfolgreich möglich ist, hängt davon ab, wie gut die verwendeten Algorithmen (wie Regression, Clustering, Entscheidungsbäume) zur Art der Daten passen und wie weit das System bereits vortrainiert wurde.

Brucherseifer zeigte am Beispiel von Flugzeugturbinen, wie ein statistisches maschi­nel­les Lernen funktioniert. Dabei werden Sensordaten gezielt vorverarbeitet, um sie vergleichbarer und aussagekräftiger zu machen. Daraus werden dann auffällige Merk­male generiert und auf typische, aussagekräftige Aspekte reduziert. Diesen werden Fehlerzustände und soweit möglich Schadensmodelle zugeordnet, die dann zur Evaluation von Fehlerdiagnosen und Prognosen der Restlebensdauer nutzbar sind.

Zur Vermeidung langwieriger Suche nach geeigneten, aber oft nur begrenzt einsatzfä­higen Rechenmodellen, war ein Weg der KI-Forschung, Systeme zu erarbei­ten, die von der Funktionsweise menschlicher Gehirne inspiriert sind, sogenannte „Neuronale Netze“.  Sie bestehen aus mehreren miteinander verbundenen Knoten (Neuronen), die in der Regel in Schichten organisiert werden. Ein Knoten kann durch die Summe von Eingaben aktiviert werden, die in einem Lernprozess meist angepasst gewichtet einen nötigen Schwellwert erreichen. Lernen kann ein solches System auch durch Aufbauen und Löschen von Verbindungen bzw. ganzen Knoten.

Meist ist die Architektur eines Netzwerks aber schon in Hinblick auf die angestrebte Aufgabe konstruiert z.B. Unterteilung in sich wiederholend erneuernde und langzeitig unveränderliche Eingabereiche. Als Beispiel führte Brucherseifer die Erkennung von Verkehrszeichen in wechselnden Umgebungen an. Dazu werden Tausende von Bildern in ein bereits vortrainiertes Modell eingegeben, um durch Rückkopplungen aus richtig oder falsch erkannten Schildern eine immer höhere Zuverlässigkeit zu erzielen.

Der häufiger von Zwischenfragen begleitete Vortrag kam gegen Ende zur sogenannten „Generativen künstlichen Intelligenz“. Damit sind Systeme gemeint, die die Fähigkeit besitzen, neue Inhalte z.B. Bilder, Texte, Musik zu generieren, und zwar sowohl aus Vorgaben von KI-Systemen (z.B. neuronale Netze) als auch im Dialog mit Menschen, basierend auf einem Sprachmodell, wie das bereits oben angesprochene ChatGPT.

Typische Aufgabe ist es, in Daten unterschiedlicher Herkunft zunächst einen Code zu entschlüsseln (Encoder) und in einem zweiten Schritt nach einer Bearbeitung oder Reaktion die Daten wieder zu Codieren wie die Eingaben (Decoder). Für ChatGPT geht es darum, die Semantik einer Eingabe in einen Kontext zu stellen. Dabei kann in viel­fältigerweise eine konzeptionelle Form von Auf­merksamkeit auf einzelne Wörter an­gewandt werden. Unter zahlreichen Varianten wird dann meist nach den wahrschein­­lichsten Möglichkeiten eines nächsten Wortes gesucht. In neues­ten Versi­onen von ChatGPT sind immer mehr Beispiele guter Texte (~1 TB) in das System eingestellt worden und zum Training bei der Erzeugung von Antworten über menschliches Feed­back bewertet bzw. angepasst worden. Das gilt vor allem für die Aktualisierung der Texte, die in den Gratis-Versionen von Chat GPT noch auf dem Stand von 2021 sind.

Am Schluss des Vortrags versuchte Frau Brucherseifer an wenigen Beispielen die Be­deutung dieser neuen KI-Techniken für die Weiterentwicklung unserer Gesellschaft einzuordnen. Sie erwähnte vor allem die Integration von KI in physische Roboter, meist um diese dadurch autonomer und vielfältiger Aufgaben lösen zu lassen, wie z.B. autonomes Fahren auf Straßen oder Steuerung von Drohnen.

Hauptproblem bleibt dabei die Abbildung bzw. Anpassung der digitalen Welt an die physische Welt und das oft noch über Sensorik in Echtzeit-Kopplung. Um das vor allem sicher zu machen, muss der Mensch als Risikofaktor berücksichtigt werden, dessen Fehlbedienung, falsche Erwartungen, geringes Kritikbewusstsein und Bequemlichkeit zu ungewollten Interaktionen mit KI-Systemen führen kann, speziell wenn Transparenz und Nachvollziehbarkeit für den Menschen abnehmen.

Als weitere Gefahren erwähnte Brucherseifer Diskriminierungen und Ungerechtigkeit von KI-Systemen durch unreflektiertes Training und durch Einsatz von KI-Systemen in ursprünglich nicht geplanten Bereichen und Umfängen. Daher könne man die Verab­schiedung des ersten KI-Gesetzes der EU im Vormonat nur begrüßen, bei der KI-Sy­steme nach Risikoklassen von unbedenklich bis völlig inakzeptabel bewertet werden.

Neben einer Arbeitsgruppe für weitere Nachfragen zum Referat von Frau Bruchersei­fer wurden anschließend noch zwei aktuelle Gesprächsgruppen angeboten. Die einen befassten sich anhand des verteilten Textes der Rede von Papst Franziskus auf dem G7-Gipfel mit den darin angesprochen Gefahren durch KI-Technik und den damit ver­bundenen Appellen an die dort versammelten Staatsoberhäupter. Ein zweite Gruppe beschäftigte sich mit einem Text in der aktuellen Ausgabe von Bild der Wissenschaft zu sogenannten Deep Fakes; das sind perfekte, mit Hilfe von KI erstellte Fälschungen.

KI-Systeme haben kein „Ich“ 

Am Nachmittag knüpfte Tobias Müller, Inhaber der Professur für Religionsphilosophie und Fundamentaltheologie an der Universität Rostock, in seinem Vortrag nahtlos an die Ausführungen von Eva Brucherseifer an. Zunächst beschrieb er nochmals aus seiner Sicht die Grundlagen, die Funktionsweise und die Einsatzfelder von KI.

Dabei stellte er fest, dass diese Technologie in rasantem Tempo und zunehmend fast alle gesellschaftlichen Bereiche durchdringt und auch die menschliche Lebenswelt längst erfasst hat. Er wies darauf hin, dass die neuen technischen Systeme wie etwa ChatGPT bereits täuschend ähnlich menschliche kognitive Funktionen simulieren.

Dies wirft neben ethisch hoch brisanten Fragen die anthropologische Frage auf, ob KI-Systeme als menschenähnliche Wesen verstanden werden können und umgekehrt, ob wir Menschen womöglich selbst nichts anderes als biologisch verkörperte Rechen­ma­schinen sind, was die erneute Kränkung unseres Selbstverständnisses bedeuten würde.

Müller näherte sich diesen Fragen mit den Mitteln der sogenannten „Philoso­phie des Geistes“. Dies ist eine im anglo-amerikanischen Raum entstandene Denkrich­tung, die darauf zielt, möglichst genau zu beschreiben, was Begriffe wie Den­ken, Ler­nen, Intelligenz und Bewusstsein eigentlich bedeuten. Ergebnis seiner Analyse ist, dass alle diese Begriffe auf KI-Systeme allenfalls metaphorisch angewendet werden können.

Tatsächlich spricht nichts dafür, dass ein KI-System Bewusstsein hat, lernt, etwas em­pfindet oder gar denkt. Warum ist das so? Weil ein Rechner wie ChatGPT kein Verhält­nis zu sich selbst hat und keine Ich-Perspektive entwickelt. Er weiß nicht, dass er ein Rechner ist. Es fehlt ihm die reflexive Distanz zu sich selbst und zu seiner Umwelt. Was er tut, ist lediglich, aus vorgegebenem und eingespeistem Datenmaterial anhand eines programmierten Algorithmus Wahrscheinlichkeiten für ein bestimmtes Muster, z.B. für einen Text oder ein Bild, zu errechnen und dieses Muster innerhalb von oft nur Milli­sekunden „auszuwerfen“. So funktioniert z.B. die Textproduktion bei ChatGPT.

Daher ist es auch gänzlich unmöglich, zu einem Computer eine quasi-personale Beziehung aufzubauen. Natürlich können sich mit Maschinen auch Emotionen verbinden (z.B. mit Autos), aber die Vorstellung einer empathischen Beziehung zu einem Rechner und die Erwartung, dass dieser darauf empathisch reagiert, ist absurd.

Gleichwohl können „Pflegeroboter“ zumindest als Assistenzsysteme in Zukunft eine wichtige Rolle spielen. Für den Einsatz von KI-Systemen braucht es dringend eine chancen- und risikobewusste gesellschaftliche und auch rechtliche Rahmung, wie sie von der EU bereits in einem ersten Anlauf vorgenommen wurde. ­­———-

Die Tagung schloss am Sonntag mit einem Gottesdienst zum Thema „Intelligentes Verantwortungsbewusstsein“, in dem Pfarrer Bernd Weckwerth nochmals an den Appell des Papstes aus der Vorwoche erinnerte, Entscheidungen über Leben und Tod von Menschen nicht an KI-Systeme abzugeben.

Die Jubiläumstagung „40 Jahre AK“ wird vom 27.-29. Juni 2025 im Kloster Salmünster stattfinden.