phonlamaiphoto / stock.adobe.com
14.10.2024

Ein mathematischer Blick auf zuverlässige künstliche Intelligenz

Künstliche Intelligenz (KI) verändert derzeit unsere Gesellschaft in ihrer gesamten Breite auf radikale Weise. Dieser Prozess wird oftmals auch als vierte industrielle Revolution bezeichnet. Gleichzeitig haben die jüngsten Fortschritte bei großen Sprachmodellen und die Veröffentlichung von ChatGPT, gefolgt von GPT-4, das Bewusstsein für die Potenziale und Gefahren von KI weltweit erheblich geschärft.

Diese Entwicklung war beispielsweise ein Hauptauslöser für Elon Musk und andere führende Persönlichkeiten, in einem Manifest eine Unterbrechung in der Entwicklung von KI zu fordern. Die Notwendigkeit einer Regulierung lag zudem dem Gesetz über KI im Rahmen der EU-Digitalstrategie [1] wie auch dem Hiroshima-KIProzess der G7 [2] zugrunde.

Ein zentrales, weltweites Problem von KI-Technologien ist ihre derzeit oftmals unzureichende Zuverlässigkeit, welches auch mangelnde Vertrauenswürdigkeit in der Bevölkerung als Konsequenz hat. In der Tat beobachtet man zum Beispiel ernste Sicherheitsprobleme bei KI-basierten Ansätzen und es gab unter anderem bereits diverse Unfälle mit Robotern, darunter auch mit selbstfahrenden Autos. Zudem ist es oftmals leicht möglich, sich in KI-Systeme wie in Krankenhäusern einzuhacken und die Kontrolle zu übernehmen. Weitere Hindernisse, die es noch zu überwinden gilt, sind zum einen der sogenannte Black-Box-Charakter dieser Algorithmen im Sinne von unzureichenden Einsichten in Gründe für Entscheidungen und zum anderen die Tatsache, dass Fehler der Trainingsdaten leicht zu voreingenommenen Entscheidungen führen können. Die Überwindung dieser Probleme und die Ermöglichung zuverlässiger KI kann allerdings nur durch ein sehr tiefes Verständnis der Prozesse und somit der Entwicklung einer mathematischen Grundlage für KI-basierte Algorithmen erreicht werden.

Im Folgenden werden wir uns auf das derzeitige „Work Horse“ der KI, die künstlichen neuronalen Netze, konzentrieren und diese aus einem mathematischen Blickwinkel näher betrachten. Interessanterweise sind künstliche neuronale Netze nicht so neu, wie man meinen könnte. Sie wurden bereits 1943 von McCulloch und Pitts [3] mit dem Ziel eingeführt, einen algorithmischen Ansatz für das Lernen und somit für künstliche Intelligenz zu entwickeln. Die Idee der beiden Wissenschaftler war es, das menschliche Gehirn zu imitieren und ein mathematisches Modell für dessen Funktionsweise einzuführen. Sie haben hierfür ein Modell eines einzelnen Neurons entwickelt, welches dann die Schichten eines künstlichen neuronalen Netzes bildet. Aus mathematischer Sicht ist ein solches künstliches neuronales Netz eine hoch-parametrisierte Funktion, die sich aus affine-linearen Abbildungen und sogenannten (nicht-linearen) Aktivierungsfunktionen zusammensetzt, wobei letztere oftmals als „Rectifiable Linear Unit (ReLU)“, dem Maximum von Null und der Variablen, gewählt wird. Als freie und zu lernende Parameter fungieren Gewichtsmatrizen und Biasvektoren.

Ein künstliches neuronales Netz ist somit ein rein mathematisches Objekt, das folglich auch dem gesamten Spektrum mathematischer Analysewerkzeuge zugänglich ist [4]. Um die wichtigsten Forschungsrichtungen, die zudem für die Sicherstellung von Zuverlässigkeit essenziell sind, vorzustellen, wollen wir als Nächstes die algorithmischen Schritte bei der Verwendung künstlicher neuronaler Netze betrachten.

Das zentrale Ziel bei der Anwendung eines künstlichen neuronalen Netzes ist das Lernen bzw. Approximieren einer Funktion oder Verteilung, von der lediglich einige Datenpunkte vorliegen:

1. Dieser Datensatz wird zunächst in einen Trainings- und einen Testdatensatz aufgeteilt.

2. Dann wird die Architektur des künstlichen neuronalen Netzes gewählt, d. h. wie viele Schichten das Netz haben soll, wie viele Neuronen in jeder Schicht usw.

3. Das künstliche neuronale Netz wird anschließend im Sinne einer Optimierung der Gewichtsmatrizen und Biasvektoren trainiert, vornehmlich mittels eines stochastischen Gradientenabstiegsverfahrens über die Trainingsdaten. Hierbei spielt zudem die gewählte Verlustfunktion eine zentrale Rolle.

4. Die Fähigkeit des trainierten künstlichen neuronalen Netzes zur Generalisierung auf Daten, die während des Trainingsprozesses nicht gesehen wurden, wird anhand des Testdatensatzes überprüft. Dies führt auf kanonische Weise zu den folgenden vier zentralen mathematischen Forschungsrichtungen:

  • Expressivität
  • Lernen
  • Generalisierung
  • Erklärbarkeit

Expressivität

Zunächst war im Algorithmus die Frage zu beantworten: „Welches ist die beste Architektur für eine bestimmte Problemstellung?“ Die damit zusammenhängende Forschungsrichtung, welche auf die Analyse der bestmöglichen Leistung einer bestimmten Architektur zielt, wird als „Expressivität“ bezeichnet. Dieses Gebiet ist tief in der Approximationstheorie verwurzelt, wobei ein zentrales Resultat das berühmte „Universelle Approximationstheorem“ [5] ist. Dieses Ergebnis besagt, dass jede kontinuierliche Funktion bis zu einem beliebigen Grad durch ein flaches neuronales Netz, d. h. ein Netz mit nur einer versteckten Schicht, approximiert werden kann; allerdings ohne Aussagen über dessen Komplexität zu machen.

Eine zentrale derzeitige Forschungsrichtung in diesem Umfeld analysiert, inwieweit künstliche neuronale Netze Approximationsmethoden aus der klassischen Signal- und Bildverarbeitung nachahmen können. Überraschenderweise zeigen aktuelle Ergebnisse, dass solche Netze in der Tat erstaunlich universell sind und zum Beispiel Optimalitätseigenschaften von klassischen Darstellungssystemen, wie Wavelets und Shearlets, automatisch in sich vereinen [6].

Lernen

Die Trainingsphase selbst ist derzeit im Wesentlichen noch ein Mysterium. Das gelöste Optimierungsproblem ist in hohem Maß nicht-konvex und kann daher zu ungewollten lokalen Minima in der Verlustlandschaft und sogar zu Sattelpunkten und lokalen Maxima führen. Somit ist völlig unklar, ob eine Methode erster Ordnung, wie der Gradientenabstieg, zu einem globalen Minimum konvergiert und überhaupt auf ein Minimum führt. Auf der anderen Seite findet das oftmals verwandte stochastische Gradientenabstiegsverfahren in der Regel „gute“ lokale Minima, die es dem künstlichen neuronalen Netz ermöglichen, auch unbekannte Daten korrekt zu verarbeiten (siehe Bild 1). Diese Forschungsrichtung, die klassischerweise als „Lernen“ bezeichnet wird, erfordert Methoden aus der mathematischen Optimierung und der optimalen Steuerung.

Eine derzeitige Forschungsrichtung konzentriert sich auf die Analyse der Verlustlandschaft von überparametrisierten künstlichen neuronalen Netzen und zeigt, dass solche Verlustlandschaften in der Regel keine „schlechten“ lokalen Minima aufweisen. Des Weiteren wird untersucht, weshalb ein Training jenseits des Erreichens eines Fehlers gleich Null nicht zu einem stark überangepassten Modell und damit einem signifikanten Problem für die Verarbeitung unbekannter Daten führt, wie man vielleicht erwarten könnte [7].

Generalisierung

Zuletzt muss die Leistung des trainierten künstlichen neuronalen Netzes auf dem (unbekannten) Testdatensatz analysiert werden. Ein Hauptziel dieses als „Generalisierung“ bezeichneten Forschungsschwerpunkts besteht darin, die Theorie hinter den Auswirkungen der Überparametrisierung – numerische Studien insbesondere auch bei großen Sprachmodellen scheinen das Statement „je größer, desto besser“ zu belegen – zu entschlüsseln. Empirische Studien führen zu der sogenannten Doppelabstiegskurve, die dieses Phänomen zeigt [8].

Die Analyse des Erfolgs des trainierten künstlichen neuronalen Netzes auf dem Testdatensatz und seine Abhängigkeit von der Anzahl der Parameter erfordert typischerweise eine statistisch-probabilistische Sichtweise und neben traditionelleren Methoden, wie VC-Dimension und Rademacher-Komplexität, werden derzeit neuartige Techniken wie der Neural Tangent-Kernel eingeführt. Eine besondere Schwierigkeit ergibt sich auch aus der Tatsache, dass, selbst wenn das globale Optimum von einem bestimmten Algorithmus in der Optimierungslandschaft nicht entdeckt wird, die statistische Leistung in Bezug auf die Verallgemeinerung dennoch oftmals ausreichend sein kann.

Eine zentrale Forschungsrichtung zielt darauf ab, explizite Fehlerschranken für den Erfolg eines künstlichen neuronalen Netzes zu liefern, welches inzwischen in vielen, wenn auch oftmals speziellen Klassen von Netzen erreicht worden ist. Ein weiteres Ziel ist das Verständnis der Doppelabstiegskurve, welches bereits zu Ergebnissen über eine implizite Regularisierung im Trainingsprozess geführt hat.

Erklärbarkeit

Obwohl es von essenzieller Bedeutung für die Zuverlässigkeit von künstlichen neuronalen Netzen ist, ein tiefes mathematisches Verständnis des gesamten Trainingsprozesses zu entwickeln, werden Anwenderinnen und Anwender in der Zukunft häufig auch auf die Situation stoßen, dass sie keinen Zugang zu den Trainingsdaten oder Informationen über den Trainingsprozess haben. Aber auch ohne dieses Wissen wird für KI-Technologien oft ein „Recht auf Erklärung“ gefordert, wie zum Beispiel im Gesetz über KI im Rahmen der EU-Digitalstrategie. Diese Forderung führte zum Bereich der „Erklärbarkeit“, der darauf abzielt zu analysieren, welche Aspekte der Eingabedaten die KI zu einer bestimmten Entscheidung/Ausgabe geführt haben. Klassische Ansätze heben die Schlüsselmerkmale der Eingabedaten hervor, die zum Beispiel für eine Klassifizierungsentscheidung am wichtigsten sind. Ein zentrales Ziel dieser Forschungsrichtung ist die Bereitstellung von Algorithmen, die eine Anwenderin oder einen Anwender in die Lage versetzen, mit einem KI-basierten Ansatz wie mit einem Menschen zu dessen Gründen für eine Entscheidung zu kommunizieren. Aufgrund des Erfolgs der großen Sprachmodelle konnten hierbei kürzlich hochinteressante Fortschritte gemacht werden.

Es wird allerdings häufig ignoriert, dass diese Erklärbarkeitsalgorithmen selbst auch zuverlässig sein müssen, um den rechtlichen Anforderungen zu genügen. Dies kann nur mittels mathematisch fundierter Methoden erreicht werden, wie zum Beispiel durch neuere Techniken mittels sogenannter Shapley-Werten aus der Spieltheorie oder basierend auf der Rate-Distortion-Theorie aus der Informationstheorie [9].

Trotz aller Erfolge von KI haben diese Methoden natürlich ihre Grenzen und sind nicht die „eierlegende Wollmilchsau“, als die sie derzeit oftmals verwandt werden. Leider werden aber grundlegende Einschränkungen, die eben auch ein Grund für fehlende Zuverlässigkeit darstellen können, derzeit nicht ausreichend erforscht. Eine kürzlich gestartete Studie befasst sich mit der Beobachtung, dass die meisten KI-basierten Ansätze heute auf digitaler Hardware wie GPU trainiert und ausgeführt werden. Da allerdings bekanntermaßen viele Probleme in Wissenschaft und Technik einen kontinuierlichen Charakter haben wie zum Beispiel das Lösen inverser Probleme in der Signal- und Bildverarbeitung oder (partieller) Differentialgleichungen in diversen Ingenieuranwendungen, während digitale Hardware von Natur aus diskret ist, ist eine Diskrepanz unvermeidlich. Bei der Modellierung digitaler Hardware durch das übliche Turing-Modell konnte kürzlich sogar gezeigt werden, dass diese Diskrepanz leider dazu führt, dass verschiedene Probleme, wie etwa bestimmte Klassifikationsprobleme, inverse Probleme oder sogar die Verwendung der Pseudo-Inversen, die für viele Algorithmen von zentraler Bedeutung ist, nicht berechenbar sind [11]. Dies bedeutet, dass für diese Problemstellungen kein Trainingsalgorithmus, der auf digitaler Hardware ausgeführt wird, KI-basierte Algorithmen sehr präziser Genauigkeit garantieren kann und oftmals sogar ein systematischer Fehler entsteht. In diesem Sinne ist die Ausgabe der resultierenden künstlichen neuronalen Netze nicht zuverlässig und es gibt keine Garantien, welches für hochsensible Anwendungsgebiete wie unter anderem Kommunikationsnetzwerke ein signifikantes Problem darstellt. Eine sehr naheliegende Interpretation dieser Ergebnisse ist, dass dieses Phänomen einer der Gründe für Instabilitäten und fehlende Zuverlässigkeit von künstlichen neuronalen Netzen darstellt. Gleichzeitig deutet die entwickelte Theorie der Studie darauf hin, dass die Verwendung von analoger Hardware wie neuromorphen Chips oder Quantencomputern dieses Problem überwinden könnte. Eine mathematisch belegbar zuverlässige KI scheint somit nur möglich, wenn klassische digitale Rechenplattformen sorgsam überdacht und durch analoge Hardware angemessen augmentiert werden. In Anbetracht des astronomisch hohen Energieverbrauchs beim Training von KI-basierten Ansätzen auf GPU wie auch unter dem Gesichtspunkt der Nachhaltigkeit, könnte die Berücksichtigung neuartiger innovativer Hardware wie neuromorphe Chips in Zukunft eine Notwendigkeit sein, was auch ein Grund für den CHIPS and Science Act für die Halbleiterindustrie in den USA [12] war.

Zusammenfassend lässt sich sagen, dass die mangelnde Zuverlässigkeit der künstlichen Intelligenz derzeit eines der weltweit größten Hindernisse für die Anwendung von KI-basierten Technologien darstellt. Dieses Problem kann nur durch ein tiefes mathematisches Verständnis des Trainingsprozesses und der Leistung der resultierenden KI-basierten Algorithmen gelöst werden, zum Beispiel mit dem Ziel von Erfolgsgarantien in Form von Fehlerschranken, wie sie in vielen Bereichen der Informatik und des Ingenieurwesens üblich sind. Darüber hinaus erfordert die automatisierte Zertifizierung von KI-Technologie im Hinblick auf Regulierungen wie das Gesetz über KI im Rahmen der EU-Digitalstrategie eine Formalisierung im Sinne einer „Mathematisierung“ von Begriffen wie dem „Recht auf Erklärung“ zur Vermeidung von freien und damit unkontrollierbaren Interpretationen lediglich zielend auf wirtschaftliche Vorteile. Eine mathematische Herangehensweise ist somit essenziell für die Sicherstellung von Zuverlässigkeit von KI-Technologien.

PROF. GITTA KUTYNIOK
Mathematisches Institut der Universität München,
LMU München

Referenzen

[1] EU Artificial Intelligence. https://artificialintelligenceact.eu/de/das-gesetz

[2] Erklärung der Staats- und Regierungschefs der G7 zum Hiroshima-KI-Prozess, https://digital-strategy.ec.europa.eu/de/library/g7-leaders-statement-hiroshima-ai-process

[3] McCulloch, W.; Pitts, W.: A logical calculus of the ideas immanent in nervous activity. B. Math. Biol. 5 (1943), S. 11 5– 133

[4] Berner, J.; Grohs, P.; Kutyniok, G.; Petersen, P.: The modern mathematics of deep learning. In: Mathematical Aspects of Deep Learning, Cambridge University Press, 2022

[5] Cybenko, G.: Approximation by superpositions of a sigmoidal function. Math. Control Signal 2 (1989), S. 303 –314

[6] Bölcskei, H.; Grohs, P.; Kutyniok, G.; Petersen, P.: Optimal approximation with sparsely connected deep neural networks. SIAM J. Math. Data Sci. 1 (2019), S. 8 – 45

[7] Papyan, V.; Han, X. Y.;Donoho, D. L: Prevalence of neural collapse during the terminal phase of deep learning training. Proc. Natl. Acad. Sci. 117 (2020), S. 24652 – 24663

[8] Belkin, M.; Hsu, D.; Ma, S.; Mandal, S.: Reconciling modern machine learning practice and the bias-variance trade-off. Proc. Natl. Acad. Sci. 116 (2019), S. 15849 – 15854

[9] Kolek, S.; Nguyen, D.; Levie, R.; Bruna, J.; Kutyniok, G.: A rate-distortion framework for explaining black-box model decisions. In: xxAI – Beyond explainable Artificial Intelligence. Springer, 2022

[10] Heiß, C.; Levie, R.; Resnick, C.; Kutyniok, G.; Bruna, J.: In-Distribution Interpretability for Challenging Modalities. ICML, Interpretability for Scientific Discovery, 2020

[11] Boche, H.; Fono, A.; Kutyniok, G.: Limitations of Deep Learning for Inverse Problems on Digital Hardware. IEEE Transactions on Information Theory, to appear

[12] Semiconductor Research Corporation. The Decadal Plan for Semiconductors. https:// www.src.org/about/decadal-plan, 2021

Das könnte Sie auch interessieren: