Kolumne

Maschinelles Lernen: kein Allheilmittel der KI

KI ist heute im Alltag angekommen: Ob Sie auf dem Smartphone Sprachdialogsysteme von Google nutzen, um ein Restaurant in der Nähe zu finden, mit DeepL eine koreanische Webseite auf Deutsch übersetzen lassen, in Ihrem Fahrzeug Autopilotfunktionen aktivieren, oder ob der Versuch einer betrügerischen Nutzung Ihrer Kreditkartendaten vereitelt wird, immer steckt KI dahinter.

Man kann grob vier Phasen der KI-Entwicklung unterscheiden: Zunächst versuchte man bis Ende der 1970er-Jahre, mit einem einzigen universellen Verfahren eine Art „generellen Problemlöser“ zu realisieren. Dann wurde aber bald klar, dass menschliche Intelligenz nicht auf eine einzige Denkschablone reduzierbar ist.

Danach folgte in den 1980er-Jahren eine längere Phase der wissensbasierten Systeme, wobei man den KI-Systemen computergerecht formalisiertes menschliches Wissen über verschiedene Expertengebiete zur Verfügung stellte. Der manuelle Aufbau und die Pflege der Wissensbasen waren der limitierende und kostentreibende Faktor in dieser KI-Phase.

Die dritte KI-Ära begann, als Massendaten über das Internet verfügbar wurden und man die ersten erfolgreichen Verfahren zum maschinellen Lernen entwickelte. Man brauchte nur möglichst umfangreiche Trainingsdaten, um durch selbstlernende Systeme komplexe Klassifikations-, Prognose- und Steuerungsaufgaben realisieren zu können.

In jüngster Zeit hat sich aber gezeigt, dass alleiniges maschinelles Lernen ebenfalls schnell an Grenzen stößt. Das von der Menschheit über Jahrtausende akkumulierte Wissen und das darauf basierende intelligente Verhalten lassen sich nur partiell durch maschinelles Lernen über Beobachtungsdaten rekonstruieren.

Prof. Dr. Dr. h.c. mult. Wahlster ist Mitglied der Datenethikkommission der Bundesregierung und des Lenkungskreises von deren Plattform für künstliche Intelligenz.  Mehr lesen »

Prof. Dr. Dr. h.c. mult. Wahlster ist Mitglied der Datenethikkommission der Bundesregierung und des Lenkungskreises von deren Plattform für künstliche Intelligenz. Er ist einer der Gründer des Deutschen Forschungszentrums für Künstliche Intelligenz, bei dem er derzeit als Chief Executive Advisor wirkt. Weniger lesen »

Durchbruch mit Deep Learning

Aktuell setzt man daher in der vierten Phase der KI auf hybride Verfahren. Dabei werden Wissensbasen, wie der Wissenstresor von Google mit seinen mehr als 250 Millionen Fakten, mit dem Lernen über Trainingsdaten verbunden – also eine Kombination von Methoden von KI-Systemen der zweiten und dritten Generation.

Lernen mit neuronalen Netzen ist an sich nichts Neues. Schon auf der ersten KI-Konferenz vor 63 Jahren wurden neuronale Netze vorgestellt, zum Beispiel um geschriebene oder gesprochene Ziffern von 0 bis 9 zu erkennen.

Neuronale Netze sind zwar biologisch von Gehirnen inspiriert – insbesondere in den Grundbausteinen und der Terminologie –, sind aber eher graphbasierte mathematische Berechnungsmodelle als eine Gehirnsimulation, da unser Gehirn erheblich komplexer strukturiert ist. Die Leistungen unseres Gehirns beruhen auf neurochemischen Prozessen, die auch stark von Hormonen beeinflusst und gesteuert werden, die in den rein elektronischen Prozessen auf digitalen Computern selbstverständlich keine Rolle spielen.

Ein Durchbruch wurde in den vergangenen Jahren mit dem Deep Learning erreicht, das auf einer Weiterentwicklung mehrschichtiger neuronaler Netze beruht. Je mehr verdeckte Schichten ein Deep-Learning-Netz hat, umso mehr kann es abstrahieren. Allerdings wird mit jeder Schicht auch die erforderliche Rechenleistung dramatisch erhöht. Es wird bereits an Netzen mit mehr als 1.000 Schichten gearbeitet, um das simultane Dolmetschen, die Gesichtserkennung, das autonome Fahren und die Mensch-Roboter-Kollaboration weiter zu verbessern.

Etliche Forschungsprobleme bleiben offen

Neuartig ist bei den Deep-Learning-Ansätzen auch, dass die KI-Systeme die zu ana­lysierenden Merkmale in den Daten selbst bestimmen – teilweise mehr als 200.000 Merkmale, die manuell gar nicht bestimmbar wären.

Es gibt aber auch etliche offene Forschungsprobleme beim maschinellen Lernen, die man als Entscheider kennen muss:

1. Mangelnde Ergebnistransparenz:

Die Vorgehensweise der Systeme ist nicht vollständig transparent, und es fehlen oftmals maschinelle Erklärungskomponenten, die das Ergebnis des KI-Systems argumentativ absichern können. Erst in den letzten beiden Jahren gab es erste Fortschritte im Bereich des maschinellen Bild- und Sprachverstehens, um die Vorgehensweise zumindest rudimentär nachvoll­ziehbar zu machen.

2. Überanpassung durch zu viel Training:

Die Leistung maschineller Lernsysteme nimmt mit zunehmender Anzahl der Trainingsschritte zunächst zu. Nach einer Sättigungsphase kann sie aber wieder abnehmen, weil sich die Systeme auch an Scheinkorrelationen ohne kausalen Zusammenhang orientieren. Diese können nur durch zusätzliches Hintergrundwissen des Systems (z.B. Wissensgraphen) weggefiltert werden.

3. Fehlendes Löschlernen:

Werden beim schrittweisen Selbstlernen aus Versehen oder mit böswilliger Absicht fehlerhafte oder kontaminierte Datensätze beigemischt, so kann ein zuvor zuverlässig arbeitendes KI-System plötzlich fehlerhafte Ergebnisse liefern. Es ist heute nicht möglich, die negativen Auswirkungen fehlerhafter Daten bei selbstlernenden Systemen automatisch zu beseitigen, sodass das KI-System im schlimmsten Fall komplett aus dem Betrieb genommen werden muss.

4. Fehlende Trainingsdaten:

In vielen Anwendungen gibt es auch Bereiche, in denen kaum Trainingsdaten erhältlich sind, da die Ereignisse sehr selten auftreten oder sensorisch nicht erfasst werden (z.B. Wildschwein läuft vor Auto). Wenn man dann das Training auf synthetischen, durch Algorithmen erzeugten Daten durchführt, besteht die Gefahr, dass das Lernsystem bei der automatischen Generierung genau die Vorgehensweise des Trainingsmaterials reproduziert – ohne neue Einsichten zu finden.

Neben der klaren Kommunikation dieser Risiken müssen auch ethische Grundwerte wie die informationelle Selbstbestimmung und die Diskriminierungs­freiheit in einer Datenethik für KI-Anwendungen sichergestellt werden.

Es geht daher darum, analog zur IT-Sicherheit durch „Security by Design“ beim Entwurf von KI-Systemen schon zu Projektbeginn nach dem Prinzip „Ethics by Design“ zu handeln.

Bildnachweis: ©ddp Images; © Jim Rakete

Newsletter abonnieren

Mit dem Newsletter verpassen Sie keine Ausgabe der next: Das Magazin für Vorausdenker

Anmelden
Feedback

Sie möchten uns Feedback zu diesem Beitrag geben? Wir freuen uns auf Ihre Rückmeldung.

Feedback
Diesen Beitrag teilen

Hier können Sie den Beitrag über soziale Medien teilen.

Teilen

Sie möchten für immer auf Höhe der Vorausdenker sein?
Hier für den next: Newsletter anmelden!

Anmelden