Abbildung articles/titel/header.jpg

Kollege Golem

Devin Wenig, seit Juli 2015 CEO von eBay, mochte nicht länger zusehen. An den 900 Millionen Listings auf seiner Handelsplattform verdiente das US-Unternehmen zuletzt immer weniger. Kurzerhand ging Wenig selbst auf Shopping-Tour. Nicht im Netz, sondern in Schweden und Israel. In seinen Warenkorb legte er zuerst im Mai 2016 Expertmaker, ein auf Machine Learning spezialisiertes Softwareunternehmen aus Malmö. Im Juli folgte der Kauf des Start-ups SalesPredict aus Netanya.

Damit investiert Wenig gezielt in künstliche Intelligenz (KI). Mit Expertmaker kann eBay seine Daten besser organisieren und für die Kunden relevantere Auswahlansichten von Produkten auf dem Bildschirm anzeigen. Dank der dort integrierten KI will Wenig den Marktplatz so umgestalten, dass die Kunden kaum noch die Suchfunktion nutzen müssen. Für Händler soll das mehr Verkäufe und für eBay mehr Provision bringen. Und mit den intelligenten Algorithmen und Analysen von SalesPredict könnte eBay künftig gleichzeitig das Kundenverhalten vorhersagen, zum Beispiel, dass sich ein Produkt in einer Woche anstatt in einem Monat verkauft, wenn der Händler den Preis um einen bestimmten Betrag senkt.

Automatisierte Datenanalysen, wie eBay sie jetzt forciert, sind gerade auf dem besten Weg, die Arbeitswelt deutlich zu verändern, aber anders als Laien denken: Die dabei eingesetzte künstliche Intelligenz ersetzt die menschliche nicht, sondern ergänzt sie. KI ist in der Lage, auf der Basis gewaltiger Datenmengen, deren Bearbeitung Menschen überfordern würde, eigene Berechnungen durchzuführen und Entscheidungen zu treffen. Und sie kann in sehr großen Datenmengen blitzschnell Muster identifizieren, die kein menschlicher Geist je erkennen würde. Heute stecken Mustererkennungssysteme bereits in vielen Anwendungsfeldern von Maschinenbau über Mobilfunk bis Medizin. Sie analysieren Signale aller Art – Bilder, Töne, Text, Zahlenkolonnen, Vibrationen.

Nach vielen Rückschlägen und Irrwegen wird es gerade ernst mit der schon lange beargwöhnten „künstlichen Intelligenz“. „Die unter diesem Dachbegriff zusammengefassten Entwicklungen haben jetzt den nötigen technischen Reifegrad erreicht, um sie als Mainstream-Werkzeuge in der Datenanalyse einsetzen zu können“, attestiert Olaf Acker, Leiter des Bereichs Digital Services und Partner bei Strategy&, der Strategieberatung von PwC Deutschland.

Pragmatische KI-Entwickler lassen sich von der Natur inspirieren, gehen technisch aber andere Wege – ein übliches Vorgehen in der Bionik. Da natürliche Neuronen am Beispiel lernen und bei allem, was häufiger benötigt wird, stärkere Synapsen ausbilden, kamen Grundlagenforscher schon vor Jahrzehnten auf die Idee, lernfähige Software zu entwickeln, also künstliche neuronale Netze zu schaffen, die ihr „Gedächtnis“ selbst organisieren. Sie sind die Basis von klassischem „Machine Learning“ und dem verbesserten „Deep Learning“, das die steigende Leistung der Hardware mit ausgeklügelter Parallelverarbeitung in einer Vielzahl von Prozessorkernen nutzt.

Weltweit rüsten sich Unternehmen für die nächste industrielle Revolution, die dieses maschinelle Lernen verspricht. Das Marktforschungsunternehmen „Tractica“ aus Boulder/Colorado prognostiziert gar, dass die jährlichen Umsätze mit geschäftlichen KI-Anwendungen von rund 200 Millionen Dollar im Jahr 2015 auf 11 Milliarden Dollar im Jahr 2024 geradezu explodieren werden. Hinzu komme ein Mehrfaches an Investitionen in Service und Training. Bis 2020 werde dabei neben der Finanzwirtschaft vor allem der Gesundheitssektor die größten Wachstumsraten aufweisen, schätzen die US-Marktforscher von „MarketsandMarkets“. KI werde insbesondere Forschung, Diagnose und Behandlung umkrempeln. Aber auch die vielfältigen Anwendungsbereiche von künstlicher Intelligenz in weiteren Branchen wie Maschinenbau, Medien und Werbung, Recht, Landwirtschaft, Einzelhandel und Energie treiben den Ausbau immer intelligenterer KI-Anwendungen.

So lassen sich mit dem weiten Feld der „Predictive Analytics“ nicht nur potenzielle Verhaltensweisen von eBay-Käufern vorhersagen, sondern auch Krankheiten vermeiden, Einkauf und Produktion genauer planen oder betriebliche Risiken früher erkennen. Die Erweiterung von Data & Analytics um intelligente Algorithmen kann prinzipiell in vielen Bereichen erfolgen wie Prozessoptimierung, Bekämpfung von Wirtschaftskriminalität, Umsatz- und Kostenoptimierung – inklusive dynamischer Preisgestaltung –, Markt- und Kundenpotenzial-Analysen, Risk-based Planning, Risiko und Compliance sowie Supply Chain und Logistik.

Erste Erfahrungen sammeln führende deutsche Maschinenbauunternehmen gerade mit „Predictive Maintenance“. „Dank der Erkennung von Mustern in früheren Maschinenfehlern lässt sich anhand von Sensordaten vorhersagen, wann eine Maschine wahrscheinlich das nächste Mal ausfallen wird und auch warum“, erklärt Olaf Acker. Dabei gehe es nicht nur um Produktivität und Zeitersparnis, sondern auch um Qualität. „Noch nie war die Präzision der Datenanalyse so hoch wie heute. Dank komplexerer neuronaler Netze arbeiten die Verfahren viel feiner.“

Die rasch wachsende Anzahl von Sensoren, eingebetteten Systemen und vernetzten Geräten im „Internet der Dinge“ sowie die zunehmende horizontale und vertikale Vernetzung von Wertschöpfungsketten führen zu einem großen kontinuierlichen Datenstrom im Rahmen von Industrie 4.0. So generiert schon eine einzige Maschine eines Automobilzulieferers 65 Millionen Datensätze pro Jahr. Unternehmen sammeln diese riesigen Mengen von Daten entlang der gesamten Wertschöpfungskette zwar bereits, versäumen es aber, weiteren Nutzen daraus zu ziehen und sie den technischen Möglichkeiten entsprechend strukturiert zu verwenden, so ein Ergebnis der aktuellen Studie „Industry 4.0 – Opportunities and challenges of the industrial internet“ von Strategy&, der Strategieberatung von PwC.

Gleichzeitig sind 90 Prozent der befragten Unternehmen aber davon überzeugt, dass die Fähigkeit, Big Data effizient zu analysieren und effektiv zu verwenden, entscheidende Bedeutung für den Erfolg ihres Geschäftsmodells haben wird. Genau das versprechen die neuen Möglichkeiten der künstlichen Intelligenz. Mit deren Einsatz wird sich die Arbeitswelt sukzessive überall dort verändern, wo solche Daten anfallen: Der Mensch delegiert die Fleißarbeit an virtuelle „Kollegen“ und wächst in die Rolle des Supervisors hinein – der allerdings wissen muss, was er wissen will. Außerdem sollte er beurteilen können, was seine Software leisten kann, und erkennen, wann sie Fehler macht.

Wie steil die Wachstumskurve für KI-Anwendungen wirklich nach oben gehen wird, hängt nicht zuletzt davon ab, wie gut die Branche ihre Imageprobleme lösen und ihren Nutzen der Öffentlichkeit vermitteln kann. Einer Forsa-Umfrage zufolge ist nur etwa jeder dritte Deutsche fasziniert von der vielseitigen Technik, die in Spielen wie Schach und Go Großmeister schlägt, aus Zahlen, Daten und Fakten lesbare Sportartikel zaubert und längst in jedem Smartphone steckt. Immerhin jeder Sechste hält sie für eine veritable „Bedrohung der Menschheit“ – und darf sich in guter Gesellschaft fühlen, seit Größen wie Bill Gates, Stephen Hawking und Elon Musk ihre Besorgnis von einem Missbrauch der Möglichkeiten publik gemacht haben.

Die Furcht vor künstlich geschaffenen Mächten ist nicht neu. So erschuf in der jüdischen Mystik ein Prager Rabbi im 16. Jahrhundert einen „Golem“, ein stummes menschenähnliches Wesen aus Lehm von gewaltiger Kraft und Größe, das in der Lage ist, bestimmte Aufträge auszuführen. Im Roman „Golem XIV“ versetzte der polnische Autor Stanislaw Lem diese Legende im Jahr 1981 in die Neuzeit – in seiner Geschichte eines von Menschen erbauten Super-Computers, der die Intelligenzbarriere durchbrochen hat und über eine eigenständige Vernunft verfügt.

„Künstliche Intelligenz kann menschliche nicht ersetzen“, beruhigt Barbara Lix, als Direktor bei PwC Deutschland verantwortlich für Data & Analytics, skeptische Manager, „Fach- und Führungskräfte werden noch gebraucht.“ Das hat einen einfachen Grund: Computer leisten dank KI Verblüffendes, aber sie denken nicht. Nimmt ein Mensch oder Tier etwas wahr, werden in seinem Gehirn automatisch bestimmte Neuronen aktiv, die eine passende mentale, kognitive oder physische Reaktion auslösen. Diese Neuronen sind Meister der multimedialen Mustererkennung, reagieren simultan auf Input von fünf Sinnen (etwa wenn man im Kino Popcorn isst). Um ein technisches Gebilde denken zu lassen, müssten Ingenieure die biochemischen und elektrischen Abläufe in den kleinen grauen Zellen, in denen Verstand, Bewusstsein und Emotion wohnen, so gut verstehen, dass sie sie in Algorithmen oder Silizium imitieren könnten. Niemand kann das – bislang. „Was tatsächlich in einem Gehirn abläuft“, resümiert Christoph von der Malsburg, Nestor der deutschen Neuroinformatik und zugleich Querdenker seiner Zunft, nach einem halben Jahrhundert in der Forschung sehr nüchtern den einstweiligen Status quo, „liegt jenseits der Wissenschaft.“

„Künstliche Intelligenz kann menschliche nicht ersetzen. Fach- und Führungskräfte werden noch gebraucht.“

Barbara Lix, ist Direktor und Leader Data & Analytics bei PwC Deutschland

Dabei findet die Entwicklung von künstlicher Intelligenz längst nicht mehr nur in Hochschulen und Forschungseinrichtungen statt. Angelockt von besseren Datenverarbeitungsressourcen und höheren Löhnen in der Privatwirtschaft, zieht es ehemalige Hochschulwissenschaftler in Scharen in die Labors von Technologieriesen wie Google, Microsoft, Facebook, IBM oder Baidu, Chinas führendem Webdienstleister. Sie alle wollen KI auf eine neue Stufe heben und konkrete Anwendungen bis zur Marktreife entwickeln. Unzählige Technikschmieden versprechen, Roboter zu bauen und Software zu schreiben, die vorherigen Generationen weit überlegen sind. Auf dem Weg dorthin machen sie rasante Fortschritte. Google mit Alpha-Go, Apple mit Siri, IBM mit Watson, Microsoft mit Cortana und viele andere arbeiten derzeit an Werkzeugen, Produkten und Services, die sich künstlicher Intelligenz bedienen. Obwohl vieles noch in den Anfängen steckt, kommen sie den Vorstellungen Ray Kurzweils immer näher. Googles KI-Guru rechnet damit, dass Maschinen bis zum Jahr 2030 annähernd menschliches Intelligenzniveau erreichen könnten – ein Ziel, das lange Zeit unerreichbar schien.

Einen ersten Vorgeschmack lieferte gerade Watson. Die künstliche Intelligenz von IBM produzierte für den Anfang September angelaufenen KI-Science-Fiction-Film „Morgan“ einen Trailer mit emotionalen Szenen. Es ist der erste Trailer der Filmgeschichte, der durch einen Algorithmus entstanden ist – in 24 Stunden, statt wie sonst üblich in 10 bis 30 Tagen.

Und inzwischen ist KI auch nicht mehr Unternehmen mit großen Forschungslabors und Budgets vorbehalten, sondern als Software-as-a-Service und Cloudanwendung leicht und kostengünstig zugänglich. So setzen bereits rund 100 Einkaufszentren rund um den Globus die Software des britischen Unternehmens Path Intelligence zur Predictive Sales Performance ein. Sie misst anonymisiert Milliarden Bewegungen von Einkäufern, kombiniert sie mit weiteren Daten und gibt Empfehlungen für verkaufsfördernde Verbesserungen. Die „Business-Intelligence“-Software des US-Unternehmens Qlik Technologies, hilft 36.000 Kunden in mehr als 100 Ländern weltweit mit einer intuitiven Plattform-Lösung quasi im Self-Service geführte Analyseanwendungen und komplexe Daten-Visualisierung einzusetzen. Und die intelligente Software von Sentient, dem derzeit am höchsten finanzierten KI-Start-up der USA, entwickelt einen visuellen Dialog zwischen Kunden und den Katalogen von Webshops wie shoes.com. Bei jedem Klick auf ein Produktbild lernen die Algorithmen mehr über den Geschmack des Surfers, können dessen Vorlieben und Präferenzen vorhersagen und geben Einkaufstipps, die sonst von der Freundin kommen.

Die rasante Entwicklung und die Fülle der Anwendungsmöglichkeiten machen deutlich: Unternehmen tun gut daran, Big Data jetzt mit KI zu vernetzen. Sogenannte „Digital Leaders“ werden dabei ihren Vorsprung behalten und ausbauen. Das belegt auch die aktuelle PwC-Studie „Industry 4.0: Building the digital enterprise“. Demnach sind die digitalen Pioniere nahezu dreimal erfolgreicher in der Kombination von starken Umsatzzuwächsen bei gleichzeitig signifikanten Kostensenkungen als Wettbewerber. „Diese Gleichung gilt auch für den Einsatz von künstlicher Intelligenz“, ist Olaf Acker überzeugt. „Unternehmen, die bei der digitalen Transformation den Takt vorgeben möchten, müssen sich jetzt mit den vielfältigen Einsatzmöglichkeiten dieser Technologien auseinandersetzen und dabei neugierig, experimentierfreudig und schnell sein.“

Bildnachweis: Erik Dreyer/GettyImages(3), PwC(2), 20th Century Fox/youtube

Newsletter abonnieren

Mit dem Newsletter verpassen Sie keine Ausgabe der next: Das Magazin für Vorausdenker

Anmelden
Experten kontaktieren

Sie haben Fragen oder möchten mit einem unserer Experten zu diesem Thema sprechen? Melden Sie sich gerne bei uns.

Kontaktieren
Diesen Beitrag teilen

Hier können Sie den Beitrag über soziale Medien teilen.

Teilen