Die Qual der Zahl

Am Anfang des modernen Kennzahlenkults steht der Taschenrechner. Als er vor 50 Jahren in die Läden kommt, kosten Modelle mit Sinus-, Tangens- und Quadratwurzeltaste noch ein kleines Vermögen. In Unternehmen kursieren Handbücher von Texas Instruments wie „Entscheidungen rechnerisch ermitteln“, die nichts weniger versprechen als Trendprognosen, die Analyse von Daten und die Vorhersage von Investitionsgewinnen.

Im Klassenzimmer sind die kleinen Rechenmaschinen, die sogar notorische Mathe-Muffel zu Zahlenspielern machen, derweil tabu, denn für die Lehrer bleibt der Lösungsweg das Lernziel. Eisern klammern sich die Studienräte an Logarithmentabellen und Formelsammlungen. Doch die Teenies spielen unter der Bank heimlich mit ihrem Casio, später sparen sie auf einen Commodore 64. Als erste Elterngeneration des Onlinezeitalters ziehen sie heute die Digital Natives groß, die sich fragen, warum Oma und Opa so stolz darauf sind, noch die antiquierte Kulturtechnik des Kopfrechnens zu beherrschen.

Hätte sich eines dieser gadgetverliebten Kids anno 2008 zu der Behauptung verstiegen, Computer seien nun so weit, dass Forscher aufhören könnten, Hypothesen aufzustellen und zu überprüfen, so wäre dies vielleicht noch als jugendlicher Übermut abgetan worden. Tatsächlich war es jedoch einer der maßgeblichen Influencer aus der ergrauenden Taschenrechnergeneration, der „das Ende der Theorie“ proklamierte: Chris Anderson, damals Chefredakteur der amerikanischen Nerdbibel „Wired“, vertrat in seinem Essay die steile These, die etablierte Methodik der Natur- und Sozialwissenschaftler sei nicht mehr zeitgemäß, da moderne Rechnercluster aus fast beliebig großen Datenmengen Wissen destillieren könnten.

Die Gedankenmodelle, die am Anfang eines jeden Forschungsvorhabens stehen, seien ja ohnehin alle falsch, befand der Journalist. Sein Kronzeuge war kein Geringerer als George Box. Der greise britisch-amerikanische Statistikprofessor hatte seit Jahrzehnten gegen die Wissenschaftspraxis gestichelt: “All models are wrong.” Von Box’ Einschränkung „but some are useful“ – manche der Modelle sind besser als nichts – ließ sich Anderson nicht beirren. „Korrelation geht über Kausalität“, verkündete er keck, „mit genügend Daten sprechen die Zahlen für sich.“

Macht Big Data betriebsblind?

Aber sind Zahlen und Daten wirklich Fakten, nur weil es jetzt viel mehr davon gibt, „Big Data“ genannt? Haben wir es mit der Hybris eines berufsmäßigen Technikgläubigen zu tun, dem Machbarkeitswahn eines Betriebsblinden? Oder kann der Ansatz funktionieren, sich nicht vorher den Kopf darüber zu zerbrechen, was man wissen möchte, sondern einfach abzuwarten, was für Zahlen ein schlauer Computer ausspuckt? Wenn ja, was sagen solche Ergebnisse aus? Sind sie mehr als Zufallstreffer, die uns etwas über die Vergangenheit verraten? Was ist mit der Zukunft, aus der es keine Messwerte geben kann? Wo liegen die Grenzen einer Methode, die sich durch den Verzicht auf ein methodisches Korsett auszeichnet? Und: Was macht sie mit uns, diese Technik, die auf unsichtbaren Lösungswegen beliebig viele Nachkommastellen errechnet und so allerhöchste Präzision suggeriert? Die Qual mit der Zahl bleibt aktuell.

Denn all diese Fragen sind relevant. Mit den Zahlen, die unsere Computer aus unseren Daten filtern, steuern wir wie selbstverständlich unsere Betriebe und die Politiker unseren Staat. Wir messen und wir zählen ohne Unterlass, beruflich wie privat. Durchtrainierte Manager, die mit dem Fitnesstracker jeden Schritt und jeden Herzschlag erfassen, brüsten sich damit, als Chefs „datengetriebener“ Unternehmen fit zu sein für den digitalen Wandel der Wirtschaft. Unsere Gesellschaft giert nach Quoten, Wachstumsraten, KPIs, dem RoI. Zahlen sind entweder „gut“ oder „schlecht“, eine Mitte ist nicht vorgesehen. Was sich nicht beziffern lässt, nehmen wir erst gar nicht wahr oder nicht ernst. Wir sind zahlensüchtig.

Es ist nicht so, dass niemand die Gefahr erkannt hätte. Das Echo, das Andersons Abgesang auf wissenschaftliche Vorgehensweisen seinerzeit auslöste, war durchaus zwiespältig. Wer sich mit Data-Mining, Mustererkennung, KI oder generell mit Datenanalysen beschäftigte, konnte sich bestätigt und anerkannt fühlen. Als sich „Big Data“ in der Folgezeit als Buzzword etablierte, bot sich der Begriff als Argumentationshilfe für Verkäufer und Berater an, pries er doch die Überlegenheit der neuen Tools gegenüber dem Handwerkszeug angesehener Forscher. Heftiger Widerspruch kam indes von Wissenschaftlern, die jahrelang immer wieder mit der reißerischen Story vom Ende der Theorie konfrontiert wurden. Dabei hatte Anderson selbst nur eine Hypothese aufgestellt und sie nicht nach wissenschaftlichen Standards belegt.

Unternehmen hinterfragen „Data Lakes“ inzwischen

„Mehr Daten erzeugen nicht notwendigerweise mehr Wissen“, monierte etwa Fulvio Mazzocchi vom Instituto dei Sistemi Complessi, einer Einrichtung des italienischen Nationalen Forschungsrats in Montelibretti bei Rom, vergleichbar einem Max-Planck-Institut. Daten an sich seien bedeutungslos, spielte er auf das altbekannte GIGO-Prinzip an. Garbage In, Garbage Out. Datenmüll gebiert nichts als neuen Datenmüll. Dass Zahlen allein aufgrund einer größeren Datenmenge für sich sprächen, ergebe daher ja wohl kaum einen Sinn.

Um ein Gefühl dafür zu bekommen, was „groß“ bei Datenmengen heute bedeuten kann, lohnt ein Blick nach Genf: In einer einzigen 12-Stunden-Schicht schüttet der Teilchenbeschleuniger Large Hadron Collider (LHC) des CERN zwei Exabyte an Messdaten aus, zwei Billionen Megabyte, so viel, wie auf die Festplatten von zwei Millionen PCs passt. Speichern und nutzen können die Elementarteilchen-Physiker gerade einmal 40 Millionstel davon – eine sorgfältig ausgewählte Stichprobe. 99,996 Prozent des Inputs werden sofort wieder verworfen, weil sie sowieso niemand verarbeiten könnte.

„Die meisten Unternehmen sind inzwischen wieder davon abgekommen, alles in einen Data Lake zu schütten und hinterher mal zu schauen, was dabei herauskommt.“

Nico Reichen, Data & Analytics Leader bei PwC Deutschland

Im Vergleich zu der astronomischen Dimension dieser Datenflut hat es die Wirtschaft mit mikroskopisch winzigen Volumina zu tun. Eine Vollauswertung bestimmter Datenströme oder des in einem „Data Lake“ (Datenstausee) gesammelten Rohmaterials scheitert also kaum an technischen Hürden. Die Frage ist nur, in welchen Fällen sich der Aufwand an Technik und Personal rentiert und wann man in die GIGO-Falle tappt. „Die meisten Unternehmen sind inzwischen wieder davon abgekommen, alles in einen Data Lake zu schütten und hinterher mal zu schauen, was dabei herauskommt“, erklärt Nico Reichen, Data & Analytics Leader bei PwC Deutschland.

Gefährliche Puffer in Reportings

Ein interessantes Einsatzgebiet für statistische Methoden aus dem Big-Data-Werkzeugkasten seien präzisere Forecasts für die Finanzabteilung (siehe auch: Kopf und Zahl). Bisher gaukelten sich viele Unternehmen auf diesem Gebiet eine Genauigkeit vor, wie es sie bei der Fülle getroffener In-etwa-Annahmen gar nicht geben könne. „Es hat sich gezeigt, dass unsere Prognosen deutlich genauer sind als das Forecasting, das die Mitarbeiter selbst gemacht haben“, sagt Reichen. Die Diskrepanzen führt er nicht zuletzt darauf zurück, dass Vertriebler oder Produktmanager gerne mal versteckte Puffer in ihr Reporting einbauen, um am Jahresende auf jeden Fall gut dazustehen: „Wenn das jeder macht, summiert sich das zu großen Beträgen.“ Ausbaden muss das im Zweifelsfall der Finanzchef, von dem ja erwartet wird, dass er jederzeit die wahren Zahlen kennt.

Deshalb setzen viele Unternehmen jetzt auf exaktere Forecasts, die ihnen helfen, in der Produktion Rüstzeiten und Materialanlieferungen präziser und damit effizienter zu planen. Vor der Umstellung sei sehr genau zu prüfen, ob man unter manchmal mehreren Hundert Einflussfaktoren die richtigen ausgewählt habe. Hierzu werde mit den Daten eines kurz zurückliegenden Zeitraums getestet, ob das von den Algorithmen errechnete Soll nah genug bei den Istdaten liegt. Als Input kommen grundsätzlich alle Daten in Betracht, die entlang der Geschäfts- und Fertigungsprozesse intern anfallen, aber auch externe Faktoren. Aber: „Es gibt Indikatoren, die man von vornherein für wichtig hält“, warnt PwC-Experte Reichen, „und bei näherem Hinschauen haben die dann gar keinen großen Einfluss.“

Wobei Big Data bislang überhaupt nicht weiterhilft, ist eine Vorhersage von Nachfrage und Marktentwicklung. Bereits 2013 erregte die sinoamerikanische Ethnografin Tricia Wang einiges Aufsehen mit der Forderung, sich nicht nur um die Quantität der Daten zu kümmern, sondern endlich auch die Qualität ernst zu nehmen. Ihr früherer Arbeitgeber Nokia sei daran gescheitert, dass er über sein immer schlechter laufendes Geschäft alles wusste, aber nichts über die Wünsche, Emotionen und Bedürfnisse seiner Kunden, die in Scharen zu Apple abwanderten und iPhones kauften. Für das, was sie vermisste, prägte Wang den Ausdruck „Thick Data“. Doch sie meinte in Wirklichkeit, dass die Finnen vor lauter Zahlenfixiertheit versäumt hätten, mit dem klassischen Repertoire der Marktforschung – etwa Tiefeninterviews und Milieustudien – zu eruieren, mit welchen Produkten sie ihre Kunden halten könnten.

Bessere Erkenntnisse dank „Experience Data“

Dass hier Nachholbedarf besteht, hat auch der Softwareriese SAP erkannt. Voriges Jahr kauften die Walldorfer für acht Milliarden Dollar die amerikanische Marktforschungsplattform Qualtrics. Das Unternehmen hat sich auf das Sammeln und Auswerten von „Experience Data“ oder kurz „X Data“ spezialisiert. So nennt der Gründer und CEO Ryan Smith Daten zu weichen Faktoren wie Kunden- und Mitarbeiterzufriedenheit. Sie sollen die „O Data“, also die harten operativen Daten aus der Finanzabteilung und der Produktion ergänzen. Das Besondere: Kunden können ihr Feedback formlos in Klartext hinterlassen. Die Software sortiert positive und negative Kommentare automatisch per Sentimentanalyse; wenn es mit einem Produkt Probleme gibt, sieht der Auftraggeber nicht nur eine schulnotenartige Kennzahl, sondern kann lesen, was die Käufer konkret stört. Qualtrics’ Geschäftsmodell besteht quasi darin, die Kluft zu überbrücken, die zwischen einer durch einseitige Fokussierung auf die verkehrten Kennzahlen geprägten Selbstwahrnehmung der Chefs und der Fremdwahrnehmung durch die Kunden und Angestellte klafft.

Zumindest in den USA scheint es sich dabei um eine Schlucht vom Ausmaß des Grand Canyons zu handeln. „Achtzig Prozent der CEOs glauben, dass ihre Angebote klasse sind“, rief Ryan Smith bei der Ankündigung dieser Dienstleistung in den Saal, „aber nur acht Prozent der Kunden stimmen dem zu.“ Ein weiteres verblüffendes Ergebnis: Zwei Drittel der Arbeitnehmer in den USA hätten innerlich gekündigt.

Die SAP-Tochter hat also einen üppigen Markt im Visier. Da diese Zahlenangaben aber aus Umfragen stammen, sind sie natürlich, wie immer, ohne Gewähr.

Newsletter abonnieren

Mit dem Newsletter verpassen Sie keine Ausgabe der next: Das Magazin für Vorausdenker

Anmelden
Feedback

Sie möchten uns Feedback zu diesem Beitrag geben? Wir freuen uns auf Ihre Rückmeldung.

Feedback
Diesen Beitrag teilen

Hier können Sie den Beitrag über soziale Medien teilen.

Teilen

Sie möchten für immer auf Höhe der Vorausdenker sein?
Hier für den next: Newsletter anmelden!

Anmelden