Kolumne

In Tech we trust

Abbildung articles/in-tech-we-trust/header.jpg

Seit Jahren diskutieren sich Philosophen und Juristen die Köpfe darüber heiß, welche ethischen Begriffe man Rechnern und Algorithmen mitgeben müsse, damit sie in einem selbstfahrenden Auto autonom Entscheidungen treffen können. Doch jetzt, nach der ersten Million fast völlig unfallfrei verlaufener Testkilometer der autonomen Google-Cars, stellt sich langsam heraus, dass die Frage falsch gestellt ist. Denn die eigentlich ethische Entscheidung besteht nicht so sehr darin, die Programmierung der Maschine zu optimieren – als vielmehr darin, dem Menschen das Steuer zu entreißen. Denn menschliche Fahrer werden schon bald das eigentliche Sicherheitsrisiko im Straßenverkehr darstellen. Unberechenbar, ständig die Straßenverkehrs­ordnung verletzend, rücksichtslos, manchmal sogar volltrunken oder zugedröhnt: In wenigen Jahrzehnten werden die Menschen sich fragen, wie man jemals auf die Idee kommen konnte, bei der Verkehrssicherheit ausgerechnet auf Menschen zu vertrauen.

Das selbstfahrende Auto ist nur ein Extrem – aber beileibe kein Einzelfall. Bei komplexen Systemen werden wir immer häufiger der technischen Lösung, dem Roboter, vertrauen. Von der Lieferdrohne über das Navigationssystem bis zu digitalen Assistenten wie Siri oder einem Partnersuch-Algorithmus werden uns Entscheidungen vorgeschlagen oder gleich ganz abgenommen. Das soll zwar nicht heißen, dass uns Computer, Automaten und Roboter auf absehbare Zeit vertrauter würden als Menschen. Aber Vertrautheit ist eben auch nur ein Aspekt von Vertrauen. Denn der Begriff „Vertrauen“ hat (mindestens) drei sehr unterschiedliche Dimen­sionen. Im Englischen gibt es dafür auch, anders als im Deutschen, drei unterschiedliche Begriffe:

• Confidence: Systemvertrauen, für das es keine bewusste Alternative gibt. Wir haben Confidence zum Rechtsstaat oder zur Demokratie. Wir rechnen nicht mit dem Bankrott unserer Bank. Wir fahren Auto und gehen davon aus, dass die anderen, die mit dem Auto unterwegs sind, auch fahren können.

• Familiarity: Vertrauen, das aus Vertrautheit entsteht. Wir empfinden Familiarity für den Bäcker um die Ecke, für unsere Lieblings-Fernsehserie, mit den Gerüchen unserer Kindheit und natürlich mit der eigenen Familie. Vertrautes Umfeld, vertraute Gesichter, vertraute Rituale.

Abbildung articles/in-tech-we-trust/stoerer-01-1.jpg

• Trust: Vertrauen auf der Ebene von Präferenzen und bewussten Entscheidungen. Wir vertrauen dem Taxifahrer, zu dem wir ins Auto steigen (er könnte ja auch ein Unhold sein); wir vertrauen der Supermarkt-Quittung (wir könnten ja auch nochmal nachrechnen). Wir gehen ein Risiko ein, enttäuscht zu werden, und wägen intern Chance und Risiko ab.

Gerade dieser letzte Begriff von Vertrauen wird derzeit wichtiger. Denn je komplexer die Welt wird, in der wir leben, desto seltener können wir uns auf das ­Vertraute, Familiäre verlassen. Wir haben es statt­dessen immer mehr mit abstrakten Systemen zu tun. Und diese Systeme sind so komplex und verändern sich so dyna­misch, dass wir ihnen immer seltener Confidence, Systemvertrauen, entgegenbringen können. Aber die praktikable Alternative dazu ist es ja nicht, zum ­Menschen- oder Systemfeind zu werden, sondern auf Trust zu bauen – das berechenbare Vertrauen. Und für alles, was berechenbar ist, lassen sich Rechner und Algorithmen einsetzen.

Ein Hauptstrang der zukünftigen technischen und ökonomischen Entwicklung wird zu Systemen führen, bei denen die Entscheidungen ganz ohne menschliches Zutun getroffen werden. Das erste Stadium dieser Entwicklung haben wir bereits erreicht: Entscheidungen könnten datengesteuert ohne Umweg über den Menschen fallen, aber der Mensch hat immer die Möglichkeit, wieder selbst die Entscheidung an sich zu ziehen. Vom Auto kennen wir Einpark- oder Abstands­assistenten, die den Wagen praktisch ohne Zutun des Fahrers in die Parklücke manövrieren oder im Verkehrsfluss auf der Autobahn mitschwimmen können. Aber wir können das Steuer jederzeit wieder übernehmen und die digitalen Helfer ausschalten.

Bei diesem Stadium wird es nicht bleiben. Je häufiger sich die Maschinen bei einer Tätigkeit bewährt haben, desto wahrscheinlicher wird es, dass wir ihnen für diesen kleinen Ausschnitt der Welt die Entscheidungs­kompetenz geben. Wer muss schon das Einparken kontrollieren, wenn mit Sicherheit gesagt werden kann, dass der Einpark-Algorithmus keinen Kratzer ins Autoblech machen und kein spielendes Kind über­fahren wird? Wir werden dann alle schon vor dem Einparken den Wagen verlassen können, und den Rest der Maschine überlassen – und sparen Zeit und Nerven. Sich bei komplexen Problemen in die Hand der Technik zu begeben, entwertet allerdings vorhandenes Expertenwissen und -können. Den Witzen über Frauen, die nicht einparken können, wird wohl kaum jemand nachweinen, aber ob in einem Zeitalter der selbststeuernden Fahrzeuge der Motorsport seine ökonomische Bedeutung behält, wird schon mehr Menschen betreffen. Und noch einmal größer wird die Gruppe der Betroffenen, wenn die datengesteuerte Entscheidung endgültig in den Büroetagen ankommt. Denn wo die Technik den Managern die Entscheidungen immer öfter abnimmt, verlieren diese einen Teil ihrer heutigen Existenzberechtigung – und müssen sich auf einen Strukturwandel ihrer Tätigkeit einstellen.

Das Maß an Vertrauen, das wir aufwenden, um uns auf ein technisches System zu verlassen, hängt vom persönlichen Risiko ab, das mit der jeweiligen Entscheidung verbunden ist. Bei kleineren Risiken – etwa falsche Farbe, falsche Größe, schlechtes Restaurant – werden wir uns auf einfachere Prinzipien wie beispielsweise Kundenratings verlassen. Wenn es um Entscheidungen mit potenziell schwerwiegenden Folgen geht, wie die Behandlung einer ernsthaften Erkrankung, braucht es höhere Autoritäten wie beispielsweise staatliche Zulassungen. So wie Mediziner eine Prüfung ablegen müssen, um praktizieren zu können, müssen dann vielleicht auch Algorithmen Zulassungstests bestehen.

Wie entsteht überhaupt Vertrauen in einer digitalisierten, immer mehr von Algorithmen gesteuerten Welt, in der wir öfter mit Maschinen interagieren und immer seltener zwischen Menschen und Maschinen unterscheiden können? Diese Welt braucht neue Mechanismen zur Vertrauensbildung. Eine ganze Reihe von neuen Ansätzen und Strategien entwickelt sich derzeit – die wichtigsten von ihnen werden im Folgenden skizziert:

• Transparenz/Wikisierung: Nur wenn Datensätze offen zugänglich sind, kann ein Markt für Algorithmen entstehen, kann die Leistungsfähigkeit von Algorithmen getestet und miteinander verglichen werden. Dabei bleibt sichtbar, welche Person oder Institution (oder Maschine) welche Daten beigetragen hat und welche Aussagen umstritten sind. Sicherheit für Nutzer und Gesellschaft entsteht durch soziale Kontrolle und Rückverfolgbarkeit.

• Dekommerzialisierung: Je stärker sich im Bewusstsein festsetzt, dass Daten ein potenziell hochprofitables Wirtschaftsgut sind, desto populärer werden wohl Ansätze werden, die aus ihnen das Beste für die Allgemeinheit herausholen wollen – und eben nicht das Beste für ein privates Unternehmen. Offene Datenbibliotheken, Datengenossenschaften oder Datenspenden können eine solche Aufgabe übernehmen – ob öffentlich finanziert oder mit NGO- oder Stiftungsgeldern bezahlt.

Abbildung articles/in-tech-we-trust/stoerer-02-1.jpg

• Distributed Trust: Technologie wird so designt, dass keine zentrale Autorität entstehen kann, die Macht missbraucht. Das derzeit bekannteste Beispiel für einen solchen Ansatz ist die digitale Währung Bitcoin. An die Stelle von einzelnen (mehr oder weniger) vertrauenswürdigen Institutionen wie Regierungen, Noten- oder Privatbanken tritt ein System, in dem alle Beteiligten ihren Beitrag zum Gesamtvertrauen leisten.

• Wettbewerb: Zum besten Algorithmus für eine definierte Anwendung gelangt man am schnellsten, wenn es für Entwickler aus aller Welt attraktiv ist, sich an der Lösung zu beteiligen. Wettbewerbe können dafür sowohl im sportlichen als auch im marktlichen Modus veranstaltet werden. Für den sportlichen Modus ist die seit 1996 jährlich ausgetragene Weltmeisterschaft im Roboter­fußball ein gutes Beispiel. Marktliche Wettbewerbslösungen hingegen könnten ähnlich designt sein wie Architektur­wettbewerbe oder Pitches um einen Werbeetat.

• Autorität, Zertifizierung: Gerade bei Anwendungen, die mit hohem Risiko verbunden sind, wird an staatlichen Zulassungsverfahren für Algorithmen kein Weg vorbeiführen. Wo es um ein geringeres Risiko geht, kann diese Aufgabe auch von Konsumentenorganisationen übernommen werden. Statt beispielsweise des Schutzfaktors von Sonnencreme wird dann der Verzerrungsfaktor von Suchmaschinen miteinander verglichen. Sowohl im soften als auch im harten Bereich könnten Prüfungsgesellschaften tätig werden, die einerseits die Einhaltung der gesetzlichen Bestimmungen bescheinigen und sich andererseits bei technischen oder ökonomischen Neuentwicklungen darum bemühen, die Prüfungs­standards ebenfalls anzupassen.

• Controlling-Algorithmen: In dem Maß, in dem Algorithmen und künstliche Intelligenzen Experten ergänzen oder ersetzen, müssen sie auch mehr öffentlich-rechtlichen Kontrollen unterworfen werden. Die Kontrolleure müssen aber keine Menschen sein – in komplexen Systemen sind auch neue Kontrollautomatismen vorstellbar, die sich quasi selbst steuern. Vertrauen ist nie plötzlich da, sondern wird durch Regeln aufgebaut, verstärkt, gefestigt. Je mehr wir mit Technik interagieren und um so zuverlässiger sie funktioniert, umso vertrauter wird sie uns. Roboter und künstliche Intelligenzen lernen Menschen und ihre Gefühle immer besser zu verstehen – besser als wir selbst unsere Familien und Freunde.

Die ersten Ansätze in dieser Richtung, etwa ­Apples „Siri“, sind noch eher putzig als nützlich – von Vertrautheit ganz zu schweigen. Aber sie registrieren auch nur, was wir sagen, nicht in welchem Tonfall wir es sagen, und sie haben ja auch nur die Daten aus dem Handy verfügbar, nicht die aus unserem Körper. Geräte hingegen, die unseren Pulsschlag, unseren Blutdruck, unsere Reaktionsgeschwindigkeit oder die Feuchtigkeit der Handflächen messen und alle Veränderungen solcher Parameter sofort erkennen, können unsere Emotionen geradezu fühlen, auch ohne dass wir noch etwas sagen müssten. Die „Moodies“-App des israelischen Start-ups „Beyond Verbal“ beispielsweise kann schon aus dem Tonfall einer Unterhaltung deren Stimmung identifizieren – mit einer beachtlichen Trefferquote.

Bildnachweis: InterTopis/mptv/ddp, Google/PR (6), PwC, PR

Newsletter abonnieren

Mit dem Newsletter verpassen Sie keine Ausgabe der next: Das Magazin für Vorausdenker

Anmelden
Experten kontaktieren

Sie haben Fragen oder möchten mit einem unserer Experten zu diesem Thema sprechen? Melden Sie sich gerne bei uns.

Kontaktieren
Diesen Beitrag teilen

Hier können Sie den Beitrag über soziale Medien teilen.

Teilen