Interview

„KIs sind clevere Fachidioten“

Hat unsere Gesellschaft ein falsches Bild von KI und Robotik, und was bewirkt das?
Ja, viele Menschen haben ein falsches Bild. Das ist aber auch kein Wunder. In der öffentlichen Darstellung sind wir ja regelmäßig mit scheinempathischen Pflegerobotern, mit Androiden am Büroschreibtisch und mit dem Konkurrenznarrativ „Mensch versus Maschine“ konfrontiert. Ich möchte überhaupt nicht sagen, dass der Fortschritt in KI und Robotik nicht mit Risiken und in manchen Branchen mit Jobverlusten einherginge. Aber von menschengleicher künstlicher Intelligenz, von Maschinen mit Bewusstsein und Intentionalität, deren Vorstellung vielen Angst macht, sind wir Lichtjahre entfernt. Ich fände es schön, wenn wir eine weniger angstbefeuernde Scifi-Debatte hätten und uns dafür mehr Gedanken über positive, synergetische Zukunftsszenarien mit intelligenten Maschinen machen würden. Darüber, wie sich menschliche und künstliche Intelligenz zum Wohle möglichst vieler ergänzen können, wird nach wie vor zu wenig gesprochen.

Martina Mara ist österreichische Medienpsychologin und seit April 2018 Professorin für Roboterpsychologie am Linz Institute of Technology (LIT) der Johannes Kepler Universität Linz.  Mehr lesen »

Martina Mara ist österreichische Medienpsychologin und seit April 2018 Professorin für Roboterpsychologie am Linz Institute of Technology (LIT) der Johannes Kepler Universität Linz. Seit 2014 leitet sie am Ars Electronica Futurelab in Linz den Forschungsbereich RoboPsychology, seit 2016 schreibt sie für die Oberösterreichischen Nachrichten die wöchentliche Kolumne „Schöne neue Welt“ über die sozialen Auswirkungen neuer Technologien und digitaler Medien. Sie setzt sich dafür ein, das Zusammenleben mit Maschinen zu harmonisieren. Weniger lesen »

Ist KI eigentlich intelligent – oder doch eher dumm?
Gegenfrage: Was verstehen Sie unter Intelligenz? Im Alltag meint ja fast jeder etwas anderes damit, und selbst in der Wissenschaft gibt es keine einheitliche Definition. Was die meisten Intelligenztheorien verbindet, ist der Bezug zur Fähigkeit, neue Inhalte schnell erfassen zu können, sich rasch einen Überblick über ein unbekanntes Gebiet zu verschaffen. Nun könnte man argumentieren, klar, Machine-Learning-Algorithmen analysieren so schnell wie kein Mensch der Welt Hunderttausende Trainingsbilder oder -texte, finden darin Muster, wenden die Muster auf neue Bilder oder Texte an und sind daher intelligent. Darin liegen große Chancen, etwa in der medizinischen Diagnostik. Gleichzeitig geht die Intelligenz dieser Systeme aber nie über die Grenzen der gefütterten Spezialdaten hinaus, sprich nur weil ein Algorithmus sehr gut Katzen- von Hundefotos unterscheiden kann, kann er noch lange nicht Musik komponieren oder soziales Verhalten interpretieren oder Poker spielen. Flapsig gesagt sind KIs clevere Fachidioten – während wir Menschen einzigartige Generalisten sind.

Wie bewerten Sie die potenzielle Gefahr, dass menschliche Werte in die Programmierung von Algorithmen einfließen?
Wenn wir KI-Systemen Menschenrechte und Werte wie Gleichberechtigung und Transparenz einschreiben würden, wäre das an sich ein schönes Szenario. Da wird momentan viel überlegt, wie so etwas am besten möglich ist. Das derzeitige Problem sehe ich eher darin, dass in den menschgemachten Daten, die wir den Algorithmen zum Lernen geben, sehr häufig menschliche Fehlannahmen, Stereotype und alte Rollenklischees drinstecken, die dann klarerweise in Entscheidungsempfehlungen von KI reproduziert werden. Da gab es in der vergangenen Zeit einige spektakuläre Fälle, die gezeigt haben, was hier alles schiefgehen kann. Amazon hat etwa einen Recruiting-Algorithmus auf die unternehmensinterne Einstellungspolitik der vergangenen Jahre trainiert und musste feststellen, dass dieser automatisch lernte, weibliche Bewerberinnen systematisch auszusieben. KI hält uns so gesehen also den Spiegel vor. Die oft gehörte Annahme, dass Maschinen wertneutral wären, ist falsch.

„Ein Konzept, mit dem viele Menschen besser leben können, ist das eines ‚freundlichen‘ Werkzeugs.“

Wie menschlich können und dürfen Roboter und KI überhaupt werden? Wo sehen Sie die Grenzen und warum?
Ich halte die Entwicklung hochgradig menschenähnlicher Roboter in den meisten Einsatzbereichen für absurd, weil wir aus der psychologischen Forschung wissen, dass gerade diese Art von Robotern oft furchterregend wirkt und natürlich auch die alte Substitutionslogik bestärkt. Gruselig kann da sowohl das visuelle Design von Robotern wirken, also etwa eines mit Silikonhaut und künstlichem Wimpernschlag wie bei der Pop-Androidin „Sophia“, als auch zu menschenähnliches Verhaltens- und Kommunikationsdesign, also etwa die Maschine, die so tut, als würde sie mit mir mitfühlen. Ein Konzept, mit dem viele Menschen besser leben können, ist das eines „freundlichen“ Werkzeugs. Komplementäre Bilder, in denen intelligente Maschinen uns Menschen ergänzen, unterstützen und uns vielleicht sogar mehr Zeit und Ressourcen für Dinge verschaffen, die uns liegen und Spaß machen, sind meist gut akzeptabel. Der Humanoid, der dem Kleinkind Gute-Nacht-Geschichten vorliest, passt eher nicht zu diesem Bild. 

Bildnachweis: © Paul Kranzler

Newsletter abonnieren

Mit dem Newsletter verpassen Sie keine Ausgabe der next: Das Magazin für Vorausdenker

Anmelden
Feedback

Sie möchten uns Feedback zu diesem Beitrag geben? Wir freuen uns auf Ihre Rückmeldung.

Feedback
Diesen Beitrag teilen

Hier können Sie den Beitrag über soziale Medien teilen.

Teilen

Sie möchten für immer auf Höhe der Vorausdenker sein?
Hier für den next: Newsletter anmelden!

Anmelden