Einblick/Ausblick 2020Jahresausstellung der Muthesius Kunsthochschule

Explainable Machine

Erik Wetendorf

  • Masterprojekt, Wintersemester 2019/2020
  • Prof. Frank Jacob

Interaktiver Prototyp basierend auf p5.js + p5.speech; Lasercut MDF–Box; iPod Touch als Boxdisplay + Laptop

Tech-Konzerne verwenden heute verschiedenste Daten ihrer Nutzer*innen um personalisierte Werbung und Benutzererlebnisse zu ermöglichen — dank komplexer Algorithmen und KI. Ein großer Kritikpunkt sind die hierfür verwendeten Blackbox-Modelle. Sie sorgen dafür, dass die Faktoren, die einen Output erzeugt haben, unbekannt bleiben und schaffen so Raum für Mutmaßung, Misstrauen und Unsicherheit. Die Daten werden beispielsweise aus Surf- und Kaufgewohnheiten (→ Interaction), Ortungsdiensten (→ Location) oder identifizierten Geräuschen der Mikrofone (→ Observation) gewonnen. Sprachassistenten stehen wie kaum ein anderes Produkt symbolisch für eine Art des digitalen Panoptikums, bei dem ungewiss ist, was im innern eigentlich geschieht. Im Gedanken des Critical Designs greift die ›Explainable Machine‹ diese Tatsache auf und bietet einen experimentellen Ansatz für transparentere ›Human-AI-Interaction‹. Das auditive Interface des Sprachassistenten ist um einen Bildschirm ergänzt worden, bei dem jedem der drei genannten Daten-Kategorien eine Bildschirmecke und ein Farbgradient zugeordnet ist.

Die Interaktion ist nach dem Prinzip der ›progressive disclosure‹ aufgebaut, um dem Problem zu entgehen, Nutzerinnen Erklärungen zu bieten, wo gar keine benötigt werden. Auf der auditive Ebene kann der Nutzer zunächst ›Woher weißt du das‹ o.ä. fragen, und so direkt eine Antwort erhalten, welche persönlichen Daten im Hintergrund ausgewertet wurden. Gleichzeitig geben die Farbgradienten als visuelles Element auf dem Bildschirm ohne notwendige Interaktion Aufschluss darüber, welche Art von Daten in den Output einbezogen sind. Sind Nutzerinnen an detaillierterer Information interessiert kann der entsprechende Gradient in die Mitte des Bildschirm gezogen werden, um Details abzurufen.

Das Projekt zeigt kritisch auf, in welchem Maße moderne Technik das eigene Leben und Verhalten auf Basis von Onlineaktivitäten, Bewegungsmustern und gesprochenem Wort auswerten kann. Gleichzeitig bietet es einen konkreten Ansatz, wie Interfaces zur Interaktion zwischen Mensch und KI aussehen können, die für Transparenz und Nachvollziehbarkeit sorgen und dem Nutzungskontext angepasst sind.

Kontakt: erik-wetendorf@posteo.de