• Marcel Peter

#ThesisTalks: Augmented Communications oder die Suche nach den Graustufen

Vor wenigen Wochen habe ich meine Masterthesis finalisiert und eingereicht. Viele neue Fragestellungen und Hypothesen sind das Resultat von sechs Monaten wissenschaftlicher Auseinandersetzung mit AI und Vertrauen im Kommunikationskontext. Im letzten Blogpost habe ich bereits im laufenden Forschungsprozess einige Gedanken aus meiner Arbeit geteilt. In der Fortsetzung blicke ich jetzt mit einigen Wochen Abstand zurück auf einige meiner Ergebnisse – und welche Relevanz sie für die Praxis haben können.


In Vorstellungsgesprächen zum Berufseinstieg gehört sie zu den Klassikern unter den Fragen: „Was hast Du in Deiner Thesis untersucht und was kam denn so Interessantes dabei raus?“ Selbstverständlich in wenigen Worten, bitte keine Nacherzählung, versteht sich. Bereits beim Verfassen des Fazits war das eine Challenge: über 80 Seiten Inhalt mit einem Schlussstrich zu versehen, der sich nur auf das stützt, was ich tatsächlich untersucht habe – ein Erkenntnisgewinn für die wissenschaftliche Community, der gleichzeitig aber auch Anknüpfungspunkte für Handlungen in der Praxis bietet. Quasi eine populäre Verdichtung, die dennoch auf einem soliden, empirischen Fundament steht. Eine Essenz meiner Arbeit greift auf ein altbekanntes Sprichwort zurück und liest sich in etwa so:


„Vertrauen ist gut, Kontrolle ist besser – doch wo menschliche Kontrollmöglichkeiten der AI verloren gehen, braucht es gut kalibriertes Vertrauen des Kommunikators und eine klare Differenzierung der Kontexte des Einsatzes.“

Differenzierung ist der Schlüssel. Das gilt nicht nur in Gesellschaft und Politik, wo sich vielerorts ein wachsender Spalt zwischen polarisierenden Positionen auftut und die Kunst des Kompromisses manchmal vor unlösbare Aufgaben stellt, sondern auch in der Debatte rund um AI im Kommunikationsmanagement. Ich sprach im letzten Post bereits die Problematik der Begrifflichkeit an, wenn „künstliche Intelligenz“ als undifferenziertes Sammelsurium für viele unterschiedliche Technologien, Prozesse und Anwendungen herhalten muss. Eine Differenzierung und eine argumentative anstelle einer mutmaßlichen Annäherung an die Treiber und Hürden des Vertrauens in AI ist in meinen Leitfadeninterviews ein wesentliches Unterscheidungskriterium zwischen meinen beiden Vergleichsgruppen: AI-Fortgeschrittene und AI-Beginner*innen. Erstere konnten durch ihre Einblicke in bereits existierende AI-Anwendungen mehr Treiber für vertrauensvolle Arbeit mit Algorithmen darlegen, aber auch mehr Hürden. Ein Beispiel ist die angesprochene Kontrolle: Die menschlichen Eingriffsmöglichkeiten in die maschinelle Entscheidungsfindung werden mit zunehmender Autonomität der Systeme erschwert oder gar unmöglich. Schauen wir zum Beispiel auf Reinforcement Learning, also Machine Learning mit nicht mehr vordiktierten Belohnungsstrategien des Systems: Da sind diese nicht mehr nur autonom im Ziel, sondern auch im Weg dorthin. Klingt durchaus kritisch für uns kontrollliebenden Kommunikator*innen.



Es könnte gewissermaßen desillusionierend wirken, solche undurchdringbaren Systeme mal „am eigenem Leibe“ nicht verstanden zu haben, um zu wissen, was man bald auch im größeren Stil nicht mehr wissen könnte. Die fortgeschrittenen Nutzer*innen haben solche Andeutungen getätigt – sie haben aber dadurch nicht sofort mehr Ängste um die Zukunft unserer Profession geäußert, sondern waren in der Tendenz dennoch optimistischer. Differenzierung heißt hier eben auch, die menschlichen Fähigkeiten in ihrer Ersetzbarkeit realistischer einordnen zu können und sich auf die eigenen Stärken zu besinnen, die für erfolgreiche Kooperation und eine sinnstiftende Tätigkeit in Zukunft von Nutzen sein werden.

Wer mehr über AI-Forschung an der Schnittstelle zum Vertrauen der Anwender*innen wissen möchte, dem sei die Forschung über den Faktor der Interpretabilität maschinellen Lernens empfohlen, wie Prof. Felix Biessmann beim Future Science Match vor wenigen Monaten referierte. In diesem Gebiet wird es allerdings sehr schnell sehr mathematisch. Das ist auch definitiv nicht mein primäres Metier, ich werde das Forschungsfeld aber dennoch im Blick behalten. Ich bin überzeugt, dass dieser Faktor erfolgskritisch für AI-Implementierung werden könnte und deshalb für die verschiedenen AI-Debatten sehr relevant. Und wer nach Wegen interpretierbarer Algorithmen forscht, wird sicherlich früher oder später auch den Transfer dieser Insights aus der AI-Community heraus hinbekommen.


Auch auf Seite der Kommunikation gibt es bis dahin Zugänge zu einer differenzierten Betrachtung des Themas. Uns Kommunikator*innen fällt von Natur aus vieles leichter als die technische Seite der Medaille, also lohnt sich die immer erstmal Rückbesinnung auf die eigenen Stellschrauben. In vielen Kommunikationsdisziplinen erfolgt das Management und die Konzeption über ähnliche Regelkreise, die im Kern immer aus den Komponenten Analyse, Strategie und Durchführung bestehen und über eine Evaluation im Anschluss wieder von vorn beginnen. Ich habe einen solchen Regelkreis mit den drei Stufen Assisted, Augmented und Autonomous Intelligence (siehe auch PricewaterhouseCoopers) verknüpft und dadurch eine mehrdimensionale, aber auch nachvollziehbare Betrachtung geschaffen.


Synopse der Szenarienauswertung nach Regelkreisen. Copyright: Marcel Peter

Die obige Abbildung zeigt, wie viele meiner zehn Interviewteilnehmer*innen (darunter sechs Beginner*innen und vier Fortgeschrittene) in den drei AI-Stufen die Übernahme von Regelkreisstufen durch Maschinen für wahrscheinlich erachten. Die drei Schritte bauen dabei aufeinander auf und folgen der Annahme, dass die Analyse als Fundament weiterer Schritte fungiert. Wenn also ein System zur Durchführung fähig ist, kann es auch Analyse und Strategie beeinflussen. Also: Ganz links im ersten Regelkreis glauben demnach acht Teilnehmer*innen, dass Maschinen auf allen drei Stufen dieses vereinfachten Regelkreises Einzug halten, die restlichen zwei Befragten sehen die Strategie als höchste Stufe mit maschinellem Einfluss. In der mittleren Entwicklungsstufe ist die Meinung deutlich gespaltener – die Stufe der Augmented Intelligence und der Kooperation von Kommunikator*in und Maschine ist also jene, die am stärksten ausdifferenziert wird. Fortgeschrittene AI-Nutzer*innen erwarten hierbei tendenziell größeren Einfluss von AI auch in den späteren Schritten wie Strategie und Durchführung als die Beginner*innen, die eher die Analyse als maximalen Schritt der Maschine sehen. Im Szenario autonomer Intelligenzen ganz rechts sind die Befragten wiederum zurückhaltender und sehen mehrheitlich Potenziale nur auf der Analyseebene und kaum darüber hinaus. Autonom strategiebildende und kommunizierende Systeme ohne menschlichen Eingriff sind aus Sicht der Kommunikator*innen also eher unwahrscheinlich.


Klingt erstmal noch sehr theoretisch, zeigt aber auch eines: Wenn sich Kommunikator*innen bei der Debatte rund um AI nicht nur nach Graustufen zwischen dem heutigen Status Quo und der Terminator-Dystopie autonomer Roboter umschauen (was ich dringend empfehle!), sondern zugleich auch eigene Überlegungen im konkreten Fachkontext anstellen, dann kämen wir ein ganzes Stück weiter. Für welche Art von Aufgaben ist eine Substitution oder eine Kooperation tatsächlich realistisch und auch erstrebenswert – und wo sollte der Mensch aus bestimmten Gründen lieber selbst die Weichen stellen? Schon diese Spiegelung abstrakter Fragen auf unsere tägliche Arbeit deckt auf, dass nicht alles schwarz oder weiß ist. Expert*innen unter den Kommunikator*innen, die den technologischen Fortschritt antreiben wollen, suchen und finden die Graustufen und werden dadurch zu potenten Sparringspartner*innen der Entwickler*innen künstlicher Intelligenzen. Auch wenn das manchmal eben bedeutet, in eine Blackbox zu blicken und sich im Datenmeer verloren zu fühlen.



Was meine ich also mit dem Titel „Augmented Communications“? Sicherlich noch kein fertiges Modell mit Anleitungen, wie AI im Kommunikationsbereich gefälligst zu implementieren ist. Ich verstehe meine Thesis als Aufschlag für einen Austausch unter interessierten Praktiker*innen und Forscher*innen. Wie schaffen wir geeignete Rahmenbedingungen auf technischen, emotionalen oder organisatorischen Domänen, über die wir gemeinsam die Graustufen identifizieren können? Die Stufe augmentierter Intelligenzen scheint für viele am schwierigsten greifbar zu sein, weil sie eben nicht so polarisiert. Sie zahlt weniger als die anderen Stufen auf die menschliche Angst vor Veränderung ein: Augmented Communications sind nicht das komfortable, aber trügerische Heute („Es bleibt alles so, wie es hier ist!“) und auch nicht das unliebsame, dystopische Überübermorgen („Wir werden alle unseren Job verlieren!“) – es ist eine Kommunikationsarbeit, wo Menschen und Maschinen ihre Fähigkeiten für sehr spezifische Tasks einsetzen und sich gegenseitig ergänzen. Es liegt an uns, diese Vision zu realisieren.


Ich habe nun schon ein paar dieser Debatten in Vorstellungsgesprächen angestoßen, freue mich aber auch über jede andere Gelegenheit, mit Euch zu diskutieren, neue Ideen zu sammeln und Projekte zu starten. 50 Shades of Grey war gestern, in Zeiten von AI und Big Data sind die möglichen Graustufen nicht mehr zu beziffern – und gerade das macht es doch so spannend, oder?

©2019 by Kommersion / Marcel Peter