©2019 by Kommersion / Marcel Peter

  • Marcel Peter

#ThesisTalks: AI verändert Vertrauensrelationen im Kommunikationsmanagement

Meine Masterthesis verbindet eine omnipräsente Thematik der Kommunikation, Vertrauen, mit dem Technologiethema schlechthin, künstliche Intelligenz(en): Wie hängen Vertrauen und AI bei uns Kommunikator*innen zusammen? Können uns digitale Assistenten gar aus der „doppelten Vertrauenskrise“ befreien? Diese und weitere Fragen stelle ich auch auf dem DPRG-Zukunftsforum 2019 in Hamburg in einer Barcamp-Session zur Diskussion und öffne damit den laufenden Forschungsprozess meiner Arbeit. Hier vorab ein erster Einblick.


Künstliche Intelligenz (oder besser: Künstliche Intelligenzen, denn die eine Intelligenz existiert nicht; kurz hier: AI) ist das offizielle Thema des Wissenschaftsjahres 2019 und damit geradezu prädestiniert, in einer Thesis Einzug zu finden. Auch für die Transformation der Kommunikation könnte AI eine Schlüsselrolle übernehmen. Viele sagen aber auch: Wir haben hier mal wieder ein Hype, wie er im Buche steht. Springe ich also jetzt mit meiner Thesis auf den AI-Hype-Train auf? Gewissermaßen schon. Dieser Hype Train ist allerdings schon deutlich länger auf Fahrt als bei den Buzzwords der vergangenen Jahre und schon in der Nachkriegszeit unter der Wahrnehmungsschwelle der breiten Öffentlichkeit losgefahren. Erst in den letzten Jahren ist er aus dem "dunklen IT-Tunnel" an die sichtbare Oberfläche der Marktreife gekommen. Im Kommunikationsumfeld hat er zunächst das Marketing erreicht, man erinnere sich nur an die Debatten um Mitarbeiter-Substitutionen bei Zalando. Nun ist AI seit wenigen Jahren auch verstärkt auf der Agenda von Politik und Gesellschaft und fungiert als aktuelles Kongressthema der Branchenevents in so fast jeder Disziplin. Damit ist es unumgänglich, dass auch PR und andere Teilbereiche strategischer Kommunikation einsteigen, bevor man am Gleis zurückbleibt und der Zug mit der Konkurrenz oder anderen Organisationsakteuren abgefahren ist. Ich prophezeie: Nach seiner Verspätung wird er nicht allzu lange in unserem Bahnhof halten. Und: Aus dem Hype Train wird ein wichtiger Anker unserer Reise in die Zukunft der Profession.


Ich nehme in diesem metaphorischen Zug mit meiner Thesis ein anderes Abteil, das noch ziemlich leer ist. Erste dezidierte Auseinandersetzungen in Praxis und Forschung rund um AI im Kommunikationsmanagement fokussieren sich tendenziell eher auf die Wirkungen von Chatbots & Co. auf Rezipienten- und Nutzerseite. Sie blicken auf mögliche Aufgabengebiete, die von Maschinen übernommen werden könnten. Oder sie beschäftigen sich mit Vorbehalten und Phobien gegenüber dem Einsatz entsprechender Systeme – eine negative Konnotation dieser Beziehung gibt es damit zu Beginn direkt auf’s Haus. Typische Forschungsansätze in der Technologieadoption nähern sich der Mensch-Maschine-Kooperation über die Akzeptanz, so beispielsweise im gängigen Technology Acceptance Model (TAM). Für die meisten Nutzer*innengruppen und Technologien mag das ein richtiger Ausgangspunkt für eine Analyse sein. Akzeptanz ist mit Sicherheit ein Faktor im komplexen Geflecht, aber nicht der einzige. Akzeptanz empfinde ich eher als einen reaktiven Zustand, der überspitzt formuliert bedeuten kann: „Ich finde mich damit ab, dass Technologien meinen Beruf verändern“.


Ich halte auch angesichts der Tragweite der möglichen Veränderungen stattdessen den Aspekt des Vertrauens für aussagekräftiger. Vertrauen wird hingegen aktiv von A nach B zugeschrieben, ist vielschichtiger und besonders im Kommunikationsmanagement das Fundament der Beziehungen zu internen und externen Bezugsgruppen – Vertrauensrelationen sind das täglich Brot der Kommunikator*innen. Und: Bei Vertrauen schwingt unterschwellig ein gewisser Optimismus, eine positive, affirmative Konnotation mit. Vertrauen erst ermöglicht Innovation und Fortschritt und die Abkehr von eingefahrenen Routinen.



Darum also: Vertrauen! Nach den Ergebnissen des neuen European Communication Monitors 2019, der übrigens auch einige interessante, quantitative Insights über AI im Kommunikationsmanagement bereithält, ist Vertrauen weiterhin das wichtigste strategische Issue in den kommenden Jahren. Da Vertrauen aber in verschiedener Weise auf den unterschiedlichen Betrachtungsebenen auftritt, habe ich mir einen bestimmten Bereich ausgesucht, den ich in meiner Arbeit genauer untersuchen kann, wo ich neue Hypothesen aufstellen und diese in die Forschung und Praxis tragen möchte. Auf Mikroebene, also der individuellen Ebene der Kommunikator*innen, existiert eine Vielzahl an Vertrauensrelationen und gleich mehrfacher "Vertrauensdruck": Die/Der Vorgesetzte oder das Management setzen Vertrauen in die Arbeit der Kommunikator*innen und darauf, dass diese die Organisation angemessen vertreten. Es gibt Abhängigkeiten und Vertrauensbedarf innerhalb der Kommunikationsabteilungen. Und natürlich sind Kommunikator*innen auch Vertrauensnehmer*innen der Journalist*innen und anderer Stakeholder, die hinsichtlich der Themenauswahl, der Faktenauswahl, der Richtigkeit und der adäquaten Interpretation von Informationen über die Organisation vertrauen müssen. Die Professoren Seidenglanz und Hoffjann sprechen hier von der „doppelten Vertrauenskrise“: Intern als ohnmächtig, extern als zu mächtig empfunden, steht die Kommunikation häufig im Misstrauen von beiden Seiten und im dauerhaften Konflikt zwischen den jeweiligen Ansprüchen.


Ich frage nun: Wie ändern sich diese Vertrauensbeziehungen, wenn Formen von AI in sie integriert werden? Wenn Kommunikator*innen nicht mehr nur einfache Analyseaufgaben an datenbasierte Systeme abgeben, sondern in späteren Stufen auch Teile des Dialogs mit der Zielgruppe an intelligente, digitale Assistenten übertragen – wie es in der Marktkommunikation teilweise schon getan wird – dann ist anzunehmen, dass sich diese Systeme zu neuen Vertrauensmittlern mausern können, die vielleicht sogar einmal die Kernbotschaften algorithmisiert erstellen und distribuieren. Je nach Stufe der AI (schwach bis stark oder von assistierend bis autonom) hätte das bisweilen immense Implikationen – auch für die Vertrauensbeziehungen zu den internen und externen Stakeholdern, vermutlich in positiver und negativer Hinsicht zugleich.


Wo geht's hier zum AI-Hypetrain?

Die Technikphilosophin Catrin Misselhorn sagte in einem Interview mit der ZEIT: „Wir müssen der Maschine eigentlich vertrauen.“ Meine bisherige Quellenarbeit hat mir gezeigt, dass an dieser These durchaus etwas dran ist. Wir können uns den Entwicklungen nicht verschließen und wir werden wohl irgendwann an einen Punkt kommen, an dem wir als Menschen, als Kommunikator*innen, die Kontrolle über die komplexen Systeme nicht mehr hinlänglich leisten können. Spätestens in diese Wissenslücke und das damit behaftete Risiko nistet sich der Bedarf nach Vertrauen ein. Und dennoch: Vertrauen bietet in soziologischen, psychologischen, ökonomischen und kommunikationswissenschaftlichen Betrachtungsweisen bereits heute genügend Spielraum zur Differenzierung. Es gibt nicht DAS Vertrauen, es gibt sehr unterschiedliche Abstufungen und Funktionen der Vertrauenswürdigkeit, der Vertrauensbereitschaft und in der tatsächlichen Vertrauenshandlung. Es gibt am anderen Ende des Spektrums Misstrauen, es gibt aber auch zu viel Vertrauen (Overtrust) – beides führt zu einer falschen Nutzung oder eben einer Nichtnutzung von Technologie, die nicht den eigentlichen Fähigkeiten des Systems entspricht. Genauso gibt es nicht DIE eine AI, sondern unzählige, unterschiedliche digitale Problemlöser-Anwendungen und Algorithmen. Die müssen auf ihre Fähigkeit hin bewertet werden, ihre spezifische Aufgabe zu erledigen. Das ist der Grad an Intelligenz, von dem wir dann sprechen können. Darüber nähern wir uns dem idealen Grad an Vertrauen, wie wir gemessen an der Fähigkeit einer AI geben müssen. Nicht zu wenig, aber auch nicht zu viel. Bevor die Maschine uns hinsichtlich ihrer Interpretierbarkeit keine Chance mehr lässt, sollten wir lieber jetzt als zu spät neben der technischen Fortbildung auch die emotionale Seite der Kooperation diskutieren.


Ich rede aus genannten Gründen nicht mehr von „künstlicher Intelligenz“, sondern vom Plural. Wenn der Mensch und hier die/der Kommunikator*in und eine AI sich in ihren Fähigkeiten ergänzen, statt sich zu ersetzten, dann ist AI weniger „artificial intelligence“, sondern eher „augmented intelligence“. Unter dieser Bezeichnung firmieren die AI-Aktivitäten beispielsweise bei IBM, auch weil die ursprüngliche Bezeichnung in der Öffentlichkeit und Popkultur bereits verbrannt scheint. In unserer Disziplin und im Titel meiner Thesis nenne ich diese Zielstellung daher Augmented Communications. Wer mehr darüber erfahren möchte, ist herzlich eingeladen, meine Session auf dem DPRG-Zukunftsforum am 24./25. Juni in Hamburg virtuell über Twitter zu folgen oder natürlich vor Ort teilzunehmen. In den kommenden Wochen werde auch auf dieser Plattform weitere Gedanken zu meiner Masterthesis teilen.


Bald brauche ich Eure Hilfe: Wer Interesse hat, mir als Interviewpartner zur Verfügung zu stehen und damit einen Beitrag zu meiner empirischen Forschung leisten möchte, kann sich gern bereits bei mir melden – ganz egal, ob in der eigenen Kommunikationsabteilung bereits AI in einer bestimmten Form eingesetzt wird oder (noch) nicht. In meinem Hype-Train-Abteil ist noch Platz!