Digitale Kommunikation

Chatbots als virtuelle Wahlhelfer?

Das ist Chatbot Leo (CSU Bayern)

Sie sind bekannt aus Science-Fiction-Filmen à la Star Trek und faszinieren die Menschen seit jeher: Maschinen, mit denen man problemlos kommunizieren kann, als hätte man es mit einem menschlichen Gesprächspartner zu tun. Zwar sind wir davon in der Realität noch weit entfernt, die rasante technische Weiterentwicklung sowie die fortlaufend steigende Präsenz von Chatbots[] in unserem Alltag lässt die Erfüllung dieser Faszination jedoch zumindest ein Stückchen näher rücken. Während das kommerzielle Interesse an den Bots[][] bereits seit längerer Zeit riesig ist, werden sie nunmehr in Deutschland erstmals mit politischem Hintergrund in Verbindung mit der Bundestagswahl 2017 eingesetzt. Die Meinungen darüber gehen weit auseinander. Chatbots als virtuelle Wahlkampagnenhelfer – sind sie ein technischer Fortschritt oder gefährliche Stimmungsverzerrer?

Architektur und Dialog – Design der Systeme

Die Rede ist dabei von computerbasierten Systemen, mit welchen es sich über Ein- und Ausgabezeilen medial schriftlich in natürlicher Sprache interagieren lässt. Auch wenn sie erst seit kurzem ihren wirtschaftlichen Boom erleben, sind Chatbots nicht wirklich neu. Bereits 1966 gelang es dem Programmierer Joseph Weizenbaum mit seinem berühmten Chatbot ELIZA basale Mensch-Maschine-Kommunikation in natürlicher Sprache zu ermöglichen. Seitdem haben sich derartige Dialog-Systeme deutlich weiterentwickelt und vor allem in letzter Zeit immer wieder von sich reden gemacht.

Das Dialog-Design eines einfachen Chatbots ist nach simplen Regeln aufgebaut. Das System sucht nach Schlüsselwörtern innerhalb der User-Beiträge und gibt daraufhin vorgefertigte Antwortschablonen (sog. »templates«) aus. Elaboriertere Systeme bedienen sich zusätzlich einer oder meherer Wissensdatenbanken mit Informationen zu ihrer Umwelt und können teilweise sogar auf semantisches und pragmatisches Wissen zurückgreifen sowie ihre Dialogplanung an einem vordefinierten Gesprächsziel ausrichten.

Im Zeitalter von »Big Data[]« werden von den innovativsten Systemen mehr oder weniger ausgeklügelte Algorithmen genutzt, um riesige Datenbanken mit aufgezeichneten menschlichen Interaktionen für die Kommunikation mit dem Bot zu nutzen. Redebeiträge aus diesen Datenbanken werden ausgewählt und für die aktuelle Kommunikation mit dem Bot genutzt. Mittels statistischer Modelle wird dort die häufigste Reaktion auf einen bestimmten Redebeitrag ermittelt und diese fungiert anschließend als Bot-Beitrag. Die Auswahl wird also allein nach quantitativen Kriterien getroffen, ohne dezidierte Analyse der Bedeutungsebene. Dass hier Verarbeitungsprobleme buchstäblich vorprogrammiert sind, liegt auf der Hand.

Um Sprache so geschickt nachzuahmen, dass es gelingt, »den menschlichen Gesprächsteilnehmer über den nicht menschlichen Charakter des rechnergesteuerten Gegenübers hinwegzutäuschen« (Tewes 2005: 242), raten US-Forscher dazu, den Usern unmissverständlich zu verdeutlichen, dass sie mit einem Bot kommunizieren und wozu dieser in der Lage beziehungsweise nicht in der Lage ist. Laut Daten-Analyst Kristopher Arcand kann dadurch verhindert werden, dass bei den Nutzern falsche Erwartungen entstehen (Quelle: www.forbes.com). Welcher Weg der richtige ist, hängt dabei sicherlich vom jeweiligen Einzelfall sowie dem Einsatzgebiet des Chatbots ab.

Chatbots und Social Media

Klar ist jedoch, dass das öffentliche Interesse an den modernen Nachfahren von ELIZA momentan so groß ist wie nie zuvor. Auf der F8-Entwicklungskonferenz im April 2016 hat Mark Zuckerberg den Facebook[]-Messenger-Kanal für Kundenkommunikation und kommerzielle Zwecke geöffnet. Damit war der Startschuss für die ersten über den beliebten Messenger erreichbaren Chatbots gegeben. Prinzipiell kann sich jeder User seinen eigenen Chatbot programmieren (lassen) und ihn nach der offiziellen Freischaltung durch Facebook mit dem Messenger verbinden. Solche in puncto Systemarchitektur und Dialog-Design meist simplen, auf Social-Media-Plattformen eingesetzten Chatbots werden auch als »Social Bots« bezeichnet.

Die Verwendung von Chatbots bietet sowohl für die User als auch für die Chatbot-Betreiber, seien es Unternehmen, Parteien oder andere Personen des öffentlichen Lebens, einige Vorzüge. Der offensichtlichste Vorteil ist die Kommunikation über ein natürlichsprachliches Interface, die einfachste und verständlichste Variante für jeden der Schriftsprache mächtigen Menschen, unabhängig von der Altersklasse. Die Systeme werden zudem oft durch anthropomorphe oder zoomorphe Darstellungen verkörpert und mit gewissen Persönlichkeitsmerkmalen, wie beispielsweise einem humorvollen, seriösen oder flapsigen Sprachstil, versehen. Die dargestellte »Persona« (Lotze 2016: 38) kann dabei speziell auf die Vorlieben der jeweiligen Zielgruppe zugeschnitten werden, was beim User im Optimalfall Sympathie erzeugt und sogar Vertrauen aufbauen kann. Außerdem ist die Kommunikation mit den Bots 24 Stunden am Tag möglich, weshalb es für die User zu keinen Einschränkungen durch Bürozeiten oder Telefon-Warteschleifen kommt. Für Unternehmen wie die Coca-Cola-Company (Chatbot Hank) oder Ikea (Chatbot Anna) besonders interessant ist natürlich der wirtschaftliche Mehrwert. Dank der automatisierten Prozesse können bei gleichzeitiger Verbesserung des Kundenkontakts erhebliche Kosten sowie Zeit eingespart werden. Die Systeme werden folglich nicht nur medial schriftlich im Internet, sondern auch telefonbasiert eingesetzt, indem sie durch eine Spracherkennungs- und eine Text-to-Speech-Komponente ergänzt werden. Als besonders bekanntes Beispiel (aus leidvoller Erfahrung) ist hier wohl das automatische Buchungsprogramm der Bahn zu nennen. Perspektivisch für die Zukunft ist zu erwarten, dass die Einsatzfelder für Chatbots immer zahlreicher werden.

Chatbots im Wahlkampf

Das große und stetig wachsende kommerzielle Interesse an der Technologie ist somit verständlich. Aber auch für Parteien und Politiker bieten Chatbots eine neue Möglichkeit, um mit potenziellen Wählern in Kontakt zu treten. Man versucht auf diese Weise, gerade die jüngere Generation gezielt anzusprechen. Selbst wenn der erste Kontakt der User aus reiner Neugier am System zustande gekommen sein sollte, werden bei der Kommunikation dennoch inhaltliche Aspekte vermittelt; ein klarer Pluspunkt in jedem Wahlkampf. Zudem ist die Hemmschwelle beim Chatten mit einem Bot geringer, als bei der Interaktion mit einem menschlichen Gegenüber (vgl. Tewes 2005: 257), vor allem, wenn es sich um heikle Themen handelt, was in der Politik oft der Fall ist. Auch hier zeigt sich zunächst augenscheinlich ein Pluspunkt für eine offene Kommunikation der Parteien mit ihrer potenziellen Wählerschaft, aber auf der anderen Seite auch eine Strategie, Informationen über Wähler und deren Überzeugungen zu sammeln und im großen Stil Meinungsbilder zu analysieren und zu beeinflussen.

Entsprechend gibt es auch viele kritische Stimmen, was den Einsatz von Chatbots im politischen Bereich betrifft. So bringt es beispielsweise neue Vorwürfe zum Thema Datenschutz und Privatsphäre hervor, dass die meisten Systeme alle Gespräche protokollieren und zu späteren Analysezwecken aufbereiten, was jedoch im Zusammenhang mit Social Media eine immer wiederkehrende Diskussion darstellt. Einige Systeme speichern und analysieren die User-Beiträge allerdings nicht nur, sie nutzen sie als Basis für sog. Maschine Learning oder geben sie als recycelte Beiträge selbst wieder aus. Hierin besteht die wohl größte und meist kritisierte Gefahrenquelle der Chatbots aus Perspektive des Datenschutzes. Politisch noch brisanter ist ihr Potenzial zur viralen Verbreitung von Falschmeldungen in einer noch nie zuvor gesehen Größenordnung.

Wissenschaftler der Princeton University haben kürzlich herausgefunden, dass Chatbots beim Lernen aus eingegebenen Datensätzen auch die darin explizit oder implizit enthaltenen semantischen Inhalte übernehmen und deren Wissensbasis somit mit kulturellen Stereotypen und Vorurteilen gespickt sein kann (vgl. O'Neil 2017). Algorithmen fungieren durch ihre statische und binär angelegte Struktur sogar noch als Verstärker für diese Vorurteile. Ein bekanntes, weil sehr offensichtliches Beispiel ist Microsofts Chatbot-System Tay, welches 2016 nach kurzer Zeit wieder vom Netz genommen werden musste, da es von Internet-Trollen eingegebene rassistische Kommentare als seine eigenen Beiträge twitterte. Sogenannte Social Bots, welche menschliche Verhaltensmuster simulieren und in den sozialen Medien selbstständig liken, posten und kommentieren, werden häufig eingesetzt, um bestimmte Meinungen zu verbreiten oder zu verstärken. Im politischen Zusammenhang kann das jedoch zu einer Verzerrung des Stimmungsbildes sowie einer einseitigen Darstellung bestimmter Tatsachen oder zur Darstellung vermeintlicher Tatsachen führen. Laut Studien der Entwicklerkonferenz DWX sind 42 Prozent der befragten Deutschen der Überzeugung, dass wichtige politische Entscheidungen der Vergangenheit, wie die US-Präsidentschaftswahl von Donald Trump und der Brexit, bereits maßgeblich von Chatbots Social Bots beeinflusst worden sind. Zudem sind 60 Prozent der Befragten besorgt, dass derartige Bots in Zukunft, auch mit Blick auf die deutsche Politik, immer öfter Menschen und Entscheidungen manipulieren könnten. Aus linguistischer Perspektive kann durchaus gezeigt werden, dass Menschen dazu tendieren, das Vokabular von Chatbots zu übernehmen und sich in Form eines interaktiven Alignments (Pickering/Garrod 2004) auf deren Ausdrucksweise einzulassen (vgl. Lotze 2016: 188ff). Zum Teil werden ganze Phrasen übernommen. Bei Konstruktionsübernahmen im Dialog handelt es sich um einen wichtigen Aspekt menschlichen Gesprächsverhaltens, der in der Kommunikation unter Menschen noch bedeutend häufiger vorkommt. Wir passen uns dem Sprachgebrauch unseres Gegenübers an, um Missverständnisse zu vermeiden. Die Tatsache jedoch, dass User zum Teil auch »nachplappern«, was der Bot vorgibt, eröffnet neue Möglichkeiten der politischen Agitation, allein indem durch Chatbots auf Social Media ideologisch geprägtes Vokabular und programmatische Phrasen viral verbreitet werden. Schon Anfang des Jahres forderten einige deutsche Politiker – allerdings vor allem aus Datenschutzgründen – die Bots im Wahlkampf rund um die Bundestagswahl 2017 zu verbieten und sie somit als Gefahr für den demokratischen Meinungsbildungsprozess auszuschließen (Quelle: presseportal).

Obwohl einige Parteien dem Chatbot-Verbot zustimmten, wurde es schließlich nicht durchgesetzt und die ersten Parteien haben sich bereits am Einsatz von Chatbots zur Kommunikation mit der Wählerschaft versucht – ein Unterfangen, das in den USA nicht neu ist, wo Chatbots bereits vor dem Siegeszug von Social Media auf Politikerwebsites als Gimmick oder charmantere Variante einer FAQ[]-Seite Wählerfragen stereotyp und floskelhaft beantworten (u. a. Sarah Palin, Doug Wilson, Brendan O'Connor).

CSU-Chatbot Leo auf dem Prüfstand

In Deutschland geht allen voran die CSU mit ihrem Chatbot-System Leo, dessen Fähigkeiten wir im Selbstversuch getestet haben. Kaum wird die offizielle Facebook-Seite der CSU angeklickt, öffnet sich auch schon das Messenger-Fenster und Leo begrüßt den User mit den Worten »Servus [User Name], ich bin Leo, dein persönlicher CSU Assistent«. Der erste Kontakt zum Wähler wurde somit im lockeren Social-Media-Stil durch ein persönliches Ansprechen mit dem bei Facebook angegebenen Vornamen und Duzen des Users geknüpft. Daraufhin folgt die Frage »Weißt du, was ein Chatbot ist?«, auf welche nach einem Verneinen die Erklärung folgt: »Ich bin ein programmierter Chatbot und versuche, dir alle wichtigen Fragen rund um die Themen der CSU zu beantworten. Ich bin momentan noch in der Lernphase. Deswegen läuft eventuell noch nicht alles rund.« Und damit soll Leo auch Recht behalten, denn eine flüssige Unterhaltung ist mit dem Chatbot bis jetzt leider kaum möglich, was typisch ist für die inhärente Dialogstruktur solcher Systeme (Lotze 2016). Während auf in ganzen Sätzen gestellte Fragen in den meisten Fällen eine Default-Ausgabe nach dem Prinzip »Lass uns doch über ein anderes Thema reden« erfolgt, bekommt der User auf die alleinige Eingabe von politischen Schlüsselwörtern wie »Migration« einen, in den meisten Fällen recht umfangreichen Auszug aus dem Parteiprogramm als Antwort. Redebeiträge für den Bot so zu gestalten, dass sie natürlich wirken, ist nicht trivial und nur mit entsprechender konversationsanalytischer Expertise machbar. So sind eher schiftsprachlich formulierte Bot-Beiträge bei vielen Systemen an der Tagesordnung. Die Sprache der Systeme weist also eine für dialogische Interaktion unüblich große Nähe zur Schriftsprache und zum Standard auf, die sich in unterschiedlichen Faktoren offenbart. Dies steht im Gegensatz zur strukturell einfachen User-Sprache, bei der Simplifizierungsstrategien als Hilfestellung für den Bot sowie Prinzipien der physikalischen Ökonomie bei der Texteingabe über ein Endgerät emulieren. Auch Namen von Politikern sind bei Leo hinterlegt und rufen teilweise positive, teilweise kritische oder sogar beleidigende Kommentare, wie beispielsweise »Die Dumpfbacken ...«, auf den Plan, was auf der offiziellen Facebook-Seite der Partei überraschend ist. Generell wird schnell deutlich, dass die Programmierer die jüngere Wählergeneration als Zielgruppe definiert haben und einen humorvollen, lockeren Charakter erschaffen wollten. So wählt Leo zeitweise den (bairischen) Dialekt und versieht seine Nachrichten mit reichlich Emoticons[]. Zudem werden zwischendurch animierte GIF[]-Dateien, oftmals auf Kosten der anderen Parteien, ungefragt an den User verschickt. Auch die SPD hat einen Chatbot ins Rennen geschickt, welcher jedoch nur mit Facebook-Mitgliedern, die eine bestimmte Seite geliked und sich somit als SPD-Anhänger ausgewiesen haben, kommuniziert. Sind die User als Wahlkampagnenhelfer angeworben, erhalten sie vom Chatbot über den Messenger verschiedene Missionen, wie zum Beispiel Videos zu teilen oder Facebook-Freunde zu Parteiveranstaltungen einzuladen.

Die Chatbots leisten insofern gute Arbeit als virtuelle Wahlkampagnenhelfer, als sie den User über die Inhalte des Parteiprogramms informieren, die politische Konkurrenz – teils mit sachlichen Argumenten, teils mit bissigen Kommentaren – auszustechen versuchen und stetig bemüht sind, den Kontakt zum Gesprächspartner zu halten und auszubauen. Die Gesprächskompetenz und vor allem die Verarbeitung von natürlicher Sprache muss jedoch noch deutlich erweitert werden, um eine problemlose Interaktion zu ermöglichen.
Extrem problematisch sind die Systeme unter datenschutzrechtlichen Gesichtspunkten zu bewerten, da User ihnen z. T. private politische Überzeugungen anvertrauen und alle Dialoge zusammen mit Usernamen und IP-Adressen gespeichert, ausgewertet und in einer Form weiterverwendet werden, die sich der Kontrolle der User völlig entzieht. Außerdem bergen sie das Potenzial zur viralen Verbreitung von politischen Meinungen – verpackt in unzulässig vereinfachte Phrasen und einen ideologisch geprägten Sprachgebrauch. User werden interaktiv in diese neue Form der Agitation verwickelt und können somit ungewollt zum Vehikel für digitale Meinungsmache werden – gerade vor dem Hintergrund der Netzwerkeffekte und Blasen der Social Media.

Generell gilt: Bei Systemen, welche in kurzer Zeit mehrere Millionen Menschen erreichen können, sollten Programmierer und Auftraggeber stets ihre ethische Verantwortung im Auge behalten und mögliche Gefahrenquellen ausschalten sowie den Einsatz und die Entwicklung der Chatbots durchgängig überprüfen. Trotz aller Kritik und zu überwindender technischer Herausforderungen, sind wir jedoch der Überzeugung, dass der Einsatz von Chatbots sich zukünftig in weitestgehend allen öffentlichen Bereichen, so auch in der Politik, weiter ausweiten wird und es sich definitiv nicht um eine Modeerscheinung, sondern um neue, virtuelle Dienstleister, Kundenberater und Informationsquellen mit großem Potenzial handelt. Wie weit uns der technische Fortschritt der kommenden Jahre bei einer natürlichsprachlichen Kommunikation mit virtuellen Wahlkampagnenhelfern und Co. an eine Unterhaltung mit Star-Trek-Charakter Data heranführen wird, steht jedoch zum aktuellen Zeitpunkt noch in den Sternen.

Onlinequellen

https://www.forbes.com/sites/forrester/2017/04/24/chatbots-cant-fully-replace-humans-just-yet/#1698aa7060ea.

http://www.presseportal.de/pm/113172/3668834.

http://www.wissenschaft.de/home/-/journal_content/56/12054/17161211.


Netaya Lotze & Laura Ohrndorf

Zitierte Literatur

Lotze, Netayam (2016). Chatbots. Eine linguistische Analyse. Frankfurt am Main. mehr

O’Neil, Cathy (2017). Angriff der Algorithmen. Wie sie Wahlen manipulieren, Berufschancen zerstören und unsere Gesundheit gefährden. München. mehr

Pickering, MichaelSimon Garrod (2004). »Toward a mechanistic approach to dialogue«. Aufsatz in der Zeitschrift Behavioural and Brain Sciences. mehr

Tewes, Michaelm (2005). »'Sie können ruhig in ganzen Sätzen mit mir sprechen!' Chatbots und ihre Bedeutung für internetbasierte Kommunikation«. Aufsatz im Sammelband Websprache.net. Sprache und Kommunikation im Internet. online lesbar

Ihre Meinung

Kommentare zu dieser Seite