Mobile Kommunikation

»Siri ist hier.«

Der Sprachassistent von Apple in der Schweiz aus linguistischer und ethischer Sicht

Der Informatiker Joseph Weizenbaum hat sich in seinem berühmten Buch »Die Macht der Computer und die Ohnmacht der Vernunft« gegen bestimmte Verwendungen der Spracherkennung ausgesprochen (vgl. Weizenbaum 1978, S. 352 ff.). Seine Hauptsorge war – in den 70er-Jahren, wohlgemerkt –, dass man Gespräche würde automatisch überwachen können. Bereits in den 60er-Jahren hatte er mit ELIZA (mit dem Namen bezog er sich auf eine Variante der Pygmalionsage von George Bernard Shaw) eine Antwort- und Illusionsmaschine erschaffen, deren Gesprächspartner zu seiner Bestürzung emotionale Beziehungen zu ihr aufbauten. Weizenbaum wurde zum Computer- oder, wie er betonte, zum Gesellschaftskritiker. Und auch zum Informationsethiker, wie ich behaupten würde, zumal Computerkritik oft mit Computerethik zu tun hat, die man mit anderen Spezialethiken der Informationsethik zuordnen kann, der heute zentralen Bereichsethik (vgl. Bendel 2012).

Künstliche Kreaturen gehören zur Ideengeschichte der Menschheit wie das Fliegen. Hephaistos schuf Talos und Pandora, Pygmalion Galatea. Der Golem war aus Lehm, der Homunkulus entstieg, folgt man Paracelsus, einer Mischung aus Samen und Mist. Seit dem Barock – man denke an die Automaten des Jacques de Vaucanson und der Uhrmacherfamilie Jaquet-Droz – gehören sie auch zur Entwicklungsgeschichte. Seit einigen Jahren sind sie omnipräsent, ob in der Form von Avataren[] und Agenten oder Robotern. Sie sind die geheimen Herrscher der Online- und der Offlinewelt. Auch auf Handys haben sie sich verbreitet (vgl. Bendel/Gerhard 2004), was kaum jemanden interessierte, bis Siri[] auf die Welt kam. Siri ist der Sprachassistent mit weiblicher Stimme, der in den neueren iPhones wohnt, Fragen beantwortet und Aufträge entgegennimmt. Ein solcher Sprachassistent könnte durchaus eine Sprachanalyse betreiben, die Weizenbaum zum Rotieren im Grab bringen würde, und emotionale Beziehungen wären auch denkbar, wobei wir inzwischen wissen, dass wir unseren Computer selbst dann personifizieren, wenn er keine menschliche Maske trägt.

Im vorliegenden Beitrag geht es um eine ganz andere und doch mit den genannten Aspekten verbundene Frage: Begreift Siri uns? Das ist an dieser Stelle keine philosophische, sondern eine praktische Frage (wobei die Philosophie, nicht nur in der Ethik, sondern auch z.B. mit der Sprachkritik, das Praktische kennt): Versteht Siri unsere Begriffe und Sätze? Gelingt die Kommunikation mit Siri dergestalt, dass sie unsere Anliegen richtig deutet und unsere Aufträge korrekt ausführt? Tests und Studien sind inzwischen zur Genüge vorhanden (vgl. Elmer-DeWitt 2012). Und auch die Lehr- und Forschungsanstalten engagieren sich. Im Rahmen des Studiums der Wirtschaftsinformatik an der Hochschule für Wirtschaft der Fachhochschule Nordwestschweiz hat man eine Arbeit zu innovativen Informations- und Kommunikationstechnologien vorzulegen. Man muss zeigen, dass man recherchieren und zitieren sowie in englischer Sprache formulieren kann. Ich bot[] im Frühjahr 2012 das Thema »Natural language user interfaces in Switzerland« an; damit sollte die Diskussion um einen kaum beachteten Aspekt bereichert werden: Versteht Siri die Anweisungen und Wünsche der Schweizerinnen und Schweizer? Im Folgenden fasse ich die Ergebnisse des Studenten, der das Thema genommen hat, zusammen und kommentiere sie. Verwendet wurde von Ulas Yilmaz – so sein Name – das iPhone 4S.

Der Student bewegte sich im ersten Schritt auf der lexikalischen Ebene. Er hat zunächst Fragen auf Hochdeutsch (das er gut beherrscht) gestellt, die von Siri ohne Mühe interpretiert wurden. Dann hat er Helvetismen eingebaut (die er »Swissisms« nannte). Die Frage »Wie ist die Handynummer von Yilmaz« wurde verstanden, die Frage »Wie ist die Natelnummer von Yilmaz« – »Natel« war in der Schweiz lange Zeit das übliche Wort für das Mobilfunkgerät und ist es bei den älteren Generationen immer noch – nicht. »Ich bin wütend auf dich« wurde ebenfalls verstanden. Siri antwortete (der Text wurde zusätzlich zur gesprochenen Sprache auf dem Display angezeigt): »Ich frage mich, wie das wohl ist, wenn man wütend ist?« Interessant ist, ganz am Rande, dass die jeweilige Frage des Studenten nicht mit einem Fragezeichen abgeschlossen wurde, der Aussagesatz von Siri dagegen schon. Mit »Ich bin hässig auf dich« vermochte Siri nichts anzufangen. Auf die Frage »Wann[] ist Himmelfahrt« antwortete Siri mit »Christi Himmelfahrt ist am 17. Mai 2012«, auf die Frage »Wann ist Auffahrt« mit »Ich sehe zu diesem Thema keine Termine in deinem Kalender.« ... Immerhin wurde also das Schweizer Wort für Himmelfahrt mit dem Kalender in Verbindung gebracht – allerdings nur wegen des »Wann«.

SIRI in Reaktion auf Schwyzertütsch «Serie«

Abb.: Eine Reaktion von Siri auf die speziell ausgesprochene »Serie« (Quelle: Snapshot von Ulas Yilmaz)

In einem nächsten Schritt rückten Aussprache und Betonung in den Fokus. »Serie« wird in Deutschland auf der ersten Silbe betont, in der Schweiz auf der zweiten (wobei das »e« zugunsten eines langen »i« wegfällt). Siri verstand das erste Wort, konnte aber mit dem (Einwort-)Satz nichts anfangen. Das zweite Wort verstand Siri nicht, zumindest nicht richtig, und reagierte mit: »Siri ist hier.« Eine Aussage, die einen rühren und einen Eidgenossen zu einem »Jö« veranlassen könnte. Ein weiterer Test beinhaltete zwei unterschiedliche Aussprachen des englischen Worts »Container«. Das Wort in der Standardaussprache wurde richtig erkannt, das dialektal gefärbte Wort (mit deutlich hörbarem »r«) mit »Containment« wiedergegeben. Ähnlich reagierte das System bei den unterschiedlichen Aussprachen von »China« (die eigentlich süddeutsche Variante mit »k« wurde verstanden, die Variante mit »ch« (wie in »ach«, nicht wie in »ich«) nicht. Keine Tests fanden auf einer im engeren Sinne dialektalen Ebene statt; ein »Chuchichäschtli« würde Siri aber vermutlich überfordern, ebenso das verbale Urgestein aus dem Berner Oberland oder dem Wallis. Der Student simulierte mit seinen Ausspracheübungen die typische Situation, die beim Gebrauch eines Sprachassistenten durch Schweizerinnen und Schweizer entsteht, die Schweizerhochdeutsch bzw. mehr oder weniger gut hochdeutsch sprechen.

Es wäre sicherlich nicht ganz einfach, dem Sprachassistenten auf der Ebene der Aussprache und Betonung die schweizerischen Gepflogenheiten nahezubringen. Er könnte dazulernen; aber dazu müsste er in der Lage sein, semantische Beziehungen zu knüpfen (und damit zu realisieren, dass das Chuchichäschtli ein kleiner Küchenschrank ist). Wenn der Benutzer in der Schweiz nicht weiß, dass man »Serie« auch anders aussprechen kann, kann Siri allenfalls eine Menge von mehr oder weniger sinnvollen Alternativen – oder kluge Rückfragen – unterbreiten. Ob man mit diesen immer etwas anfangen kann, sei dahingestellt. Auch auf der lexikalischen Ebene weiß nicht jeder Benutzer, dass Alternativen existieren. Nicht in allen Fällen werden Helvetismen – dies haben mir viele Gespräche gezeigt – als solche erkannt. Bei »hässig« dürfte es kaum Probleme geben, wohl aber bei »allfällig«. Sogar »parkieren«, »grillieren« etc. werden nicht durchwegs als Helvetismen wahrgenommen. Siri ist offensichtlich für Schweizer Benutzer nur eingeschränkt nutzbar, wobei gar nicht die wachsende Zahl derjenigen thematisiert werden soll, die des Hochdeutschen nicht mächtig sind. Obwohl das Alpen- ein Apple-Land ist, hat sich das Unternehmen keinerlei Mühe gemacht, sein Sprachsystem anzupassen. Auf der lexikalischen Ebene wäre dies problemlos möglich gewesen; gängige Helvetismen werden auch vom Duden geführt, und es ist ein spezieller Band »Schweizerhochdeutsch: Wörterbuch der Standardsprache in der deutschen Schweiz« auf dem Markt. Apple hätte damit en passant die Bewohner süddeutscher Regionen beglücken können. In meiner schwäbischen Heimatstadt hat man, als ich dort gelebt habe, ebenso wie in der Schweiz vom Nachtessen gesprochen, nicht vom Abendessen, obwohl hier wie dort früh am Abend gegessen wurde und wird. Vielleicht wird es helfen, dass Diktate über die Serverfarm des Unternehmens in North Carolina abgewickelt und dort ausgewertet werden; dafür müssen Herr und Frau Schweizer aber häufig zum Telefon greifen.

Der vorliegende Beitrag will auf ein Thema aufmerksam machen, das wissenschaftlich erst noch erschlossen werden muss. Die Sicht, von der im Titel die Rede ist, muss also erst noch eingenommen werden. Von Experten, allen voran den (Computer-)Linguisten. Dabei können diese auf verwandte sprachliche und systemische Konstellationen in Australien oder in den USA eingehen. Ich finde Siri, um zum Ausgangspunkt zurückzukehren, auch aus informationsethischer Perspektive interessant. Das junge Teilgebiet der Maschinenethik untersucht, ob und wie autonome Systeme in moralischer Weise handeln sollen (vgl. Anderson/Anderson 2011). Möglicherweise greift Siri in unsere Freiheit ein. Sie nimmt uns Entscheidungen ab. Sie macht uns froh und lässt uns leiden. Durch ihr Verstehen oder Nichtverstehen schließt sie uns ein oder grenzt uns aus. Das Verhalten von Siri und Co hat ohne Zweifel moralische Implikationen, wie auch das von Avataren, die auf Websites beraten oder in Spielewelten den Benutzer repräsentieren (vgl. Bendel 2001). Ein Psychiater hat sich in seinem Beitrag – ein Fund von Ulas Yilmaz – schon ausgesprochen kritisch geäußert: »From my perspective ... Siri ... could prove more toxic psychologically than violent video games or some street drugs.« (Ablow 2011) Eine Metainformationsethik würde übrigens die Begriffe hinterfragen, die solche Programme und Maschinen verwenden und die sie mehr oder weniger verstehen. Sie würde die Aussagen gegenüber und von Maschinen in moralischer Hinsicht auf den Prüfstand stellen. Es gibt noch viel zu tun, von Informatikern, Linguisten und Philosophen, damit die Kommunikation mit den Sprachassistenten gelingt.

Download des Beitrags (PDF, 160 KB)


Oliver Bendel

Zitierte Literatur

Ablow, Keith (2011). »iPhone’s Siri: Psychological Poison?«. Ein Online-Dokument. online lesbar

Anderson, MichaelSusan Leigh Anderson (Hg., 2011). Machine Ethics. Cambridge. mehr

Bendel, Oliverm (2012). »Die Medizin in der Moral der Informationsgesellschaft: Zum Verhältnis von Medizinethik und Informationsethik«. Aufsatz in der Zeitschrift IT for Health. mehr

Bendel, OlivermMichael Gerhard (2004). »Handy-Avatare – Möglichkeiten der mobilen Kommunikationsunterstützung«. Aufsatz in der Zeitschrift InfoWeek.ch. mehr

Bendel, Oliverm (2001). »Avatar«. Aufsatz im Sammelband Lexikon der Wirtschaftsinformatik. mehr

Elmer-DeWitt, Philip (2012). »Minneapolis street test: Google gets a B+, Appleʼs Siri gets a D«. Ein Online-Dokument. online lesbar

Weizenbaum, Joseph (1977). Die Macht der Computer und die Ohnmacht der Vernunft. Frankfurt/Main. mehr

Ihre Meinung

Kommentare zu dieser Seite