Aus der Presse

Kritik an diskriminierenden Algorithmen

Frauen- und Gleichstellungsministerinnen der Länder stören sich vor allem an der Auto-Vervollständigung bei Suchmaschinen. Das ist aber erst der Anfang.

Auftrag an die Bundesregierung: Sie solle prüfen, ob den Algorithmen von Google[][] und Co. »Diskriminierungsmechanismen« zugrunde lägen. Grund des Anstoßes ist die Auto-Vervollständigung im Suchfeld. Gebe man etwa bei Bing[] »frauen können« ein, würde »nicht autofahren« ergänzt. Dies sei eine Diskriminierung von Frauen durch KI, so der Vorwurf der Ministerinnen. Dass an erster Position etwa bei Google »alles« ergänzt wird, wurde nicht thematisiert, handelt es sich dabei doch womöglich um eine Diskriminierung von Männern, da bei der Eingabe von »männer können« eben nicht »alles« an Position 1 erscheint, sondern »nicht zuhören«, gefolgt von »nicht lieben« und »nicht einparken«, nach »frauen können« hingegen »doch einparken«. Problematisch daran ist, dass die Suchmaschinen keine Antworten geben, sondern u. a. darauf basieren, was andere Menschen suchen und gefunden geglaubt zu haben (das Ergebnis per Klick bewerten). Daher ist Lorena Jaume-Palasí, Gründerin der Ethical Tech Society in Berlin, nicht der Meinung, dass die Bundesregierung der Technologie auf die Finger schauen oder klopfen sollte. »Die Ursache von Diskriminierung sind immer Menschen«, sagt Jaume-Palasí. Sie empfehle daher, die Ursachen der Diskriminierung zu bekämpfen, denn sie weiß, dass die Daten, von denen Suchmaschinen lernen, von Menschen stammen. Dabei hat Google schon im Juni 2018 angekündigt, ein besonderes Augenmerk darauf zu legen, dass Software keine »unfairen Vorurteile« aufweise oder nach Hautfarbe, Geschlecht, sexueller Orientierung oder Einkommen diskriminiere. Dass es dafür gute Gründe gibt, zeigte die Kampagne »World White Web« von Johanna Burai, einer Designerin aus Schweden. Sie habe 2015 bei der Recherche nach Fotos von Händen feststellen müssen, dass vorwiegend weiße Hände präsentiert würden. Und wie die Digitalkünstlerin Caroline Sinders kürzlich feststellen musste, hat sich daran offenbar wenig geändert: Suchmaschinen oder Gesichtserkennungssoftware seien nach wie vor von Stereotypen und Vorurteilen geprägt (https://www.zeit.de/die-antwort/2019-03/feminismus-daten-algorithmen-software-sexismus-diskriminierung).

In jüngsten Diskussionen geht es um die Frage, wie man den Algorithmen eine gendergerechte Sprache beibringen könne. Das Problem des generischen und womöglich diskriminierenden Maskulinums ist nun also bei der KI angekommen. Während die Suche nach »Friseur« sowohl weibliche als auch männliche Haare schneidende Personen zurückgebe, sei dies bei »Friseurinnen« nicht der Fall, so der Vorwurf einer Hamburger Texterin (https://t3n.de/news/google-algorithmus-deutsche-hat-1175032/). Wenn sich nun aber einige weibliche Kopfhaararbeiterinnen als Friseurin bezeichneten, würde dies bei den Suchmaschinen zu schlechteren Positionierungen[] führen. Die Empfehlung der Autorin: »Sei ein Mann.«, womit sie meint, dass eher »Friseur« im Text einer Friseurin vorkommen sollte. Im Gegensatz zum Problem der Auto-Vervollständigung sollte die Ungerechtigkeit dadurch leicht zu beheben sein, dass den Algorithmen, die das noch nicht haben (wozu Google nicht gehören sollte), ein Wörterbuch an die Hand gegeben wird; neben Gendervarianten könnten hier auch Synonyme helfen, die so verhindern würden, dass bei einer Suche nach »Friseur« die Coiffeure diskriminiert werden. [06.08.2019, 13:32 Uhr, Quelle: Eigenbericht mit Daten von dpa via t-online.de]

Torsten Siever

Ähnliche Nachrichten
Ex-News

News: Archiv

Sie suchen etwas Bestimmtes? Dann finden Sie es vielleicht in unserem Archiv. Stöbern Sie in 6858 Nachrichten oder durchsuchen Sie sie:

RSS2.0

News: Feed

Bleiben Sie immer kurz und aktuell auf dem Laufenden – mit den RSS-Feeds von mediensprache.net. mehr

Ihre Meinung

Kommentare zu dieser Seite