Aus der Presse

Künstliche Intelligenz übernimmt Vorurteile

Wenn Künstliche Intelligenz anhand von Text-Datensätzen Sprache lernt, übernimmt sie auch die darin enthaltenen Stereotypen.

»Ein Assoziationstest offenbart: Solche Computerprogramme zeigen dann dieselben rassistischen Vorurteile oder Geschlechter-Klischees wie viele Menschen in unserer Gesellschaft. [...] Wissenschaftler um Aylin Caliskan von der Princeton University haben die auf diese Weise erworbenen Fähigkeiten von ›GloVe‹ nun auf die Probe gestellt und herausgefunden: Das sprachliche Wissen des Programms ist gespickt mit kulturellen Stereotypen und Vorurteilen. Für ihre Studie verwendeten die Forscher eine Methode, die in der Psychologie als Impliziter Assoziationstest bekannt ist. Dieser Test soll unbewusste, stereotype Erwartungen offenlegen. Probanden müssen dafür Paare mit Ausdrücken bilden, die für sie ähnlich erscheinen sowie Paare mit Begriffen, die für sie nicht zusammengehören. [...] Die Ergebnisse zeigten: Etliche Stereotypen und Vorurteile, die sich bei Menschen durch den Impliziten Assoziationstest regelmäßig offenbaren, hat ›GloVe‹ ebenfalls verinnerlicht. So interpretierte das Programm zum Beispiel männliche, in afro-amerikanischen Kreisen übliche Vornamen als eher unangenehm und Namen, die unter Weißen üblich sind, eher als angenehm. Auch verknüpfte es weibliche Namen eher mit Kunst und männliche eher mit Mathematik.« [15.04.2017, 00:27 Uhr, Quelle: scinexx]

Peter Schlobinski

Ähnliche Nachrichten
Ex-News

News: Archiv

Sie suchen etwas Bestimmtes? Dann finden Sie es vielleicht in unserem Archiv. Stöbern Sie in 6258 Nachrichten oder durchsuchen Sie sie:

RSS2.0

News: Feed

Bleiben Sie immer kurz und aktuell auf dem Laufenden – mit den RSS-Feeds von mediensprache.net. mehr

Ihre Meinung

Kommentare zu dieser Seite