Aus der Presse

»Themis« testet Software auf Vorurteile

System soll Ausbreitung in der Gesellschaft entgegenwirken.

»Forscher der University of Massachusetts Amherst haben mit ›Themis‹ ein System entwickelt, das soziale Vorurteile in Software aufdeckt. Denn Programme beeinflussen sowohl unseren Alltag, beispielsweise welche Nachrichten und Postings wir online sehen, als auch kritische Entscheidungen wie Kreditvergaben. [...] ›Themis kann Vorurteile in Software erkennen, ob sie beabsichtigt sind oder nicht‹, betont zudem Brun. So kann das System auch erkennen, wenn sich durch Maschinenlernen Vorurteile in ein Programm einschleichen. Das ist ein aus der Praxis bereits gut bekanntes Problem: Durch fehlgeleitetes Maschinenlernen wurde 2016 Microsofts Chatbot[] ›Tay‹ zum Sexisten und Rassisten. Das Team konnte zeigen, dass der Versuch, Vorurteile beim Software-Design zu meiden, selbst problematisch ist. Offenbar kann das gezielte Vermeiden eines Vorurteils dazu führen, dass lernende Programme dafür andere Vorteile stärker ausprägen. Eine auf Entscheidungsbäumen beruhende Software, die trainiert wurde, geschlechtsneutral zu sein, hat laut Themis dafür zu 38 Prozent rassistisch diskriminiert. Ein Grundproblem ist, dass Software oft aus nicht ganz unvoreingenommenen Daten lernt.« [21.08.2017, 09:33 Uhr, Quelle: pressetext [T. Pichler]]

https://github.com/LASER-UMASS/Themis

Peter Schlobinski

Ähnliche Nachrichten
Ex-News

News: Archiv

Sie suchen etwas Bestimmtes? Dann finden Sie es vielleicht in unserem Archiv. Stöbern Sie in 6258 Nachrichten oder durchsuchen Sie sie:

RSS2.0

News: Feed

Bleiben Sie immer kurz und aktuell auf dem Laufenden – mit den RSS-Feeds von mediensprache.net. mehr

Ihre Meinung

Kommentare zu dieser Seite