Technologie ist nicht neutral. Ist das neu?
Technologie und Algorithmen sind nicht neutral und
auch nicht einfach reine Widerspiegelungen gesellschaftlicher
Verhältnisse. Was an Technologie entwickelt wird und was nicht; was als
Problem definiert wird, welches Problem technisch – oder halt auf der
Ebene von Software durch Algorithmen – zu lösen wäre und was nicht; was
überhaupt als Problem wahrgenommen wird; auf welche Kritik von wem
Rücksicht genommen wird und welche Kritik von wem ignoriert wird – all
das ist gesellschaftlich. Und es wirkt dann, wenn es in Technologie
umgesetzt ist, verstärkend auf die Gesellschaft zurück. Es entwickelt
sich nicht in einem luftleeren Raum, in welchem nur Innovation und Genie
zählen, sondern entlang von Machtstrukturen und gesellschaftlichen
Diskursen. Ist das eine überraschende Aussage?
Das hier zu besprechende Buch von Safiya Umoja Noble
thematisiert diesen Fakt in einer Weise, als sei er neu. Es gäbe in der
Gesellschaft die Vorstellung, dass Technologie (in diesem Fall
Suchmaschine-Technologie) neutral und fair wäre. Die Autorin berichtet,
dass Ihre Studierenden (an der University of California) dies in ihrem
Unterricht zum ersten und einzigen Mal in ihrem Studium hörten. Einen
ähnlichen Eindruck vermittelt sie auch in ihren Vorträgen zum Thema (zum
Beispiel auf der letzten re:publica 2018).
Wenn dem so ist, ist es wohl wichtig, dass es diese Buch gibt. Es sind
aber auch keine überraschenden Aussagen. Vielleicht sind dem Rezensenten
einfach die beiden Wissenschaftsfelder, auf die sich die Autorin
bezieht – Gender Studies und Library and Information Science – selber zu
sehr bekannt, aber ihm schien, dass das Buch eher Bekanntes
konkretisiert, als neues benennt.
Beispiele für Bias
Überzeugt dann aber diese Konkretisierung? Schon.
Noble fokussiert auf Google beziehungsweise Alphabet, da dies einfach
die grösste Firma im Bereich Suchtechnologien ist und die Ergebnisse
dieser Technologie direkte Auswirkungen in der Gesellschaft haben. Sie
zeigt, dass es offensichtliche Vorurteile gibt, die sich in den
Suchergebnissen von Google widerspiegeln und damit auch in den
Algorithmen der Maschine. Das prominent im Buch mehrfach thematisierte
Beispiel ist eindrücklich: Die Autorin wollte 2011 mit ihren Nichten
Quality-Time verbringen, suchte deshalb mit dem Schlagwort „black girls”
nach Dingen, die diese interessieren könnten, fand aber fast nur
Pornographie (und eine Pop-Band mit diesem Namen). Dies liess sich auf
andere Gruppen und Themen ausweiten: „latina girls” lieferte ebenso vor
allem Pornographie, aber nicht „asian girls” oder „white girls”; „three
black teenagers” lieferte Polizeiphotos, „three white teenagers” Bilder
von Gruppen von Jugendlichen, „unprofessional hairstyles for work”
lieferte nur Bilder von Afroamerikanerinnen, „professional” nur von
weissen Frauen. Es ist leicht ersichtlich, dass rassistische (und, in
anderen Beispielen, sexistische) Denkstrukturen sich in diesen
Ergebnissen spiegelten, nicht die Realität.
Noble problematisiert nun in ihrem Buch die
Vorstellung, dies seien rein technische Probleme. Diese Position wird,
wie sie zeigt, von Google beziehungsweise Alphabet eingenommen. Nicht
einmal als Ausrede, sondern als Ideologie. Regelmässig verweist Google
darauf, dass die Ergebnisse ihrer Maschine nicht einfach zu
kontrollieren seien, sondern sich aus den Suchen in Google und den
verwendeten Algorithmen ergeben würden. Gleichzeitig finden sich dann
immer doch Lösungen, einige krude (so fand man nach einer gewissen Zeit
unter „three white teenagers” dann auch Polizeiphotos), einige wirksamer
(so findet sich heute unter „black girls” oder „latina girls” keine
Pornographie mehr, ausser es wird explizit nach ihr gesucht). Für Noble
ist aber klar, dass dies eine falsche Vorstellung davon ist, wie
Technologie funktioniert. Welche Probleme schnell angegangen würden und
welche nicht oder nur sehr langsam, hätte zum Beispiel auch mit der
recht männlichen, weissen und asian-american Belegschaft von Google zu
tun, auch mit der Vorstellung, dass diese Belegschaft sich
meritokratisch gefunden hätte (also weil sie alle besser seien als
andere). Gleichzeitig sei es aber auch ein Problem, dass die
Öffentlichkeit Google mit einer fairen und interesselosen Infrastruktur
gleichsetzen würde: Google sei eine Werbeplattform, die Suchen und
Ergebnisse, die Technologie und Infrastruktur sei davon bestimmt. Die
Öffentlichkeit – und dabei meint sie nicht nur einzelne Personen,
sondern auch die Politik, Wissenschaft, Verwaltung – sähe in Google aber
eine Infrastruktur, die grundsätzlich fair sei. (Dies sei nicht nur auf
Google, sondern auch auf den ganzen Diskurs von Big Data zu beziehen.) ... [mehr] https://libreas.wordpress.com/2018/06/11/ein-plaedoyer-fuer-mehr-gerechtigkeit-durch-oeffentliche-informationsinfrastrukturen/
Keine Kommentare:
Kommentar veröffentlichen