Follower

Freitag, 17. August 2018

Ein Plädoyer für mehr Gerechtigkeit durch öffentliche Informationsinfrastrukturen. LIBREAS.Feuilleton von Karsten Schuldt am 11.06.2018

Technologie ist nicht neutral. Ist das neu?

Technologie und Algorithmen sind nicht neutral und auch nicht einfach reine Widerspiegelungen gesellschaftlicher Verhältnisse. Was an Technologie entwickelt wird und was nicht; was als Problem definiert wird, welches Problem technisch – oder halt auf der Ebene von Software durch Algorithmen – zu lösen wäre und was nicht; was überhaupt als Problem wahrgenommen wird; auf welche Kritik von wem Rücksicht genommen wird und welche Kritik von wem ignoriert wird – all das ist gesellschaftlich. Und es wirkt dann, wenn es in Technologie umgesetzt ist, verstärkend auf die Gesellschaft zurück. Es entwickelt sich nicht in einem luftleeren Raum, in welchem nur Innovation und Genie zählen, sondern entlang von Machtstrukturen und gesellschaftlichen Diskursen. Ist das eine überraschende Aussage?
Das hier zu besprechende Buch von Safiya Umoja Noble thematisiert diesen Fakt in einer Weise, als sei er neu. Es gäbe in der Gesellschaft die Vorstellung, dass Technologie (in diesem Fall Suchmaschine-Technologie) neutral und fair wäre. Die Autorin berichtet, dass Ihre Studierenden (an der University of California) dies in ihrem Unterricht zum ersten und einzigen Mal in ihrem Studium hörten. Einen ähnlichen Eindruck vermittelt sie auch in ihren Vorträgen zum Thema (zum Beispiel auf der letzten re:publica 2018). Wenn dem so ist, ist es wohl wichtig, dass es diese Buch gibt. Es sind aber auch keine überraschenden Aussagen. Vielleicht sind dem Rezensenten einfach die beiden Wissenschaftsfelder, auf die sich die Autorin bezieht – Gender Studies und Library and Information Science – selber zu sehr bekannt, aber ihm schien, dass das Buch eher Bekanntes konkretisiert, als neues benennt.

Beispiele für Bias

Überzeugt dann aber diese Konkretisierung? Schon. Noble fokussiert auf Google beziehungsweise Alphabet, da dies einfach die grösste Firma im Bereich Suchtechnologien ist und die Ergebnisse dieser Technologie direkte Auswirkungen in der Gesellschaft haben. Sie zeigt, dass es offensichtliche Vorurteile gibt, die sich in den Suchergebnissen von Google widerspiegeln und damit auch in den Algorithmen der Maschine. Das prominent im Buch mehrfach thematisierte Beispiel ist eindrücklich: Die Autorin wollte 2011 mit ihren Nichten Quality-Time verbringen, suchte deshalb mit dem Schlagwort „black girls” nach Dingen, die diese interessieren könnten, fand aber fast nur Pornographie (und eine Pop-Band mit diesem Namen). Dies liess sich auf andere Gruppen und Themen ausweiten: „latina girls” lieferte ebenso vor allem Pornographie, aber nicht „asian girls” oder „white girls”; „three black teenagers” lieferte Polizeiphotos, „three white teenagers” Bilder von Gruppen von Jugendlichen, „unprofessional hairstyles for work” lieferte nur Bilder von Afroamerikanerinnen, „professional” nur von weissen Frauen. Es ist leicht ersichtlich, dass rassistische (und, in anderen Beispielen, sexistische) Denkstrukturen sich in diesen Ergebnissen spiegelten, nicht die Realität.
Noble problematisiert nun in ihrem Buch die Vorstellung, dies seien rein technische Probleme. Diese Position wird, wie sie zeigt, von Google beziehungsweise Alphabet eingenommen. Nicht einmal als Ausrede, sondern als Ideologie. Regelmässig verweist Google darauf, dass die Ergebnisse ihrer Maschine nicht einfach zu kontrollieren seien, sondern sich aus den Suchen in Google und den verwendeten Algorithmen ergeben würden. Gleichzeitig finden sich dann immer doch Lösungen, einige krude (so fand man nach einer gewissen Zeit unter „three white teenagers” dann auch Polizeiphotos), einige wirksamer (so findet sich heute unter „black girls” oder „latina girls” keine Pornographie mehr, ausser es wird explizit nach ihr gesucht). Für Noble ist aber klar, dass dies eine falsche Vorstellung davon ist, wie Technologie funktioniert. Welche Probleme schnell angegangen würden und welche nicht oder nur sehr langsam, hätte zum Beispiel auch mit der recht männlichen, weissen und asian-american Belegschaft von Google zu tun, auch mit der Vorstellung, dass diese Belegschaft sich meritokratisch gefunden hätte (also weil sie alle besser seien als andere). Gleichzeitig sei es aber auch ein Problem, dass die Öffentlichkeit Google mit einer fairen und interesselosen Infrastruktur gleichsetzen würde: Google sei eine Werbeplattform, die Suchen und Ergebnisse, die Technologie und Infrastruktur sei davon bestimmt. Die Öffentlichkeit – und dabei meint sie nicht nur einzelne Personen, sondern auch die Politik, Wissenschaft, Verwaltung – sähe in Google aber eine Infrastruktur, die grundsätzlich fair sei. (Dies sei nicht nur auf Google, sondern auch auf den ganzen Diskurs von Big Data zu beziehen.) ... [mehr] https://libreas.wordpress.com/2018/06/11/ein-plaedoyer-fuer-mehr-gerechtigkeit-durch-oeffentliche-informationsinfrastrukturen/

Keine Kommentare: