Zwangsouting

Das ist ein reales Problem.

Zur Abwechslung mal.

Vermutlich kennen viele die Erzählung der Teenagerin, die im Drogeriemarkt einkaufen war, und danach personalisierte Werbung nach Hause geschickt bekam, wodurch ihr Vater von ihrer Schwangerschaft erfuhr.

DAS gelang, soweit ich das verstanden hatte, weil die Tochter selbst von ihrer Schwangerschaft wusste, und diesbezügliche Produkte kaufte, UND weil ihr Vater ihre Werbung las. Theoretisch hätte er auch Post von ihrem Gynäkologen aufmachen können. Womit ich das Problem nicht bestreiten will, aber in Releation setzen.

 Dass es sich dabei um fehlerhafte Algorithmen handelte, ist allerdings weniger bekannt.

Okeee, kaufen sich Schwangere unbewusst unparfümierte Lotionen, weil sie keinen Duft mehr mögen? Nebenbei bietet so ein Algorthmus auch nur Wahrscheinlichkeiten an – möglicherweise ist der Lieblingsduft der einen Frau gerade einfach ausverkauft? Jedenfalls kommen „Fehldiagnosen“ allenthalben vor, aber das ist halt das kalkulierte Risiko der Drogerie.

Was, wenn ein Outing vor dem Hintergrund der gesammelten Daten über eine Person absichtlich herbeigeführt werden kann? Zum Beispiel in Bezug auf Menschen, die sich dem LGBTQI+-Spektrum zuordnen.

Irgendwann wird es einfacher sein, einfach die Buchstaben zu nennen, die NICHT gemeint sind. Aber ja, das ist generell das Problem von Datensammlungen. Sie dienen dem Sammler.

Und was, wenn es sich dabei nicht um Daten handelt, die über ein freiwilliges Punktesystem beim Einkaufen gesammelt wurden, sondern ganz unbemerkt über die Schule, einen Ort, den die meisten besuchen müssen?

Theoretisch habe ich an meinen Staat ganz andere Rechtsansprüche als an meinen Supermarkt, aber ja, da gibt es ein Problem. Am besten nur das Nötigste in der Schule machen und nie über Privates reden.

Was bedeutet es, wenn Lehrkräfte auf Daten zugreifen können, die ihre Schüler auf dem Endgerät der Schule erzeugen? Daten wie Verläufen aus sozialen Medien, YouTube oder private Notizen, wie Zettelchen, die früher unter der Bank getauscht wurden, bis hin zu digitalen Tagebucheinträgen…

Keine privaten Sachen auf den Endgeräten in der Schule machen. Getrennte E-Mail- und FB-Konten für Schule und Privates. Das ist außerdem auch eine gute Vorbeeitung für das Berufsleben.

Werden Fortbildungen mit Datenbezug angeboten, so fast ausschließlich im Kontext aktiven Datenschutzes, d.h. der bewussten Entscheidung, bei der Datennutzung auf Schutzmaßnahmen zu achten. Es gibt anscheinend (noch) kein Bewusstsein dafür, welche Datenmengen jeden Tag in Schulen einfach so durch die Nutzung von Medien generiert werden.

Und es kann nicht Sinn der Sache sein, dem Lehrkörper beizubringen, wie man den Missbrauch verhindern kann, sondern den Schulkindern. Bzw., von der Logik her sollten es beide lernen, aber die Kinder brauchen es.

Andere Länder sind da deutlich weiter, ein Blick in die USA lohnt sich.

Kann ja sein, aber ab hier geht es um etwas ganz anderes.

Sie schafften nicht nur die nötigen Endgeräte… an, sondern auch die passende Software, teilweise ohne die damit einhergehenden Auswirkungen auf die Privatsphäre der Schüler zu verstehen.

Wenn die Schüler die Auswirkungen verstanden hätten, wäre das Problem ein anderes. Nur geh es hier tatsächlich nicht mehr darum, aus dem Kaufverhalten eines Menschen auf dessen Interessen und Lebenssituation zurückzuschließen, sondern darum, direkt auf Informationen zuzugreifen, die die betreffende Person nicht öffentlich gemacht hat.

Die Software Gaggle muss hier namentlich erwähnt werden… ein us-amerikanisches Tool, das die Daten, die User online erzeugen, erfasst und mit sogenannten „flags“ (Kennzeichnungen, die im Anschluss kategorisiert werden) versieht. Gaggle wirbt damit, datenbasiert Schulschießereien und Amokläufe verhindern zu können. Konkret bedeutet das, dass alle Prozesse der Schule nur noch über das Tool laufen: E-Mailverkehr, Hausaufgaben, Online-Unterricht – alles wird über die Schul-E-Mailadressen abgewickelt, die mit Gaggle verbunden sind.

Es gäbe Möglichkeiten für angehende Amokläufer, sich offline abzusprechen. Oder per whatsapp über eine andere Nummer als die, mit der man bei der Schule registriert ist. Aber natürlich sind Leute mit wenig krimineller Energie umso leichter auszuspähen.

Übrigens können auch Daten von Instagram oder Facebook, kurz, aller Online-Dienste, die mit der Schul-E-Mailadresse genutzt werden, in die erzeugte Datenmenge mit einfließen.

Brieftauben. Liebesbriefe an die homosexuelle Beziehung nur durch Brieftaube. Ist auch irgendwie romantischer. Aber halt nicht dritten ausgesetzt. Es sei denn, sie kämen mit Falken.

 Wer nicht schon bei der Masse an Daten, die freigegeben werden, stutzt, wird spätestens bei den Algorithmen, die die KI nutzt, skeptisch. Denn diese reproduzieren nicht nur geschlechtsspezifische, sondern auch rassistische Vorurteile. Das passiert über die der KI zugrunde gelegten Informationen.

Jein. Ja, Algorithmen verallgemeinern Daten, und Vorurteile sind unzulässige Verallgemeinerungen. Angenommen, jemand hat dreimal schlechte Erfahrungen mit Blondinen gemacht. Die vierte Blondine wird beim Betreffenden auf ein gewisses Misstrauen stoßen, obwohl drei Blondinen keine repräsentative Stichprobe sind. Jetzt könnte man Algorithmen entweder sagen, dass sie die Haarfarbe grundsätzlich ignorieren sollen, oder aber, dass sie bestimmte Informationen erst ab einer Mindestmenge an Stichproben, in denen sie überhaupt vorkommen, als Grundlage verwenden, aber dann hätten Algorithmen zu oft gar kein Ergebnis. Und für viele Zwecke ist ein möglicherweise falsches Ergebnis besser als gar keines. Lieber eine Frau, die nicht schwanger ist, einen Gutschein für Windeln schenken, als eine Schwangere als Kundin verlieren.

Gewalttaten werden beispielsweise in großer Mehrheit von männlichen Jugendlichen verübt.  Und im Jahr 2010 gab es deutlich mehr Festnahmen wegen des Besitzes von Cannabis bei Schwarzen Menschen, obwohl sie nicht mehr Cannabis konsumieren.

Das eine ist gesicherte Tatsache, dass andere ein Vorurteil. Nicht umgekehrt!

Eine Folge der Verwendung solcher Tools wie Gaggle ist daher, dass sie People of Color und marginalisierte Gruppen unverhältnismäßig kritisch betrachten.

Und Frauen werden häufiger schwanger als Männer. Wenn ich also mal eine unparfürmierte Lotion kaufe, wird der Algorithmus vermutlich trotzdem nicht denken, ich sei schwanger. Keine Ahnung, nebenbei, was eine Lotion überhaupt ist. Aber ja, weil es deutlich mehr Frauenhäuser als Männerhäuser gibt, kommen bestimmt viele Algorithmen auf die Idee, man bräuchte mehr Frauenhäuser als Männerhäuser. Feministen denken das übrigens auch, aus praktisch denselben Gründen.

Daten können auch mit anderen Filtern kategorisiert werden.

Und hier kommt ins Spiel, ob die Anwender der Software wollen, dass sie weder rassistisch noch sexistisch ist. Wenn man einfach die Variable „Geschlecht“, „Hautfarbe“ oder auch „Religion“, „Alter“, „Sternzeichen“ oder „Fußballverein“ vom Programm gar nicht erfassen ließe, gäbe es das Problem gar nicht.

Im vergangenen Jahr wurde in Minneapolis eine Schülerin von ihrer Lehrkraft geoutet, nachdem eine Software im Suchverlauf ihrer Dokumente LGBTQ-Schlüsselwörter kennzeichnete.

Ja, aber das ist noch was anderes. Das wäre das Äquivalent zu einer Software, die herausfindet, dass ihr Nutzer weiß ist. Aber es ist sicher ein Problem, wenn man Suchanfragen von jemanden liest, zumal nicht jeder, der „Transsexuell“ googelt, transsexuell ist.

Aktuell planen die USA, genauer gesagt Florida, noch einen Schritt weiterzugehen. Dort gab es Anfang des Jahres Bemühungen, dem durch die Republikaner eingebrachten „Don’t Say Gay“-Gesetz einen Zusatz anzuhängen. Das Schulpersonal wäre damit verpflichtet, Kinder innerhalb von sechs Wochen zu outen, nachdem das Auswertungstool entsprechende „flags“ gesetzt hat.

Wie will man jemanden als schwul outen, wenn es illegal ist, „schwul“ zu sagen? Oder umgekehrt, warum sollte man Leute als schwul outen, die nicht von alleine darauf zu sprechen kommen, wenn man das Thema eigentlich totschweigen will? Ungeachtet dessen, dass ich beides falsch finde. (Ja, das eine betrifft Kinder unter 10 und das andere wohl ab Pubertät.)

Gezielt Daten über Menschen zu sammeln und sie als Rechtfertigung für massive physische und psychische Eingriffe mit nicht absehbaren Folgen für jede*n Einzelne*n zu benutzen, ist eine Entwicklung, die es aktuell zu verhindern gilt.

Das ist falsch wiedergegeben. Die „Rechtfertigung“, bestimmte Daten zu veröffentlichen, ist ja nicht, dass man sie hat, sondern, dass man damit angeblich jemanden „helfen“ wollte. Die Frage, ob jemand L, G, B oder doch eher T ist, ist ja oft nicht unumstritten. Und wenn ich das richtig verstanden habe, ging es in Texas nicht darum, das möglicherweise transsexuelle Kind bei dessen Eltern zu zwangsouten, sondern Eltern, die ihr möglicherweise doch nicht transsexuelles Kind transitionieren wollen, zu outen.

Auch, wenn ich der Meinung bin, dass in D. eine Schule kein Kind zwangsouten dürfte, egal, auf welche Weise sie dieses Wissen erlangt hätte, ist Datenschutz natürlich ein Problem. Aber Pinkstinks kommt gar nicht auf die Idee, dass es um die Eltern gehen könnte.

3 Gedanken zu “Zwangsouting

  1. Chuzpe ist, wenn man mit den Worten „fehlerhafte Algorithmen“ einen Artikel verlinkt, in dem das genaue Gegenteil steht.

    Das Mädchen wusste nicht, dass sie schwanger ist.

    Freilich mag Pinkdrinks das nicht; die mögen es aber auch nicht, dass jeder Radiologe Dir Dein Geschlecht aufgrund eines Röntgenbildes sagen kann.

    AI kann auf Basis eines Röntgenbildes sogar Deine Hautfarbe sagen. Warum die AI das kann, hat m.W. noch niemand verstanden. Außer Pinkdrinks: AI ist furchtbar rassistisch.

    Like

  2. Facebook, Instagram und co. über den Schul-Account?
    Sowas sollte einfach gesperrt werden.

    Ich habe beruflich häufiger mit dem Mutterschutzgesetz zu tun. Mal sehen, wann Google mich für schwanger hält…

    Gefällt 1 Person

Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden /  Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden /  Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden /  Ändern )

Verbinde mit %s