Ein Algorithmus soll künftig das AMS dabei unterstützen, die Jobchancen seiner Kund_innen einzuschätzen und diese dementsprechend in drei Gruppen einzuteilen: in jene mit hohen, mittleren und niedrigen Jobchancen. Diese Einteilung soll in weiterer Folge als Entscheidungsgrundlage für die Vergabe von Fördermaßnahmen und Aus- und Weiterbildungen dienen. Bereits mit Jänner 2019 startet der Testbetrieb, ab 2020 sollen „neue Betreuungsformate“ diesen drei Gruppen angepasst werden.
Genauer heißt das: Wer mit 66%iger Wahrscheinlichkeit innerhalb von sieben Monaten wieder einen Job aufnimmt und diesen für mindestens drei Monate behält, soll als Person mit hoher Arbeitsmarktchance gelten. Wem eine Chance von weniger als 25% eingeräumt wird, innerhalb von zwei Jahren einen Job zu finden, gilt als Kundin mit niedrigen Chancen. Das AMS reagiert auf Spardruck von Seiten der Regierung und möchte sich künftig mit Beratungszeit und Ausbildungen auf die mittlere Gruppe konzentrieren. Der Unterschied zur bisherigen Praxis liegt darin, dass nicht am Arbeitsmarkt besonders benachteiligte Gruppen entsprechend stärker gefördert werden, sondern mittels eines Computerprogramms vorab aussortiert werden soll, für wen sich eine Ausbildung „lohnt“.
Wer sich schon einmal beim AMS um die Förderung einer Aus- oder Weiterbildung bemüht hat, weiß, dass es sehr stark von den jeweiligen Betreuer_innen abhängt, ob man einen Kurs finanziert bekommt, den man gerne machen möchte. Für die Fördersuchenden ist der Vorgang wenig transparent. Es spielt beispielsweise eine Rolle, wie die Budgetsituation des AMS zum jeweiligen Zeitpunkt im Jahr gerade aussieht oder in welchem Umfang bereits Plätze in bestimmten Kursschienen vorfinanziert wurden. Der Algorithmus soll nun Neutralität in dieses subjektive Verfahren bringen. Die persönlichen Erfahrungen, Motivationen und Interessen von Arbeitssuchenden (kurz: alles was nicht mathematisch abgebildet werden kann) kann so jedoch nicht berücksichtigt werden. AMS-Vorstand Johannes Kopf meinte im futurezone-Interview mit Technologie-Journalistin Barbara Wimmer, dass die computergestützte Einschätzung der Jobchancen helfe, die vorhandenen Mittel „effizienter“ einzusetzen. Das neue System solle die Berater_innen in ihren Entscheidungen lediglich unterstützen.
Diskriminierung wird rationalisiert
Entwickelt wurde der Algorithmus von der Wiener Firma Synthesis Forschung GmbH, die mittlerweile eine teilweise Dokumentation der Methode veröffentlicht hat. Mit Bekanntwerden von Details wurden Bedenken jedoch nicht ausgeräumt, sondern bestätigt: So werden neben der Ausbildung, der Häufigkeit und Dauer der bisherigen Erwerbsarbeitslosigkeit auch Merkmale wie Geschlecht, Nationalität und Alter in die Berechnung einbezogen. Auch der Standort der zuständigen AMS-Regionalstelle fließt in die Berechnung ein. Punkteabzüge gibt es alleine für das Frausein, die Herkunft aus einem „Drittstaat“ und für Über-50-Jährige. Betreuungspflichten werden Frauen negativ angerechnet, Männern jedoch nicht.
AMS-Chef Kopf verteidigt das Modell auf Twitter: „Wenn schon die Berechnung von Marktchancen diskriminierend sein soll, dann wäre der Befund, dass es gewisse Gruppen am Arbeitsmarkt schwieriger haben, selbst wohl auch.“ Was aber, wenn – wie in diesem Fall – der Befund schlechterer Chancen am Arbeitsmarkt nicht dazu herangezogen wird, benachteiligte Gruppen besonders zu fördern, sondern umgekehrt, Arbeitssuchende vom Zugang zu Ausbildungen vorab auszusortieren? Ziel ist es nicht, etwa die „Treffsicherheit“ in der Vermittlung zu erhöhen und das beständig kritisierte, veraltete Jobkategoriensystem zu überarbeiten. Das Programm rechnet vielmehr vor, wo – und an wen – Ressourcen verschwendet würden. Man habe bisher oft teure Ausbildungen an besonders arbeitsmarktferne Personen vergeben, die dann „wenig Output“ hatten, formuliert es Kopf. Diskriminierung sei nicht gegeben, sagt Beate Sprenger, Pressesprecherin des AMS, da das Programm lediglich eine Empfehlung abgebe und die Entscheidung letztlich die zuständigen Betreuer_ innen träfen. Aufgrund der Erfahrungen mit ähnlichen computergestützten Bewertungssystemen und der hohen Arbeitslast der Sachbearbeiter_innen des AMS äußern Expert_innen der WU und TU Bedenken, aufgrund der scheinbaren Objektivität des Computerprogramms seien Mitarbeiter_innen geneigt, die automatisierte Einschätzung zu bestätigen. Das AMS selbst kalkuliert mit einer Fehlerrate von 15–25%, was etwa 50.000 Menschen betrifft, deren Arbeitsmarktchancen falsch eingeschätzt würden.
Benachteiligte Gruppen als Experimentierfeld
Algorithmen kommen vor allem dann ins Spiel, wenn es darum geht, Kürzungen umzusetzen oder gleichbleibende Mittel unter immer mehr Menschen zu verteilen. Die vermeintliche Neutralität schafft Distanz zum Umstand, dass über die Lebensperspektiven von Menschen entschieden wird. Diskriminierungen werden so als gesellschaftliche Gegebenheiten rationalisiert. Vergleichbare Algorithmen, die das zukünftige Verhalten von Menschen einschätzen sollen, kommen etwa bei Versicherungen, im Recruiting-Bereich oder im sogenannten Predictive Policing zum Einsatz.
In ihrem Anfang 2018 erschienenen Buch Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor präsentiert die US-amerikanische Politologin Virginia Eubanks eine umfassende Recherche zum Einsatz von Algorithmen, die in unterschiedlichen Bereichen des US-amerikanischen Sozialsystems weitgehend automatisiert z. B. über den Zugang zu Gesundheitsversorgung und Sozialwohnungen entscheiden. Ein Charakteristikum solcher Automatisierungen ist es, dass die Bearbeitung von Fällen auf verschiedene Mitarbeiter_innen aufgeteilt und die persönliche Geschichte und die Beziehung zu dem_der Sachbearbeiter_in aus dem Verfahren eliminiert wird. In Europa sind vergleichbare Systeme zwar noch selten, doch die auffälligen Parallelen in den Argumentationslinien machen Eubanks‘ Analysen auch für den europäischen Kontext interessant. Es sei dabei nicht untypisch, so Eubanks, dass eine computergestützte Einteilung von Menschen in Gruppen und Voraussagen über ihr künftiges Verhalten zuerst an Erwerbsarbeitslosen erprobt wird. Algorithmen würden zuerst in low rights environments eingesetzt, also in gesellschaftlichen Sphären, die von Machtasymmetrien und Intransparenz geprägt sind und in denen es für die Betroffenen schwierig ist, ihre Rechte einzufordern.
Dem AMS auf die Finger schauen
Die Debatte um den AMS Algorithmus sollte breit geführt werden, um die Menschen zu erreichen, die unmittelbar davon betroffen sein werden. Denn nur wer über die Vorgänge Bescheid weiß, kann seine Rechte einfordern. Grundsätzlich haben beim AMS gemeldete Personen das Recht, in die über sie gesammelten Daten Einsicht zu nehmen oder diese korrigieren zu lassen. Einmal im Kalenderjahr kann kostenlos ein Datenschutzausdruck beantragt werden (§44 Datenschutzgesetz). Das AMS ist laut Datenschutzgrundverordnung (DSGVO) dazu verpflichtet, seine Kund_innen über den Einsatz des Algorithmus und die Gründe für die Einschätzung mitzuteilen. Diese haben ein Recht darauf, dass die Entscheidung von einer echten Person getroffen wird. Die DSGVO verbietet zudem automatische Entscheidungen, die „nachteilige Rechtsfolgen“ haben (Art. 22). Beim AMS gemeldete Personen haben das Recht auf Auskunft (Art. 15) und Berichtigung der Daten (Art. 16.). Die Österreichische Datenschutzbehörde bietet auf ihrer Website entsprechende Formulare zum Download an.
Es ist angesagt, wachsam zu sein vor weiteren Schritten wie automatisierten Bezugssperren oder der Markierung benachteiligter Gruppen als des „Sozialbetrugs“ verdächtig. Die Einführung des AMS-Algorithmus kann als mögliches Einfallstor zu weiteren computergestützten Bewertungen gesehen werden. Nicht zuletzt muss die Kritik am AMS-Algorithmus verbunden bleiben mit der Kritik an strukturellen Benachteiligungen, die der Algorithmus widerspiegelt, und dem sozialen Kahlschlag durch die schwarzblaue Regierung – auf den sich das AMS vorab einstellt.
Britta Pesendorfer ist kritische Kund_in des AMS.
Virginia Eubanks: Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor. St. Martin’s Press, 2018.