Welchen Einfluss haben ADM auf unsere Gesellschaft – im Guten wie im Schlechten? Wer kontrolliert, wie sie entwickelt werden und ob sie fehlerhaft sind? Und wer sorgt dafür, dass Regulierungsstrategien entwickelt werden, die sie einer demokratischen Kontrolle unterwerfen? Mit diesen Fragen beschäftigt sich eine neue Initiative von Journalisten, Sozialwissenschaftlern und Informatikern, an der Prof. Dr. Katharina Zweig von der TU Kaiserslautern maßgeblich beteiligt ist. Das Team kombiniert mit seiner Expertise die Analyse von gesellschaftlichen Auswirkungen mit der Analyse von Algorithmen und schafft so eine einzigartige umfassende Perspektive auf ein Thema, das immer brisanter wird.
Die Plattform „AlgorithmWatch“, die zur diesjährigen Re:publica-Konferenz Anfang Mai online geht (https://re-publica.de/en/16/session/democracy-age-algorithms), soll die Nutzer für die Grundlagen algorithmischer Entscheidungsfindung sensibilisieren und anhand von Dossiers, Fallbeispielen und Blogbeiträgen aufzeigen, welche gesellschaftlichen Konsequenzen sie haben können.
Ziel der Plattform ist es zum einen, die Aufmerksamkeit darauf zu lenken, dass vermeintlich objektive technische Prozesse immer menschengemacht sind und damit Werturteile enthalten. Folglich fordern die Initiatoren von „AlgorithmWatch“, dass Prozesse algorithmischer Entscheidungsfindung nachvollziehbar sind, um diese Werturteile darauf prüfen zu können, ob sie mit den Rechten von Bürgerinnen und Bürgern im Einklang sind.
Dabei geht es um etwas anderes als Transparenz, denn selbst eine Offenlegung bestimmter Daten oder auch von Algorithmen – so selten das geschieht – würde in vielen Fällen nicht ausreichen, um die Funktionsweise eines derartigen Prozesses zu verstehen und seine Auswirkungen prüfen zu können. Gleichzeitig könnte die Durchsetzung einer solchen Forderung Schaden anrichten und wäre damit weder angemessen noch hilfreich.
Zum anderen wird „AlgorithmWatch” gesellschaftsrelevante Technologien, die mit automatisierten Entscheidungen im Zusammenhang stehen, unter die Lupe nehmen. Etwa wenn es um hoheitliche Aufgaben, wie Polizeiarbeit bei „Predictive Policing“ oder die automatisierte Vorprüfung von Visumanträgen geht, müssen demokratisch Standards gewahrt bleiben.
Demokratische Gesellschaften haben daher die Pflicht, diese Nachvollziehbarkeit von ADM-Prozessen herzustellen, sobald sie eine bestimmte Eingriffstiefe erreichen. Das kann durch eine Kombination aus Technologien, Regulierung und geeigneten Aufsichtsinstitutionen erreicht werden. Die Initiatoren von „AlgorithmWatch“ werden dazu beitragen, Vorschläge dafür zu entwickeln.
Im Web: http://algorithmwatch.org (wird freigeschaltet zum Lightning Talk von Prof. Zweig auf der rpTEN am 4. Mai um 16.15 Uhr - https://re-publica.de/en/16/session/democracy-age-algorithms)
Die Initiatoren
„AlgorithmWatch“ wurde von vier Personen initiiert:
- - Lorena Jaume-Palasí, Philosophin, LMU München
- - Lorenz Matzat, Datenjournalist, Lokaler Infosystems
- - Matthias Spielkamp, Journalist, iRights.Lab