Accountable Federated Machine Learning für die deutsche öffentliche Verwaltung
Im Projekt AFML im Center for AI wird ein Prototyp entwickelt, welcher das Trainieren von Modellen zur Klassifizierung von Bürgerideen anhand von föderiertem maschinellem Lernen (FML) ermöglicht. Dabei wird trotz der Dezentralität eine Nachweisbarkeit und Verifizierbarkeit des Prozesses und der Einhaltung von Kriterien (u.a. Datenschutz, Sicherheit, Datenverzerrung) der entstehenden Ergebnisse sicherstellt. Als Grundlage dienen Daten und Modelle im Kontext von Bürgerbeteiligung, mit deren Hilfe unterschiedliche Beiträge von Bürger*innen nach Themen maschinell gruppiert wurden.
Die mit diesem Vorgehen entstandenen Modelle sollen über Stadtgrenzen hinweg genutzt und weiter trainiert werden. Dies soll jedoch ohne einen direkten Austausch von Daten zwischen den Beteiligten geschehen, indem das Modell jeweils lokal trainiert wird, und nur die entstehenden Änderungen in ein aggregiertes Modell überführt werden. Das Prinzip hierbei lautet: “Share Knowledge not Data“. Mit AFML werden einzelne Schritte und lokale Trainingsiterationen nachweisbar protokolliert, sodass die Ergebnisse verifiziert und Manipulationen oder Fehler erkannt werden können.
Federated Machine Learning (FML) ist ein vielversprechendes und spannendes Forschungsfeld im Bereich des maschinellen Lernens. Es ermöglicht Modelle dezentralisiert und lokal zu trainieren, und sie gleichzeitig übergreifend für die verschiedenen Beteiligten zu nutzen. Modelle auf der Basis großer Datenmengen zu trainieren soll auch in Bereichen möglich sein, in welchen kein Datenaustausch möglich ist.
Der Forschungsschwerpunkt liegt dabei derzeit auf dem Thema Secure & Privacy Preserving (Sicherheit & Wahrung der Privatsphäre). Im Projekt AFML soll dieses Konzept um die Komponente Nachweisbarkeit erweitert werden, sodass trotz des dezentralen Charakters von FML Verantwortlichkeiten definiert, Ergebnisse verifiziert und Manipulationen oder Fehler in einzelnen Prozessschritten erkannt werden können. Diese Erweiterung der aktuellen Forschung schafft Vertrauen in dezentral trainierte ML-Modelle.