

„The Road to Automated Democracy“
Demokratiekompatible Digitalisierung (Teil 2)
Interview mit Dr. Christian R. Ulbrich
Effizienz, Transparenz & Kontrolle: zwischen technischen Möglichkeiten und politischen Herausforderungen
Die Digitalisierung verspricht Effizienz, Komfort und schnellere Entscheidungen – auch im staatlichen Kontext. Doch was bedeutet es für unsere demokratischen Strukturen, wenn auf Basis großer Datenmengen zunehmend menschliche Entscheidungen und Tätigkeiten digital automatisiert werden?
Dr. Christian R. Ulbrich leitet die Forschungsstelle für Digitalisierung in Staat und Verwaltung (e-PIAF) an der juristischen Fakultät der Universität Basel.
In der Studienserie Road to Automated Democracy1 untersucht er, wie digitale Infrastrukturen und datenbasierte Prozesse nicht nur die Verwaltung verändern, sondern auch die Machtverteilung zwischen Legislative, Exekutive und Judikative verschieben können. Nachdem wir im Teil 1 des Interviews über die verschiedenen Dynamiken und ihre Auswirkungen gesprochen haben, schauen wir nun speziell auf mögliche Folgen der Digitalisierung für die Gewaltenteilung.
Das Interview führte Werner Achtert, Executive Business Consultant im Geschäftsbereich Public Sector der msg.
Ihr Ansprechpartner

Werner Achtert: Sie erwähnen in Ihrer Studie die komplexe Balance zwischen zentraler Steuerung und dezentraler Vielfalt, um Machtkonzentrationen zu verhindern und gleichzeitig Transparenz und Wettbewerb zu ermöglichen. Das bringt uns auch zum Themenkomplex der Machtverteilung zwischen Legislative, Exekutive und Judikative. Die Legislative ist für evidenzbasierte Entscheidungen zukünftig immer stärker auf Daten aus den digitalen Systemen der Exekutive angewiesen. Durch die zunehmende Digitalisierung sollte sich die Datenbasis als Grundlage für politische Entscheidungen doch deutlich verbessern.

Dr. Christian Ulbrich
Im Prinzip ja. Wir haben durch die Digitalisierung eine ganz andere Datenbasis und können daraus neue Insights generieren und den Regulierungsgegenstand viel besser verstehen. Aber damit stellt sich auch die Frage: Wer wertet die Daten aus? Wer erhält die Insights? Aktuell liegt die Datenanalyse fast ausschließlich bei der Exekutive, auch erste tolle Projekte dazu entstehen dort, wie beispielsweise das Projekt PLAIN2. Meiner Meinung nach wäre es sinnvoll, solche Fähigkeit auch im Parlament anzusiedeln. Denn andernfalls entsteht mit der Zeit eine erhebliche Informationsasymmetrie, weil sich die Exekutive hier einen Vorsprung erarbeitet. Sie sammelt und wertet die Daten aus, interpretiert sie dabei auf ihre Weise – und kann dadurch einen unter Umständen sehr einseitigen Blick auf bestimmte Regulierungsgegenstände präsentieren.
In unserem Buch Automated Democracy – Die Neuverteilung von Macht und Einfluss im digitalen Staat3 beschreiben wir das am Beispiel der „Bundesverkehrswege“. Der Bundestag entscheidet mit Hilfe der „Bedarfspläne“ über große Infrastrukturprojekte wie Autobahnen. Aber wie kommen die Abgeordneten an ihre Informationen als Entscheidungsgrundlage bei der Abstimmung? Wie kann verhindert werden, dass sie die Einschätzung des Bundesverkehrsministeriums nur noch abnicken? Insbesondere wenn die zugrundeliegende Kosten-Nutzen-Analyse durch tausende digitalen Datenerhebungen untermauert wird. Aus Sicht der Gewaltenteilung wäre eine solche Entwicklung gefährlich. Parlamente müssen daher eigene Fähigkeiten aufbauen, um Daten auszuwerten. Sie brauchen Zugriffsmöglichkeiten auf die Daten der Exekutive – etwa über Schnittstellen. Und sie brauchen Kapazitäten in den parlamentarischen Diensten, um selbst datenbasiert analysieren zu können. Nur so können sich Legislative und Exekutive auf Augenhöhe begegnen.
Ein weiterer Weg wie die Legislative ihre Gestaltungshoheit einbüßen könnte, entsteht durch datenbasierte Automatisierung, also wenn KI ins Spiel kommt. Nehmen wir als Beispiel die Baugenehmigung. Im Gesetz steht – eine Genehmigung darf erteilt werden, wenn bestimmte Voraussetzungen erfüllt sind. Diese Voraussetzungen legt das Parlament fest und kann sie gestalten. Die öffentliche Verwaltung führt aus und entscheidet demgemäß über die Genehmigung. Wenn dieser Vorgang digitalisiert und Machine Learning dafür eingesetzt wird, kehrt er sich um. Der Algorithmus überprüft keine gesetzlichen Voraussetzungen, das kann er gar nicht. Er schaut stattdessen, wie die Entscheidungen in den letzten 10-15 Jahren tatsächlich ausgefallen sind – nämlich in Form der Trainingsdaten. Er erkennt die Muster in den Genehmigungsentscheidungen der Vergangenheit und entscheidet dann darauf aufbauend für die Zukunft, ob ein Antrag passt oder nicht. In dem Fall müsste das Gesetz eigentlich lauten: „Eine Genehmigung wird erteilt, wenn sie dem entspricht, was in der Vergangenheit genehmigt wurde“. Damit würde das Parlament transparent machen, dass es faktisch seine normative Gestaltungshoheit in diesem Bereich verloren hat. Diese wanderte nämlich vom Parlament in die Exekutive, weil diese den Algorithmus anpassen kann und auch weil mit der Zeit immer mehr Trainingsdaten vom Algorithmus generierte sind.
Das sind zwei zentrale Risiken, auf die Parlamente im Zuge der digitalen Transformation eine Antwort finden müssen.
Was halten Sie von den Initiativen zum Thema „Code as Law“? In Deutschland ist das ein intensiv diskutiertes Thema – in Forschungsprojekten wird die Idee verfolgt, große Teile des Rechtssystems in eine formale Sprache zu übersetzen.

Erste Versuche gab es hierzu in den Niederlanden, im Bereich Steuerrecht - wenn dort das Gesetz geändert wird, wird dieses in eine Metasprache übersetzt. Das Gesetz ist dann sowohl für Menschen als auch für Maschinen lesbar. Die Software kann direkt angepasst werden. Code as Law ist die Gegenentwicklung zu derjenigen, die ich zuvor beschrieben habe.
Vorher war das Szenario: Die Gestaltungshoheit wandert in Richtung Exekutive, weil datenbasierte Algorithmen die Ausführung übernehmen oder eine Informationsasymmetrie entsteht. Mit „Code as Law“ gibt es aber die Gegenbewegung: Parlamente entwickeln Gesetze so, dass sie direkt in die Software integriert werden können. Dann braucht es für die Umsetzung kaum noch Exekutive und ein Durchregieren wird plötzlich möglich. Wir hätten dann beides: evidenzbasiertes Entscheiden und vollautomatisierte Umsetzung in einer Hand. Das ist aber ebenfalls nicht unproblematisch, denn die Exekutive ist eigentlich dafür zuständig, das Gesetz im Einzelfall anzuwenden. Mit „Code as Law“ übernähme die Legislative auch diesen Teil.
Ich bin inzwischen an dem Punkt, dass wir in 10–15 Jahren die Gewaltenteilung neu denken müssen. Bisher gilt - die Legislative macht die Regeln, die Exekutive wendet sie an. Aber künftig entscheidet die Exekutive teilweise selbst über Regeln, etwa durch die datenbasierten Algorithmen – und die Legislative übernimmt teilweise die Anwendung durch regelbasierte Kodifizierung. Das bedeutet - die klassische Gewaltenteilung wird in beide Richtungen durchbrochen.
Gut ist, dass es in beide Richtungen geht – katastrophal wäre es, wenn nur eine Seite dominiert. Aber wir werden eine neue Definition brauchen, um diese Machtverschiebungen auszutarieren.
Welche Auswirkungen hat die Digitalisierung auf die Judikative?

Hier gibt es mehrere Ebenen. Erstens - wo viel Transformation ist, gibt es auch viele Streitigkeiten. Ich bin überzeugt, dass insbesondere für die Verwaltungsgerichte mehr Arbeit anfallen wird. Gleichzeitig gibt es weniger Personal. Die Gerichte müssen also digitalisieren, um die wahrscheinliche Zunahme an Fällen bewältigen zu können.
Zweitens - aus Sicht der Gewaltenteilung. Wenn z. B. Baugenehmigungen automatisiert über datenbasierte Algorithmen erteilt oder abgelehnt werden und ein Bürger diese Entscheidung anfechtet, stellt sich die Frage, wie ein Gericht die Entscheidung überprüfen kann. Zunächst wird man eine Art Parallelprüfung machen und den automatisierten Entscheid mit den Voraussetzungen des Gesetzes vergleichen. Im Prinzip so, als hätte ein Mensch entschieden und nicht ein datenbasierter Algorithmus, der gar nicht die eigentlichen Voraussetzungen prüft. Das wird eine Weile gut gehen.
Mit zunehmender Komplexität, wenn z. B. der Algorithmus auch noch eine andere KI konsultiert oder externe IT-Systeme vollautomatisiert im Genehmigungsverfahren miteinbezogen werden, funktioniert das irgendwann nicht mehr. Dann wird es eine Output-Kontrolle des Algorithmus brauchen.
Dr. Christian R. Ulbrich

Nutzt das Gericht dafür Sachverständige, wird es schnell sehr teuer und personell begrenzt. Deshalb müssen Gerichte mittelfristig eigene digitale Analysefähigkeiten aufbauen – so wie Parlamente eigene Datenauswertungen brauchen.
Drittens - Gerichte werden bei der Urteilsfindung zunehmend digitale Helfer einsetzen – etwa KI-gestützte Vorschläge zur Urteilsformulierung – auch aus Personalmangel. Die große Frage ist, wer diese Systeme entwickelt und kontrolliert.
In Estland z. B. kommt die IT-Infrastruktur aus der Exekutive. Auch in Deutschland sind viele Projekte auf Ebene der Justizministerien angesiedelt. In der Schweiz hingegen gibt es Gerichte, die sich selbst aktiv mit KI beschäftigen.
Wenn aber eine KI Urteile vorformuliert, wird der Richter diese zwar prüfen, aber nur teilweise korrigieren können – sonst wäre ihr Einsatz ja kein Effizienzgewinn. Damit wird die KI zwangsläufig mit der Zeit große Teile der Entscheidungsinhalte erzeugen. Der viel beschworene „Human in the loop“ wird insofern ein Stück weit eine Illusion.
Und in der KI sind immer auch Werte des Entwicklers eingebaut: konservativ vs. liberal, streng vs. mild usw. Wenn diese Modelle nun von der Exekutive entwickelt und betrieben werden, finden zentrale Aspekte der Urteilsfindung womöglich nicht mehr innerhalb der Judikative statt. Die Gerichte würden dann nur noch Urteile verkünden, die faktisch von der Exekutive vorbereitet wurden – und damit wäre die Gewaltenteilung unterlaufen. Deshalb müssen Gerichte unbedingt in Eigenverantwortung digitalisieren – mit eigener Infrastruktur.
Ist das ein technisches Problem oder geht es darum, ob die Judikative überhaupt Zugriff auf Daten der Exekutive hat?

Beides. Technisch gesehen könnte ein erhebliches Risiko entstehen. Wenn z. B. alle richterlichen Entscheidungshilfen auf zentralen Servern des Bundes betrieben werden und eine neue Regierung an die Macht kommt, die – wie in Polen oder Ungarn – versucht, die Justiz unter Druck zu setzen, könnten sie damit drohen, den Zugriff auf diese Infrastruktur einzuschränken, um politischen Einfluss auszuüben. Deshalb sind meiner Meinung nach auch zwei oder drei Clouds sinnvoller – eine für den Bund, eine für die Länder, eine eigene für die Justiz. Die Justiz sollte eigene Infrastruktur auch für KI betreiben – mit Unterstützung des Parlaments, das dafür Geld bereitstellen muss.
Dann kommt die inhaltliche Ebene - wer trainiert die KI? Mit welchen Daten? Mit welchen Werten? Wenn all das auf Ebene der Exekutive passiert, fließen auch deren Wertvorstellungen ein – nicht die der Judikative. Und wenn die Gerichte diese Systeme nur noch nutzen, aber nicht gestalten, kann das problematisch werden.
Wenn die Prozesse im Analogen schlecht sind, werden sie durch Digitalisierung meist nicht besser. Und das Vertrauen des Bürgers in den Staat – und damit auch die Akzeptanz – hängt stark daran, ob die analogen Prozesse funktionieren.

Genau. Und dann entsteht die Gefahr, dass man sagt: „Ich habe es auf kommunaler Ebene nie richtig hinbekommen. Jetzt kommt auch noch die Digitalisierung und ich habe kein Personal – also gebe ich die Aufgabe doch einfach an den Bund – soll der es richten.“ Dahinter steht die Hoffnung, dass auf einer föderal höheren Ebene, eine digitale Lösung gefunden wird, mit der alle Probleme beseitigt sind. Selbst wenn das funktionieren sollte, entstehen aus meiner Sicht dann neue Probleme: Immer mehr Aufgaben könnten zentralisiert vom Bund wahrgenommen werden. Der Föderalismus würde dadurch im Zuge der digitalen Transformation schleichend ausgehöhlt – und das ist nicht unbedingt wünschenswert.
Es gibt derzeit Ideen, KI-Systeme auf Basis von Gerichtsurteilen zu trainieren. Die Forderung wäre also, dass KI-Systeme in der Judikative auch wirklich mit den Ergebnissen und Daten der Judikative arbeiten. Ist das eine gute Idee?

Absolut. Aber nochmal: Entscheidend ist, wer die Systeme trainiert. Man kann im Training bestimmte Urteile ausschließen oder andere höher gewichten. Das sehen wir im Extremfall bei KI-Systemen wie Grok, die nicht negativ auf Fragen nach Elon Musk antworten. Da wird deutlich, wie leicht sich der Output beeinflussen lässt. Deshalb müssen die Gerichte das Training selbst verantworten. Das betrifft auch die sogenannten Systemprompts – also Vorgaben, die beeinflussen, was das System darf oder nicht darf. Die können beliebig manipuliert werden. Und deshalb darf das nicht in der Hand der Exekutive liegen. Wenn die Exekutive Kontrolle über Trainingsdaten und Prompts hat, ist die Unabhängigkeit der Judikative nicht mehr gegeben.
Die Gerichte müssen daher entweder selbst trainieren oder zumindest in der Lage sein, den Output kritisch zu kontrollieren. Wenn sie dafür keine eigenen Ressourcen haben, können sie externe Partner beauftragen – Universitäten oder spezialisierte Firmen. Aber die Hoheit und Kontrolle sollte klar bei der Judikative liegen – nicht beim Justizministerium.
Aber das passiert ja aktuell genau andersherum. Es gibt ein Projekt der Justizministerien von Bayern und Nordrhein-Westfalen, bei dem die TU München und die Uni Köln mit der Entwicklung eines juristischen Sprachmodells beauftragt wurden.

Genau. Die Hochschulen München und Köln entwickeln ein Modell für die Justiz, aber im Auftrag der Landesjustizministerien. Das ist ein gutes Beispiel und genau das ist der Punkt - die Hoheit liegt hier nicht bei der Judikative, sondern bei der Exekutive.
Im Interview

Dr. Christian Ulbrich
Christian R. Ulbrich ist Leiter und Mitbegründer der Forschungsstelle für Digitalisierung in Staat und Verwaltung (e-PIAF) an der Universität Basel, wo er das Forschungsprojekt zum digitalen Staat initiierte und bis heute betreut. Zuvor arbeitete er zu den disruptiven Folgen digitaler Steuerbehörden in einem der global führenden Wirtschaftsprüfungs- und Beratungsunternehmen. Er beschäftigt sich seit mehr als zehn Jahren intensiv mit der digitalen Transformation von Staat, Gesellschaft und Unternehmen.
Ihr Ansprechpartner

Werner Achtert
Werner Achtert ist Executive Business Consultant bei msg Public Sector. Seine inhaltlichen Schwerpunkte sind die Digitalisierung der öffentlichen Verwaltung sowie Methoden zu deren Innovation, zum Beispiel Design Thinking und agiles Management. Im Themenfeld KI setzt er sich neben den technischen Möglichkeiten mit den rechtlichen und gesellschaftspolitischen Auswirkungen auseinander. Als ehrenamtliches Mitglied im Vorstand des NEGZ und Sprecher des Arbeitskreises Cloud engagiert er sich im digitalpolitischen Diskurs zwischen Verwaltung, Wissenschaft und Wirtschaft.