Es wird viel Hoffnung darin gesetzt, dass Künstliche Intelligenz die öffentliche Verwaltung schlanker, schneller und effizienter zu machen. Allerdings ist KI nicht gleich KI – und auch kein Wundermittel zur Bewältigung aller Herausforderungen. Doktor Jasmin Janka, Head of Data Science, AI & Innovations bei Allgeier Public, erläutert, welche Arten von KI für die Verwaltung vielversprechend sind, welche Hürden es gibt und wo KI schon heute eingesetzt wird. Sie sieht in der KI das Potential, Routineaufgaben zu automatisieren und Mitarbeitende zu entlasten.
Jasmin, wir leben in einer Gegenwart, in der künstliche Intelligenz scheinbar überall präsent ist und schon übermorgen alles zu können scheint. Wissen wir, also diejenigen außerhalb der KI-Bubble, überhaupt noch, wovon die Rede ist? Die Debatte ist oft so polarisiert, von Buzzwords geprägt, so dass es den meisten von uns unmöglich ist, mitzuhalten. Wovon ist die Rede, wenn es heute um „Künstliche Intelligenz“ oder „KI“ geht?
Jasmin: Unter dem Begriff sammeln sich inzwischen so viele Technologien, Anwendungsmöglichkeiten und Ideen, dass es wirklich schwer ist, den Überblick zu behalten. Allgemein von „der KI“ zu sprechen, ist darum ein Stück weit irreführend. Zusätzlich unterscheidet man zwischen den Marketingversprechen und Visionen der Protagonisten der Szene und den tatsächlichen Anwendungsfeldern.
Aktuell sind vor allem zwei Technologien relevant, wenn von KI die Rede ist. Die eine Technologie ist das Machine Learning. Deren Prinzip ist es, mittels Algorithmen Muster in großen Datenmengen zu erkennen. Das bietet besonders im Bereich der Datenanalyse großen praktischen Mehrwert. Deutlich präsenter und viel mehr diskutiert ist allerdings die generative KI auf Basis von Large Language Modells (LLM).
Dann konzentrieren wir uns doch auf diese.
Jasmin: Das sind die Chatbots, Voicebots oder bildgenerierenden Systeme, an die man beim Begriff KI sofort denkt: Nutzerin oder Nutzer geben eine Anweisung in Alltagssprache, den sogenannten Prompt, ein und erhalten eine mehr oder weniger gute Antwort in Form von Texten, Bildern oder kurzen Filmsequenzen. Large Language Modells (LLM) generieren ihre Antworten auf Basis statistischer Wahrscheinlichkeiten. Sie berechnen also, welche Antwort am wahrscheinlichsten zu der gestellten Frage passt. Die Qualität der Eingabe bestimmt maßgeblich die Qualität der Ausgabe.
KI versteht nicht. Sie berechnet Wahrscheinlichkeiten.
Dem Prompten haftet noch immer etwas fast Magisches an. Vielleicht, weil wir uns alle schon mal daran versucht haben und nicht zum gewünschten Ergebnis gekommen sind. Wie formuliere ich als Nutzerin oder Nutzer einer generativen KI also einen guten Prompt?
Jasmin: Gute Prompts sind keine Magie, sondern Methode. Dazu gibt es inzwischen sehr viele Kurse, in denen man erklärt bekommt, wie richtiges Prompten geht. Wir bieten dazu ebenfalls Schulungen an, sowohl intern, um die Kolleginnen und Kollegen bestmöglich zu befähigen, als auch extern für unsere unseren Kundinnen und Kunden in Behörden und Unternehmen.
KI in der öffentlichen Verwaltung – Spielerei oder echte Hilfe?
Das bedeutet, dass Kollege KI also auch in den deutschen Amtsstuben angekommen ist?
Jasmin: Ja, gerade Anwendungen auf Basis von LLMs werden von vielen Kundinnen und Kunden angefragt und die Erwartungen zu den Möglichkeiten, die damit einhergehen, sind groß. Wir machen mit unseren Kundinnen und Kunden Use Case Discoverys, um gemeinsam herauszufinden, welche Vorteile der Einsatz einer generativen KI im Einzelfall bringen kann. Insgesamt verhält es sich so, dass in der öffentlichen Verwaltung tatsächlich viel im Bereich der Text- oder Spracherkennung läuft.
Kannst Du uns Beispiele für aktuelle Einsatzbereiche der generativen KI oder Chatbots im öffentlichen Dienst geben?
Jasmin: Es gibt bereits einige Chatbots, mit denen Bürgerinnen und Bürgern mit der Kommune oder mit der Verwaltung kommunizieren können. Diese basieren noch nicht zwangsläufig auf selbstlernenden Systemen, können aber spezifische Fragen beantworten. Sie sind mit Daten trainiert, die speziell auf ein Themengebiet beschränkt sind. Beispielsweise gibt es einen Chatbot, der bei der Bundesagentur für Arbeit im Einsatz ist und Bürgerinnen und Bürger dabei unterstützt, die richtigen Schritte zu gehen, wenn sie arbeitslos werden.
Wie stellt sich die Situation in Bezug auf den Datenschutz dar?
Jasmin: Das ist ein wichtiger Aspekt, den wir immer betrachten und beachten müssen, wenn wir Organe der öffentlichen Verwaltung zum Thema KI und der Nutzung von KI beraten und Empfehlungen aussprechen. Zum einen muss jede Verwendung konform mit dem gesamten Regelwerk rund um KI sein, also dem EU AI Act. Und auch die DSGVO muss eingehalten werden. Zusätzlich soll ein Chat-Bot, der mit Bürgerinnen und Bürgern agiert, auch die ‚richtigen‘ Antworten geben, und das, wenn möglich, nicht durch das Zitieren von Paragrafen.
Auch die IT-Sicherheit spielt eine wesentliche Rolle. Die meisten KI-Anwendungen benötigen sehr viel Rechenleistung. Da kommen die internen Rechenzentren der öffentlichen Verwaltung kaum mit. Es bietet sich also an, die Anwendungen in der Cloud zu betreiben. Um dabei den Datenschutz und die Sicherheit vor unbefugtem Eingriff in die internen Behördensysteme zu gewährleisten, gelten dabei strenge Richtlinien.

Bremst das den Einsatz von KI nicht aus?
Jasmin: Das lässt sich nicht ohne Weiteres verallgemeinern. Es ist ein Mehraufwand, sorgt aber gleichzeitig für höhere Sicherheitsstandards und den überlegten Einsatz von KI. Auch beim internen Einsatz von KI spielt der Datenschutz eine Rolle, lässt sich jedoch mit geringem Aufwand sicherstellen. LLMoin ist ein gutes Beispiel dafür. Der KI-Assistent stellt den Mitarbeitenden in der Verwaltung die Funktionalitäten eines LLM zur Verfügung. Es wird rein intern genutzt und überträgt keine Daten nach außen. Damit umgeht er die Schwierigkeiten, die sich bei der Benutzung eines öffentlich zugänglichen Chat Bots ergeben. Beispielsweise dürfen dort keine sensiblen Daten verarbeitet werden. Und auch durch den internen Einsatz in der Verwaltung werden diese Systeme stetig trainiert und lernen. Dadurch können sie bereits jetzt deutlich mehr als vor einigen Jahren.
KI ist nicht neutral – sie ist nur so fair wie ihre Daten
Man liest regelmäßig Meldungen, dass generative KI von rassistischen und sexistischen Vorurteilen und Klischees geprägte Antworten gibt oder derartige Inhalte produziert. Wie lässt sich das mit deren Einsatz in der öffentlichen Verwaltung und deren Anspruch auf eine objektive und vorurteilsfreie Behandlung vereinen?
Jasmin: Das ist leider ein immer wieder zu beobachtendes Problem. Die Ursache dafür ist in den Daten zu finden, mit denen die KI trainiert wird. Wenn in diesen Daten – bewusst oder unbewusst – Klischees oder Vorurteile stehen, passiert es, dass die KI genau diese übernimmt. Ein LLM kann die Inhalte ja nicht verstehen. Es kann lediglich berechnen, mit welcher Wahrscheinlichkeit ein Wort auf das andere folgt. Um ein plakatives Beispiel zu nennen: Trainiere ich ein LLM mit einem Satz wie „Andreas ist ein gut situierter Arbeitnehmer und Ahmed ist ein sehr schlecht situierter Arbeitnehmer oder ein Arbeitsloser“, dann errechnet die KI auf dieser Basis, dass das Wort „Andreas“ eher mit dem Begriff „gut situierter Arbeitnehmer“ in Verbindung zu bringen ist – und eben „Ahmed“ mit „Arbeitsloser“. Bei solchen Verzerrungen spricht man von sogenannten Biases. Um diese zu erkennen oder zu vermeiden, ist es wichtig, zum einen „saubere“ Daten für das Training zu verwenden. Denn eine KI ist nur so fair und vorurteilsfrei wie ihre Trainingsdaten. Und zum anderen muss transparent und nachvollziehbar sein, welche Daten das sind.
Was bedeutet das für das Training von eigener generativer KI für Unternehmen und Behörden? Was ist dabei zu beachten?
Jasmin: Es ist entscheidend, ethische Grundsätze konsequent zu berücksichtigen – etwa, dass eine KI keine bestehenden Vorurteile reproduzieren oder verstärken darf. Für das eigentliche Training bedeutet das, dass ein wesentlicher Teil der Arbeit darin besteht, die Trainingsdaten sorgfältig auszuwählen und gegebenenfalls entsprechend aufzubereiten.
Dass stereotype, sexistische und rassistisch gefärbte Trainingsdaten zu entsprechenden Antworten führen, ist eigentlich selbsterklärend. Aber solch offensichtlich ungeeigneten Trainingsdaten auszuschließen reicht nicht, stimmt’s?
Jasmin: Das stimmt. Manche Dinge, die für uns Menschen ganz selbstverständlich sind, versteht die KI einfach nicht. Das muss man bei der Auswahl und Aufbereitung von Trainingsdaten unbedingt berücksichtigen. Es ist zum Beispiel oft so, dass in Texten nur anfangs mit einem Satz die drei Geschlechtsformen, also männlich, weiblich und divers genannt werden. Für uns Menschen ist klar, dass sich der gesamte Text an alle Geschlechtsformen richtet. Für die KI nicht. Dieser eine kurze Satz, der nur am Anfang auftaucht und dessen Worte sich im nachfolgenden Text nicht regelmäßig wiederfinden, ist in der Gesamtheit der Wortmenge statistisch kaum relevant. Wenn ich mit so einem Datensatz trainiere, wird die KI aus Gründen der Übersichtlichkeit immer die männliche Form wählen. Und damit hat die KI schon nicht mehr vorurteilsfrei gelernt. Das sind Dinge, auf die man besonders achten muss. Dies gilt insbesondere für die öffentliche Verwaltung.
KI ersetzt keine Menschen. Sie kann Ihnen nur mehr Zeit für das Wesentliche geben.
Kommen wir vom Training zur konkreten Anwendung. Mit Künstlicher Intelligenz verbinden viele die Hoffnung, aber auch die Angst, vor der Automatisierung vieler Tätigkeiten: Was heute der Mensch macht, macht morgen die KI. Was ist da deiner Meinung nach dran?
Jasmin: Nun, Automatisierung an sich ist nichts Neues. Der Begriff bezeichnet alles, wo Arbeitsschritte automatisiert werden können. Es ergeben sich durch den Einsatz von Künstlicher Intelligenz natürlich neue Möglichkeiten. Zum Beispiel gibt es viele Abläufe in der Verwaltung, die regelmäßig anfallen und bei denen Sachbearbeiterinnen und Sachbearbeiter viel Zeit investieren müssen. Solche Vorgänge lassen sich gut automatisieren. Das entlastet Mitarbeitende und gibt ihnen mehr Zeit für wichtigere Tätigkeiten. Es bringt auch eine Steigerung der Produktivität mit sich, was stark dazu beiträgt, dem Fachkräftemangel entgegenzuwirken. Ein sehr gutes Beispiel für eine Automatisierung von Routineaufgaben ist die Robot Prozess Automation. Diese kann zum Beispiel aus den eingehenden Formularen, die eine Bürgerin oder ein Bürger an die Verwaltung schickt, die Daten extrahieren, auslesen und direkt in das zuständige Fachverfahren eintragen.
Besteht dabei für Bürgerinnen und Bürger nicht das Risiko, dass ihre Anliegen von der KI abgewiesen werden, zum Beispiel, weil diese die Schrift nicht lesen kann oder den Inhalt nicht versteht?
Jasmin: Das ist ein nachvollziehbares Bedenken. Es ist wichtig an der Stelle zu sagen, dass „automatisiert“ nicht „unkontrolliert“ bedeutet. Bei einem handschriftlich ausgefüllten Formular kann die KI, beziehungsweise die Automatisierungssoftware, nur unterstützend fungieren: Sie kann die Handschrift in digitalen Text umwandeln. Die Kontrolle des Endergebnisses und die Verantwortung liegen dabei aber bei einem Menschen. Die KI übernimmt hier im Prinzip die Tipparbeit.

Das ist aber nur eine Möglichkeit der Automatisierung. Es gibt auch eine nicht überwachte Variante, auch „Dunkelverarbeitung“ genannt. Diese bezieht sich auf die Prozesse, die komplett im Hintergrund laufen. Wenn ich exakte Daten von einem Fachverfahren in ein anderes Fachverfahren übertragen möchte, per Schnittstelle, dann ist das eine sogenannte Dunkelverarbeitung. Weil hier nur Daten übertragen werden, können dabei im Prinzip keine Fehler passieren, wie zum Beispiel vertauschte Buchstaben. Und auch wenn solche Prozesse unbeaufsichtigt laufen, werden sie protokolliert, damit alles nachvollzieh- und überprüfbar bleibt.
Für Bürgerinnen und Bürger entstehen durch den Einsatz von KI in der Verwaltung also keine zusätzlichen Risiken.
Lass uns dann doch einmal die Seiten wechseln: Wenn ich als verantwortliche Person in einer Verwaltung oder einem Unternehmen Prozesse mit Hilfe von KI automatisieren will, wie fange ich an?
Jasmin: In erster Instanz muss ich eine sogenannte Prozessaufnahme machen. Das heißt, man betrachtet eine Verwaltungsaufgabe und schaut sich wirklich von Anstoß bis Abschluss der Aufgabe den gesamten Vorgang an: Welcher Arbeitsschritt folgt auf den anderen? Was ist zu tun, wenn…? Wo treten Medienbrüche auf, etwa beim Übergang vom Papierformular in digitale Prozesse?
Alle diese Schritte werden dokumentiert und ergeben den eigentlichen Prozess. Das lässt sich inzwischen auch unterstützt durchführen, etwa wenn dieser Vorgang bereits vollständig digital abgebildet ist. Und genau diesen Ablauf kann ich mithilfe von sogenanntem Process Mining detailliert analysieren. Dieses Werkzeug wertet dann aus, an welchen Stellen der Prozess noch hakt, wo etwas digitalisiert werden sollte oder unnötig viel Zeit benötigt. Oft ist es ein Freigabeprozess, der den weiteren Ablauf blockiert – oder ein Übertragungsprozess, der einfach viel zu lange dauert. Mit modernen Mitteln und einfachen Tools können wir uns solche Prozesse genauer anschauen, wie effizient sie sind. Auf dieser Basis kann ich dann entscheiden, ob und vielleicht auch schon wie ich diesen Prozess mittels KI oder einer anderen Technologie automatisieren kann.
Dann weiß ich, wo ich aktuelle stehe. Aber noch nicht, wohin es geht, was es kostet und was es am Ende bringt.
Jasmin: Automatisieren um der Automatisierung willen oder weil es gerade eine neue Lösung gibt, ist weder zielführend noch nachhaltig oder ökonomisch sinnvoll. Es braucht immer eine klare Kosten-Nutzen-Abwägung. Durch Analysen unterstützen wir Unternehmen und Behörden dabei – toolgestützt oder ganz klassisch. Damit lässt sich einschätzen, an welchen Stellen sich eine Automatisierung tatsächlich lohnt und was die Umsetzung kostet. Und ob sie am Ende wirklich eine spürbare Entlastung für die Mitarbeitenden bringt.
Das ist aus meiner Sicht das Entscheidende beim Thema Automatisierung mit KI: Es geht nicht darum, den Menschen zu ersetzen, sondern ihn zu unterstützen. Das Ziel muss sein, Routinetätigkeiten zu automatisieren, damit Kolleginnen und Kollegen mehr Zeit für das Wesentliche haben – für den persönlichen Austausch, für Einzelfälle und für das Menschliche im Arbeitsalltag.

Dr. Jasmin Janka