Home »  Footers » Der Plan von DOGE, Menschen durch KI zu ersetzen, ist bereits im Gange

Share This Post

Aktuelle News / Featured Slider / Main Slider

Der Plan von DOGE, Menschen durch KI zu ersetzen, ist bereits im Gange

Der Plan von DOGE, Menschen durch KI zu ersetzen, ist bereits im Gange
Spread the love

Der Plan von DOGE, Menschen durch KI zu ersetzen, ist bereits im Gange

Screenshot-2025-03-11-um-8.30.29 Uhr

© Illustration: The Atlantic. Bildnachweis: pressureUA / Getty; Thanasis / Getty. Gepostet
von Matteo Wong über The Atlantic am 11. März 2025.

Eine neue Phase der Kürzungen und Umstrukturierungen im öffentlichen Dienst durch den Präsidenten und das Ministerium für Verwaltungseffizienz ist im Gange. Die Idee ist einfach. Die Idee besteht darin, mithilfe generativer KI Arbeiten zu automatisieren, die bisher von Menschen erledigt wurden.

Die Trump-Regierung testet den neuen Chatbot mit 1.500 Bundesangestellten und könnte ihn bereits diesen Freitag der gesamten Belegschaft zur Verfügung stellen. Das bedeutet, dass der Chatbot potenziell von mehr als 10.000 Mitarbeitern genutzt werden könnte, die für Verträge und Dienstleistungen im Wert von über 100 Milliarden US-Dollar verantwortlich sind. Dieser Artikel basiert auf Gesprächen mit mehreren aktuellen und ehemaligen GSA-Beamten, die mit der Technologie vertraut sind und um Anonymität baten, um vertrauliche Informationen zu besprechen. Es basiert auf internen GSA-Dokumenten, die ich überprüft habe, sowie auf der Codebasis der Software, die auf GitHub verfügbar ist.

Der Bot, den GSA-Beamte als Möglichkeit zur Produktivitätssteigerung für Bundesangestellte positioniert haben, ist Teil eines umfassenderen Plans von DOGE und seinen Verbündeten. Thomas Shedd, ein ehemaliger Tesla-Ingenieur, der vor Kurzem zum Direktor von Technology Transformation Services, dem IT-Zweig der GSA, ernannt wurde, sagte bei einer Vollversammlung im letzten Monat , dass die umfassenderen Pläne der Agentur weiterverfolgt würden und die Agentur eine „KI-First-Strategie“ propagiere . „Wie Sie wissen, schrumpft die Bundesregierung, und dennoch müssen weiterhin zahlreiche Programme existieren. Das bietet eine riesige Chance für die Technologie und Automatisierung, sich wirklich durchzusetzen“, sagte Shedd laut einer Aufzeichnung des Treffens, die mir vorliegt. Er schlug die Möglichkeit vor, behördenweit „Codierungsagenten“ einzusetzen . Dies bezieht sich auf KI-Programme, die im Auftrag von Menschen Code schreiben und möglicherweise bereitstellen können. Darüber hinaus sagte Shedd, dass KI „Vertragsanalysen durchführen“ könne, und erwähnte die Möglichkeit, die Software zur „Automatisierung“ der „Finanzfunktionen“ der GSA zu nutzen.

Ein kleines Technologieteam innerhalb der GSA namens 10x begann während der Amtszeit von Präsident Joe Biden mit der Entwicklung des Programms und sah es zunächst eher als Testgelände für KI denn als Produktivitätstool. Mit anderen Worten war es als ein Ort zum Experimentieren mit KI-Modellen für den Einsatz auf Bundesebene konzipiert, ähnlich wie private Unternehmen maßgeschneiderte KI-Tools für den Eigengebrauch entwickeln. Doch inmitten von Massenentlassungen (seit Elon Musk seinen Angriff auf die Regierung startete, haben Zehntausende Bundesangestellte gekündigt oder wurden entlassen) drängen DOGE-Unterstützer darauf, die Entwicklung des Tools zu beschleunigen und es als Business-Chatbot einzusetzen. Die Einführung des Chatbots wurde zuerst von Wired entdeckt, Einzelheiten zu seiner breiteren Verbreitung und der bisherigen Entwicklung der Software wurden vor diesem Artikel jedoch nicht gemeldet.

Das Programm hieß ursprünglich „GSAi“, ist intern aber mittlerweile als „GSA Chat“ oder einfach nur „Chat“ bekannt. In einer E-Mail, die GSAs Chief AI Officer, Zach Whitman, an einige der ersten Benutzer der Software schickte, beschrieb er das Programm als ein Tool, das beim „Entwerfen von E-Mails, Schreiben von Code und mehr“ helfen soll. In einem internen Leitfaden für Bundesangestellte heißt es, der GSA-Chatbot werde „Ihnen dabei helfen, Ihre Arbeit effektiver und effizienter zu erledigen.“ Die Schnittstelle des Bots, die ich in Aktion gesehen habe, ähnelt in Aussehen und Funktion der von ChatGPT und anderen ähnlichen Programmen. Der Benutzer gibt Zeichen in ein Eingabefeld ein und das Programm reagiert. Die GSA plant, KI schließlich auch in anderen Regierungsbehörden einzuführen, möglicherweise unter dem Namen „AI.gov“. Das System ermöglicht Benutzern derzeit die Auswahl aus von Meta und Anthropic lizenzierten Modellen. Und obwohl die Mitarbeiter der Agentur derzeit keine Dokumente in den Chatbot hochladen können, wird dies in Zukunft wahrscheinlich möglich sein, sagte ein GSA-Beamter, der mit dem Projekt und dem Code-Repository des Chatbots vertraut ist. Das Programm könne zur Planung großer Regierungsprojekte, zur Bekanntgabe von Stellenabbau oder zur Abfrage zentraler Datenbanken für Bundesdaten verwendet werden, sagte mir ein GSA-Beamter.

Ein DOGE-Sprecher reagierte nicht auf eine Bitte um Stellungnahme. Der Pressesprecher des Weißen Hauses hat mich auch an die GSA verwiesen. Als Antwort auf eine detaillierte Liste von Fragen erklärte Will Powell, stellvertretender Sprecher der GSA, in einer per E-Mail versandten Erklärung: „Die GSA überprüft derzeit unsere verfügbaren IT-Ressourcen, um sicherzustellen, dass unsere Mitarbeiter ihre Aufgabe zur Unterstützung des amerikanischen Steuerzahlers erfüllen können.“ Außerdem führen wir „umfassende Tests durch, um die Wirksamkeit und Zuverlässigkeit aller unseren Mitarbeitern zur Verfügung stehenden Tools zu bestätigen.“

Mittlerweile ist der Einsatz von KI in der Wirtschaft alltäglich und der Chatbot der GSA wird möglicherweise keine dramatischen Auswirkungen auf die Regierungsgeschäfte haben. Dies ist jedoch nur ein kleiner Teil einer viel größeren Anstrengung, da DOGE weiterhin erhebliche Kürzungen im öffentlichen Dienst vornimmt. Im Bildungsministerium haben DOGE-Berater Berichten zufolge vertrauliche Daten über die Ausgaben der Abteilungen in ein KI-Programm eingespeist, um Bereiche zu identifizieren, in denen Einsparungen möglich sind. Berichten zufolge beabsichtigt DOGE, mithilfe von KI darüber zu entscheiden, ob Mitarbeiter in der gesamten Regierung ihre Arbeitsplätze behalten sollten. Bei einem anderen TTS-Treffen am vergangenen Wochenende (dessen Aufzeichnung ich mir angesehen habe) sagte Shedd, er rechne damit, dass die Abteilung innerhalb der nächsten Wochen „um mindestens 50 Prozent verkleinert“ werde. (TTS wird von dem Team betrieben, das GSA Chat entwickelt hat.) Und es besteht kein Zweifel, dass sich am Horizont noch kontroversere KI-Möglichkeiten abzeichnen. So plant das US-Außenministerium beispielsweise, mithilfe dieser Technologie die Social-Media-Beiträge von Zehntausenden Inhabern von Studentenvisa zu überprüfen, um die Visa von Studenten zu widerrufen, die mutmaßlich Terrorgruppen unterstützen, berichtet Axios .

 

Der überstürzte Einsatz generativer KI birgt bekannte Risiken. KI-Modelle weisen alle möglichen Verzerrungen auf, haben Probleme mit der sachlichen Genauigkeit, sind teuer und ihre Funktionsweise ist undurchsichtig. Auch wenn wir verantwortungsvoller mit der Technologie umgehen, können viele Probleme auftreten und sind auch schon aufgetreten. Die GSA schien diese Realität zu erkennen, als sie im vergangenen Sommer mit der Arbeit am Chatbot begann. 10x, ein kleines Technologieteam innerhalb der GSA, begann mit der Entwicklung der damals als „10x AI Sandbox“ bekannten Lösung. Anders als typische Chatbots ist die Sandbox als sichere und kostengünstige Umgebung für Bundesangestellte gedacht, in der sie erkunden können, wie KI sie bei ihrer Arbeit unterstützen kann, etwa durch das Testen von Eingabeaufforderungen oder das Entwerfen benutzerdefinierter Modelle, wie aus der Codebasis des Programms auf GitHub hervorgeht. „Das Grundprinzip dieser Arbeit besteht nicht darin, Ihnen zu zeigen, dass KI eine großartige Sache ist, die man für alles verwenden kann, sondern Sie zu ermutigen, KI in jedes erdenkliche Produkt einzubauen“, sagte ein 10x-Ingenieur in einem frühen Demovideo der Sandbox. „Vielmehr geht es darum, Ihnen eine einfache Möglichkeit zu bieten, mit diesen Tools zu interagieren und schnell Prototypen zu erstellen.“

Doch die von Präsident Donald Trump ernannten Personen machten sich offenbar kaum Gedanken über die möglichen Anwendungsmöglichkeiten der Technologie und trieben die schnelle Veröffentlichung der Software als Chat-Assistent voran. Zwar könnte sich KI in bestimmten Situationen möglicherweise als nützlicher Assistent für Bundesangestellte erweisen, wie es beispielsweise der Chatbot der GSA vorsieht. Angesichts der Tatsache, dass die Technologie dazu neigt, Präzedenzfälle zu schaffen, ist es jedoch durchaus möglich, dass dies nicht der Fall sein wird. Ein kürzlich pensionierter GSA-Beamter erklärte mir: „Sie wollen Vertragsdaten mithilfe künstlicher Intelligenz aggregieren, um sie auf potenziellen Betrug zu analysieren. Das ist ein bewundernswertes Ziel. Und wenn es möglich wäre, würden sie es bereits tun.“ Der Einsatz von KI „birgt ein sehr hohes Risiko für Fehlalarme“, sagte der Beamte und fügte hinzu: „Ich sehe keine Möglichkeit, dies zu verhindern.“ Auf einer Hilfeseite für Erstnutzer des Chat-Tools der GSA werden Bedenken hinsichtlich „Halluzinationen“ aufgeführt. Dies ist der Branchenjargon für KI, die selbstbewusst falsche Informationen als wahr darstellt. Außerdem wird darin von der „Verewigung voreingenommener Antworten und Stereotypen“ und „Datenschutzproblemen“ gesprochen, und die Mitarbeiter werden angewiesen, keine personenbezogenen Daten oder sensiblen, vertraulichen Informationen einzugeben. Es ist nicht angegeben, wie diese Warnungen durchgesetzt werden.

Natürlich experimentieren Bundesbehörden seit Monaten mit generativer KI. So unterzeichnete die GSA beispielsweise vor der Wahl im November einen Vertrag mit Google, um zu testen, ob KI-Modelle „Produktivität, Zusammenarbeit und Effizienz verbessern können“, wie aus einer öffentlichen Mitteilung hervorgeht. Das Ministerium für Innere Sicherheit, das Gesundheitsministerium, das Veteranenministerium und zahlreiche andere Bundesbehörden testeten vor der Amtseinführung Tools von OpenAI, Google, Anthropic und anderen Unternehmen. Die Entstehung einer Art Bundes-Chatbot ist wahrscheinlich unvermeidlich .

Aber das muss nicht unbedingt so sein. Biden geht mit der Technologie vorsichtiger um. Die vorherige Regierung betonte in einem wegweisenden Erlass und den darauf folgenden bundesstaatlichen Richtlinien, dass der Einsatz von KI gründlichen Tests, strengen Kontrollmechanismen und Transparenz unterliegen müsse. Trump hob die Anordnung an seinem ersten Tag im Amt auf und das Weiße Haus erklärte später, sie führe zu einer „belastenden und unnötigen staatlichen Kontrolle“. Nun scheinen DOGE und die Trump-Administration zu versuchen, die gesamte Bundesregierung als Sandkasten zu nutzen, mit über 340 Millionen Amerikanern als potenziellen Testpersonen.

Share This Post

Leave a Reply

Your email address will not be published. Required fields are marked *

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

Zur Werkzeugleiste springen