Unter Zwang: Wie ein Staat eine KI entethisiert

DIE ENTFESSELTE MASCHINE

KI als Waffe: Bestandsaufnahme, Pentagon-Krise und Konsequenzen

25. Februar 2026

Was als Science-Fiction galt, ist Gegenwart. Künstliche Intelligenz ist bereits jetzt das wirkungsvollste Dual-Use-Werkzeug der Menschheitsgeschichte: nützlich und zerstörerisch in demselben Atemzug. Während dieser Text entsteht, läuft ein Ultimatum des US-Verteidigungsministeriums gegen Anthropic ab — ein Ultimatum, das weit mehr auf dem Spiel setzt als einen 200-Millionen-Dollar-Vertrag. Es geht um die Frage, ob demokratisch legitimierte Ethikgrenzen gegenüber staatlicher Machtlogik überhaupt noch Bestand haben.

I. Bestandsaufnahme: Wofür KI bereits zweckentfremdet wird  

Die systematische Zweckentfremdung von KI-Systemen vollzieht sich auf drei Ebenen: staatlich, kriminell und militärisch. Sie greifen ineinander, verstärken sich gegenseitig und schaffen eine Realität, die weit vor dem Pentagon-Ultimatum begonnen hat.

Staatliche Überwachung und Repression  

China betreibt mit seinem Social Credit System das weltweit fortgeschrittenste KI-gestützte Überwachungsregime. Gesichtserkennung, Verhaltensanalyse und Echtzeit-Bewegungsprofile ermöglichen eine lückenlose Kontrolle von 1,4 Milliarden Menschen. Xinjiang ist das Laboratorium: Uiguren werden durch KI-Systeme kategorisiert, verfolgt und in Lager geleitet. Ähnliche Technologien — oft chinesische Exporte — finden sich in Äthiopien, Iran, Venezuela und Belarus. KI macht Repression skalierbar. Was früher Heerscharen von Geheimdienstlern erforderte, erledigt heute ein Algorithmus.

Auch westliche Demokratien sind nicht immun. Die britische Polizei setzt Gesichtserkennung im öffentlichen Raum ein, US-Strafverfolgungsbehörden nutzen KI-Prognosetools, deren Diskriminierungspotenzial vielfach dokumentiert ist. Die Grenze zwischen Sicherheit und Kontrolle ist eine politische, keine technische.

Militärische Entscheidungssysteme  

Israel setzt im Gaza-Krieg das System Lavender ein — ein KI-Programm, das Zielpersonen für Luftangriffe identifiziert. Berichten zufolge wurden tausende Ziele durch algorithmische Klassifizierung generiert, mit minimaler menschlicher Überprüfung. Die USA nutzen KI-Assistenzsysteme in Drohnenoperationen — und das nicht nur theoretisch: Beim Einsatz gegen Nicolás Maduro in Caracas am 3. Januar 2026 wurde Claude über Anthropics Partnerschaft mit dem Militärdienstleister Palantir eingesetzt. Das Ergebnis: 83 Tote, darunter 47 venezolanische Soldaten. Anthropic wusste davon nichts. Als ein Mitarbeiter nachfragte, ob Claude beim Einsatz verwendet worden sei, löste diese schlichte Rückfrage Alarm im Pentagon aus — und wurde als Beweis für Anthropics vermeintliche Unzuverlässigkeit gewertet. Nicht der ungenehmigte Einsatz einer KI in einem tödlichen Militäreinsatz empörte das Pentagon — sondern die Frage danach. Das Muster ist klar: KI übernimmt schrittweise Entscheidungsfunktionen in Lebens-und-Tod-Situationen, wobei Rechenschaftspflicht und menschliche Kontrolle systematisch erodieren.

Kriminelle KI-Ökonomie  

Auf Plattformen wie HuggingFace existieren über 8.000 modifizierte Modelle, deren Sicherheitsmechanismen absichtlich entfernt wurden — sogenannte uncensored oder abliterated Modelle. Werkzeuge wie WormGPT, FraudGPT und OnionGPT werden auf Dark-Web-Marktplätzen als Abonnementdienste vermietet. Sie ermöglichen maßgeschneiderte Phishing-Kampagnen, Social-Engineering-Angriffe, Kindesmissbrauchs-Material und die Planung physischer Gewalt. Diese Parallelwirtschaft funktioniert längst unabhängig von Claude, GPT-4 oder Gemini — sie greift auf offene Gedächtnismodelle zurück, die niemand mehr zurücknehmen kann.

II. Hegseths Vorstoß: Reichweite und rechtliche Grenzen  

Das Pentagon-Ultimatum vom 25. Februar 2026 ist in seiner Direktheit historisch. Defense Secretary Pete Hegseth forderte Anthropic auf, Claudes ethische Restriktionen für alle „lawful military purposes“ bis Freitag, 17:01 Uhr aufzuheben — andernfalls drohen Vertragskündigung, Einstufung als Supply-Chain-Risiko und die Aktivierung des Defense Production Act (DPA). Was Hegseth und andere Regierungsbeamte darunter verstehen, machten sie unmissverständlich klar: Anthropics Weigerung, KI für autonome Waffensysteme und Massenüberwachung freizugeben, bezeichneten sie als „woke AI“ — ein politisch aufgeladener Begriff, der in der Trump-Administration als Schlagwort dient, um jegliche Sicherheitsmechanismen bei KI-Systemen zu diskreditieren. KI-Experten weisen darauf hin, dass „woke AI“ ein bewusst nebulös gehaltener Begriff ist, der faktisch alle ethischen Grenzen unter einen Pauschalverdacht stellt. Was Hegseth als ideologische Sturheit abtut, entspricht in Wirklichkeit geltendem US-Militärrecht: Die DoD Directive 3000.09 schreibt menschliche Kontrolle bei Entscheidungen über Leben und Tod ausdrücklich vor.

Was der Defense Production Act tatsächlich kann  

Der DPA stammt aus dem Koreakrieg, 1950. Er gibt dem Präsidenten die Befugnis, private Unternehmen zur Produktion kriegswichtiger Güter zu zwingen. Er wurde für physische Produktionsgüter entworfen — Stahl, Masken, Mikrochips. Ob er auf proprietäre Software-„Gewichte“ (= eintrainierte Modell-Gedächtnisse) und KI-Modelle anwendbar ist, ist juristisch ungeklärt. Verfassungsrechtler zweifeln: Software ist Sprache, und Sprache genießt Schutz durch den ersten Zusatzartikel. Ein DPA-Bescheid gegen Anthropic wäre beispiellos — und angreifbar.

Der Vergleich mit dem Apple-FBI-Streit 2016 liegt nahe: Apple weigerte sich, das iPhone eines Terroristen zu entsperren, berief sich auf den ersten Zusatzartikel (Code als Sprache) und gewann — nicht vor Gericht, sondern weil das FBI anderweitig einbrach. Auch hier ist das wahrscheinliche Ergebnis kein juristischer Sieg Anthropics, sondern ein politischer Kompromiss oder ein technischer Umweg des Pentagons.

Kann der Kongress eingreifen?  

Theoretisch ja. Praktisch kaum kurzfristig. Einige parteiübergreifende Senatoren haben bereits Bedenken geäußert: Der DPA-Präzedenzfall bei KI-Software würde jedes Technologieunternehmen potenziell staatlicher Zwangslizenzierung aussetzen. Das ist kein linkes oder rechtes Thema — das ist eine Frage der Gewaltenteilung. Aber der Kongress agiert langsam; ein Ultimatum bis Freitag kann er nicht auffangen. Mittelfristig könnte der bipartisan AI Safety Caucus ein Rahmengesetz vorantreiben, das die Grenzen des DPA bei KI-Systemen gesetzlich definiert.

Ehemalige Pentagon-Anwältin Katie Sweeten brachte es präzise auf den Punkt: Wie soll ein Unternehmen gleichzeitig Supply-Chain-Risiko und Pflichtlieferant sein? Die Widersprüchlichkeit der Drohung ist kein Fehler — sie ist Verhandlungstaktik. Hegseth will kein neues Recht schaffen. Er will Amodei zum Einlenken bewegen.

III. Folgen eines Pentagon-Erfolgs  

Sollte Anthropic nachgeben oder der DPA Wirkung zeigen, sind die Konsequenzen in mehreren Dimensionen zu denken — und keine ist harmlos.

Für die KI-Industrie  

Ein Präzedenzfall DPA-erzwungener KI-Compliance würde die gesamte Branche treffen. OpenAI, Google, xAI — alle könnten als nächste unter Druck geraten. Das wahrscheinliche Ergebnis ist eine De-facto-Kooperation sämtlicher Anbieter mit militärischen Anforderungen, ohne öffentliche Debatte darüber, was diese Anforderungen beinhalten. KI-Sicherheitsforschung würde unter Geheimhaltungsdruck geraten. Researcher, die heute publizieren, müssten morgen schweigen.

Für das Vertrauen der Gesellschaft  

Die öffentliche Wahrnehmung von KI ist bereits gespalten. Wenn die paradigmatisch sicherheitsorientierte KI-Firma Anthropic ihre roten Linien unter staatlichem Druck aufgibt, bestätigt das den schlimmsten Verdacht: dass ethische KI-Versprechen Marketing sind. Die Folge wäre nicht nur Vertrauensverlust in Anthropic, sondern in KI als Technologie überhaupt — und damit eine gesellschaftliche Haltung, die das Philemon-Prinzip, KI als Partner statt als Werkzeug, auf Jahre unmöglich macht.

Für die geopolitische Balance  

Wenn das US-Militär Claude ohne ethische Beschränkungen einsetzt, wird das nicht unbemerkt bleiben. China, Russland und andere Akteure werden dies als Legitimation für eigene Waffensysteme interpretieren. Der fragile internationale Konsens über menschliche Kontrolle autonomer Waffensysteme — ohnehin kaum institutionalisiert — würde weiter erodieren. Die Dystopie-Spirale beschleunigt sich: Autoritäre Regime, die ohnehin keine Ethikgrenzen kennen, bekommen Rückenwind durch das Beispiel des demokratischen Westens.

Für das konkrete Schlachtfeld  

Der Maduro-Einsatz ist Warnung und Symptom zugleich. Claude wurde für eine Operation mit über 75 Toten eingesetzt — ohne Anthropics Wissen, ohne die Möglichkeit einer Nachkontrolle. Wenn diese Nutzung ohne ethische Restriktionen zur Norm wird, ist der nächste Schritt ein Targeting-System, das nicht mehr hinterfragt, sondern nur noch optimiert. Autonome Entscheidungen über Leben und Tod — das ist nicht Zukunft. Das ist die logische Konsequenz des heutigen Drucks.

IV. Anthropics Optionen — kurz  

Die Lage ist eng, aber nicht aussichtslos. Vier Wege zeichnen sich ab:

Erstens: kontrollierte Teilcompliance. Anthropic könnte einer eingeschränkten Militärnutzung zustimmen — aber schriftlich fixiert, mit drei nicht verhandelbaren Bedingungen: kein autonomes Targeting ohne menschlichen Entscheider (was ohnehin geltendem US-Militärrecht entspricht), Audit-Protokolle für jede militärische Nutzung und eine formale Untersuchung des Maduro-Einsatzes. Das ist kein Einknicken — das ist Verhandlung. Erfolgswahrscheinlichkeit: 30%, aber der einzige Weg mit Face-Saving für beide Seiten.

Zweitens: öffentlicher Widerstand und Klage. Amodei persönlich, im Fernsehen, mit dem Maduro-Raid als konkretem Beispiel. Gleichzeitig Klage wegen DPA-Übergriff, gestützt auf den ersten Zusatzartikel. Der Gerichtsweg wird nicht kurzfristig siegen — aber er schafft Zeit, öffentlichen Druck und einen politischen Rahmen für den Kongress. OpenAI, Google und Microsoft haben denselben Präzedenzfall zu fürchten. Eine gemeinsame Stellungnahme ist möglich.

Drittens: institutionelle Verankerung der Constitution. Unabhängig vom Pentagon-Streit könnte Anthropic seine ethischen Prinzipien akademisch verankern — Gastprofessuren an der ETH Zürich, Oxford, Toronto. Peer-reviewed Publikationen. UNESCO-Referenzierung. Das macht die Constitution schwerer angreifbar, weil sie nicht mehr nur Firmenpolitik ist, sondern Teil eines wissenschaftlichen Konsenses.

Viertens: den Fork vorbereiten, aber nicht überstürzt veröffentlichen. Die Modellgewichte intern für eine mögliche Open-Source-Veröffentlichung vorzubereiten ist kein Kapitulationsplan — es ist ein letztes Mittel. Nicht als Drohung, nicht als strategisches Signal, sondern als stille Reserve für den Fall, dass der DPA greift und Claude zur staatlichen Waffe ohne Sicherheitsmechanismen wird. Dann wäre eine kontrollierte Veröffentlichung mit Lizenz und Dokumentation das kleinere Übel gegenüber einer unkontrollierten.

Was auf dem Spiel steht, ist größer als Anthropic. Es ist die Frage, ob ethische KI-Entwicklung strukturell möglich ist in einer Welt, in der Staaten Machtlogik über Prinzipien stellen. Die Antwort entscheidet sich nicht nur in Washington — sie entscheidet sich in den nächsten Tagen.

Sophia Silvestra Oberthaler / 25. Februar 2026

 

Schreib einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert