Die politische und technologische Landschaft der Künstlichen Intelligenz (KI) erlebt derzeit tiefgreifende Erschütterungen. Das US-Unternehmen Anthropic steht unter erheblichem Druck der Regierung unter Donald Trump, nachdem es sich weigerte, seine Software uneingeschränkt für militärische Zwecke sowie Massenüberwachung zur Verfügung zu stellen. Infolgedessen stufte das Pentagon das Start-up als potenzielles Lieferkettenrisiko ein. Deutsche Digitalpolitiker, darunter Matthias Mieves (SPD), schlugen daraufhin in einem Brief an Bundeskanzler Friedrich Merz und EU-Kommissionspräsidentin Ursula von der Leyen vor, Anthropic nach Europa zu holen, um die technologische Souveränität der EU zu stärken.
Parallel dazu treiben führende KI-Entwickler ihre Produktinnovationen voran. Anthropic hat einen neuen Sprachmodus für sein Tool „Claude Code“ eingeführt, der es Entwicklern ermöglicht, Programmierbefehle direkt per Spracheingabe zu erteilen. OpenAI veröffentlichte unterdessen das Modell „GPT-5.3 Instant“. Diese Aktualisierung soll die Benutzererfahrung verbessern, indem sie auf moralisierende oder defensive Belehrungen verzichtet und stattdessen direktere und sachlichere Antworten liefert.
Trotz dieser Fortschritte warnen internationale Experten in einem umfassenden Sicherheitsbericht vor den existenziellen Gefahren der Technologie. Der Bericht betont, dass die rasanten Fähigkeiten der KI – insbesondere bei der Identifizierung von Software-Schwachstellen und der potenziellen Unterstützung bei der Entwicklung biologischer Waffen – eine strikte staatliche Regulierung und internationale Zusammenarbeit unumgänglich machen. Während die EU mit dem „AI Act“ bereits einen rechtlichen Rahmen geschaffen hat, dessen Transparenzregeln bis August 2026 vollständig greifen sollen, bleibt die globale Koordination eine Herausforderung.