Jetzt abonnieren, um Benachrichtigungen über neue Beiträge zu erhalten:

Entwicklung der Agentic Cloud: alles, was wir während der Agents Week 2026 angekündigt haben

2026-04-20

Lesezeit: 8 Min.
Dieser Beitrag ist auch auf English, 繁體中文, Italiano, 한국어, Español (Latinoamérica), Español, und 简体中文 verfügbar.

Heute geht unsere erste Agents Week zu Ende, eine Innovation Week, die ganz dem Zeitalter der Agenten gewidmet ist. Der Zeitpunkt hätte nicht passender sein können: Im vergangenen Jahr haben die Agenten die Arbeitsweise der Menschen rasch verändert. Coding-Agenten helfen Entwicklern, ihre Produkte schneller bereitzustellen als je zuvor. Support-Agenten bearbeiten Tickets von Anfang bis Ende. Forscher validieren innerhalb von Minuten Hypothesen zu Hunderten von Quellen. Und die Menschen setzen nicht nur einen Agent ein, sondern gleich mehrere parallel und rund um die Uhr.

Wie Cloudflare-CTO Dane Knecht und VP of Product Rita Kozlov in unserem Beitrag zur Einführung der Agents Week betonten, ist das potenzielle Ausmaß von Agents gewaltig: Wenn auch nur ein Teil der Wissensarbeiter weltweit jeweils einige Agents parallel einsetzt, braucht es Rechenkapazität für zig Millionen gleichzeitige Sitzungen. Das klassische Cloud-Modell, bei dem eine App viele Nutzer bedient, ist dafür nicht ausgelegt. Doch genau das wollen Entwickler und Unternehmen erreichen: Agents bauen, für Nutzer bereitstellen und im großen Maßstab betreiben.

Dorthin zu gelangen bedeutet, Probleme über den gesamten Stack hinweg zu lösen. Agents brauchen Compute, das von vollständigen Betriebssystemen bis hin zu schlanken Isolates skaliert. Sie brauchen Sicherheit und Identität, die direkt in ihre Ausführung integriert sind. Sie brauchen eine Agent-Toolbox mit den richtigen Modellen, Tools und dem nötigen Kontext, um echte Arbeit zu leisten. Und der von Agents erzeugte Code braucht einen klaren Weg vom Nachmittagsprototypen zur produktiven Anwendung. Schließlich muss sich auch das Web selbst anpassen, wenn Agents einen immer größeren Anteil des Internetverkehrs ausmachen — für das entstehende agentenbasierte Web. Wie sich herausstellt, war die containerlose, serverlose Compute-Plattform, die wir vor acht Jahren mit Workers eingeführt haben, wie für diesen Moment geschaffen. Seitdem haben wir sie zu einer vollständigen Plattform ausgebaut — und diese Woche haben wir die nächste Welle an Grundbausteinen veröffentlicht, die gezielt für Agents entwickelt wurden und genau um diese Herausforderungen herum aufgebaut sind.

Wir sind hier, um Cloud 2.0 – die Agentic Cloud – zu entwickeln. Eine Infrastruktur für eine Welt, in der Agents zu den primären Workloads gehören. 

Hier ist eine Übersicht über alles, was wir diese Woche angekündigt haben – damit Ihnen nichts entgeht.

Rechenleistung

Es beginnt mit Compute. Agents brauchen einen Ort, an dem sie laufen können — und einen Ort, an dem sie den von ihnen geschriebenen Code speichern und ausführen können. Nicht alle Agents brauchen dasselbe: Manche benötigen ein vollständiges Betriebssystem, um Pakete zu installieren und Terminalbefehle auszuführen, die meisten hingegen etwas Schlankes, das in Millisekunden startet und auf Millionen skaliert. Diese Woche haben wir die Umgebungen dafür bereitgestellt — ebenso wie einen neuen Git-kompatiblen Workspace für Agents:

Ankündigung

Zusammenfassung

Artifacts: Versionierte Speicherung, die Git-Kommandos versteht

Geben Sie Ihren Agenten, Entwicklern und Automatisierungen ein Zuhause für Code und Daten. Wir haben gerade Artifacts lanciert: Git-kompatiblen versionierten Speicher, der speziell für Agenten entwickelt wurde. Erstellen Sie viele zehn Millionen Repositories, forken Sie von jedem beliebigen Remote und übergeben Sie eine URL an jeden Git-Client.

Agents bekommen ihre eigenen Computer – Sandboxes jetzt allgemein verfügbar

Cloudflare Sandboxes bieten KI-Agents eine stabile, isolierte Umgebung: einen echten Computer mit einer Shell, einem Dateisystem und Hintergrundprozessen, der bei Bedarf startet und genau dort weiter macht, wo er aufgehört hat.

Dynamisch, identitätsbasiert und sicher: Egress-Kontrollen für für Sandboxes

Outbound Workers für Sandboxes bieten einen programmierbaren Zero-Trust-Egress-Proxy für KI-Agents. Dies erlaubt es Entwicklern, Anmeldeinformationen einzufügen und dynamische Sicherheitsrichtlinien durchzusetzen, ohne sensible Token für nicht vertrauenswürdigen Code preiszugeben.

Durable Objects in Dynamic Workers: Geben Sie jeder KI-generierten App eine eigene Datenbank

Durable Object Facets ermöglicht Dynamic Workers die Instanziierung von Durable Objects mit ihren eigenen isolierten SQLite-Datenbanken. Dies erlaubt es Entwicklern, Plattformen zu entwickeln, die on-the-fly generierten, zustandsbehafteten Code persistent ausführen.

Neugestaltung der Workflows-Steuerungsebene für das agentische Zeitalter

Cloudflare Workflows, eine dauerhafte Execution Engine für mehrstufige Anwendungen, unterstützt nun durch eine neu gestaltete Steuerungsebene 50.000 gleichzeitige Ausführungen und ein Erstellungslimit von 300 und hilft dabei, die Skalierung für Anwendungsfälle dauerhafter Hintergrundagents zu gewährleisten.

BLOG-3239 2

Sicherheit

Agents und ihr Code auszuführen ist nur die halbe Herausforderung. Agents verbinden sich mit privaten Netzwerken, greifen auf interne Dienste zu und handeln eigenständig im Namen von Nutzern. Wenn jeder in einem Unternehmen eigene Agents aufsetzen kann, darf Sicherheit kein nachträglicher Gedanke sein — sie muss der Standard sein. Diese Woche haben wir die passenden Tools vorgestellt, um genau das einfach zu machen.

Ankündigung

Zusammenfassung

Sichere nichtöffentliche Netzwerke für alle: Nutzer, Netzwerkknoten, Agenten und Workers – mit Cloudflare Mesh

Cloudflare Mesh bietet einen sicheren, privaten Netzwerkzugriff für Nutzer, Knoten und autonome KI-Agenten. Durch die Integration mit Workers VPC können Entwickler nun Agents begrenzten Zugriff auf private Datenbanken und APIs ohne manuelle Tunnel gewähren.

Verwaltetes OAuth für Access: Machen Sie interne Apps mit einem Klick bereit für Agents

Verwaltetes OAuth für Cloudflare Access hilft KI-Agents, sicher durch interne Anwendungen zu navigieren. Durch die Einführung von RFC 9728 können sich Agents im Namen von Nutzern authentifizieren, ohne unsichere Dienstkonten zu verwenden.

Absicherung nicht-menschlicher Identitäten: automatischer Entzug von Zugriffsrechten, OAuth und granulare Berechtigungen

Cloudflare führt scannbare API-Token, verbesserte Transparenz bei OAuth und die allgemeine Verfügbarkeit für ressourcenbezogene Berechtigungen ein. Diese Funktionen helfen Entwicklern bei der Implementierung einer echten Least-Privilege-Architektur und schützen gleichzeitig vor der Offenlegung von Anmeldedaten.

MCP-Einführung skalieren: Unsere Referenzarchitektur für MCP-Implementierungen in Unternehmen

Wir präsentieren die interne Strategie von Cloudflare für die Verwaltung von MCP mit Access, AI Gateway und MCP-Serverportalen. Außerdem führen wir den Code-Modus ein, um die Token-Kosten zu senken, und empfehlen neue Regeln für die Erkennung von Schatten-MCP in Cloudflare Gateway.

BLOG-3239 3

Agent Toolbox

Ein leistungsfähiger Agent muss denken und sich erinnern, kommunizieren und sehen können. Das heißt: Er braucht die richtigen Modelle, Zugriff auf die passenden Werkzeuge und den richtigen Kontext für die jeweilige Aufgabe. Diese Woche haben wir die grundlegenden Bausteine bereitgestellt — Inferenz, Suche, Gedächtnis, Sprache, E-Mail und einen Browser — die aus einem Agenten etwas machen, das tatsächlich Arbeit erledigt.

Ankündigung

Zusammenfassung

Projekt Think: Die nächste Generation von KI-Agenten auf Cloudflare entwickeln

Wir stellen eine Vorschau auf die nächste Version des Agents SDK vor – vom schlanken Baukasten bis hin zu einer umfassenden Plattform für KI-Agenten, die denken, handeln und persistieren.

Eine Stimme für Ihren Agent

Eine experimentelle Voice-Pipeline für das Agents SDK ermöglicht Sprachinteraktionen in Echtzeit über WebSockets. Entwickler können jetzt Agenten mit kontinuierlichem STT und TTS in nur etwa 30 Zeilen serverseitigem Code erstellen.

Cloudflare Email Service: jetzt als öffentliche Beta-Version. Bereit für Ihre Agenten.

Die Agenten werden Multi-Channel-fähig. Das bedeutet, dass Sie sie überall dort verfügbar machen müssen, wo sich Ihre Nutzer bereits befinden – auch im Posteingang. Der Cloudflare Email Service geht in die öffentliche Beta-Phase mit der Infrastrukturschicht, die dies einfach macht: Senden, empfangen und verarbeiten Sie E-Mails nativ über Ihre Agenten.

Die KI-Plattform von Cloudflare: Eine Inferenzebene für KI-Agenten 

Wir entwickeln Cloudflare zu einer einheitlichen Inferenzschicht für Agents weiter, über die Entwickler Modelle von mehr als 14 Anbietern aufrufen können. Zu den neuen Funktionen gehören ein Workers-Bindungen für die Ausführung von Modellen von Drittanbietern sowie ein erweiterter Katalog mit multimodalen Modellen.

Die Grundlage für den Betrieb von besonders großen Sprachmodellen schaffen

Wir haben einen eigenen Technologiestack entwickelt, um schnelle Large Language Models auf der Infrastruktur von Cloudflare auszuführen. Dieser Beitrag beleuchtet die technischen Kompromisse und Optimierungen, die nötig sind, um leistungsstarke KI-Inferenz zugänglich zu machen.

Unweight: So haben wir ein LLM 22 % komprimiert, ohne Abstriche bei der Qualität zu machen

Das Ausführen von LLMs im gesamten Cloudflare-Netzwerk erfordert, dass wir intelligenter und effizienter mit der Speicherbandbreite von GPUs umgehen. Deshalb haben wir Unweight entwickelt, ein verlustfreies Kompressionssystem für die Inferenzzeit, das den Modell-Footprint um bis zu 22 % reduziert, damit wir schnellere und kostengünstigere Inferenz als je zuvor bieten können. 

Agenten mit Gedächtnis: Wir präsentieren Agent Memory

Cloudflare Agent Memory ist ein verwalteter Dienst, der KI-Agenten einen permanenten Speicher bietet, mit dem sie sich langfristig das Wesentliche merken können, Unwichtiges vergessen und mit der Zeit immer smarter werden.

AI Search: die Suchfunktion für Ihre Agenten

AI Search: die Suchfunktion für Ihre Agenten. Erstellen Sie Instanzen dynamisch, laden Sie Dateien hoch und durchsuchen Sie Instanzen übergreifend mit hybrider Suche und Relevanz-Boosting. Erstellen Sie einfach eine Suchinstanz, laden Sie sie hoch und suchen Sie.

Browser Run: Ein Browser für Ihren Agent

Browser Rendering heißt jetzt Browser Run – mit Live View, Human-in-the-Loop, CDP-Zugriff, Sitzungsaufzeichnungen und viermal höheren Parallelitätslimits für KI-Agenten.

BLOG-3239 4

Prototyp bis zur Produktion

Die beste Infrastruktur ist auch die, die sich leicht nutzen lässt. Wir wollen Entwickler und ihre Agenten genau dort erreichen, wo sie bereits arbeiten — im Terminal, im Editor oder direkt im Prompt — und die gesamte Cloudflare-Plattform ohne Kontextwechsel zugänglich machen.

Ankündigung

Zusammenfassung

CLI für Cloudflare entwickeln

Wir führen cf ein, eine neue, einheitliche CLI, die für die Konsistenz auf der gesamten Cloudflare-Plattform entwickelt wurde – zusammen mit Local Explorer zum Debuggen lokaler Daten. Diese Tools vereinfachen die Interaktion von Entwicklern und KI-Agenten mit unseren fast 3.000 API-Operationen.

Agent Lee – eine neue Schnittstelle für das Cloudflare-Stack

Agent Lee ist ein Agent im Dashboard, der die Cloudflare-Oberfläche von manuellem Tab-Wechsel zu einem einzigen Prompt verlagert. Mit sandboxed TypeScript unterstützt er Sie dabei, Ihre Infrastruktur zu analysieren und zu verwalten und fungiert als verlässlicher technischer Partner.

Wir präsentieren Flagship: Feature-Flags für das Zeitalter der KI

Wir führen Flagship ein – einen nativen Feature-Flag-Dienst, der auf dem globalen Netzwerk von Cloudflare aufsetzt und die Latenz von Drittanbietern beseitigen soll. Durch die Nutzung von KV und Durable Objects ermöglicht Flagship eine Evaluierung von Feature Flags im Sub-Millisekundenbereich.

Bereitstellen von Postgres- und MySQL-Datenbanken mit PlanetScale + Workers

Erfahren Sie, wie Sie PlanetScale Postgres- und MySQL-Datenbanken über Cloudflare bereitstellen und Cloudflare Workers verbinden können.

Registrieren Sie Domains, wo immer Sie entwickeln: Cloudflare Registrar API jetzt in der Beta-Phase

Die Cloudflare Registrar API ist jetzt in der Beta-Phase. Entwickler und KI-Agenten können direkt aus ihrem Editor, ihrem Terminal oder ihrem Agent nach Domains suchen und die Verfügbarkeit prüfen sowie Domains zum Selbstkostenpreis registrieren – ohne ihren Workflow zu verlassen.

BLOG-3239 5

Agentenbasiertes Web

Immer mehr Agents gehen online, bewegen sich dabei aber weiterhin in einem Internet, das für menschliche Nutzer entwickelt wurde. Deshalb brauchen bestehende Websites neue Tools, mit denen sie den Content-Zugriff für Bots steuern, Inhalte für Agents aufbereiten und einschätzen können, wie gut sie auf diese Veränderung vorbereitet sind.

Ankündigung

Zusammenfassung

Wir stellen den Agent-Readiness-Score vor. Ist Ihre Website bereit für Agenten?

Der Agent Readiness Score kann Website-Betreibern helfen, zu verstehen, wie gut ihre Websites KI-Agenten unterstützen. Hier beleuchten wir neue Standards, teilen Radar-Daten und erläutern, wie wir die Cloudflare-Dokumentation zur agentenfreundlichsten im Web gemacht haben.

Weiterleitungen für das KI-Training setzen kanonische Inhalte durch.

Unverbindliche Anweisungen hindern Crawler nicht daran, veraltete Inhalte aufzunehmen. Weiterleitungen für das KI-Training (Redirects for AI Training) ermöglicht es allen Cloudflare-Nutzern, verifizierte Crawler mit nur einem Schalter und ohne Änderungen am Ursprung zu kanonischen Seiten weiterzuleiten.

Agents Week: Update zur Netzwerk-Performance

Durch die Migration unserer Request-Handling-Schicht auf eine Rust-basierte Architektur namens FL2 hat Cloudflare seinen Performancevorsprung auf 60 % der weltweit führenden Netzwerke ausgebaut. Dabei nutzen wir Messungen mit echten Nutzern und TCP-Connection-Trimeans, um sicherzustellen, dass unsere Daten die tatsächliche Erfahrung von Menschen im Internet widerspiegeln.

Komprimierung durch gemeinsame Wörterbücher, die mit dem agentenbasierten Web Schritt hält

Wir geben Ihnen einen ersten Einblick in unsere Unterstützung für gemeinsam genutzte Komprimierungswörterbücher, zeigen Ihnen, wie dadurch die Seitenladezeiten verbessert werden, und verraten, wann Sie die Beta selbst ausprobieren können.

BLOG-3239 6

Und das war's dann auch schon!

Die Agents Week 2026 geht zu Ende, aber die Agentic Cloud fängt gerade erst an. Alles, was wir diese Woche eingeführt haben – von Compute und Sicherheit über die Agenten-Toolbox bis hin zum Agentic Web – ist die Grundlage. Wir werden weiter darauf aufbauen, damit Sie alles haben, um das zu entwickeln, was als Nächstes kommt.

Heute und morgen werden weitere Blog-Beiträge veröffentlicht, die weitere wichtige Informationen beinhalten werden. Halten Sie also Ausschau nach den neuesten Entwicklungen in unserem Blog.

Wenn Sie auf einem der Produkte aufbauen, die wir diese Woche angekündigt haben, würden wir gerne mehr darüber erfahren. Wir sind auf X, Discord und in der Entwicklerdokumentation zu finden.

BLOG-3239 7

Wir schützen komplette Firmennetzwerke, helfen Kunden dabei, Internetanwendungen effizient zu erstellen, jede Website oder Internetanwendung zu beschleunigen, DDoS-Angriffe abzuwehren, Hacker in Schach zu halten, und unterstützen Sie bei Ihrer Umstellung auf Zero Trust.

Greifen Sie von einem beliebigen Gerät auf 1.1.1.1 zu und nutzen Sie unsere kostenlose App, die Ihr Internet schneller und sicherer macht.

Wenn Sie mehr über unsere Mission, das Internet besser zu machen, erfahren möchten, beginnen Sie hier. Sie möchten sich beruflich neu orientieren? Dann werfen Sie doch einen Blick auf unsere offenen Stellen.
Agents WeekAgentsAIDurable ObjectsCloudflare WorkersSDKBrowser RunCloudflare AccessBrowser RenderingMCPEntwicklerplattformEntwicklerSandboxLLMCloudflare GatewayWorkers AIProdukt-NewsAPI

Folgen auf X

Ming Lu|/minglu
Anni Wang|/aninibread
Cloudflare|@cloudflare

Verwandte Beiträge

20. April 2026

The AI engineering stack we built internally — on the platform we ship

We built our internal AI engineering stack on the same products we ship. That means 20 million requests routed through AI Gateway, 241 billion tokens processed, and inference running on Workers AI, serving more than 3,683 internal users. Here's how we did it. ...