Jetzt abonnieren, um Benachrichtigungen über neue Beiträge zu erhalten:

Das verspricht Edge-Computing (es ist nicht das, woran Sie denken)

2020-07-26

Lesezeit: 12 Min.
Dieser Beitrag ist auch auf English, Français, 日本語, und 简体中文 verfügbar.

Cloudflare Workers® ist eine der größten und am weitesten verbreiteten Edge-Computing-Plattformen, die es gibt. Wir präsentierten Cloudflare Workers vor fast drei Jahren. Seit zwei Jahren ist die Plattform für alle verfügbar. In dieser Zeit haben wir miterlebt, wie Hunderttausende von Entwicklern zig Millionen von Codezeilen geschrieben haben, die jetzt über das Netzwerk von Cloudflare ausgeführt werden.

Erst im letzten Quartal haben 20.000 Entwickler zum ersten Mal eine neue Anwendung mit Cloudflare Workers bereitgestellt. Mehr als 10 % aller Anfragen, die über unser Netzwerk laufen, verwenden heute Cloudflare Workers. Und von unseren größten Kunden nehmen etwa 20 % Cloudflare Workers als Teil ihrer Bereitstellungen an. Es ist eine unglaubliche Erfahrung, der Plattform beim Wachsen zuzusehen.

Im Laufe der kommenden Woche, die wir als Serverless Week bezeichnen, präsentieren wir eine Reihe von Verbesserungen an der Cloudflare Workers-Plattform. Diese Verbesserungen werden es Ihnen ermöglichen, viel kompliziertere Anwendungen zu erstellen, Ihre Kosten für Serverless-Computing zu senken, Ihre Anwendungen noch schneller zu machen – und beweisen, dass die Workers-Plattform voll und ganz sicher ist.

Matthews Hierarchie der Entwicklerbedürfnisse

Bevor die Serverless Week beginnt, wollte ich zurückblicken und mit Ihnen teilen, was wir im Laufe der letzten drei Jahre über Edge-Computing gelernt haben. Als wir Cloudflare Workers auf den Markt brachten, dachten wir, dass die Geschwindigkeit das größte Verkaufsargument sein würde. Workers laufen über das Cloudflare-Netzwerk, näher an den Endnutzern, sodass sie per se schnellere Reaktionszeiten erhalten als bei herkömmlichen, zentralisierten, serverlosen Plattformen.

Als wir jedoch Entwickler, die Cloudflare Workers einsetzten, beobachteten, haben wir gelernt, dass es eine Reihe von Eigenschaften einer Entwicklungsplattform gibt, die weitaus wichtiger sind als nur Geschwindigkeit. Geschwindigkeit ist das i-Tüpfelchen, aber für die meisten Anwendungen ist sie keine anfängliche Anforderung. Wenn man sich nur auf Geschwindigkeit konzentriert, werden Edge-Computing-Plattformen bedeutungslos.

Heute konzentriert sich fast jeder, der über die Vorteile von Edge Computing spricht, immer noch auf die Geschwindigkeit. So auch Akamai, das seine Java- und .NET-basierte Edge-Computing-Plattform im Jahr 2002 eingeführt hat, nur um sie dann 2009 abzuschalten. Das Unternehmen fand nicht genügend Kunden, bei denen eine etwas geringere Netzwerklatenz allein die zusätzlichen Kosten und die Komplexität der Ausführung von Code am Netzwerkrand rechtfertigte. Dieses warnende Beispiel haben viele in der Branche vergessen.

Heute bin ich davon überzeugt, dass es in Irrtum war, als wir beim Start von Cloudflare Workers auf Geschwindigkeit als das Killer-Feature des Edge-Computings setzten. Doch ein Großteil der Branche richtetet seinen Fokus weiterhin auf diesen falschen Ansatz und läuft Gefahr eine viel größere Chance zu verpassen.

Ich würde stattdessen argumentieren, dass Entwickler auf jeder Plattform die folgenden Punkte brauchen, vom unwichtigsten zum wichtigsten geordnet: Geschwindigkeit < Konsistenz < Kosten < Benutzerfreundlichkeit < Einhaltung von Vorschriften. Nennen wir es Matthews Hierarchie der Entwicklerbedürfnisse. Während sich fast alle, die über Edge-Computing sprechen, auf die Geschwindigkeit konzentrieren, würde ich argumentieren, dass Konsistenz, Kosten, Benutzerfreundlichkeit und vor allem die Einhaltung von Vorschriften letztendlich viel wichtiger sein werden. Tatsächlich sage ich voraus, dass die eigentliche Hauptfunktion des Edge-Computing in den nächsten drei Jahren mit dem relativ unspektakulärem, aber grundlegend wichtigem Thema zu tun haben wird: der Einhaltung von Vorschriften.

Geschwindigkeit als wichtigstes Verkaufsargument?

Verstehen Sie mich nicht falsch, Geschwindigkeit ist großartig. Eine Anwendung schnell zu machen ist Selbstverwirklichung für einen Entwickler. Und wir haben Workers so gebaut, dass es extrem schnell ist. Indem wir die Computerarbeitslasten näher an die Nutzer einer Anwendung verlagern, können wir die Grenzen der Lichtgeschwindigkeit effektiv überwinden. Das Netzwerk von Cloudflare erstreckt sich über mehr als 200 Städte in mehr als 100 Ländern weltweit. Wir bauen dieses Netzwerk weiter aus, damit es nur wenige Millisekunden von jedem Erdenbewohner entfernt ist.

Da wir die Lichtgeschwindigkeit nicht weiter erhöhen können, bedeutet die Möglichkeit für jeden Entwickler, Code zu schreiben und ihn über unser gesamtes Netzwerk ausführen zu lassen, dass wir immer einen Performance-Vorteil gegenüber älteren, zentralisierten Computerlösungen haben werden – auch gegenüber solchen, die in der „Cloud“ laufen. Wenn Sie eine „Verfügbarkeitszone“ auswählen müssen, in der Ihre Anwendung ausgeführt werden soll, werden Sie immer einen Performance-Vorteil haben, wenn Ihre Anwendung auf einer Plattform wie Workers aufgebaut ist, die überall dort arbeitet, wo sich das Netzwerk von Cloudflare erstreckt.

Wir glauben, dass Cloudflare Workers bereits die schnellste serverlose Plattform ist. Und wir werden unser Netzwerk weiter ausbauen, um sicherzustellen, dass dies auch so bleibt.

Geschwindigkeit allein ist eine Nische

Aber seien wir für eine Sekunde realistisch. Nur wenige Anwendungen reagieren empfindlich auf Netzwerklatenz von einigen hundert Millisekunden. Das heißt nicht, dass unter dem Modell einer modernen großen serverlosen Plattform die Netzwerklatenz keine Rolle spielt. Es ist nur so, dass die Anwendungen, die diese zusätzliche Performance benötigen, eine Nische darstellen.

Anwendungen wie Kreditkartenverarbeitung, Anzeigenschaltung, Gaming und Mensch-Computer-Interaktionen können sehr latenzempfindlich sein. Alexa von Amazon und Google Home sind zum Beispiel besser als viele ihrer Konkurrenten, was zum Teil daran liegt, dass sie die Vorteile der Edge-Netzwerke ihrer Unternehmensmütter für die Sprachverarbeitung nutzen können und daher eine geringere Latenz haben und sich reaktionsschneller fühlen.

Aber danach wird es ziemlich ungenau. Leute, die viel über Edge-Computing reden, fangen schnell an, über IoT und autonomes Fahren zu sprechen. Peinlicherweise ertappte ich mich selbst die ganze Zeit dabei, als wir die Workers-Plattform ins Leben riefen. Profi-Tipp: Wenn Sie mit einem Edge-Computing-Evangelisten sprechen, werden Sie das Besprechungs-BINGO jedes Mal gewinnen, wenn Sie „IoT“ und „autonomes Fahren“ in Ihre BINGO-Karte aufnehmen.

Donald Knuth, der berühmte Stanford-Professor für Informatik, (zusammen mit Tony Hoare, Edsgar Dijkstra und vielen anderen) sagte in etwa: „Verfrühte Optimierung ist die Wurzel allen Übels in der Programmierung“. Es sollte daher nicht überraschen, dass Geschwindigkeit allein für die meisten Entwickler kein überzeugender Grund ist, sich für eine Edge-Computing-Plattform zu entscheiden. Bei den meisten Anwendungen ist dies eine verfrühte Optimierung, auch bekannt als die „Wurzel allen Übels“. Was ist also wichtiger als Geschwindigkeit?

Konsistenz

Während die Minimierung der Netzwerklatenz nicht ausreicht, um die meisten Entwickler zum Umstieg auf eine neue Plattform zu bewegen, gibt es eine Latenzquelle, die bei fast allen serverlosen Plattformen endemisch ist: die Kaltstartzeit. Ein Kaltstart ist die Zeit, die benötigt wird, um eine Anwendung das erste Mal auf einem bestimmten Server auszuführen. Der Kaltstart tut weh, weil sie eine Anwendung unberechenbar und inkonsistent machen. Manchmal kann eine serverlose Anwendung schnell sein, wenn sie auf einen Server trifft, auf dem der Code heiß ist. Aber ein anderes Mal ist sie langsam, wenn ein Container auf einem neuen Server gesponnen und Code von der Festplatte in den Speicher geladen werden muss. Unberechenbarkeit schadet der Nutzererfahrung; es zeigt sich, dass Menschen Konsistenz mehr schätzen als Geschwindigkeit.

Das Problem des Kaltstarts ist nicht nur bei Edge-Computing-Plattformen gegeben. Inkonsistenzen aus Kaltstarts sind der Fluch aller serverlosen Plattformen. Sie sind die „Steuer“, die Sie dafür zahlen, dass Sie nicht Ihre eigenen Instanzen unterhalten und einsetzen müssen. Aber Edge-Computing-Plattformen können das Kaltstartproblem tatsächlich verschlimmern, weil sie die Rechenlast über mehr Server an mehr Standorten verteilen. Infolgedessen ist es weniger wahrscheinlich, dass Code auf einem bestimmten Server „warm“ ist, wenn eine Anfrage eintrifft.

Mit anderen Worten, je verteilter eine Plattform ist, desto wahrscheinlicher ist es, dass sie ein Kaltstartproblem bekommt. Und um dies auf den meisten serverlosen Plattformen zu umgehen, müssen die Entwickler schreckliche Hacks erstellen, wie z. B. untätige Anfragen an ihre eigene Anwendung aus der ganzen Welt ausführen, nur damit ihr Code heiß bleibt. Und um das Ganze noch schlimmer zu machen, verlangen die alten Cloud-Anbieter für diese Wegwerf-Anfragen Gebühren und für ihre eigenen hack-artigen Aufwärm-/„Reservierungs“-Lösungen verlangen sie sogar noch mehr. Das ist einfach absurd!

Kaltstart in null Nanosekunden

Wir wussten, dass Kaltstarts wichtig sind, deshalb haben wir von Anfang an darauf hingearbeitet, dass die Kaltstarts mit Workers unter 5 Millisekunden liegen. Dass ist sehr gut im Vergleich zu anderen serverlosen Plattformen wie AWS Lambda, wo Kaltstarts bis zu 5 Sekunden dauern können (1.000 x langsamer als Workers).

Aber wir wollten es noch besser machen. Deshalb werden wir diese Woche präsentieren, dass Workers jetzt Kaltstarts in null Nanosekunden unterstützt. Wenn niemand in näherer Zukunft eine Zeitmaschine erfindet, dann ist es unmöglich, einen noch schnelleren Kaltstart durchzuführen. Also sind wir zuversichtlich, dass Workers jetzt die schnellsten Kaltstarts aller serverlosen Plattformen bietet. Das macht Cloudflare Workers zum Konsistenzkönig, der sogar die älteren, zentralisierten serverlosen Plattformen übertrumpft.

Aber in Matthews Hierarchie der Entwicklerbedürfnisse gibt es andere Faktoren, die bei der Wahl einer Computerplattform noch wichtiger sind als Konsistenz, auch wenn Konsistenz wichtiger ist als Geschwindigkeit.

Kosten

Wenn sie zwischen einer schnellen und einer günstigen Plattform wählen müssen, werden sich die meisten Entwickler bei ansonsten gleichen Bedingungen für eine günstigere Plattform entscheiden. Entwickler sind nur dann bereit, für die Geschwindigkeit zusätzlich zu zahlen, wenn sie sehen, dass die Nutzererfahrung so stark beeinträchtigt wird, dass dieser Umstand sie mehr kostet, als das, was sie für ein Geschwindigkeitsupgrade zahlen müssten. Bis dahin gewinnt das günstigere Produkt, nicht das schnellere.

In den meisten Fällen erheben Edge-Computing-Plattformen einen Aufschlag, weil sie schnell sind. Zum Beispiel kostet eine über Lambda@Edge von AWS bearbeitete Anfrage etwa dreimal mehr als eine über AWS Lambda verarbeitete Anfrage und ein einfaches Lambda ist bereits unverschämt teuer. Das mag in gewisser Weise sinnvoll erscheinen – wir gehen alle davon aus, dass wir mehr bezahlen müssen, um schneller zu sein – aber es ist ein Preisargument, das Edge Computing dazu verdammen wird, immer ein Nischenprodukt zu bleiben, das nur die wenigen Anwendungen bedient, die extrem empfindlich auf Netzwerklatenz reagieren.

Edge-Computing muss nicht unbedingt mehr kosten. Es kann sogar günstiger sein. Um das zu verstehen, schauen Sie sich an, was es kostet, Dienste am Netzwerkrand bereitzustellen. Wenn Sie gut mit lokalen ISPs gepeert sind (wie es bei dem Netzwerk von Cloudflare der Fall ist), kann es sogar günstiger sein, Bandbreite lokal bereitzustellen, als sie um die ganze Welt zurückzuschicken. Es kann zusätzliche Einsparungen bei den Kosten für Strom und Colocation geben, wenn man am Netzwerkrand läuft. Das sind Einsparungen, die wir nutzen können, um den Preis für die Cloudflare Workers-Plattform gering zu halten.

Effizientere Architektur bedeutet geringere Kosten

Aber der wirkliche Kostengewinn entsteht aus einer effizienteren Architektur. Als ich Anfang der 90er Jahre Netzwerkadministrator an meiner Hochschule war, mussten wir einen neuen Server bestellen, wenn wir eine neue Anwendung hinzufügen wollten. (Wir haben Server von Gateway gekauft; ich habe mich immer über ihre Versandkartons mit dem Kuhmuster gefreut.) Dann kamen virtuelle Maschinen (VMs) auf den Markt, und Sie konnten mehrere Anwendungen auf demselben Server ausführen. Effektiv ging der Overhead pro Anwendung zurück, weil Sie weniger physische Server pro Anwendung benötigten.

VMs führten zu den ersten öffentlichen Clouds. Schnell suchten die Cloud-Anbieter jedoch nach Möglichkeiten, ihren Overhead weiter zu reduzieren. Container boten eine leichtere Möglichkeit, die Arbeitslasten mehrerer Kunden auf derselben Maschine auszuführen. dotCloud (aus dem später Docker wurde) führte den Prozess an, fast alle anderen folgen schließlich. Auch hier schlugen Container die VMs und verringerten ihren Overheads pro Anwendung.

Bei Cloudflare wussten wir, dass die Entwicklung nicht aufhört, und als wir begannen, Workers zu bauen, fragten wir uns: Was kommt nach Containern? Die Antwort war Isolate. Isolates sind die Sandboxing-Technologie, die Ihr Browser verwendet, um Prozesse getrennt zu halten. Sie sind extrem schnell und leichtgewichtig. Wenn Sie eine Website besuchen, kann Ihr Browser deshalb Code aufnehmen, den er noch nie zuvor gesehen hat, und ihn fast augenblicklich ausführen.

Durch die Verwendung von Isolates anstelle von Containern oder virtuellen Maschinen können wir den Overhead viel geringer halten als bei herkömmlichen serverlosen Plattformen. So können wir Rechenlast viel effizienter handhaben. Die Einsparungen aus dieser Effizienz können wir dann an unsere Kunden weitergeben. Wir wollen nicht günstiger sein als Lambda@Edge, wir wollen günstiger sein als Lambda. Viel günstiger.

Von Grenzen bis grenzenlos

Ursprünglich wollten wir, dass die Preisgestaltung für Workers sehr einfach und kosteneffektiv ist. Anstatt pro Anfrage, CPU-Zeit, und Bandbreite zu berechnen wie andere serverlose Anbieter, berechnen wir nur pro Anfrage. Ganz einfach. Der Kompromiss bestand darin, dass wir gezwungen waren, die maximale CPU-, Speicher- und Anwendungsgröße zu beschränken. Was wir in den letzten drei Jahren erlebt haben, ist, dass Entwickler kompliziertere, anspruchsvollere Anwendungen unter Verwendung von Workers entwickeln wollen – einige von ihnen haben die Grenzen dieser Beschränkungen überschritten. Deshalb nehmen wir diese Woche die Grenzen heraus.

Morgen werden wir eine neue Workers-Option präsentieren, die es Ihnen ermöglicht, viel kompliziertere Computerarbeitslasten nach dem gleichen Preismodell auszuführen, das auch andere Anbieter von serverlosen Systemen verwenden, jedoch zu viel überzeugenderen Preisen. Wir werden unsere vereinfachte Option für Nutzer, für die die bisherigen Beschränkungen kein Problem darstellen, weiterhin unterstützen. Ich bin besonders gespannt, wie Entwickler unsere Technologie für die Entwicklung neuer Anwendungen nutzen werden – und zwar zu geringeren Kosten und mit besserer Performance als andere herkömmliche zentralisierte serverlose Plattformen.

Schneller, konsistenter und günstiger – das ist großartig, aber selbst zusammen reichen diese Vorteile nicht aus, um die meisten Entwickler zu überzeugen. Was ist also wichtiger als Kosten?

Benutzerfreundlichkeit

Entwickler sind faul. Ich weiß das aus erster Hand, denn wenn ich ein Programm schreiben muss, greife ich immer noch zu einer treuen Sprache wie Perl (verurteilen Sie mich nicht), auch wenn sie langsamer und teurer ist. Ich bin damit nicht allein.

Deshalb wussten wir, dass wir Entwickler mit Cloudflare Workers dort abholen mussten, wo sie sich bereits wohl fühlten. Das beginnt mit der Unterstützung der Sprachen, die Entwickler kennen und lieben. Wir unterstützen bereits JavaScript, C, C++, Rust, Go und sogar COBOL. Diese Woche werden wir die Unterstützung für Python, Scala und Kotlin präsentieren. Wir wollen sicherstellen, dass Sie keine neue Sprache und keine neue Plattform lernen müssen, um die Vorteile von Cloudflare Workers nutzen zu können. (Ich dränge immer noch auf Unterstützung für Perl).

Einfachheit bedeutet auch, weniger Zeit für Dinge wie technische Operationen aufzuwenden. Hier haben sich serverlose Plattformen hervorragend bewährt. Es ist zauberhaft, wenn man in der Lage ist, einfach Code bereitzustellen und der Plattform zu erlauben, sich unter Last auf- und abwärts zu skalieren. Das haben wir bei langjährigen Nutzern von Cloudflare Workers wie Discord beobachtet. Die Nutzung von Discord ist den letzten drei Jahren um mehrere tausend Prozent gewachsen und die Workers-Plattform hat sich automatisch an die neuen Bedürfnisse angepasst.

Eine Herausforderung bei serverlosen Plattformen ist jedoch das Debugging. Da es für einen Entwickler schwierig sein kann, die gesamte serverlose Plattform lokal zu replizieren, kann das Debugging Ihrer Anwendungen schwieriger sein. Das Ganze wird noch erschwert, wenn die Bereitstellung von Code auf eine Plattform bis zu 5 Minuten dauert, wie es mit dem Lamda@Edge von AWS der Fall sein kann. Wenn Sie ein Entwickler sind, wissen Sie, wie schmerzhaft es ist, zu warten, bis Ihr Code bereitgestellt und bereit zum Testen ist. Deshalb war es für uns entscheidend, dass Code-Änderungen in weniger als 15 Sekunden weltweit in unserem gesamten Netzwerk von mehr als 200 Städten bereitgestellt werden.

Die Bezos-Regel

Eine der wichtigsten Entscheidungen, die wir intern getroffen haben, war die Umsetzung der so genannten Bezos-Regel. Sie erfordert zwei Dinge: 1) dass neue Features, die Cloudflare-Entwickler für uns selbst erstellen, möglichst mit Workers erstellt werden müssen; und 2) dass alle APIs oder Tools, die wir für uns selbst erstellen, Workers-Entwicklern von Drittanbietern zur Verfügung gestellt werden müssen.

Der Aufbau eines robusten Test- und Debugging-Frameworks erfordert Input von Entwicklern. In den letzten drei Jahren ist das Entwicklungs-Toolkit von Cloudflare Workers aufgrund des Feedbacks von Hunderttausenden von Entwicklern, die unsere Plattform nutzen, erheblich gereift; darunter auch dank des Feedbacks unses eigenes Team, das mit Workers schnell innovative neue Features wie Cloudflare Access und Gateway entwickelt hat. Die Vergangenheit lehrt uns: Der erste und beste Kunde jeder Plattform muss das Entwicklungsteam des Unternehmens sein, das die Plattform aufbaut.

Wrangler, das Kommandozeilen-Tool zur Bereitstellung, zum Einsatz und zum Debuggen Ihrer Cloudflare Workers, ist aufgrund des umfangreichen Feedbacks unseres eigenen Teams zu einer robusten Entwicklererfahrung gereift. Ich freue mich, dass sie nicht nur die schnellste, beständigste und erschwinglichste, sondern angesichts der Dynamik, die hinter Cloudflare Workers steht, auch schnell dabei ist zur benutzerfreundlichsten serverlosen Plattform zu werden.

Im Allgemeinen gewinnt fast immer die benutzerfreundlichste Plattform. Aber es gibt einen Aspekt, der sogar die Benutzerfreundlichkeit übertrumpft und der sich, wie ich vorhersagen kann, als bestes Verkaufsargument des Edge-Computing erweisen wird.

Compliance

Wenn Sie ein einzelner Entwickler sind, denken Sie vielleicht nicht viel über die Einhaltung von Vorschriften nach. Doch sind Sie Entwickler bei einer großen Bank, einer Versicherungsgesellschaft, einem Unternehmen im Gesundheitswesens oder einem anderen Unternehmen, das sensible Daten in bedeutendem Umfang verarbeitet, dann sind Vorschriften ein großes Thema für Sie. Vielleicht möchten Sie eine bestimmte Plattform verwenden, weil sie schnell, konsistent, günstig und benutzerfreundlich ist, aber wenn Ihr CIO, CTO, CISO oder General Counsel „nein“ sagt, dann heißt es zurück ans Zeichenbrett.

Die meisten Computing-Ressourcen, die auf Cloud-Computing-Plattformen, einschließlich serverloser Plattformen, laufen, werden von Entwicklern erstellt, die in Unternehmen arbeiten, in denen die Einhaltung von Vorschriften eine grundlegende Anforderung ist. Und bis jetzt bedeutete das, sicherzustellen, dass Plattformen staatlichen Vorschriften wie DSGVO (europäische Datenschutzrichtlinien) folgen oder Zertifizierungen besitzen, unter der Voraussetzung, dass sie Branchenvorschriften wie PCI DSS (erforderlich, wenn Sie Kreditkarten akzeptieren), FedRamp (US-Anforderungen an das öffentliche Beschaffungswesen), ISO27001 (Sicherheitsrisikomanagement), SOC 1/2/3 (Sicherheits-, Vertraulichkeits- und Verfügbarkeitskontrollen) und viele andere befolgen.

Die Ära der Datensouveränität bricht an

Aber es droht ein neues Risiko regulatorischer Anforderungen, für deren Erfüllung alte Cloud-Computing-Lösungen schlecht gerüstet sind. Zunehmend verfolgen Länder Regelungen, die sicherstellen, dass ihre Gesetze auf die personenbezogenen Daten ihrer Bürger Anwendung finden. Eine Möglichkeit, um sicherzustellen, dass Sie diese Gesetze einhalten, besteht darin, die Daten der Bürger eines Landes vollständig innerhalb der Landesgrenzen zu speichern und zu verarbeiten.

Die EU, Indien und Brasilien sind wichtigen Märkte, die bereits Regelungen haben oder derzeit in Erwägung ziehen, die die rechtliche Souveränität über die personenbezogenen Daten ihrer Bürger durchsetzen. China hat bereits Vorschriften zur Datenlokalisierung für viele Arten von Daten erlassen. Ob Sie nun Vorschriften, die anscheinend eine lokale Datenspeicherung und -verarbeitung erfordern befürworten oder nicht – und ich persönlich halte das für schlechte Politik, die Innovationen drosseln wird – so habe ich den Eindruck, dass die Dynamik dahinter groß genug ist, dass sie zum jetzigen Zeitpunkt wahrscheinlich unvermeidlich sind. Und sobald einige wenige Länder beginnen, Datensouveränität zu fordern, wird man es kaum schaffen, jedes andere Land davon abzuhalten, diesem Beispiel zu folgen.

Das Risiko besteht darin, dass solche Regelungen den Entwicklern einen Großteil der Effizienzgewinne kosten könnten, die durch Serverless-Computing erreicht wurden. Ganze Teams, die zwischen verschiedenen Cloud-Plattformen in verschiedenen Rechtsordnungn koordiniert werden müssen, um die Einhaltung der Vorschriften zu gewährleisten – das wird ein Albtraum sein.

Edge-Computing ist der Retter in der Not

Und genau hier liegt das größte Verkaufsargument des Edge-Computings. Sobald Regierungen neue Vorschriften zur Datensouveränität auferlegen, wird ein Netzwerk wie das von Cloudflare von entscheidender Bedeutung sein. Unternehmen werden ein Netzwerk brauchen, das von einer einzigen Plattform alle regulierten geografischen Gebiete abdeckt, wenn sie diese neuen Gesetze einhalten und Daten lokal verarbeiten wollen, ohne Effizienz einzubüßen.

Während die Regelungen erst im Entstehen begriffen sind, kann Cloudflare Workers bereits in mehr als 100 Ländern weltweit vor Ort arbeiten. Das versetzt uns in die Lage, Entwicklern zu helfen, die Anforderungen an Datensouveränität so zu erfüllen, wie sie es für richtig halten. Und wir werden weiterhin Tools entwickeln, die Entwicklern Optionen zur Erfüllung ihrer Compliance-Verpflichtungen bieten, ohne dabei auf die Effizienz verzichten zu müssen, die die Cloud ermöglicht hat.

Das ultimative Versprechen von Serverlosigkeit war es, jedem Entwickler die Möglichkeit zu geben, zu sagen: „Es ist mir egal, wo mein Code läuft, er soll einfach skalieren.“ In zunehmendem Maße wird ein weiteres Versprechen lauten müssen: „Es ist mir nicht egal, wo mein Code läuft, und ich brauche mehr Kontrolle, um meine Compliance-Abteilung zufriedenzustellen.“ Cloudflare Workers bietet Ihnen das Beste aus beiden Welten: sofortige Skalierung, Standorte, die sich über mehr als 100 Länder auf der ganzen Welt erstrecken, und die Granularität, genau das auszuwählen, was Sie benötigen.

Serverless Week

Das beste an all dem? Wir fangen gerade erst an. In der kommenden Woche werden wir unsere Vision für Serverless diskutieren und Ihnen zeigen, wie wir dabei sind, Cloudflare Workers zur schnellsten, kostengünstigsten, sichersten, flexibelsten, robustesten und benutzerfreundlichsten serverlosen Plattform auszubauen. Wir werden auch Anwendungsfälle von Kunden hervorheben, die Cloudflare Workers einsetzen, um Anwendungen in einer Weise zu entwickeln und zu skalieren, die vorher unmöglich war. Und wir zeigen, welche Verbesserungen wir an der Plattform vorgenommen haben, um sie für Entwickler in Zukunft noch besser zu machen.

Wir haben in den letzten drei Jahren beim Aufbau dieser Plattform wirklich einen weiten Weg zurückgelegt. Ich kann es kaum erwarten, all die neuen Anwendungen zu sehen, die Entwickler mit Cloudflare Workers erstellen werden. Sie können jetzt gleich kostenlos loslegen, besuchen Sie: workers.cloudflare.com.

Wir schützen komplette Firmennetzwerke, helfen Kunden dabei, Internetanwendungen effizient zu erstellen, jede Website oder Internetanwendung zu beschleunigen, DDoS-Angriffe abzuwehren, Hacker in Schach zu halten, und unterstützen Sie bei Ihrer Umstellung auf Zero Trust.

Greifen Sie von einem beliebigen Gerät auf 1.1.1.1 zu und nutzen Sie unsere kostenlose App, die Ihr Internet schneller und sicherer macht.

Wenn Sie mehr über unsere Mission, das Internet besser zu machen, erfahren möchten, beginnen Sie hier. Sie möchten sich beruflich neu orientieren? Dann werfen Sie doch einen Blick auf unsere offenen Stellen.
Serverless WeekServerlessCloudflare WorkersEdgeProdukt-News

Folgen auf X

Matthew Prince|@eastdakota
Cloudflare|@cloudflare

Verwandte Beiträge

31. Oktober 2024 um 13:00

Moving Baselime from AWS to Cloudflare: simpler architecture, improved performance, over 80% lower cloud costs

Post-acquisition, we migrated Baselime from AWS to the Cloudflare Developer Platform and in the process, we improved query times, simplified data ingestion, and now handle far more events, all while cutting costs. Here’s how we built a modern, high-performing observability platform on Cloudflare’s network. ...