Wir geben bekannt, dass unsere Inferenzplattform Workers AI ab sofort allgemein verfügbar ist. Nach einer mehrmonatigen Open Beta-Phase haben wir die Zuverlässigkeit und Performance des Diensts optimiert, die Tarife veröffentlicht und viele weitere Modelle in unseren Katalog aufgenommen.
Höhere Performance und größere Zuverlässigkeit
Wir haben uns das Ziel gesetzt, KI-Inferenz mit Workers AI so zuverlässig und benutzerfreundlich zu gestalten wie das übrige Cloudflare-Netzwerk. Dazu haben wir die in Workers AI integrierte Lastverteilung optimiert. Anfragen können nun an mehr GPU in einer größeren Zahl von Städten weitergeleitet werden und jeder dieser Standorte kennt die gesamte verfügbare KI-Inferenzkapazität. Würde die Anfrage in der aktuellen Stadt in einer Warteschlange landen, kann sie stattdessen an einen anderen Standort weitergeleitet werden, sodass bei hohem Trafficaufkommen schneller Ergebnisse ausgegeben werden können. Außerdem haben wir das Limit der Durchsatzbegrenzung für alle unsere Modelle angehoben – für die meisten LLM liegt die Obergrenze jetzt bei 300 Anfragen pro Minute, gegenüber 50 Anfragen pro Minute in der Beta-Phase. Bei kleineren Modellen beträgt das Limit 1500–3000 Anfragen pro Minute. In der Entwickler-Dokumentation finden Sie die Limits für die Durchsatzbegrenzung der verschiedenen Modelle.
Beliebte Modelle werden günstiger
Abgesehen von der allgemeinen Verfügbarkeit von Workers AI haben wir Anfang des Monats einen Preisrechnerhttps://ai.cloudflare.com/ - pricing-calculator für unsere zehn Nicht-Beta-Modelle veröffentlicht. Wir wollten Workers AI zu einer der erschwinglichsten und am besten zugänglichen Inferenz-Lösungen machen. Deshalb haben wir unsere Modelle auf Erschwinglichkeit hin optimiert. So ist Llama 2 jetzt mehr als siebenmal billiger und Mistral 7B mehr als vierzehnmal günstiger im Betrieb als von uns am 1. März angegeben. Wir wollen auch in Zukunft die beste Plattform für KI-Inferenz sein und werden unseren Kunden weiterhin Optimierungen anbieten, wann immer dies möglich ist.
Zur Erinnerung: Seit dem 1. April sind unsere Nicht-Beta-Modelle von Workers AI kostenpflichtig. Die Beta-Modelle sind aber weiterhin kostenlos und unbegrenzt. Wir bieten allen Kunden 10.000 Neuronen pro Tag gratis an. Workers Free-Kunden, die innerhalb von 24 Stunden 10.000 Neuronen verwenden, haben damit ihr Kontingent erschöpft. Für Kunden, die eine kostenpflichtige Workers-Version verwenden, fällt bei Erreichung dieser Grenze eine Nutzungsgebühr von 0,011 US-Dollar für jeweils 1.000 zusätzliche Neuronen an. Die aktuelle Preisgestaltung können Sie der entsprechenden Entwickler-Dokumentation für Workers AI entnehmen.
Neues Dashboard und neuer Experimentierbereich
Zu guter Letzt haben wir das Dashboard von Workers AI und unseren AI-Experimentierbereich überarbeitet. Im Workers AI-Bereich des Dashboards von Cloudflare werden jetzt Nutzungsanalysen für alle Modelle angezeigt. Dazu zählen auch Neuronenberechnungen, anhand derer sich die Kosten besser vorhersagen lassen. Mit dem KI-Experimentierbereich können verschiedene Modelle schnell getestet und miteinander verglichen werden. Außerdem lassen sich damit Prompts und Parameter konfigurieren. Wir hoffen, dass diese neuen Tools Entwicklern die Arbeit auf Workers AI erleichtern. Probieren Sie sie doch einfach einmal aus!
\n
\n
Ausführung von Inferenzaufgaben auf GPU in über 150 Städten weltweit
Als wir im September 2023 Workers AI vorgestellt haben, war unser Folgeziel, in unseren Rechenzentren auf der ganzen Welt GPU einzusetzen. Bis Ende 2024 wollen wir fast überall GPU mit Inferenzfunktion verwenden, was uns zu der cloudbasierten KI-Inferenzplattform mit der größten Verteilung macht. Aktuell verfügen Standorte in mehr als 150 Städten über GPU und im Lauf des Jahres werden noch weitere Städte hinzukommen.
\n \n \n \n \n
Unsere nächste Generation von Compute-Servern mit GPU kommt im zweiten Quartal 2024 auf den Markt. Sie bietet eine höhere Performance, Energieeffizienz und Zuverlässigkeit als Vorgänger-Generationen. In einem Blogbeitrag vom Dezember 2023 haben wir einen Ausblick auf das Design unserer Compute-Server der 12. Generation gegeben. Weitere Details werden folgen. In Bezug auf die 12. Generation und zukünftige Hardware-Einführungen wollen wir als Nächstes Unterstützung für größere Machine Learning-Modelle und Feinabstimmung (Fine-Tuning) auf unserer Plattform anbieten. Dadurch werden wir einen höheren Durchsatz bei der Inferenz, eine geringe Latenz und eine größere Verfügbarkeit für Produktiv-Workloads erreichen und die Unterstützung auf neue Kategorien von Workloads wie Fine-Tuning ausweiten.
Wir freuen uns außerdem über die Fortsetzung unserer Partnerschaft mit Hugging Face, weil wir damit unserem Prinzip treu bleiben, unseren Kunden das Beste aus dem Bereich Open-Source anzubieten. Sie können sich jetzt einige der beliebtesten Modelle auf Hugging Face ansehen. Wenn das von Ihnen gewünschte Modell auf unserer Plattform verfügbar ist, brauchen Sie es nur anzuklicken, um es auf Workers AI auszuführen.
\n \n \n \n \n
Darüber hinaus haben wir im Rahmen unserer Kooperation mit Hugging Face vier weitere Modelle in unsere Plattform aufgenommen. Damit können Sie nun auf das neue Mistral 7B v0.2-Modell mit verbesserten Kontextfenstern, die feinjustierte Version von Mistral 7B von Hermes 2 Pro der Firma Nous Research, Gemma 7B von Google und die fein abgestimmte Starling-LM-7B-Betaversion von OpenChat zugreifen. Derzeit stehen für Serverless-GPU-Inferenz auf der Workers AI-Plattform von Cloudflare 14 Modelle zur Verfügung, die wir alle gemeinsam mit Hugging Face ausgewählt haben. Weitere werden bald folgen. Diese Modelle werden alle mit der Technologie von Hugging Face und einem TGI-Backend bereitgestellt. Wir arbeiten bei der Kuratierung, Optimierung und Bereitstellung dieser Modelle eng mit dem Team von Hugging Face zusammen.
\n \n \n \n \n
„Wir freuen uns, gemeinsam mit Cloudflare auf eine bessere Zugänglichkeit von KI für Entwicklerinnen und Entwickler hinzuarbeiten. Die beliebtesten frei zugänglichen Modelle mit einer Serverless-API nutzen zu können, die auf ein globales GPU-Netz zurückgreifen kann, ist ein fantastisches Angebot für die Hugging Face-Community. Ich bin schon gespannt, was diese damit alles erschaffen wird.“‑ Julien Chaumond, Mitgründer und CTO von Hugging Face
Sie finden alle von Workers AI unterstützen, frei verfügbaren Modelle in dieser Hugging Face-Sammlung. Die Schaltfläche „Deploy to Cloudflare Workers AI“ befindet sich oben auf jeder Modellkarte. Mehr erfahren Sie in diesem Blogbeitrag von Hugging Face. Hilfreich für den Einstieg ist auch unsere Entwickler-Dokumentation. Sie vermissen ein bestimmtes Modell auf Workers AI? Dann lassen Sie es uns bei Discord wissen.
\n
\n
Unterstützung feinjustierter Inferenz mit BYO LoRA
Eine der am häufigsten geforderten Funktionen für Workers AI ist eine feinjustierte Inferenz. Mit Bring Your Own (BYO) Low Rank Adaptation (LoRA) sind wir diesem Ziel jetzt einen Schritt nähergekommen. Mithilfe der beliebten Low Rank Adaptation-Methode haben Forscher herausgefunden, wie sich einige Parameter eines Modells an die jeweilige Aufgabe anpassen lassen, anstatt – wie bei einem vollständigen Fine-Tuning eines Modells – alle Modellparameter neu schreiben zu müssen. Somit erhält man feinjustierte Ergebnisse ohne den für eine vollständige Feinjustierung erforderlichen Rechenaufwand.
Ab sofort unterstützt Workers AI trainierte LoRA. Die LoRA-Anpassung wird während der Laufzeit auf ein Basismodell angewandt, wodurch die Ausführung von Inferenzaufgaben fein abgestimmt werden kann – und das mit der Geschwindigkeit eines Modells, das einem vollständigen Fine-Tuning unterzogen wurde, aber zu einem Bruchteil von dessen Kosten und Größe. Zu gegebener Zeit wollen wir Feinabstimmung und vollständig feinjustierte Modelle direkt auf unserer Plattform unterstützen. LoRa bringt uns diesem Ziel einen Schritt näher.
„BYO LoRA“ befindet sich für die Modelle Gemma 2B und 7B, Llama 2 7B und Mistral 7B seit heute in der Open Beta-Phase. Verfügbar sind in diesem Rahmen LoRA-Adapter mit einer Größe von bis zu 100 MB und einem maximalen Rang von 8 sowie insgesamt bis zu 30 LoRA pro Konto. Wie immer sind Workers AI und unsere neue „BYO LoRA“-Funktion unter Einhaltung unserer Nutzungsbedingungen zu verwenden. Dies beinhaltet auch alle in den Lizenzbedingungen der einzelnen Modelle festgelegten modellspezifischen Nutzungsbeschränkungen.
\n
const response = await ai.run(\n "@cf/mistralai/mistral-7b-instruct-v0.2-lora", //the model supporting LoRAs\n {\n messages: [{"role": "user", "content": "Hello world"],\n raw: true, //skip applying the default chat template\n lora: "00000000-0000-0000-0000-000000000", //the finetune id OR name \n }\n);
Python ist die nach JavaScript beliebteste Programmiersprache der Welt und die Sprache der Wahl für das Entwickeln von KI-Anwendungen. Ab heute können Sie in der Open Beta-Version Cloudflare-Worker in Python programmieren. Python-Worker unterstützen alle Ressourcen-Bindungen an Cloudflare, einschließlich Vectorize, D1, KV und R2.
In Python programmierte Worker sind ebenso unkompliziert wie solche, die in JavaScript geschrieben sind:
Zur Konfigurierung wird einfach auf eine .py-Datei in Ihrer wrangler.toml-Datei verwiesen:
\n
from js import Response\n\nasync def on_fetch(request, env):\n return Response.new("Hello world!")
\n
Weitere Toolchain- oder Vorkompilierungsschritte sind nicht erforderlich. Die Pyodide-Python-Ausführungsumgebung wird Ihnen direkt von der Workers-Laufzeitumgebung zur Verfügung gestellt, wobei die Funktionsweise die von in JavaScript programmierten Workern widerspiegelt.
\n
name = "hello-world-python-worker"\nmain = "src/entry.py"\ncompatibility_date = "2024-03-18"\ncompatibility_flags = ["python_workers"]
\n
Wenn Sie noch tiefer in die Materie einsteigen und erfahren möchten, wie Python-Worker im Hintergrund arbeiten, werfen Sie doch einfach einen Blick in unsere Dokumentation und lesen Sie unseren begleitenden Blogbeitrag.
\n
\n
Unterstützung von Anthropic, Azure, AWS Bedrock, Google Vertex und Perplexity bei AI Gateway
AI Gateway hilft Entwicklern unter anderem mit Analysen, Zwischenspeicherung und Durchsatzbegrenzung dabei, ihre KI-Anwendungen besser zu steuern und zu beobachten. Wir integrieren kontinuierlich neue Anbieter in das Produkt. Die neuesten sind Anthropic, Google Vertex und Perplexity, wie wir heute bekannt geben können. Im Dezember 2023 haben wir in aller Stille die Unterstützung von Azure und Amazon Bedrock eingeführt, sodass die beliebtesten Anbieter nun von AI Gateway unterstützt werden, was auch Workers AI selbst umfasst.
Im zweiten Quartal 2024 werden wir dauerhafte Protokolle einführen, was es Ihnen erlauben wird, Ihre Protokolle (einschließlich Prompts und Antworten) in den Objektspeicher zu verschieben. Hinzu kommen außerdem benutzerdefinierte Metadaten, damit Sie Anfragen mit Nutzer-ID oder anderen Identifikatoren versehen können, und die Verwaltung sensibler Daten (Secrets) für den sicheren Umgang mit den API-Schlüsseln Ihrer Anwendung.
Wir möchten, dass Sie Ihre KI-Anwendung über AI Gateway steuern können und Ihre Entwickler in der Lage sind, damit Anfragen dynamisch zu bewerten und an verschiedene Modelle und Anbieter weiterzuleiten. Mit unseren dauerhaften Protokollen sollen Entwickler die Möglichkeit haben, ihre protokollierten Daten mit einem einzigen Klick zur Feinabstimmung von Modellen einzusetzen. Letzten Endes sollen die Aufgabe des Fine-Tuning und das feinjustierte Modell direkt auf unserer Plattform Workers AI ausgeführt werden können. AI Gateway ist nur eines von zahlreichen Produkten in unserem KI-Toolkit, aber wir sind begeistert von den Arbeitsabläufen und Anwendungsfällen, die mit unserer Plattform arbeitenden Entwicklern damit offenstehen. Wir hoffen, dass es Ihnen genauso geht.
\n
\n
Filterung von Vectorize-Metadaten und künftige allgemeine Verfügbarkeit von Millionen Vektorindizes
Vectorize ist eine weitere Komponente unseres Toolkits für KI-Anwendungen und befindet sich seit September 2023 in der Open Beta-Phase. Die Lösung ermöglicht es Entwicklern, zur Unterstützung von Anwendungsfällen wie der Ähnlichkeitssuche oder Empfehlungen Einbettungen (Vektoren), wie sie etwa von Texteinbettungsmodellen von Workers AI generiert werden, zu speichern und nach dem Treffer mit der größten Übereinstimmung zu suchen. Die von Modellen ausgegebenen Ergebnisse geraten ohne eine Vektordatenbank in Vergessenheit und können nicht ohne zusätzliche Kosten für die erneute Ausführung eines Modells abgerufen werden.
Seit Einführung der Open Beta-Version von Vectorize haben wir diese um eine Metadaten-Filterung erweitert. Dank dieser Funktion können Entwickler die Vektorsuche mit der Filterung nach beliebigen Metadaten kombinieren, was eine höhere Abfragekomplexität bei KI-Anwendungen erlaubt. Aktuell arbeiten wir daran, Vectorize allgemein verfügbar zu machen. Wir streben eine Einführung im Juni 2024 mit Unterstützung mehrerer Millionen von Vektor-Indizes an.
\n
\n
Die umfassendste Entwicklerplattform zur Erstellung von KI-Anwendungen
Wir sind wir der Meinung, dass alle Entwickler Full-Stack-Anwendungen, einschließlich KI-gestützter Funktionen, schnell erschaffen und bereitstellen können sollten. Durch die allgemeine Verfügbarkeit von Workers AI, die Python-Unterstützung bei Workern, die Verfügbarkeit von AI Gateway und Vectorize sowie unsere Partnerschaft mit Hugging Face haben wir die Möglichkeiten für die Entwicklung von Produkten mithilfe von KI auf unserer Plattform erweitert. Wir hoffen, dass Sie davon genauso angetan sind wie wir! Werfen Sie für Ihre ersten Schritte doch einfach einen Blick in unsere Entwickler-Dokumentation. Sie können uns auch gern wissen lassen, woran Sie arbeiten.
"],"published_at":[0,"2024-04-02T14:01:00.000+01:00"],"updated_at":[0,"2024-10-10T00:22:07.040Z"],"feature_image":[0,"https://cf-assets.www.cloudflare.com/zkvhlag99gkb/5oSuLqesmvrY3h7svtxYIH/0607762bb92437135418e8cc71662dec/workers-ai-ga-huggingface-loras-python-support.png"],"tags":[1,[[0,{"id":[0,"2xCnBweKwOI3VXdYsGVbMe"],"name":[0,"Developer Week"],"slug":[0,"developer-week"]}],[0,{"id":[0,"4HIPcb68qM0e26fIxyfzwQ"],"name":[0,"Entwickler"],"slug":[0,"developers"]}],[0,{"id":[0,"1Wf1Dpb2AFicG44jpRT29y"],"name":[0,"Workers AI"],"slug":[0,"workers-ai"]}],[0,{"id":[0,"3E2D6D4cI82KIloPpl0WZW"],"name":[0,"General Availability (DE)"],"slug":[0,"general-availability"]}],[0,{"id":[0,"3JAY3z7p7An94s6ScuSQPf"],"name":[0,"Entwicklerplattform"],"slug":[0,"developer-platform"]}],[0,{"id":[0,"6hbkItfupogJP3aRDAq6v8"],"name":[0,"Cloudflare Workers"],"slug":[0,"workers"]}]]],"relatedTags":[0],"authors":[1,[[0,{"name":[0,"Michelle Chen"],"slug":[0,"michelle"],"bio":[0,null],"profile_image":[0,"https://cf-assets.www.cloudflare.com/zkvhlag99gkb/1hrcl3aVtUbBuCMeuXETWy/93dbfbc7d41c09ba35d863312dbde89d/michelle.jpg"],"location":[0,null],"website":[0,null],"twitter":[0,"@_mchenco"],"facebook":[0,null]}],[0,{"name":[0,"Jesse Kipp"],"slug":[0,"jesse"],"bio":[0,null],"profile_image":[0,"https://cf-assets.www.cloudflare.com/zkvhlag99gkb/8yRqemLc8lLhE9Uwzd7G4/a303cca84c1840cc961831f1ea6b4213/jesse.jpg"],"location":[0,null],"website":[0,null],"twitter":[0,null],"facebook":[0,null]}],[0,{"name":[0,"Syona Sarma"],"slug":[0,"syona"],"bio":[0,null],"profile_image":[0,"https://cf-assets.www.cloudflare.com/zkvhlag99gkb/7wXARteBqVJbvxNdpYb71v/5023716b54c8eda890b43d0092a19d12/syona.jpg"],"location":[0,null],"website":[0,null],"twitter":[0,null],"facebook":[0,null]}],[0,{"name":[0,"Brendan Irvine-Broque"],"slug":[0,"brendan-irvine-broque"],"bio":[0,"Product Manager, Cloudflare Stream"],"profile_image":[0,"https://cf-assets.www.cloudflare.com/zkvhlag99gkb/lTJBFKfbqthKbJKPvulre/e8bf53afa7caf1dffeeb55a8c6884959/brendan-irvine-broque.JPG"],"location":[0,"Oakland, CA"],"website":[0,"https://www.cloudflare.com/products/cloudflare-stream/"],"twitter":[0,"@irvinebroque"],"facebook":[0,null]}],[0,{"name":[0,"Vy Ton"],"slug":[0,"vy"],"bio":[0,"Product Manager at Cloudflare."],"profile_image":[0,"https://cf-assets.www.cloudflare.com/zkvhlag99gkb/47vp9vXZx8EXsnBFmCK8NS/2f7f46cdadaa4545e2b61d9c674d1e5a/vy.png"],"location":[0,null],"website":[0,null],"twitter":[0,"@vaiton13"],"facebook":[0,null]}]]],"meta_description":[0,null],"primary_author":[0,{}],"localeList":[0,{"name":[0,"Leveling up Workers AI: general availability and more new capabilities Config"],"enUS":[0,"English for Locale"],"zhCN":[0,"Translated for Locale"],"zhHansCN":[0,"No Page for Locale"],"zhTW":[0,"Translated for Locale"],"frFR":[0,"Translated for Locale"],"deDE":[0,"Translated for Locale"],"itIT":[0,"No Page for Locale"],"jaJP":[0,"Translated for Locale"],"koKR":[0,"Translated for Locale"],"ptBR":[0,"No Page for Locale"],"esLA":[0,"No Page for Locale"],"esES":[0,"Translated for Locale"],"enAU":[0,"No Page for Locale"],"enCA":[0,"No Page for Locale"],"enIN":[0,"No Page for Locale"],"enGB":[0,"No Page for Locale"],"idID":[0,"No Page for Locale"],"ruRU":[0,"No Page for Locale"],"svSE":[0,"No Page for Locale"],"viVN":[0,"No Page for Locale"],"plPL":[0,"No Page for Locale"],"arAR":[0,"No Page for Locale"],"nlNL":[0,"No Page for Locale"],"thTH":[0,"No Page for Locale"],"trTR":[0,"No Page for Locale"],"heIL":[0,"No Page for Locale"],"lvLV":[0,"No Page for Locale"],"etEE":[0,"No Page for Locale"],"ltLT":[0,"No Page for Locale"]}],"url":[0,"https://blog.cloudflare.com/workers-ai-ga-huggingface-loras-python-support"],"metadata":[0,{"title":[0,"Workers AI wird noch besser: Allgemeine Verfügbarkeit und weitere neue Fähigkeiten"],"description":[0,null],"imgPreview":[0,"https://cf-assets.www.cloudflare.com/zkvhlag99gkb/4i5mQ8CannxG6XxFtKKQoB/3885f1a05a4be264e16d2180dfbcf006/workers-ai-ga-huggingface-loras-python-support-x0Uhh5.png"]}]}],"locale":[0,"de-de"],"translations":[0,{"posts.by":[0,"VON"],"footer.gdpr":[0,"DSGVO"],"lang_blurb1":[0,"Dieser Beitrag ist auch auf {lang1} verfügbar."],"lang_blurb2":[0,"Dieser Beitrag ist auch auf {lang1} und {lang2} verfügbar."],"lang_blurb3":[0,"Dieser Beitrag ist auch auf {lang1}, {lang2}, und {lang3} verfügbar."],"footer.press":[0,"Presse"],"header.title":[0,"Der Cloudflare-Blog"],"search.clear":[0,"Löschen"],"search.filter":[0,"Filtern"],"search.source":[0,"Quelle"],"footer.careers":[0,"Stellenausschreibungen"],"footer.company":[0,"Unternehmen"],"footer.support":[0,"Support"],"footer.the_net":[0,"theNet"],"search.filters":[0,"Filter"],"footer.our_team":[0,"Unser Team"],"footer.webinars":[0,"Webinare"],"page.more_posts":[0,"Weitere Beiträge"],"posts.time_read":[0,"Lesezeit: {time} Min."],"search.language":[0,"Sprache"],"footer.community":[0,"Community"],"footer.resources":[0,"Ressourcen"],"footer.solutions":[0,"Lösungen"],"footer.trademark":[0,"Markenzeichen"],"header.subscribe":[0,"Abonnieren"],"footer.compliance":[0,"Compliance"],"footer.free_plans":[0,"Free-Tarife"],"footer.impact_ESG":[0,"Impact/ESG"],"posts.follow_on_X":[0,"Folgen auf X"],"footer.help_center":[0,"Hilfe-Center"],"footer.network_map":[0,"Netzwerkkarte"],"header.please_wait":[0,"Bitte warten"],"page.related_posts":[0,"Verwandte Beiträge"],"search.result_stat":[0,"Ergebnisse {search_range} von {search_total} für {search_keyword}"],"footer.case_studies":[0,"Kundenreferenzen"],"footer.connect_2024":[0,"Connect 2024"],"footer.terms_of_use":[0,"Nutzungsbedingungen"],"footer.white_papers":[0,"Studien"],"footer.cloudflare_tv":[0,"Cloudflare TV"],"footer.community_hub":[0,"Community-Hub"],"footer.compare_plans":[0,"Zum Tarifvergleich"],"footer.contact_sales":[0,"Kontakt zum Vertrieb"],"header.contact_sales":[0,"Kontakt zum Vertrieb"],"header.email_address":[0,"E-Mail-Adresse"],"page.error.not_found":[0,"Seite nicht gefunden"],"footer.developer_docs":[0,"Dokumentation für Entwickler"],"footer.privacy_policy":[0,"Datenschutzrichtlinie"],"footer.request_a_demo":[0,"Demo anfragen"],"page.continue_reading":[0,"Weiterlesen"],"footer.analysts_report":[0,"Analyseberichte"],"footer.for_enterprises":[0,"Für Unternehmen"],"footer.getting_started":[0,"Erste Schritte"],"footer.learning_center":[0,"Lernzentrum"],"footer.project_galileo":[0,"Projekt „Galileo“"],"pagination.newer_posts":[0,"Neuere Beiträge"],"pagination.older_posts":[0,"Ältere Beiträge"],"posts.social_buttons.x":[0,"Auf X diskutieren"],"search.icon_aria_label":[0,"Suche"],"search.source_location":[0,"Quelle/Standort"],"footer.about_cloudflare":[0,"Über Cloudflare"],"footer.athenian_project":[0,"Projekt Athenian"],"footer.become_a_partner":[0,"Partner werden"],"footer.cloudflare_radar":[0,"Cloudflare Radar"],"footer.network_services":[0,"Netzwerkservices"],"footer.trust_and_safety":[0,"Vertrauen und Sicherheit"],"header.get_started_free":[0,"Kostenlos loslegen"],"page.search.placeholder":[0,"Cloudflare-Website durchsuchen"],"footer.cloudflare_status":[0,"Cloudflare-Status"],"footer.cookie_preference":[0,"Cookie-Einstellungen"],"header.valid_email_error":[0,"Muss eine gültige E-Mail sein."],"search.result_stat_empty":[0,"Ergebnisse {search_range} von {search_total}"],"footer.connectivity_cloud":[0,"Connectivity Cloud"],"footer.developer_services":[0,"Dienste für Entwickler"],"footer.investor_relations":[0,"Anlegerbeziehungen"],"page.not_found.error_code":[0,"Fehlercode: 404"],"search.autocomplete_title":[0,"Suchanfrage eingeben. Zum Absenden Eingabetaste drücken."],"footer.logos_and_press_kit":[0,"Logos und Pressekit"],"footer.application_services":[0,"Anwendungsservices"],"footer.get_a_recommendation":[0,"Empfehlung erhalten"],"posts.social_buttons.reddit":[0,"Auf Reddit diskutieren"],"footer.sse_and_sase_services":[0,"SSE- und SASE-Dienste"],"page.not_found.outdated_link":[0,"Möglicherweise haben Sie einen veralteten Link verwendet oder die Adresse falsch eingegeben."],"footer.report_security_issues":[0,"Sicherheitsprobleme berichten"],"page.error.error_message_page":[0,"Leider können wir die von Ihnen gewünschte Seite nicht finden."],"header.subscribe_notifications":[0,"Jetzt abonnieren, um Benachrichtigungen über neue Beiträge zu erhalten:"],"footer.cloudflare_for_campaigns":[0,"Cloudflare for Campaigns"],"header.subscription_confimation":[0,"Abonnement bestätigt. Danke fürs Abonnieren!"],"posts.social_buttons.hackernews":[0,"Diskutieren Sie auf Hacker News"],"footer.diversity_equity_inclusion":[0,"Diversität, Gleichberechtigung und Inklusion"],"footer.critical_infrastructure_defense_project":[0,"Projekt zur Verteidigung kritischer Infrastruktur"]}]}" ssr="" client="load" opts="{"name":"PostCard","value":true}" await-children="">
Wir freuen uns, heute eine Reihe von Ankündigungen machen zu können. Dazu gehört die allgemeine Verfügbarkeit von Workers AI, der Inferenzplattform von Cloudflare, sowie die Unterstützung feinjustierter Modelle mit LoRA und die Bereitstellung mit einem einzigen Klick über Hugging Face. ...
Workers AI unterstützt ab sofort mithilfe von „Server-Sent Events“ das Streamen von textbasierten Antworten für Llama-2 und alle anderen von uns angebotenen LLM...
Alle Kunden werden bald im Cloudflare Security Center (erstmals lanciert im Dezember 2021) Zugang zu Investigate, unserem neuen Portal zur Untersuchung von Bedrohungen erhalten. Darüber hinaus werden wir Bedrohungen auf unserer Analytics-Plattform mit diesen Informationen versehen...