超大規模言語モデルを動かすための基盤構築
2026-04-16
Cloudflareのインフラ上で高速に大規模言語モデル(LLM)を動かすために、独自の技術スタックを構築しました。本記事では、高性能なAI推論を誰でも利用できるようにするために必要な、設計上のトレードオフや技術的な最適化について解説します。...

2026-04-16
Cloudflareのインフラ上で高速に大規模言語モデル(LLM)を動かすために、独自の技術スタックを構築しました。本記事では、高性能なAI推論を誰でも利用できるようにするために必要な、設計上のトレードオフや技術的な最適化について解説します。...
2025-08-27
Infireは、リソース使用率を最大化するためにさまざまなテクニックを採用したLLM推論エンジンで、Cloudflareのワークロードにおいて優れたパフォーマンスで、より効率的にAIモデルを提供できるようにします。...
2023-09-26
Sippyを使用して、要求に応じてデータをS3からR2へ段階的に移行し、移行時にかかるエグレス料金を回避...