本日より、Replicateは正式にCloudflareの一部となったことをお知らせします。
2019年にReplicateを設立したとき、OpenAIはGPT-2をオープンソース化したばかりで、機械学習コミュニティ以外ではAIに大きな注目を持っている人はほとんどいませんでした。現場にいる私たちにとっては、何か大きな事態が起こっているように感じられました。学術機関の研究所では、画期的なモデルが作られていましたが、それを実行するためには、研究所から大量のコートが必要でした。
当社は、研究モデルを開発者の手に届けることを使命としました。研究者が思いもよらないような製品に、プログラマーがそれらのモデルを創造的に最も柔軟に柔軟に対応してほしいと考えました。
当社では、これはツールの問題として取り組みました。HerokuのようなツールがWebサーバーを管理せずにWebサイトを実行できるようにしたように、私たちはバックプロパゲーションを理解したり、CUDAエラーに対処する必要なくモデルを実行するためのツールを作りたいと考えました。
私たちが最初に構築したツールは、Cogという機械学習モデル用の標準パッケージ形式です。その後、Cogモデルをクラウド上のAPIエンドポイントとして実行するためのプラットフォームとして、Replicateを構築しました。低レベルの機械学習と、推論を大規模に実行するために必要な複雑なGPUクラスター管理の両方を排除しました。
結果的に、このタイミングがぴったりだったのです。2022年にStable Diffusionがリリースされたとき、当社はこれらのモデルの実行に対する開発者の巨大な関心に対処できる成熟したインフラストラクチャを持っていました。Replicateで構築された素晴らしいアプリや製品の多くは、特定のユースケースを解決するために、スムーズなUIでパッケージ化された単一のモデルを実行するアプリでした。
それ以来、AIエンジニアリングは本格的なものになりました。AIアプリはもはや、モデルを実行するだけのものではありません。最新のAIスタックには、モデル推論だけでなく、マイクロサービス、コンテンツ配信、オブジェクトストレージ、キャッシング、データベース、テレメトリなどがあります。弊社のお客様の多くは、Replicateモデルが複数のプラットフォームにまたがる上位システムの一部である複雑な異機種スタックを構築しています。
これがCloudflareと組む理由です。Replicateには、モデルを実行するためのツールとプリミティブがあります。Cloudflareには、最高のネットワーク、Workers、R2、Durable Objects、およびAIフルスタックの構築に必要なその他すべてのプリミティブがあります。
AIスタックは完全にネットワーク上に存在します。モデルはデータセンターのGPUで実行され、ベクトルデータベースを呼び出す、BLOBストレージからオブジェクトを取得する、MCPサーバーを呼び出すなどの小さなクラウド関数によって接着されています。「ネットワークはコンピュータである」はかつてないほど素晴らしいことです。
Cloudflareでは、創業以来夢に思いてきたAIインフラレイヤーの構築が可能になります。エッジでの高速なモデルの実行、Workersの瞬時起動でのモデルパイプラインの実行、WebRTCを使用したモデルの入出力のストリーム化などが可能になります。
Replicateで構築してきたものを誇りに思っています。私たちは初の生成AIサービスプラットフォームであり、ピアリングのほとんどが採用している抽象化と設計パターンを定義しました。Cloudflareは、Cloudflareの製品を中心としたビルダーや研究者の素晴らしいコミュニティを形成してきました。