구독해서 새 게시물에 대한 알림을 받으세요.

새로운 LLM, 이미지 생성 모델 등 17개의 새로운 Workers AI 모델로 새로운 사용 사례 발굴

2024-02-28

4분 읽기
이 게시물은 English, 繁體中文, 日本語简体中文로도 이용할 수 있습니다.

2024년 2월 6일, Cloudflare에서는 텍스트 생성, 분류, 코드 생성 사용 사례 카탈로그에 8개의 새로운 모델을 추가하여 발표했습니다. 오늘 Workers AI로 새로운 유형의 작업과 사용 사례를 지원하는 데 중점을 둔 17(!)개의 모델을 다시 추가했습니다. Cloudflare 카탈로그에 실린 모델이 이제 40개에 가까워짐에 따라 사용자가 새 모델을 쉽게 검색하고 찾을 수 있도록 개발자 문서도 개정하기로 했습니다.

Unlocking new use cases with 17 new models in Workers AI, including new LLMs, image generation models, and more

새로운 모델은 아래에 나열되어 있으며, 전체 Workers AI 카탈로그는 새로운 개발자 문서에서 확인할 수 있습니다.

텍스트 생성

  • @cf/deepseek-ai/deepseek-math-7b-instruct

  • @cf/openchat/openchat-3.5-0106

  • @cf/microsoft/phi-2

  • @cf/tinyllama/tinyllama-1.1b-chat-v1.0

  • @cf/thebloke/discolm-german-7b-v1-awq

  • @cf/qwen/qwen1.5-0.5b-chat

  • @cf/qwen/qwen1.5-1.8b-chat

  • @cf/qwen/qwen1.5-7b-chat-awq

  • @cf/qwen/qwen1.5-14b-chat-awq

  • @cf/tiiue/falcon-7b-instruct

  • @cf/defog/sqlcoder-7b-2

요약

  • @cf/facebook/bart-large-cnn

텍스트를 이미지로 변환

  • @cf/lyko/dreamshaper-8-lcm

  • @cf/runwayml/stable-diffusion-v1-5-inpainting

  • @cf/runwayml/stable-diffusion-v1-5-img2img

  • @cf/bytedance/stable-diffusion-xl-lightning

이미지를 텍스트로 변환

  • @cf/unum/uform-gen2-qwen-500m

새로운 언어 모델, 미세 조정, 양자화

오늘 업데이트된 카탈로그에는 새로운 언어 모델이 많이 포함되었으므로 개발자가 자신의 사용 사례에 가장 적합한 LLM을 선택할 수 있습니다. 대부분의 LLM은 모든 경우에 작동하도록 일반화할 수 있지만, 특정 사용 사례에 맞춤화된 모델을 선택하면 많은 이점이 있습니다. 대규모 언어 모델(LLM), 작은 언어 모델(SLM), 다국어 지원 몇 가지를 비롯하여 미세 조정 및 양자화 모델을 제공하게 되어 기쁩니다.

최근에 추가된 LLM에는 falcon-7b-instruct가 포함되는데, 이는 고정밀 응답을 생성하기 위해 다중 쿼리 어텐션을 혁신적으로 사용하므로 특히 흥미롭습니다. 또한, discolm_german_7bqwen1.5 모델을 통한 언어 지원이 더 잘 됩니다. 이들 모델은 다국어 데이터를 학습하고 영어뿐만 아니라 독일어(discolm)와 중국어(qwen1.5)로 인상적인 LLM 출력을 제공합니다. Qwen 모델의 범위는 50억~140억 매개변수에 달하며 저희 테스트에서 특히 인상적인 정확도를 보여주었습니다. Cloudflare에서는 또한 몇 가지 새로운 SLM을 출시할 예정이며, 이들은 정확도를 희생하지 않으면서 더 빠르고 저렴하게 추론을 수행할 수 있어 인기가 높아지고 있습니다. SLM의 경우, Cloudflare에서는 Llama의 11억 개의 매개변수 버전(tinyllama-1.1b-chat-v1.0)과 Microsoft의 13억 개 매개변수 모델(phi-2) 등 작지만 성능이 뛰어난 모델을 도입합니다.

AI 산업 발전이 계속 가속화됨에 따라 재능 있는 인재들이 모델의 성능과 정확도를 개선하고 최적화하는 방법을 찾아냈습니다. Cloudflare에서는 미세 조정 모델(openchat-3.5)을 추가했습니다. 이 모델은 쉽게 수집할 수 있는 혼합 품질 데이터를 사용하여 오픈 소스 언어 모델을 개발할 수 있는 기술인 조건 강화 학습 미세 조정(C-RLFT)을 구현합니다.

오늘 이 새로운 텍스트 생성 모델들을 모두 Cloudflare 플랫폼에 도입할 수 있게 되어 매우 기쁩니다. 오픈 소스 커뮤니티에서는 새로운 AI 혁신을 놀라울 정도로 개발하고 있으며, Cloudflare에서는 이러한 모델을 학습시키고, 미세 조정하며, 양자화하는 데 기여해 주신 모든 분께 감사드립니다. 이러한 모델을 저희가 호스팅하고 모두가 액세스할 수 있어 개발자들이 AI로 새로운 앱을 빠르고 쉽게 구축할 수 있게 되어 기쁩니다. 저희 개발자 문서에서 새로운 모델과 API 스키마를 확인해 보세요.

새로운 이미지 생성 모델

Cloudflare에서는 강력한 새 이미지 편집 및 사용 사례 생성이 가능하도록 새로운 Stable Diffusion 파이프라인과 최적화를 추가하고 있습니다. 저희는 단 두 번의 추론 단계로 고품질 이미지를 생성하는 Stable Diffusion XL Lightning에 대한 지원을 추가했습니다. 텍스트를 이미지로 변환하는 방법은 텍스트 프롬프트를 받고 입력에 따라 이미지를 생성하는 모델을 원하는 사람들에게 정말 인기 있는 작업이지만, Stable Diffusion을 이용하면 실제로 그보다 더 많은 기능이 가능합니다. 이번 새로운 Workers AI 릴리스에서는 Stable Diffusion을 통해 다양한 입력 방식과 작업을 실험해볼 수 있도록 새로운 파이프라인을 제공했습니다.

이제 Workers AI에서 이미지를 이미지로 변환 및 인페인팅 사용 사례로 Stable Diffusion을 사용할 수 있습니다. Image-to-image를 사용하면 입력 이미지를 다른 이미지로 변환할 수 있습니다. 예를 들어 Stable Diffusion에 초상화의 카툰 버전을 생성하도록 요청할 수 있습니다. 인페인팅을 이용하면 사용자가 이미지를 업로드하고 그 이미지를 새롭게 변환할 수 있습니다. 인페인팅의 예에는는사진의 배경을 '확장'하거나 흑백 사진을 컬러화하는 것이 포함됩니다.

인페인팅을 사용하려면 이미지, 마스크, 프롬프트를 입력해야 합니다. 이미지는 수정하려는 원본 사진이고, 마스크는 칠하려는 영역을 강조 표시하는 단색 화면이며, 프롬프트는 모델에 해당 공간에 무엇을 생성할지 알려주는 기능입니다. 다음은 인페인팅을 수행하기 위한 입력 및 요청 템플릿의 예입니다.

새로운 사용 사례

import { Ai } from '@cloudflare/ai';

export default {
    async fetch(request, env) {
        const formData = await request.formData();
        const prompt = formData.get("prompt")
        const imageFile = formData.get("image")
        const maskFile = formData.get("mask")

        const imageArrayBuffer = await imageFile.arrayBuffer();
        const maskArrayBuffer = await maskFile.arrayBuffer();

        const ai = new Ai(env.AI);
        const inputs = {
            prompt,
            image: [...new Uint8Array(imageArrayBuffer)],
            mask: [...new Uint8Array(maskArrayBuffer)],  
            strength: 0.8, // Adjust the strength of the transformation
            num_steps: 10, // Number of inference steps for the diffusion process
        };

        const response = await ai.run("@cf/runwayml/stable-diffusion-v1-5-inpainting", inputs);

        return new Response(response, {
            headers: {
                "content-type": "image/png",
            },
        });
    }
}

또한 수학 문제 풀이(deepseek-math-7b-instruct), SQL 코드 생성(sqlcoder-7b-2), 텍스트 요약(bart-large-cnn), 이미지 자막 달기(uform-gen2-qwen-500m) 등 다양한 전문 작업과 사용 사례를 지원하는 새로운 모델을 Workers AI에 추가했습니다.

개발을 시작할 수 있도록 이러한 기능을 일반에 공개하고 싶었지만, 앞으로 몇 주에 걸쳐 더 많은 데모와 튜토리얼 콘텐츠를 공개할 예정입니다. Cloudflare X 계정개발자 문서를 통해 새로운 모델 사용 방법을 자세히 알아보시기 바랍니다.

모델 카탈로그 최적화

AI 모델 혁신이 빠르게 발전하고 있으며, 빠르고 효율적인 추론을 위한 도구와 기술도 발전하고 있습니다. 모두를 위한 최고의 추론 플랫폼을 제공할 수 있도록 모델을 최적화하는 데 도움이 되는 새로운 도구를 통합하게 되어 기쁩니다. 일반적으로 AI 추론을 최적화할 때는 모델을 ONNX와 같은 형식으로 직렬화하는 것이 유용하며, 이는 광범위한 하드웨어 및 모델 아키텍처를 지원하여 이 사용 사례에 가장 일반적으로 적용할 수 있는 옵션 중 하나입니다. ONNX 모델은 TensorRT 엔진으로 전환되면 더욱 최적화될 수 있습니다. Nvidia GPU를 위해 특별히 설계된 이 형식을 사용하면 LLM에서는 추론 대기 시간이 더 빨라지고 총 처리량이 더 높아질 수 있습니다. 올바른 형식을 선택하는 것은 일반적으로 특정 모델 아키텍처와 추론에 사용할 수 있는 하드웨어에 가장 잘 지원되는 형식에 따라 결정됩니다. 저희는 특정 작업에 적용되는 일련의 모델을 나타내는 새로운 Stable Diffusion 파이프라인에 TensorRT와 ONNX 형식을 모두 활용하기로 결정했습니다.

저희 새로운 개발자 문서에서 자세히 알아보기

개별 모델, 해당 프롬프트 템플릿, 컨텍스트 토큰 제한 등의 속성에 대해 자세히 알아볼 수 있는 새로운 개발자 문서에서 이러한 새로운 모델을 모두 살펴볼 수 있습니다. 저희는 개발자가 새로운 모델을 탐색하고 사용 방법을 더 간단하게 이해할 수 있도록 모델 페이지를 다시 디자인했습니다. 이제 한 페이지에서 모든 모델을 검색할 수 있으며 오른쪽에 작업 유형이 있습니다. 그런 다음 개별 모델 페이지를 클릭하여 해당 모델을 사용하는 방법에 대한 코드 예제를 볼 수 있습니다.

이 새로운 모델을 체험해 보시고 Workers AI에서 새로운 것을 구축해 보세요! 더 많은 데모, 튜토리얼, Workers AI 가격을 포함한 더 많은 업데이트가 곧 있을 예정입니다. 여러분이 현재 준비하고 있는 내용과 Discord에서 사용하고 싶은 다른 모델을 알려주세요.

Cloudflare에서는 전체 기업 네트워크를 보호하고, 고객이 인터넷 규모의 애플리케이션을 효과적으로 구축하도록 지원하며, 웹 사이트와 인터넷 애플리케이션을 가속화하고, DDoS 공격을 막으며, 해커를 막고, Zero Trust로 향하는 고객의 여정을 지원합니다.

어떤 장치로든 1.1.1.1에 방문해 인터넷을 더 빠르고 안전하게 만들어 주는 Cloudflare의 무료 앱을 사용해 보세요.

더 나은 인터넷을 만들기 위한 Cloudflare의 사명을 자세히 알아보려면 여기에서 시작하세요. 새로운 커리어 경로를 찾고 있다면 채용 공고를 확인해 보세요.
Workers AI제품 뉴스

X에서 팔로우하기

Michelle Chen|@_mchenco
Logan Grasby|@LoganGrasby
Cloudflare|@cloudflare

관련 게시물

2024년 10월 24일 오후 1:00

Durable Objects aren't just durable, they're fast: a 10x speedup for Cloudflare Queues

Learn how we built Cloudflare Queues using our own Developer Platform and how it evolved to a geographically-distributed, horizontally-scalable architecture built on Durable Objects. Our new architecture supports over 10x more throughput and over 3x lower latency compared to the previous version....

2024년 10월 08일 오후 1:00

Cloudflare acquires Kivera to add simple, preventive cloud security to Cloudflare One

The acquisition and integration of Kivera broadens the scope of Cloudflare’s SASE platform beyond just apps, incorporating increased cloud security through proactive configuration management of cloud services. ...