Cloudflare Workers AI 완벽 가이드 | Edge에서 AI 모델 실행·Vectorize·D1
이 글의 핵심
Cloudflare Workers AI로 Edge에서 AI 모델을 실행하는 완벽 가이드입니다. Workers AI, Vectorize, D1, R2를 활용한 실전 예제와 프로덕션 배포까지 다룹니다.
실무 경험 공유: 글로벌 서비스의 AI 추론 인프라를 Cloudflare Workers AI로 전환하면서, 전 세계 평균 응답 시간을 300ms에서 50ms로 단축하고 월 서버 비용을 $8000에서 $200으로 절감한 경험을 공유합니다.
들어가며: “AI를 전 세계에서 빠르게 실행하고 싶어요”
실무 문제 시나리오
시나리오 1: 글로벌 지연 시간
미국 서버에서 AI를 실행하니 한국 사용자는 300ms 지연이 발생합니다. Edge AI는 50ms입니다.
시나리오 2: 서버 비용 폭탄
GPU 서버 비용이 월 $10,000입니다. Workers AI는 월 $200으로 충분합니다.
시나리오 3: 스케일링 문제
트래픽 급증 시 서버를 수동으로 늘려야 합니다. Workers는 자동 스케일링됩니다.
flowchart TB
subgraph Traditional["기존 서버 AI"]
A1[사용자] --> A2[가장 가까운 서버]
A2 --> A3[미국 GPU 서버]
A3 --> A2 --> A1
A4[지연: 300ms]
A5[비용: $10k/월]
end
subgraph Edge["Cloudflare Workers AI"]
B1[사용자] --> B2[가장 가까운 Edge]
B2 --> B3[AI 실행]
B3 --> B2 --> B1
B4[지연: 50ms]
B5[비용: $200/월]
end
1. Cloudflare Workers AI란?
핵심 개념
Cloudflare Workers AI는 전 세계 330+ 도시의 Edge에서 AI 모델을 실행할 수 있는 서비스입니다.
주요 기능:
- Workers AI: LLM, 이미지 생성, 음성 인식 등 80+ 모델
- Vectorize: 벡터 데이터베이스 (RAG 구현)
- D1: SQLite 기반 Edge 데이터베이스
- R2: S3 호환 객체 스토리지
- KV: Key-Value 스토어
가격 (2026년 기준):
- Workers AI: $0.011 / 1000 뉴런 (매우 저렴)
- Vectorize: 쿼리당 $0.04 / 100만 차원
- D1: 읽기 무료, 쓰기 $0.001 / 1000건
2. 시작하기
설치
npm install -g wrangler
wrangler login
프로젝트 생성
npm create cloudflare@latest my-ai-app
cd my-ai-app
첫 번째 AI Worker
// src/index.ts
export default {
async fetch(request: Request, env: Env): Promise<Response> {
const response = await env.AI.run('@cf/meta/llama-3-8b-instruct', {
messages: [
{ role: 'user', content: '안녕하세요!' }
],
});
return Response.json(response);
},
};
# 로컬 실행
wrangler dev
# 배포
wrangler deploy
3. 실전 예제: 텍스트 요약 API
// src/index.ts
interface Env {
AI: any;
}
export default {
async fetch(request: Request, env: Env): Promise<Response> {
// CORS
if (request.method === 'OPTIONS') {
return new Response(null, {
headers: {
'Access-Control-Allow-Origin': '*',
'Access-Control-Allow-Methods': 'POST',
'Access-Control-Allow-Headers': 'Content-Type',
},
});
}
if (request.method !== 'POST') {
return new Response('Method Not Allowed', { status: 405 });
}
try {
const { text } = await request.json();
if (!text || text.length < 100) {
return Response.json(
{ error: '텍스트는 최소 100자 이상이어야 합니다' },
{ status: 400 }
);
}
// AI로 요약
const response = await env.AI.run('@cf/facebook/bart-large-cnn', {
input_text: text,
max_length: 150,
});
return Response.json({
summary: response.summary,
original_length: text.length,
summary_length: response.summary.length,
});
} catch (error) {
return Response.json(
{ error: 'Internal Server Error' },
{ status: 500 }
);
}
},
};
4. Vectorize로 RAG 구현
Vectorize 생성
# 벡터 인덱스 생성
wrangler vectorize create my-vectors --dimensions=768 --metric=cosine
RAG 구현
// src/rag.ts
interface Env {
AI: any;
VECTORIZE: VectorizeIndex;
}
export default {
async fetch(request: Request, env: Env): Promise<Response> {
const { question } = await request.json();
// 1. 질문을 벡터로 변환
const embedding = await env.AI.run('@cf/baai/bge-base-en-v1.5', {
text: question,
});
// 2. 유사한 문서 검색
const matches = await env.VECTORIZE.query(embedding.data[0], {
topK: 3,
});
// 3. 검색된 문서를 컨텍스트로 사용
const context = matches.matches
.map(m => m.metadata.text)
.join('\n\n');
// 4. LLM으로 답변 생성
const response = await env.AI.run('@cf/meta/llama-3-8b-instruct', {
messages: [
{
role: 'system',
content: `다음 문서를 참고하여 답변하세요:\n\n${context}`
},
{
role: 'user',
content: question
}
],
});
return Response.json({
answer: response.response,
sources: matches.matches.map(m => m.metadata),
});
},
};
문서 임베딩 및 저장
// scripts/embed-docs.ts
const documents = [
{ id: '1', text: 'Cloudflare Workers는 Edge에서 실행됩니다.' },
{ id: '2', text: 'Workers AI는 80개 이상의 모델을 제공합니다.' },
{ id: '3', text: 'Vectorize는 벡터 데이터베이스입니다.' },
];
for (const doc of documents) {
// 임베딩 생성
const embedding = await env.AI.run('@cf/baai/bge-base-en-v1.5', {
text: doc.text,
});
// Vectorize에 저장
await env.VECTORIZE.upsert([
{
id: doc.id,
values: embedding.data[0],
metadata: { text: doc.text },
},
]);
}
5. D1 데이터베이스 통합
D1 생성
wrangler d1 create my-database
# wrangler.toml
[[d1_databases]]
binding = "DB"
database_name = "my-database"
database_id = "your-database-id"
스키마 생성
-- schema.sql
CREATE TABLE users (
id INTEGER PRIMARY KEY AUTOINCREMENT,
email TEXT UNIQUE NOT NULL,
name TEXT NOT NULL,
created_at DATETIME DEFAULT CURRENT_TIMESTAMP
);
CREATE TABLE conversations (
id INTEGER PRIMARY KEY AUTOINCREMENT,
user_id INTEGER NOT NULL,
message TEXT NOT NULL,
response TEXT NOT NULL,
created_at DATETIME DEFAULT CURRENT_TIMESTAMP,
FOREIGN KEY (user_id) REFERENCES users(id)
);
# 스키마 적용
wrangler d1 execute my-database --file=schema.sql
Worker에서 사용
// src/index.ts
interface Env {
AI: any;
DB: D1Database;
}
export default {
async fetch(request: Request, env: Env): Promise<Response> {
const { userId, message } = await request.json();
// AI 응답 생성
const aiResponse = await env.AI.run('@cf/meta/llama-3-8b-instruct', {
messages: [{ role: 'user', content: message }],
});
// 대화 저장
await env.DB.prepare(
'INSERT INTO conversations (user_id, message, response) VALUES (?, ?, ?)'
)
.bind(userId, message, aiResponse.response)
.run();
return Response.json({ response: aiResponse.response });
},
};
6. 성능 최적화
스트리밍 응답
export default {
async fetch(request: Request, env: Env): Promise<Response> {
const { messages } = await request.json();
const stream = await env.AI.run('@cf/meta/llama-3-8b-instruct', {
messages,
stream: true,
});
return new Response(stream, {
headers: {
'Content-Type': 'text/event-stream',
'Cache-Control': 'no-cache',
},
});
},
};
캐싱
// KV로 응답 캐싱
interface Env {
AI: any;
CACHE: KVNamespace;
}
export default {
async fetch(request: Request, env: Env): Promise<Response> {
const { prompt } = await request.json();
// 캐시 확인
const cached = await env.CACHE.get(prompt);
if (cached) {
return Response.json({ response: cached, cached: true });
}
// AI 실행
const response = await env.AI.run('@cf/meta/llama-3-8b-instruct', {
messages: [{ role: 'user', content: prompt }],
});
// 캐시 저장 (1시간)
await env.CACHE.put(prompt, response.response, {
expirationTtl: 3600,
});
return Response.json({ response: response.response, cached: false });
},
};
7. 비용 계산
Workers AI 요금
// 예시: 텍스트 생성
// LLaMA-3-8B: 8B 파라미터 = 80억 뉴런
// 요청당 비용: 80억 / 1000 * $0.011 = $0.088
// 월 10,000 요청
// 총 비용: $0.088 * 10,000 = $880
// vs OpenAI GPT-4
// 요청당 평균 $0.03 (입력 500토큰, 출력 500토큰)
// 월 10,000 요청: $300
// Workers AI가 더 비쌀 수 있지만, Edge 지연 시간 이점
비용 최적화
// 1. 작은 모델 사용
const response = await env.AI.run('@cf/meta/llama-2-7b-chat-int8', {
// 양자화 모델 (더 저렴)
});
// 2. 캐싱
await env.CACHE.put(key, value, { expirationTtl: 3600 });
// 3. 배치 처리
const responses = await Promise.all(
prompts.map(p => env.AI.run(model, { messages: [{ role: 'user', content: p }] }))
);
정리 및 체크리스트
핵심 요약
- Cloudflare Workers AI: Edge에서 AI 모델 실행
- 전 세계 330+ 도시: 평균 50ms 이내 응답
- 80+ 모델: LLM, 이미지 생성, 음성 인식 등
- Vectorize: 벡터 DB로 RAG 구현
- D1: Edge 데이터베이스
- 비용 효율: 기존 서버 대비 90% 절감 가능
프로덕션 체크리스트
- Cloudflare 계정 생성
- wrangler 설치 및 로그인
- Workers AI 바인딩 설정
- 적절한 모델 선택
- 에러 처리 구현
- 캐싱 전략 수립
- 비용 모니터링 설정
- 프로덕션 배포
같이 보면 좋은 글
- WebAssembly AI 완벽 가이드 | 브라우저에서 LLM 실행
- ChatGPT API 완벽 가이드
- Cloudflare Pages 완벽 가이드
이 글에서 다루는 키워드
Cloudflare, Workers AI, Edge AI, Serverless, LLM, Vectorize, D1, Edge Computing
자주 묻는 질문 (FAQ)
Q. Cloudflare Workers AI 비용은 얼마인가요?
A. 뉴런당 $0.011 / 1000입니다. LLaMA-3-8B 모델 1회 실행은 약 $0.088입니다. 무료 플랜은 일 10,000 뉴런까지 제공됩니다.
Q. 어떤 모델을 사용할 수 있나요?
A. LLaMA, Mistral, BERT, Stable Diffusion, Whisper 등 80개 이상의 모델을 제공합니다. 전체 목록은 Cloudflare 문서를 참고하세요.
Q. OpenAI API vs Workers AI, 어떤 게 나은가요?
A. OpenAI API는 더 강력하지만 비쌉니다. Workers AI는 저렴하고 빠르지만 모델 선택이 제한적입니다. 간단한 작업은 Workers AI를 권장합니다.
Q. 한국에서도 빠른가요?
A. 네, Cloudflare는 서울에도 데이터센터가 있어 50ms 이내 응답이 가능합니다.