여러분 이거 경험 있죠?
Claude Code 쓰다가 “또 API 비용이…” 하고 한숨 쉬는 거요.
저도요.
매달 Claude Pro 20달러에 API 비용까지 더하면… 솔직히 좀 부담될 때 있잖아요.
근데 말이죠.
2025년 1월 16일, Ollama가 Anthropic Messages API 호환을 발표했어요.
이게 뭔 소린지 아세요?
Claude Code를 로컬 오픈소스 모델로 돌릴 수 있다는 뜻이에요.
API 비용? 0원.
솔직히 처음 봤을 때 “이게 된다고?” 했어요. 실화냐 싶었음.

Ollama + Claude Code 연동이 뭔데?
Ollama v0.14.0 버전부터 Anthropic Messages API와 호환됩니다.
쉽게 말해, Claude Code가 Anthropic 서버 대신 내 컴퓨터에서 돌아가는 Ollama한테 요청을 보내는 거예요.
기존에는 Claude Code가 Anthropic API → 클라우드 서버로 요청을 보냈잖아요?
이제는 localhost:11434 → 내 컴퓨터 Ollama로 보낼 수 있어요.
📌 핵심: 클라우드 API 비용 없이 로컬에서 에이전트 코딩 가능!
왜 이게 중요할까?
“그냥 Claude Pro 쓰면 되는 거 아니야?”
맞아요. 근데 이건 완전 다른 얘기예요.
1. API 비용 0원
Claude API 쓰다 보면 토큰당 비용이 쌓이잖아요. 로컬 모델은 전기세 빼면 무료예요.
2. 데이터 프라이버시 100%
코드가 외부 서버로 안 나가요. 회사 코드, 민감한 프로젝트? 걱정 없어요.
3. 오프라인에서도 작동
인터넷 끊겨도 코딩 가능해요. 비행기 안에서도 에이전트 코딩 하는 거예요.
4. 다양한 모델 선택
Claude만 고집할 필요 없어요. qwen3-coder, gpt-oss:20b, deepseek-coder 등 취향대로 골라 써요.
설치 및 설정 방법 (5분 컷)
Step 1: Claude Code 설치
macOS / Linux / WSL:
curl -fsSL https://claude.ai/install.sh | bash
Windows PowerShell:
irm https://claude.ai/install.ps1 | iex
Windows CMD:
curl -fsSL https://claude.ai/install.cmd -o install.cmd && install.cmd && del install.cmd
Step 2: Ollama 설치
ollama.com에서 다운로드하거나:
# macOS / Linux curl -fsSL https://ollama.com/install.sh | sh
Step 3: 환경 변수 설정
이게 핵심이에요. 터미널에서:
export ANTHROPIC_AUTH_TOKEN=ollama export ANTHROPIC_BASE_URL=http://localhost:11434
💬 이거 하면 Claude Code가 Anthropic 서버 대신 Ollama한테 요청 보내요.
Step 4: 모델 다운로드 & 실행
# 코딩 추천 모델 다운로드 ollama pull qwen3-coder # 또는 ollama pull gpt-oss:20b
Step 5: Claude Code 실행
claude --model qwen3-coder
끝이에요. 진짜 이게 끝.
추천 모델은 뭘까?
Ollama 공식 블로그에서 Claude Code용 추천 모델을 발표했어요.
로컬 모델 (내 컴퓨터)
| 모델 | 특징 | 추천 상황 |
|---|---|---|
| qwen3-coder | 코딩 특화, 빠른 속도 | 일반 코딩 작업 |
| gpt-oss:20b | 20B 파라미터, 균형 잡힌 성능 | 복잡한 작업 |
| deepseek-coder | 코드 생성 강점 | 코드 작성 집중 |
| codellama:34b | Meta 코드 모델 | 대규모 프로젝트 |
클라우드 모델 (Ollama Cloud)
claude --model glm-4.7:cloud claude --model minimax-m2.1:cloud
⚠️ 중요: 최소 64K 토큰 컨텍스트 길이 추천. Ollama 클라우드 모델은 전체 컨텍스트로 실행돼요.
실제로 써보니 어땠을까?
솔직히 말할게요.
👍 좋았던 점
- 진짜 무료 – API 비용 걱정 없이 마음껏 실험
- 응답 속도 나쁘지 않음 – M1 맥에서 qwen3-coder 꽤 빠름
- 프라이버시 – 회사 코드 쓸 때 마음 편함
- 다양한 모델 테스트 – 모델마다 성격이 달라서 재밌음
👎 솔직히 아쉬운 점
- Claude 원판보다는 성능 차이 – 복잡한 멀티스텝 작업은 아직 Claude가 나음
- 컴퓨터 사양 필요 – 20B 모델 돌리려면 RAM 32GB 이상 추천
- 초기 설정 귀찮음 – 환경 변수 설정 처음엔 헷갈릴 수 있음
근데 말이죠, 무료라는 게 다 커버해요.
“비용 없이 실험하고, 진짜 중요한 작업은 Claude Pro로” 이 조합이 최강인 것 같아요.
Claude Code랑 궁합 맞는 활용법은?
여러분 이거 궁금하셨죠?
“그래서 뭐에 쓸 수 있는데?”
1. 사이드 프로젝트 개발
API 비용 걱정 없이 아이디어 마음껏 실험. 실패해도 비용 0원.
2. 코드 리팩토링 / 정리
반복적인 작업은 로컬 모델로 처리. 창의적 작업만 Claude Pro로.
3. 학습용 / 실험용
새로운 프레임워크 배울 때 로컬 모델로 연습. 비용 부담 없이 질문 폭탄.
4. 오프라인 코딩
비행기, 카페 Wi-Fi 불안할 때도 작업 가능.
5. 회사 코드 작업
민감한 코드는 로컬에서. 데이터 유출 걱정 제로.
Tool Calling도 된다고?
이게 진짜 대박인 게요.
Ollama가 Tool calling / Function calling도 지원해요.
import anthropic
client = anthropic.Anthropic(
base_url='http://localhost:11434',
api_key='ollama', # 필수지만 무시됨
)
message = client.messages.create(
model='qwen3-coder',
tools=[
{
'name': 'get_weather',
'description': 'Get the current weather in a location',
'input_schema': {
'type': 'object',
'properties': {
'location': {
'type': 'string',
'description': 'The city and state, e.g. San Francisco, CA'
}
},
'required': ['location']
}
}
],
messages=[{'role': 'user', 'content': "What's the weather in San Francisco?"}]
)
AI 에이전트가 외부 시스템이랑 상호작용하는 거예요. 이게 로컬에서 된다니…
지원 기능 총정리
| 기능 | 지원 여부 |
|---|---|
| Messages API | ✅ |
| Multi-turn 대화 | ✅ |
| Streaming | ✅ |
| System prompts | ✅ |
| Tool calling | ✅ |
| Extended thinking | ✅ |
| Vision (이미지 입력) | ✅ |
거의 다 되네요? 실화냐…
FAQ
Q. 내 컴퓨터 사양은 어느 정도 필요해요?
최소 RAM 16GB, 추천 32GB 이상이에요. GPU 있으면 더 빠르고요. M1/M2 맥은 꽤 잘 돌아가요.
Q. Claude Pro 구독 없이도 돼요?
네! Ollama 연동은 Claude Pro 구독과 별개예요. 완전 무료로 사용 가능해요.
Q. 성능은 Claude 원판이랑 비슷해요?
솔직히 차이 있어요. 간단한 작업은 비슷한데, 복잡한 멀티스텝 작업은 Claude가 아직 나아요.
Q. 기존 Claude Code 프로젝트에서 바로 쓸 수 있어요?
환경 변수만 바꾸면 바로 전환 가능해요. 코드 수정 필요 없어요.
Q. Ollama 말고 다른 방법 없어요?
LiteLLM, Claude Code Router 같은 프록시 도구도 있어요. 팀 환경에서는 이쪽이 더 나을 수 있어요.
Q. 오프라인에서도 진짜 돼요?
모델 다운로드 후에는 인터넷 없이도 작동해요. 비행기 모드 실험해봤는데 잘 됐어요.
Q. 한국어 지원은 어때요?
qwen3-coder가 한국어도 꽤 잘해요. 코드 주석이나 설명 한국어로 해도 잘 이해해요.
Q. Claude Code 아니라 다른 도구도 되나요?
Anthropic SDK 쓰는 모든 도구가 base URL만 바꾸면 돼요. 확장성 좋아요.
결론: 무료로 시작하고, 필요하면 업그레이드
2026년 1월 현재, Ollama + Claude Code 조합은 가장 저렴하게 에이전트 코딩을 시작하는 방법이에요.
처음 써봤을 때 “아니 이게 된다고?” 했어요.
무료로 시작해서 로컬 모델의 한계를 느끼면 그때 Claude Pro 결제해도 늦지 않아요.
저도 처음엔 이거 몰랐어요. 6개월 동안 Claude Pro만 쓰다가 이번에 알게 됐죠.
궁금한 거 있으면 댓글 남겨주세요.
참고 자료
- Ollama 공식 블로그 – Claude Code with Anthropic API compatibility
- Ollama Anthropic Compatibility Documentation
- Claude Code Integration Guide
- Anthropic Messages API
🏷️ 태그: #ClaudeCode #Ollama #오픈소스LLM #로컬AI #에이전트코딩 #무료AI #바이브코딩 #2026년AI