Claude Code 예산은 처음 보면 조용하다.
seat만 보이면 별거 없어 보이고, token도 초반엔 느리게 새는 것처럼 보인다.
근데 어느 날부터 갑자기 실험비가 튀고, 병렬 세션이 늘고, 자동화가 붙고, 비용이 팀장 표정만큼 어두워진다.
저는 이걸 보고 한 번 배웠다.
Claude Code 예산은 하나의 숫자로 보면 안 된다. seat, token, 실험비를 따로 잡아야 한다.
이 글은 그 셋을 분리해서 Claude Code 팀 예산을 덜 터지게 만드는 법을 정리한 글이다.
이 글이 필요한 사람
- Claude Code를 팀 단위로 쓰려는 사람
- seat 비용만 보고 예산이 충분하다고 착각하기 쉬운 사람
- API token 소비가 어디서 새는지 감을 잡고 싶은 사람
- 실험용 에이전트와 운영용 에이전트를 분리하고 싶은 사람
- Anthropic Console의 spend limit과 /cost를 예산표에 넣고 싶은 사람
Quick Answer
Claude Code 팀 예산은 이렇게 쪼갠다.
- Seat
- 사람당 고정 비용
- Token
- 실제 사용량 기반 비용
- 실험비
- 자동화, 병렬 실험, 장문 컨텍스트 테스트를 위한 버퍼
이 셋을 안 나누면 생기는 일은 같다.
- seat는 남아 보이는데 token이 먼저 터진다
- token은 괜찮아 보이는데 실험이 갑자기 폭주한다
- 실험비가 seat와 token 사이에 섞여서 누가 썼는지 모른다
즉, Claude Code는 “얼마짜리 툴이냐”보다 어떤 레이어에서 새느냐가 더 중요하다.
지금 결론
- 팀 예산은 seat, token, 실험비 3층으로 분리해야 한다.
- Claude Code는 토큰 소비 기준으로 실제 비용을 봐야 한다.
- Anthropic Console에서는 workspace spend limit을 걸 수 있다.
/cost는 일일 사용량 감각을 보기에 좋다.- 평균값만 믿지 말고 실험비 버퍼를 따로 잡아야 한다.
이번에 공식 문서로 확인한 것
이번 글의 기준은 Anthropic 공식 문서다.
- Claude Code 비용은 토큰 소비와 연결되어 있다.
- Anthropic 문서에는 평균 사용 패턴에 대한 가이드가 있다.
- 평균적으로는 하루 약 $6 수준
- 대부분 사용자는 하루 $12 이하
- 팀 사용량은 대체로 월 $100~200/dev 범위로 설명된다
- Anthropic Console에는 workspace spend limits가 있다.
- Claude Code에는
/cost같은 비용 확인 경로가 있다.
이 숫자는 평균일 뿐이고 우리 팀 실제 비용은 워크플로에 따라 달라진다.
그래서 이 글은 공식 평균을 보되 내 팀 예산 표는 따로 만드는 쪽으로 간다.
아직 직접 검증 안 한 것
문서상 평균이 있다고 끝이 아니다.
- 우리 팀이 Sonnet 위주인지, 더 큰 모델 위주인지
- 같은 질문을 몇 번씩 다시 던지는지
- 자동화가 사람보다 더 자주 돌고 있는지
- parallel instance가 몇 개씩 붙는지
- 운영용 workspace와 실험용 workspace를 분리했는지
이건 직접 봐야 한다.
즉, 공식 평균은 출발선이고, 실제 예산은 우리 워크플로가 결정한다.
Claude Code 예산은 왜 셋으로 나눠야 하나
1. seat는 고정비다
seat는 사람 수에 따라 거의 고정된다.
그래서 예산을 볼 때 제일 먼저 보이지만 실제로는 가장 덜 흔들리는 항목이다.
문제는 seat만 보고 안심하는 순간이다.
2. token은 사용량 변동비다
Claude Code는 토큰 소비가 곧 비용이다.
하루에 몇 번 쓰느냐, 긴 컨텍스트를 얼마나 넣느냐, 같은 일을 몇 번 반복하느냐에 따라 token 비용은 크게 달라진다.
3. 실험비는 숨은 가변비다
이게 진짜 터진다.
- 실험용 브랜치
- 평가용 병렬 세션
- 길게 붙는 디버깅
- 막판에 추가한 자동화
이런 건 원래 “한 번만” 돌릴 생각이었다. 근데 한 번으로 끝나는 일이 잘 없다.
예산 표를 먼저 만들자
기본 예산 구조
| 항목 | 의미 | 예산을 잡는 기준 | 놓치기 쉬운 점 |
|---|---|---|---|
| seat | 사람당 고정 비용 | 인원 수 × 플랜 가격 | 이걸 전체 예산으로 착각 |
| token | 실제 사용량 비용 | 평균 사용량 × dev 수 | 반복 질문과 장문 컨텍스트를 놓침 |
| 실험비 | 자동화/병렬 테스트 버퍼 | token 예산의 20~40% | 나중에 꼭 필요해지는데 처음엔 안 잡음 |
아주 단순한 예시
예를 들어 5명 팀이라고 치자.
- seat 5개
- token 예산: 공식 평균을 보수적으로 반영
- 실험비: token 예산의 30%
이렇게 잡아두면 예상보다 자동화가 커져도 최소한 장부가 바로 깨지진 않는다.
좀 더 현실적인 예시
Anthropic 문서의 팀 평균 범위를 빌리면 대략 월 $100~200/dev 정도를 token 쪽 기준선으로 삼을 수 있다.
그럼 5명 팀은
- token 기준선: $500~1000/mo
- 실험비 버퍼 30%: $150~300/mo
- seat 비용: 별도
이건 정확한 견적이 아니라 예산이 어디서 흔들리는지 보는 출발점이다.
어디서 새는지 먼저 봐야 한다
1) 같은 질문을 다시 묻는 비용
팀에서 가장 비싼 건 복잡한 질문보다 반복 질문이다.
질문을 다시 묻는다는 건 prompt가 아니라 workflow가 실패했다는 뜻이다.
2) 긴 컨텍스트를 통째로 붙이는 비용
코드베이스 전체를 매번 통째로 붙이면 비용이 빨리 오른다.
필요한 파일만 잘라 넣는 습관이 예산 절약의 첫 번째다.
3) 병렬 실행 비용
사람이 1개 작업을 볼 때 에이전트는 3개를 동시에 열어버리기도 한다.
이때 실험비가 급격히 늘어난다.
4) 자동화 루프 비용
자동화는 편하다. 근데 checkpoints가 없으면 그 편함이 곧 비용이다.
5) 긴 디버깅 비용
처음엔 “조금만 보면 되겠지”였는데 끝나고 보면 3시간이 날아간다.
이건 token보다 workflow 비용이다.
실무 운영 기준
seat
- 인원 수와 플랜을 먼저 고정한다
- seat는 개인 실험과 섞지 않는다
- seat가 늘어나는 이유와 token이 늘어나는 이유를 분리해서 본다
token
- 일일 사용량을 본다
/cost같은 확인 경로를 습관화한다- 반복 작업과 장문 작업의 비중을 따로 본다
실험비
- 자동화, 병렬 세션, 평가용 테스트는 별도 라인으로 잡는다
- 실험용 workspace를 분리한다
- 한 주에 몰아넣지 말고 월 buffer로 본다
예산 통제
- Anthropic Console의 workspace spend limits를 둔다
- limit을 넘어가는 실험은 승인받게 한다
- 개인이 함부로 큰 컨텍스트를 돌리지 못하게 한다
직접 확인한 운영 팁
내가 이번에 직접 확인한 건 문서에서 바로 보이는 운영 포인트다.
- Claude Code 비용은 토큰 소비와 연결된다
- Console에는 spend limit이 있다
- 평균 사용량 가이드를 기준선으로 삼을 수 있다
/cost는 비용 감각을 잡는 데 유용하다
아직 우리 팀에서 직접 검증해야 하는 건 이거다.
- 어떤 팀원이 실험비를 제일 많이 쓰는지
- 병렬 세션이 실제로 몇 배까지 늘어나는지
- 에이전트 자동화가 seat보다 얼마나 빨리 token을 태우는지
실수 TOP
1. seat만 보고 예산 끝냈다고 생각하는 것
seat는 시작점이지 끝점이 아니다.
2. token과 실험비를 합치는 것
이 둘을 섞으면 누가 비용을 키웠는지 안 보인다.
3. workspace limit 없이 운영하는 것
limit이 없으면 놀랄 때까지 모른다.
4. /cost를 안 보는 것
체감만 믿으면 숫자가 늦게 보인다.
5. 팀과 개인 실험을 섞는 것
이건 예산이 아니라 사고다.
FAQ
Q. Claude Code는 seat 비용만 보면 되나?
아니다. 토큰 소비와 실험비가 같이 움직인다.
Q. 팀 예산을 어떻게 시작하나?
인원 수를 먼저 잡고 공식 평균 token 범위를 기준선으로 두고 실험비 버퍼를 얹는다.
Q. /cost는 꼭 봐야 하나?
봐야 한다. 안 보면 팀이 어디서 새는지 체감으로만 남는다.
Q. Max나 Pro 구독이면 팀 예산이 필요 없나?
아니다. 개인 구독과 팀 운영은 예산 구조가 다르다.
Q. workspace spend limit은 왜 중요한가?
예산을 초과하는 실험을 막아주는 마지막 안전장치다.
다음에 읽을 글
- Claude Code에서 돈 새는 패턴 2026 — 비싼 건 모델보다 workflow일 때가 많다
- AI 코딩 답변이 너무 길 때 2026 — 모델 교체보다 출력 정책을 먼저 손봐야 하는 이유
- 유료 AI 구독 전에 Playground와 Console에서 먼저 확인할 5가지 2026 — 팀 도입 전 감 잡는 법