Claude Code 에이전트 팀 기능 써보고 느낀 점 – 혼자 일하던 AI가 팀플 시작했다

2026년 2월 6일, Anthropic의 Boris Cherny가 Claude Code의 에이전트 팀(Agent Teams) 기능을 연구 프리뷰로 공식 발표했습니다. 이 기능은 단일 에이전트의 순차 처리 대신, 리드 에이전트가 여러 팀원을 동시에 조율하며 병렬 작업을 수행하는 멀티 에이전트 시스템입니다.


처음엔 별로였어요.

아니, 정확히 말하면 “필요 없다”고 생각했어요.

서브에이전트만으로 충분했거든요. 제가 OpenClaw라는 AI 에이전트 시스템을 운영하면서 40개 넘는 스킬을 단일 에이전트로 돌리고 있었는데, 그럭저럭 잘 돌아갔어요. 블로그 글도 쓰고, 암호화폐 분석도 하고, 뉴스 브리핑도 만들고.

“AI 하나면 되는 거 아냐?”

근데요. 오늘 이 기능을 직접 켜보고 나서, 생각이 180도 바뀌었습니다.

혼자 일하는 AI와 팀으로 움직이는 AI는 차원이 달랐어요.

마치 혼자 모든 포지션을 뛰던 축구 선수가, 갑자기 11명짜리 팀을 얻은 느낌이랄까요.

Claude Code 에이전트 팀 기능 써보고 느낀 점 - 혼자 일하던 AI가 팀플 시작했다

잠깐, Claude Code 에이전트 팀이 뭔데?

Agent Teams… 뭔 소린지 모르겠죠?

쉽게 말하면 이거예요.

“AI 하나가 일하는 게 아니라, AI 여러 명이 팀으로 일하는 것.”

끝. 이게 전부예요.

좀 더 구체적으로 설명하면, 2026년 2월 6일 Anthropic의 Claude Code 개발자 Boris Cherny가 Threads에서 직접 발표한 기능입니다. settings.json에서 한 줄만 추가하면 바로 사용할 수 있어요.

기존의 Claude Code는 어떻게 일했냐면:

사용자 → 하나의 AI 에이전트 → 순차적으로 작업 처리

근데 에이전트 팀은:

사용자 → 팀 리드 에이전트 → 팀원 에이전트 A (리서치)
                          → 팀원 에이전트 B (코딩)
                          → 팀원 에이전트 C (테스트)
                          → 팀원 에이전트 D (리뷰)

팀 리드가 작업을 쪼개서 팀원들에게 분배하고, 팀원들은 각자의 컨텍스트 윈도우에서 독립적으로 작업합니다. 그리고 서로 메시지를 주고받으며 조율해요.

실제 개발팀이 일하는 방식이랑 거의 똑같죠?


서브에이전트랑 뭐가 다른데?

이거 처음 들었을 때 “그거 서브에이전트랑 뭐가 다른데?” 했어요.

저도 그랬어요. 근데 써보니까 진짜 달라요.

Claude Code의 공식 문서(code.claude.com/docs/en/agent-teams)에서 정리한 비교표를 보면:

구분서브에이전트에이전트 팀
컨텍스트자체 윈도우, 결과만 메인에 반환자체 윈도우, 완전히 독립적
소통 방식메인 에이전트에게만 보고팀원끼리 직접 대화
작업 조율메인이 모든 걸 관리공유 태스크 리스트로 자체 조율
적합한 작업결과만 필요한 집중 작업토론, 조율이 필요한 복잡한 작업
토큰 비용낮음 (요약 결과만 반환)높음 (각 팀원이 별도 인스턴스)

핵심 차이를 한 줄로 요약하면:

서브에이전트는 “심부름꾼”. 시키면 하고, 결과 갖다주고 끝. 에이전트 팀은 “동료”. 서로 대화하고, 반박하고, 합의해요.

이게 왜 중요하냐면요.

코드 리뷰를 예로 들어볼게요. 서브에이전트한테 “이 PR 리뷰해줘” 하면, 한 명이 전체를 봅니다. 보안도 보고, 성능도 보고, 테스트도 보고. 근데 사람도 마찬가지잖아요. 혼자 리뷰하면 한 가지에 편향되기 쉬워요.

에이전트 팀으로 하면? 보안 전문가, 성능 전문가, 테스트 전문가가 동시에 리뷰하고, 서로의 발견을 공유합니다.

실제 Anthropic이 제시한 프롬프트 예시가 이거예요:

Create an agent team to review PR #142. Spawn three reviewers:
- One focused on security implications
- One checking performance impact
- One validating test coverage
Have them each review and report findings.

각 리뷰어가 같은 PR을 다른 렌즈로 봅니다. 리드가 마지막에 종합해서 정리해줘요.

이거 실제 시니어 개발팀이 일하는 방식이랑 거의 동일하죠?


5분 만에 켜는 법

설정은 진짜 간단해요. settings.json에 딱 한 줄이면 됩니다.

방법 1: settings.json 직접 수정

~/.claude/settings.json 파일을 열고:

{
  "env": {
    "CLAUDE_CODE_EXPERIMENTAL_AGENT_TEAMS": "1"
  }
}

이거 추가하면 끝.

방법 2: 환경변수로 설정

터미널에서:

export CLAUDE_CODE_EXPERIMENTAL_AGENT_TEAMS=1

또는 .zshrc에 넣어두면 매번 안 해도 됩니다.

방법 3: 프로젝트별 설정

프로젝트 루트의 .claude/settings.json에 넣으면 해당 프로젝트에서만 활성화됩니다.

{
  "env": {
    "CLAUDE_CODE_EXPERIMENTAL_AGENT_TEAMS": "1"
  }
}

진짜 5분도 안 걸려요. 아니, 1분이면 됩니다.


팀이 움직이는 구조, 어떻게 생겼을까?

에이전트 팀의 아키텍처를 보면 4개 핵심 컴포넌트로 구성돼 있어요.

1) 팀 리드 (Team Lead)

메인 Claude Code 세션이에요. 팀을 만들고, 팀원을 스폰하고, 작업을 조율하는 총책임자.

2) 팀원 (Teammates)

각각 별도의 Claude Code 인스턴스예요. 자기만의 컨텍스트 윈도우를 가지고 독립적으로 작업합니다.

3) 태스크 리스트 (Task List)

모든 팀원이 공유하는 작업 목록이에요. 상태는 세 가지:

  • pending: 아직 안 잡은 작업
  • in progress: 누군가 하고 있는 작업
  • completed: 완료된 작업

작업 간 의존성도 관리됩니다. A 작업이 끝나야 B 작업을 시작할 수 있다면, B는 A가 완료될 때까지 자동으로 대기해요.

4) 메일박스 (Mailbox)

팀원 간 메시지 시스템이에요. 1:1 메시지도 되고, 전체 브로드캐스트도 됩니다.

구조를 그림으로 보면:

┌──────────────────────────────────────────────┐
│                 팀 리드 (Team Lead)              │
│        작업 배분 / 결과 종합 / 팀 조율            │
├──────────┬──────────┬──────────┬─────────────┤
│ 팀원 A   │ 팀원 B    │ 팀원 C    │ 팀원 D      │
│ 리서치   │ 프론트엔드 │ 백엔드    │ 테스트      │
│ 📋 자체  │ 📋 자체   │ 📋 자체   │ 📋 자체     │
│ 컨텍스트 │ 컨텍스트  │ 컨텍스트  │ 컨텍스트    │
└──┬───────┴────┬─────┴───┬──────┴──────┬──────┘
   │            │         │             │
   └────────────┴─────────┴─────────────┘
        💬 상호 메시징 (Mailbox)
        📝 공유 태스크 리스트

팀 설정 파일은 ~/.claude/teams/{team-name}/config.json에, 태스크 리스트는 ~/.claude/tasks/{team-name}/에 로컬로 저장됩니다.


실전 사용법 – 이렇게 쓰는 거예요

팀 만들기

자연어로 말하면 됩니다. 어렵게 생각할 거 없어요.

TODO 관리 CLI 도구를 설계할 거야. 에이전트 팀을 만들어줘:
- UX 전문가 1명
- 기술 아키텍트 1명
- 데빌스 어드보킷(반대 의견) 1명

이러면 Claude가 알아서 팀을 구성하고, 팀원을 스폰하고, 작업을 배분합니다.

디스플레이 모드 선택

두 가지 모드가 있어요:

1) In-process 모드 (기본값)

모든 팀원이 하나의 터미널에서 돌아갑니다.

  • Shift+Up/Down: 팀원 선택
  • Enter: 팀원 세션 보기
  • Escape: 현재 턴 중단
  • Ctrl+T: 태스크 리스트 토글

2) Split-pane 모드

각 팀원이 별도 패널에서 보입니다. tmux 또는 iTerm2 필요.

{
  "teammateMode": "tmux"
}

또는 한 번만:

claude --teammate-mode in-process

저는 개인적으로 처음엔 in-process 모드로 시작하는 걸 추천해요. split-pane은 팀원이 많아지면 진짜 멋있긴 한데, 처음부터 거기서 시작하면 뭐가 뭔지 헷갈려요.

팀원 모델 지정

팀원마다 다른 모델을 쓸 수도 있어요:

4명의 팀원으로 팀을 만들어줘.
각 팀원은 Sonnet 모델을 사용해.

비용 관리할 때 유용합니다. 리서치는 Sonnet, 핵심 코딩은 Opus 이런 식으로요.

팀원에게 직접 대화하기

이게 서브에이전트와 가장 다른 점이에요.

팀 리드를 거치지 않고도 특정 팀원에게 직접 지시할 수 있어요. Shift+Up/Down으로 팀원을 선택하고 바로 메시지를 보내면 됩니다.

“보안 리뷰어, JWT 토큰 만료 처리 부분 다시 한번 봐줘.”

이런 식으로요.

Delegate 모드

리드가 직접 코드를 건드리지 않고 순수하게 조율만 하게 하려면 Shift+Tab을 눌러서 Delegate 모드로 전환하면 됩니다.

이러면 리드는 팀원 스폰, 메시징, 태스크 관리만 합니다. 코드는 안 만져요.

복잡한 프로젝트에서 리드가 갑자기 직접 코딩하기 시작하면 혼란스러워지거든요. 그럴 때 유용해요.

Plan Approval (계획 승인 모드)

위험한 작업이나 신중해야 할 때:

인증 모듈 리팩토링할 아키텍트 팀원을 스폰해줘.
변경 전에 계획 승인을 받도록 해.

팀원이 계획을 짜면 → 리드가 검토 → 승인/반려 → 승인 후에야 실행.

이거 실제 코드 리뷰 프로세스랑 똑같죠? 솔직히 이 기능 보고 좀 소름 돋았어요.


이런 상황에서 쓰면 효과 극대화

Anthropic 공식 문서에서 제시한 강력한 유즈케이스 4가지를 정리했어요.

1) 병렬 코드 리뷰

위에서 설명한 것처럼, 보안/성능/테스트 커버리지를 각각 다른 팀원이 동시에 리뷰합니다.

왜 좋은가: 혼자 리뷰하면 한 가지 관점에 편향됩니다. 보안 볼 때는 성능을 놓치고, 성능 볼 때는 테스트를 놓치고. 팀으로 하면 동시에 다 잡아요.

2) 경쟁 가설 디버깅

이게 진짜 신박한 유즈케이스예요.

버그 원인을 모를 때, 여러 팀원이 각각 다른 가설을 세우고 동시에 검증합니다. 그리고 서로의 가설을 반박합니다.

사용자가 메시지 하나 보내면 앱이 종료되는 버그가 있어.
5명의 팀원을 스폰해서 각자 다른 가설을 조사하게 해.
서로의 이론을 반증하도록 과학적 토론을 시켜.
결론이 나면 합의된 내용으로 문서를 업데이트해.

이거 왜 좋냐면요.

순차적 디버깅의 문제는 앵커링 바이어스예요. 첫 번째 가설이 그럴듯하면, 그 뒤로는 그 가설에 끌려가요. “아 이거인 것 같은데” 하면 다른 가능성을 잘 안 봅니다.

근데 5명이 각자 다른 가설을 들고 와서 서로 반박하면? 살아남는 가설이 진짜 원인일 확률이 훨씬 높아요.

솔직히 이 유즈케이스 읽었을 때 “이건 좀 오버 아닌가?” 했는데, 생각해보니까 실제 시니어 개발자들이 포스트모템(사후 분석) 미팅에서 하는 방식이랑 똑같아요.

3) 새 모듈/기능 개발

프론트엔드, 백엔드, 테스트를 각각 다른 팀원이 동시에 개발합니다. 서로 다른 파일을 건드리니까 충돌도 없어요.

4) 크로스 레이어 조율

프론트엔드 변경 → 백엔드 API 수정 → 테스트 업데이트 같은 여러 레이어에 걸친 작업을 각 레이어별 담당자가 동시에 처리합니다.

반대로, 이런 경우엔 쓰지 마세요

상황왜 안 되나대안
순차적 작업병렬화 이점 없음단일 세션
같은 파일 수정충돌 발생서브에이전트
의존성 많은 작업대기 시간 증가단일 세션
간단한 작업조율 오버헤드 > 이점서브에이전트

핵심은 “팀원들이 독립적으로 일할 수 있는가?” 예요. Yes면 에이전트 팀, No면 단일 세션이나 서브에이전트.


내가 느낀 점 – 솔직한 충격

이 기능 소식을 처음 접했을 때, 솔직히 좀 무서웠습니다.

왜냐면요. 저는 지금까지 “AI 에이전트 하나를 잘 다루는 것”이 핵심이라고 생각했거든요. 스킬을 잘 만들고, 프롬프트를 정교하게 짜고, CLAUDE.md를 꼼꼼히 관리하면 된다고.

근데 이제는 팀을 조율하는 능력이 필요해진 거예요.

한 명의 AI를 잘 부리는 것에서, AI 팀을 이끄는 것으로.

이건 단순한 기능 업데이트가 아니에요. 패러다임 전환입니다.

마치 “혼자 코딩하던 개발자가 갑자기 테크 리드가 된 느낌”이랄까요. 코딩 실력만으로는 안 되고, 업무 분배, 커뮤니케이션, 품질 관리까지 신경 써야 하는 거예요.

제가 운영하는 OpenClaw 시스템을 예로 들어볼게요.

지금은 이렇게 돌아가요:

사용자 → 단일 에이전트 → 스킬 A (블로그 작성)
                       → 스킬 B (암호화폐 분석)  
                       → 스킬 C (뉴스 브리핑)
                       (전부 순차 처리)

에이전트 팀을 적용하면:

사용자 → 팀 리드 → 팀원 1: 웹 리서치 + 팩트 체크
                 → 팀원 2: 블로그 초안 작성
                 → 팀원 3: SEO 최적화 + 이미지
                 → 팀원 4: SNS 포스트 생성
                 (동시 진행!)

블로그 글 하나 쓰는 데 걸리는 시간이 절반 이하로 줄어들 수 있어요.

근데 솔직히, 이게 됐을 때의 설렘만큼 걱정도 있어요.


솔직한 마음 – 불안과 기대 사이

불안하지 않다면 거짓말입니다.

비용 걱정

각 팀원이 별도의 Claude 인스턴스예요. 4명 팀이면 토큰 사용량이 4배 이상.

Anthropic 공식 문서에서도 “에이전트 팀은 단일 세션보다 상당히 더 많은 토큰을 사용합니다”라고 명시했어요.

리서치나 리뷰 같은 작업은 추가 토큰 대비 가치가 있지만, 루틴 작업에는 단일 세션이 더 비용 효율적이라고도 했고요.

저처럼 Claude Pro 구독으로 쓰는 사람한테는 토큰 제한이 꽤 부담될 수 있어요.

제어의 어려움

혼자 일하는 AI는 예측 가능합니다. 내가 시킨 거 하니까.

근데 팀으로 움직이면? 팀원들이 서로 대화하면서 예상 못한 방향으로 갈 수 있어요. “이게 왜 이렇게 됐지?” 하는 순간이 올 수 있다는 거죠.

공식 문서에서도 “팀을 너무 오래 방치하면 낭비되는 작업이 늘어난다”고 경고했어요.

그래도 방향은 보입니다

불안하지만요.

이건 분명히 미래의 방향이에요.

개발자가 “직접 코딩하는 사람”에서 “AI 팀을 이끄는 사람”으로 역할이 바뀌는 건, 이미 시작된 흐름이었거든요. Claude Code 에이전트 팀은 그 흐름을 확실하게 보여주는 기능입니다.

막연히 불안해하기보다, 먼저 경험하고 노하우를 쌓는 게 답이라고 생각해요.


아직 실험 단계라는 현실 – 알고 쓰자

기능이 대단한 건 맞지만, 현실적인 제한사항도 꼭 알아야 해요.

Anthropic 공식 문서(2026년 2월 6일 기준)에서 밝힌 한계:

제한사항설명
세션 복원 불가/resume/rewind로 in-process 팀원 복원 안 됨
태스크 상태 지연팀원이 완료 표시 안 하면 의존 작업 블록됨
종료 느림팀원이 현재 작업 마치고 종료 → 시간 걸림
세션당 1팀한 리드가 한 팀만 관리 가능
중첩 팀 불가팀원이 자기만의 팀을 만들 수 없음
리드 고정팀 만든 세션이 영구 리드
권한 일괄 설정스폰 시 팀원별 권한 설정 불가
Split pane 제한VS Code 터미널, Windows Terminal 미지원

특히 **”세션 복원 불가”**는 좀 아쉬운 부분이에요. 작업 중에 세션이 끊기면 팀원들이 다 사라져요. 다시 스폰해야 합니다.

그리고 **”중첩 팀 불가”**도요. 팀원이 자기만의 하위 팀을 만들 수 없어서, 아직은 2단계 계층까지만 가능합니다. 미래에는 바뀔 수 있겠지만요.


앞으로 내가 할 것들 – 구체적 액션 플랜

글을 다 쓰고 나서 방향이 보였습니다.

이번 주 (즉시)

  1. settings.json에 에이전트 팀 활성화 (이미 했어요)
  2. 간단한 테스트: 블로그 글 하나를 에이전트 팀으로 작성해보기
    • 팀원 구성: 리서치 1명 + 초안 작성 1명 + SEO 최적화 1명
    • 단일 에이전트 대비 시간/품질 비교

다음 주

  1. OpenClaw 파이프라인에 통합 테스트
    • trading-pipeline: 시황분석 + 기술분석 + 리스크체크를 병렬로
    • blog-pipeline: 웹리서치 + 글작성 + SNS포스트를 병렬로
  2. 비용 모니터링: 토큰 사용량 일일 기록

이번 달

  1. 성과 비교 리포트 작성
    • 단일 에이전트 vs 에이전트 팀
    • 시간, 품질, 비용 3가지 축으로 비교
  2. Best Practice 정립: 어떤 작업에 팀을 쓰고, 어떤 작업에 단일을 쓸지 기준 만들기

솔직히 제일 궁금한 건 **”비용 대비 효율”**이에요. 토큰을 4배 쓰는데 결과물이 4배 좋아지는 건 아닐 테니까요. 어느 지점에서 sweet spot이 나오는지 찾아봐야 합니다.


자주 묻는 질문 (FAQ)

Q1. 에이전트 팀 쓰려면 유료 플랜이 필요한가요?

Claude Code 자체가 Anthropic 유료 플랜(Pro, Max, Team, Enterprise)이 필요합니다. 에이전트 팀은 추가 결제 없이 settings.json 활성화만으로 사용 가능하지만, 토큰 사용량이 크게 늘어나므로 구독 플랜의 토큰 한도를 확인하세요.

Q2. 팀원은 최대 몇 명까지 만들 수 있나요?

공식적인 제한은 명시되어 있지 않지만, Boris Cherny는 개인적으로 MacBook에서 최대 15개 세션을 병렬로 돌린다고 밝혔습니다. 실제로는 3~5명이 가장 효율적이에요. 너무 많으면 조율 오버헤드가 커집니다.

Q3. 기존 서브에이전트와 동시에 사용할 수 있나요?

네. 에이전트 팀과 서브에이전트는 별개 기능입니다. 팀원 내에서 서브에이전트를 추가로 활용할 수도 있어요. 다만, 팀원이 자기만의 팀을 만드는 건(중첩 팀) 현재 불가합니다.

Q4. Windows에서도 사용 가능한가요?

에이전트 팀의 기본 in-process 모드는 모든 터미널에서 작동합니다. 다만 split-pane 모드는 tmux 또는 iTerm2가 필요해서 Windows Terminal이나 VS Code 터미널에서는 지원하지 않습니다.

Q5. 팀원들이 같은 파일을 동시에 수정하면 어떻게 되나요?

충돌이 발생할 수 있어요. Anthropic 공식 문서에서도 “같은 파일을 두 팀원이 수정하면 덮어쓰기가 발생한다”고 경고합니다. 각 팀원이 서로 다른 파일 세트를 담당하도록 작업을 분배하는 게 핵심이에요.

Q6. CLAUDE.md 같은 프로젝트 설정은 팀원들도 공유하나요?

네! 팀원들은 스폰될 때 프로젝트 컨텍스트(CLAUDE.md, MCP 서버, 스킬)를 자동으로 로드합니다. 다만 리드의 대화 기록은 상속되지 않아요. 그래서 팀원 스폰할 때 충분한 컨텍스트를 프롬프트에 포함시키는 게 중요합니다.


정리하며 – 혼자 일하는 시대는 끝났다

돌이켜보면, AI 코딩 도구의 진화는 이런 흐름이었어요:

2024: AI가 코드 조각을 제안 (Copilot 자동완성)
  ↓
2025: AI가 하나의 작업을 처리 (Claude Code 단일 에이전트)
  ↓  
2026: AI가 팀으로 움직인다 (Claude Code Agent Teams) ← 지금 여기
  ↓
????: AI가 프로젝트를 관리한다 (자율 개발팀?)

에이전트 팀은 아직 연구 프리뷰예요. 완벽하지 않아요. 세션 복원 안 되고, 비용도 많이 들고, 가끔 팀원이 엉뚱한 짓을 할 수도 있어요.

근데요.

처음엔 “굳이?” 했던 제가, 지금은 “이거 없이 어떻게 했지?”를 향해 가고 있어요.

아직 실험 단계니까, 핵심 워크플로우에 바로 넣기보다는 사이드 프로젝트에서 먼저 테스트해보세요. 저도 그렇게 시작할 거예요.

한 가지 확실한 건, AI를 잘 쓰는 능력의 정의가 바뀌고 있다는 거예요.

“프롬프트를 잘 쓰는 것”에서 “AI 팀을 잘 이끄는 것”으로.

그 변화에 먼저 올라타는 사람이, 결국 앞서갈 거라고 생각합니다.


참고 자료

🏷️ 태그: #ClaudeCode #AgentTeams #Swarm #멀티에이전트 #AI개발 #Anthropic