콘텐츠로 이동

개발 도구

에이전틱 코딩의 기준 상용 도구. 터미널 통합, MCP 지원, GitHub 연동.

Terminal window
# 설치
pnpm add -g @anthropic-ai/claude-code
# 기본 사용
claude "Python 계산기를 만들어줘"
# 파일 컨텍스트 포함
claude --file=PROMPT.md
# 헤드리스 모드 (Ralph 루프용)
cat PROMPT.md | claude --headless
Terminal window
# /loop — 스케줄 기반 자율 에이전트 루프
claude /loop "failing tests를 찾아 수정" --every 2h --for 3d
# 루프 상태 확인 / 중지
claude /loop --status
claude /loop --stop

주요 기능:

  • MCP 서버 통합 (~/.claude/settings.json)
  • CLAUDE.md 프로젝트별 지침 파일
  • /loop 스케줄 기반 자율 루프 (git worktree 격리, 최대 3일)
  • 멀티파일 편집
  • GitHub Actions 통합

고급 기능:

  • Plan Mode (Shift+Tab) — 코드 작성 전 계획을 먼저 수립. 계획 확정 후 자동 실행으로 전환.
    Terminal window
    # 대화형 세션에서 Shift+Tab으로 Plan Mode 진입
    # 계획 수립 → 확인 → 자동 실행
  • Effort Levels — 추론 깊이 조절. 단순 작업에는 낮은 effort로 비용 절감, 복잡한 설계에는 높은 effort 사용.
    Terminal window
    claude --effort low "이 함수의 반환 타입을 알려줘"
    claude --effort high "이 모듈을 비동기로 리팩터링해줘"
  • Output Styles — 인지 모드 프리셋. 설명형(Explanatory), 학습형(Learning), 간결형(Concise) 등.
    Terminal window
    claude --output-style concise "테스트 실패 원인 분석"
    claude --output-style explanatory "MCP 프로토콜 설명해줘"
  • Custom Agents.claude/agents/*.md 파일로 전문화된 에이전트 정의. 역할, 허용 도구, 권한을 선언적으로 설정.
    Terminal window
    # .claude/agents/qa-reviewer.md 에 역할 정의 후:
    claude --agent qa-reviewer "이 PR을 리뷰해줘"
    // settings.json에서 기본 에이전트 지정
    { "defaultAgent": "qa-reviewer" }
  • Skills — 설치 가능한 .md 스킬 파일. ~/.claude/skills/에 배치하고 세션 내에서 로드.
    Terminal window
    # 스킬 로드
    claude /skills refactor-guide
  • Hooks — 도구 호출 등 이벤트에 트리거되는 셸 명령. settings.json에서 설정.
    ~/.claude/settings.json
    {
    "hooks": {
    "PreToolUse": [
    {
    "matcher": "Bash",
    "command": "echo '$(date): Bash called' >> ~/.claude/audit.log"
    }
    ]
    }
    }
  • Sandboxing (/sandbox) — BashTool의 파일 및 네트워크 접근을 격리. 에이전트 실수의 피해 범위를 제한.
    Terminal window
    # 세션 내에서 샌드박스 모드 활성화
    claude --sandbox
  • Worktree Native (--worktree) — git worktree 기반 격리 세션. tmux 통합으로 백그라운드 실행 가능.
    Terminal window
    # 격리된 worktree 세션 시작
    claude --worktree feature-auth
    # tmux 세션으로 백그라운드 실행
    claude --worktree feature-auth --tmux
  • Parallel Sessions — 여러 Claude Code 인스턴스를 동시 실행. 각 세션이 독립 컨텍스트를 유지.
    Terminal window
    # 터미널 1: 프론트엔드 작업
    claude --worktree frontend "React 컴포넌트 구현"
    # 터미널 2: 백엔드 작업
    claude --worktree backend "API 엔드포인트 구현"
  • /batch — 대화형 계획 수립 후 worktree 격리 기반 병렬 실행. 각 에이전트가 테스트 후 개별 PR 생성.
    Terminal window
    claude /batch "src/의 로깅을 새 구조화 로거로 마이그레이션"
  • /simplify — 병렬 에이전트로 코드 리뷰 수행. 재사용성, 품질, 효율성 관점을 동시 분석.
    Terminal window
    claude /simplify

내부 구조 — 도구 시스템과 퍼미션

섹션 제목: “내부 구조 — 도구 시스템과 퍼미션”

Claude Code 내부에서 도구는 3-Layer로 합성된다:

Layer소스설명
Base컴파일 타임 정적 정의40개 빌트인 도구 (Bash, Read, Write, Edit, Glob, Grep, Agent, Skill 등)
Plugin사용자 설치 확장hook 기반 lifecycle (pre/post_tool_use)
RuntimeMCP 서버 동적 등록mcp__{server}__{tool} 네이밍. 서버 연결 시 자동 등록

도구 카테고리: Shell(2) · File I/O(4) · Search(3) · Web(2) · Agent(2) · Task/Session(6)

퍼미션 3모드: ReadOnly(읽기만) → WorkspaceWrite(기본, 워크스페이스 내 쓰기) → DangerFullAccess(전체 접근). 도구마다 필요 퍼미션이 지정되어 있어, 모드에 따라 사용 가능한 도구가 자동으로 필터링된다.

→ 상세: Claude Code 내부 구조

기능별 상세 설명과 실습 예제는 4주차 (루프/worktree), 6주차 (인스트럭션 튜닝), 7주차 (멀티에이전트 설계) 참조.


무료 티어를 제공하는 Google의 AI 코딩 CLI. 1M 토큰 컨텍스트 창, MCP 지원.

Terminal window
# 설치
pnpm add -g @google/gemini-cli
# 대화형 실행
gemini
# 파이프 모드 (헤드리스)
cat PROMPT.md | gemini

주요 기능:

  • MCP 서버 통합 (~/.gemini/settings.json)
  • GEMINI.md 프로젝트별 지침 파일
  • 무료 티어: 1,000 req/day
  • 1M 토큰 컨텍스트 창

OpenAI의 터미널 기반 코딩 에이전트. 내장 샌드박스로 안전한 자동 실행 가능.

Terminal window
# 설치
pnpm add -g @openai/codex
# 기본 사용
codex "Python 계산기를 만들어줘"
# 자동 승인 모드 (Ralph 루프용)
codex --approval-mode full-auto "$(cat PROMPT.md)"

주요 기능:

  • 내장 샌드박스 (가장 안전한 자동 실행)
  • AGENTS.md 프로젝트별 지침 파일
  • MCP 미지원
  • ChatGPT Plus 또는 API 키 필요

오픈소스 TUI 기반 AI 코딩 도구. 다양한 모델 백엔드 지원, 로컬 모델 연동 가능.

Terminal window
# 설치 (macOS)
brew install opencode
# TUI 모드 실행
opencode
# API 서버 모드
opencode serve

주요 기능:

  • TUI(Terminal UI) 인터페이스
  • OpenAI, Anthropic, 로컬 모델(Ollama) 등 다양한 백엔드
  • 무료 (로컬 모델 사용 시 API 비용 없음)
  • MCP 제한적 지원

도구별 상세 비교는 AI 코딩 도구 선택 가이드 참조.


고처리량 LLM 추론 서버. OpenAI 호환 API 제공.

Terminal window
# 설치
pip install vllm
# 서버 시작
python -m vllm.entrypoints.openai.api_server \
--model deepseek-ai/DeepSeek-Coder-V2-Lite-Instruct \
--port 8000
# 클라이언트 사용 (OpenAI 호환)
from openai import OpenAI
client = OpenAI(base_url="http://localhost:8000/v1", api_key="token")

코드베이스와 문서를 지식 그래프로 변환하는 AI 코딩 어시스턴트 스킬. tree-sitter AST 추출(23개 언어, LLM 호출 불필요)로 코드 구조를 분석하고, NetworkX + Leiden 클러스터링으로 커뮤니티 탐지 및 인터랙티브 시각화를 생성한다.

Terminal window
# 설치
pip install graphify-ai
# 코드베이스 그래프 구축
graphify build ./src --output graph.json
# 인터랙티브 시각화 생성
graphify visualize graph.json --output graph.html

주요 기능:

  • tree-sitter 기반 로컬 AST 분석 (코드가 외부로 전송되지 않음)
  • 혼합 코퍼스에서 원본 대비 71.5배 토큰 절감
  • 신뢰도 태깅: EXTRACTED / INFERRED / AMBIGUOUS
  • SHA256 캐시 기반 증분 업데이트
  • Claude Code, Gemini CLI, Codex, OpenCode 등 연동

컨텍스트 관리에서의 활용은 5주차 강의 참조.


로컬 및 클라우드 LLM 배포 도구. 단일 명령으로 모델 실행, NVIDIA 클라우드 GPU 원격 추론 지원.

Terminal window
# 설치 (macOS)
brew install ollama
# 설치 (Linux)
curl -fsSL https://ollama.com/install.sh | sh
# 로컬 모델 실행
ollama run gemma4:31b
# 클라우드 모델 (GPU 불필요)
ollama launch claude --model gemma4:31b-cloud
# AI 코딩 CLI 연동
ollama launch claude --model glm-5.1:cloud

에이전트와 외부 도구를 연결하는 표준 프로토콜.

주요 MCP 서버:

서버기능설치
@modelcontextprotocol/server-filesystem파일 읽기/쓰기npx
mcp-server-gitGit 작업uvx
mcp-server-githubGitHub APIuvx
mcp-server-postgresPostgreSQLuvx
~/.claude/settings.json
// Gemini CLI: ~/.gemini/settings.json
{
"mcpServers": {
"filesystem": {
"command": "npx",
"args": ["-y", "@modelcontextprotocol/server-filesystem", "/project"]
},
"git": {
"command": "uvx",
"args": ["mcp-server-git", "--repository", "."]
}
}
}

에이전트 시스템 텔레메트리 수집 표준.

pip install opentelemetry-sdk opentelemetry-exporter-prometheus

로컬 배포 가능한 주요 코딩 모델. vLLM 또는 SGLang으로 서빙하여 OpenAI 호환 API로 사용.

모델파라미터활성컨텍스트HuggingFace
Gemma 431B (Dense)전체256Kgoogle/gemma-4-31b-it
GLM-5.1미공개미공개198KAPI 전용 (현재)
Qwen3-Coder235B (MoE)22B128KQwen/Qwen3-Coder-32B-Instruct
DeepSeek V3685B (MoE)37B128Kdeepseek-ai/DeepSeek-V3
GLM-4.7~32B (Dense)전체128KTHUDM/glm-4-9b-chat
MiniMax M2.1230B (MoE)10B128KMiniMax/MiniMax-M2.1
DeepSeek-Coder-V2236B (MoE)21B128Kdeepseek-ai/DeepSeek-Coder-V2-Lite-Instruct
Qwen3 14B/8B14B/8B전체128KQwen/Qwen3-14B, Qwen/Qwen3-8B

모델별 상세 비교와 하드웨어 요건은 10주차 강의 참조.


도구용도설치
uvPython 패키지 관리 (pip 대체)pip install uv
RuffPython 린터/포매터pip install ruff
pytestPython 테스트 프레임워크pip install pytest
mypyPython 타입 체커pip install mypy
httpx비동기 HTTP 클라이언트pip install httpx