콘텐츠로 이동

논문 & 자료

제목저자연도관련 주차
Agents (OpenAI)OpenAI20231–2주
Constitutional AIAnthropic20222주
ReAct: Synergizing Reasoning and ActingYao et al.20233주
ToolformerSchick et al.20233주
제목저자연도관련 주차
DeepSeek-Coder-V2DeepSeek-AI202410주
Code LlamaRozière et al.202310주
SWE-benchJimenez et al.20249주
SWE-bench ProOpenAI et al.20264, 9주
T2 Scaling Laws20264주
Scaling LLM Test-Time ComputeSnell et al.20244주
제목저자연도관련 주차
AutoGenWu et al.20237주
MetaGPTHong et al.20247–9주
ChatDevQian et al.20237주
제목저자연도관련 주차
vLLM: PagedAttentionKwon et al.202311주
Efficiently Scaling Transformer InferencePope et al.202311주
  • “The Ralph Loop” — Geoffrey Huntley (2025) → 4–6주 핵심 자료
  • “Harness Engineering” — Geoffrey Huntley (2025) → 4주
  • “Exploring Gen AI: AI Coding Agents” — Martin Fowler / ThoughtWorks (2026) → 4주. Guides vs Sensors 프레임워크
  • “autoresearch” — Andrej Karpathy (2026) → 4주. 700실험, 20최적화, 11% 개선
  • “Context Window Research” — Chroma (2026) → 5주. 18개 모델 Context Rot 실증 연구
  • “SkillReducer” (arXiv:2603.29919) → 5-6주. 48% 설명 압축 시 품질 2.8% 향상
  • “How to Write a Great agents.md” — GitHub Blog (2026) → 6주. 2,500개 레포 분석, 성공 5요소
  • “AGENTbench” — ETH Zurich (2026) → 6주. LLM 생성 instruction 파일의 역효과 실증
  • “Agentic Coding” — MIT Missing Semester (2026) → 4-6주. instruction files, skills, subagents 정규 강의
  • “LLM Wiki: Building Persistent Knowledge Systems” — Andrej Karpathy (2026) → 5주. LLM이 영구 지식 위키를 유지하는 Ingest/Query/Lint 패턴
  • Graphify — Safi Shamsi (2026) → 5주. 코드베이스를 지식 그래프로 변환, tree-sitter AST + Leiden 클러스터링, 71.5x 토큰 절감
  • Claude Code: Deep Dive — Anthropic Blog (2025) → 1–2주
  • EU AI Act — Official Journal of the EU (2024) → 2주
  • NIST AI Risk Management Framework — NIST (2023) → 2주