PHASE 1 Tuần 1 · 8h
Foundation — Agentic
Domain 1 · Agentic Architecture & Orchestration (27%)
PHASE 2 Tuần 2 · 10h
MCP, Tools & Claude Code
Domain 2 (18%) + Domain 3 (20%)
PHASE 3 Tuần 3 · 8h
Prompt Engineering & Context
Domain 4 (20%) + Domain 5 (15%)
PHASE 4 Tuần 4 · 4h
Practice & Exam Scenarios
6 scenarios · resources · final checklist
Cách dùng roadmap này
Click vào phase ở trên hoặc tab bên trái để xem detail từng tuần
Bắt đầu bằng Common TrapsMental Models — đọc trước khi vào phase. Đề thi scenario-based, biết trap = không rơi.
Mỗi tuần học 1 domain + làm working examples ở repo cca-f-roadmap. Pattern code = pattern đề.
Phase 4 là practice + checklist. Aim ≥ 750/1000 trên mock trước khi đăng ký thi thật.
Common Traps — bẫy hay gặp trong đề thi
6 trap kinh điển. Đáp án seductive thường là một trong những cái này.
×6
trap
Few-shot để enforce tool ordering — ordering là compliance concern, phải dùng programmatic prerequisites trong tool handler, không phải demonstrations trong prompt.
D1
trap
Self-reported confidence cho escalation routing — LLM confidence kém calibrated, model tự tin nhất khi sai nhất. Dùng external signal (rule check, agreement giữa 2 models).
D4
trap
Route mọi workflow sang Batch API để tiết kiệm — Batch không có SLA (up-to-24h), blocking workflow (chat, IDE, code agent) bắt buộc phải dùng real-time API.
D5
trap
Tăng context window để fix attention dilution — context size ≠ attention quality. Phải split thành per-file passes, đặt key info ở đầu/cuối, dùng section headers.
D5
trap
Return empty khi subagent fail — phải return {ok: false, error, retryable, context} structured, không được suppress lỗi im lặng.
D1
trap
Cho agent dùng 18 tools — 4–5 tools/agent là optimal. Quá nhiều làm giảm selection reliability. Fix = split thành multi-agent với role-scoped tool sets.
D2
5 Mental Models quan trọng nhất cho kỳ thi
Áp dụng đúng 5 frame này → loại được 2-3 đáp án seductive cho mỗi câu.
×5
M1
Programmatic vs prompt-based enforcement — khi có financial/compliance consequence → phải dùng code, không dùng prompt. Prompt là probabilistic, code là deterministic.
D1
M2
Tool description là routing mechanism chính — không phải system prompt, không phải function name. Mô tả tệ → model đoán mò giữa các tools tương tự.
D2
M3
Subagent không kế thừa context — mọi thứ cần phải pass explicitly trong prompt. Không có shared memory, không có automatic history propagation.
D1
M4
Lost-in-the-middle là design constraint thật — đặt key summaries ở đầu aggregated input, dùng section headers, trim verbose tool outputs trước khi accumulate.
D5
M5
Batch API vs real-time là latency decision — không phải cost decision. Batch tiết kiệm 50% nhưng up-to-24h, không có SLA. Blocking workflow → real-time bắt buộc.
D5
Phase 1 · Foundation — Agentic Architecture
Tuần 1 · ~8h · Domain nặng nhất, học kỹ nhất
27%
Domain 1 · Agentic Architecture & Orchestration Nặng nhất examples
Agentic loop: tiếp tục khi stop_reason = "tool_use", kết thúc khi "end_turn"
Multi-agent hub-and-spoke: coordinator quản lý routing & error handling, subagents có isolated context
Subagent context passing: dùng Task tool, allowedTools phải include "Task", pass findings explicitly
Spawn parallel subagents bằng multiple Task calls trong một coordinator response
Programmatic prerequisites: block process_refund cho đến khi get_customer trả về verified ID
Hooks: PostToolUse để normalize heterogeneous formats, interception để block policy violations (refund > $500)
Task decomposition: prompt chaining cho fixed sequential steps, dynamic decomposition cho open-ended exploration
Session management: --resume <session-name>, fork_session cho independent branches từ shared baseline
Phase 2 · Tools & Claude Code
Tuần 2 · ~10h · Tool design, MCP integration, Claude Code workflow
38%
Domain 2 · Tool Design & MCP Integration 18% examples
Tool description = routing mechanism chính của LLM (không phải function name hay system prompt)
Include trong description: input formats, example queries, edge cases, explicit boundaries vs. similar tools
Rename tools để tránh overlap: analyze_code_structure vs. analyze_code_quality
MCP server scoping: mỗi agent chỉ expose tools thuộc role của nó
Tool boundaries ngăn reasoning overload — tối đa 4–5 tools/agent, không phải 18
MCP server types: stdio (local), SSE/HTTP (remote); authentication và permission scoping
Domain 3 · Claude Code Configuration & Workflows 20% examples
CLAUDE.md hierarchy: project-level → user-level → system-level, hiểu rõ override rules
Skills frontmatter: cấu trúc file, khi nào trigger, path conventions (.claude/skills/)
Custom slash commands: /cf-orchestrate-convert, /cf-orchestrate-new-test
Directory convention: .claude/agents/, .claude/skills/, .claude/rules/
CI/CD integration: non-interactive mode flags, output format, --allowedTools
storageState-based auth trong automated test workflows
Phase 3 · Prompt Engineering & Context
Tuần 3 · ~8h · Structured output, escalation, long-context strategy
35%
Domain 4 · Prompt Engineering & Structured Output 20% examples
JSON schema enforcement: response_format + validation retry loops
Few-shot cho tone/style — KHÔNG dùng để enforce ordering hay compliance
Defense in depth: schema + few-shot + validation = reliable structured output
Prompt chaining cho multi-step extraction, không nhồi hết vào một prompt
Phân biệt probabilistic (prompt) vs. deterministic (programmatic) enforcement
Escalation routing: dựa vào external signals, không dựa vào self-reported confidence
Domain 5 · Context Management & Reliability 15% examples
Lost-in-the-middle: key info phải ở đầu hoặc cuối input, không để ở giữa
Trim verbose tool outputs trước khi chúng tích lũy trong context
Handoff summary bắt buộc gồm: customer ID, root cause, refund amount, recommended action
Confidence calibration: không tin self-reported score, dùng external validation
Batch API: tiết kiệm 50% cost, up-to-24h SLA — chỉ dùng cho overnight/weekly jobs
Long context strategy: per-file analysis passes, section headers, explicit summaries ở đầu
Phase 4 · Practice & Exam Scenarios
Tuần 4 · ~4h · Học hết 6 scenarios, thi rút random 4
×6

6 Exam Scenarios

Strategy: Học hết cả 6 scenario. Mỗi scenario = combine 2-3 domains. Mở repo cca-f-roadmap/scenarios để xem traps + patterns đáp án cho từng cái.
Final Checklist · trước ngày thi
Click vào item để đánh dấu hoàn thành (lưu trong localStorage)
Làm full mock exam 60 câu timed, nhắm điểm ≥ 750 trước khi đăng ký thi thật
Ôn lại Domain 1 cheatsheet: agentic loop, hub-and-spoke, hooks
Ôn Domain 3: CLAUDE.md hierarchy, slash commands, CI/CD flags
Đọc kỹ đáp án SAI trong mock — hiểu tại sao sai quan trọng hơn thuộc đáp án đúng
Nghỉ ngơi đêm trước — đề thi test engineering judgment, không test thuộc lòng
Re-read 6 Common Traps + 5 Mental Models một lần cuối sáng thi
Setup môi trường thi: stable internet, webcam OK, ID sẵn sàng, đóng app distract