Un CV de ML/AI trebuie să arate ce ai construit, cum ai măsurat și cum ai livrat în producție (data quality, monitoring, drift, latență).
Vezi și ghidul general: Model CV IT (România).
TL;DR
- Recruiterii caută impact + evaluare + “production readiness”.
- „Am antrenat un model” nu e suficient; spune data, metrici, baseline și deployment.
- Dacă nu ai metrici, folosește semnale verificabile: stabilitate mai bună, iterații mai rapide, cost redus.
Checklist rapid (înainte să trimiți)
- Titlu clar: „ML Engineer” / „Data Scientist” / „Applied AI Engineer” + 1–2 tehnologii relevante (Python, PyTorch, SQL).
- 3–6 bullet-uri puternice la ultimul rol: problemă → abordare → evaluare → rezultat.
- Ai menționat: datele (surse/volum), evaluarea (metrici + baseline), deployment (batch/real-time), monitoring (drift/quality).
- Dacă ai proiecte: include 1 link „curat” (README, setup, rezultate, limitări).
Structură recomandată (ML / AI)
- Header (link-uri curate)
- Summary (2–4 rânduri: domeniu + tip de modele + ce cauți)
- Experience (impact + evaluare + producție)
- Selected projects (recomandat pentru juniori / switch; pune rezultate reale)
- Skills (Python/ML, data, MLOps, cloud)
- Education/Certificări (scurt)
Cum arată un bullet bun (ML / AI)
Formula care ajută: Outcome + context (date/volum) + metodă + evaluare (baseline/metric) + producție (dacă există).
Exemple:
- „Am redus rata de fraudă fals-pozitivă cu ~18% printr-un model XGBoost, validat prin AUC/PR și testat online pe un subset (rollback plan inclus).”
- „Am scăzut costul de inferență cu ~25% prin batching + quantization, păstrând calitatea (metrici de evaluare) în limite.”
- „Am introdus data quality checks pentru input-uri critice, reducând incidentele legate de date după release.”
Nu ai voie să inventezi metrici. Dacă nu ai cifre, folosește semnale verificabile:
- reproducibilitate, iterații mai rapide, alerte de drift, time-to-detect scăzut, pipeline standardizat, mai puține bug-uri în producție.
Bibliotecă de bullet-uri (ML / AI)
Ia 6–10 bullet-uri care sunt reale pentru tine și ajustează-le pe rol.
Outcome-uri
- „Am îmbunătățit [metric] cu [X%] prin [abordare] (baseline → nou).”
- „Am redus costul de inferență cu [X%] prin batching/quantization/pruning.”
- „Am redus timpul de experimentare cu [X%] prin pipeline standard de train/eval.”
- „Am crescut rata de adoptare a unui feature printr-un model recomandare/ranking și măsurare online.”
- „Am redus latența inferenței sub [SLA] prin optimizări și cache unde a fost potrivit.”
Data & evaluare
- „Am introdus data quality checks, reducând erorile “tăcute” în date.”
- „Am construit un suite de evaluare (offline + online), crescând încrederea înainte de release.”
- „Am adăugat versionare și reproducibilitate, reducând debugging-ul pe “s-a schimbat ceva”.”
- „Am definit o strategie de split (time-based / user-based) pentru a evita leakage și a obține un eval realist.”
- „Am creat baseline-uri simple, apoi am iterat controlat pe feature engineering / model selection.”
- „Am documentat limitările modelului și scenariile unde performanța scade (edge cases).”
Deployment & monitoring
- „Am livrat modelul ca API/serviciu, cu monitorizare și plan de rollback.”
- „Am adăugat drift monitoring + alerte, reducând timpul până la detecție.”
- „Am optimizat latența ca să respectăm [SLA], permițând folosirea real-time.”
- „Am implementat shadow deployment pentru a compara output-ul nou vs vechi înainte de rollout.”
- „Am definit praguri de alertare pentru calitate (input/output) și am adăugat dashboard-uri pentru echipă.”
MLOps & reproducibilitate
- „Am standardizat training-ul cu config-uri și tracking de experimente (artefacte + metrici), crescând reproducibilitatea.”
- „Am introdus versionare pentru dataset/model și am automatizat retraining-ul (unde a fost relevant).”
- „Am redus timpul de livrare model → producție printr-un pipeline CI/CD pentru ML (testare + validare).”
Prompting / LLM (dacă rolul cere)
- „Am construit un pipeline de evaluare pentru prompt-uri (dataset de întrebări + rubrică), reducând regresiile.”
- „Am introdus guardrails (safety, PII, policy) și fallback-uri pentru răspunsuri incerte.”
- „Am optimizat costul prin caching, batching și alegerea modelului potrivit pe task.”
Greșeli frecvente
- Listă de modele/algoritmi fără problema rezolvată.
- Zero evaluare/baseline și zero discuție despre regresii.
- Repo public fără rezultate, setup clar sau pași reproductibili.
- „Am folosit GPT-4” fără task, evaluare și constrângeri (cost/latency/safety).
Cuvinte cheie utile (doar dacă le-ai folosit)
- feature engineering, baselines, cross-validation (unde e potrivit)
- metrics: precision/recall/F1, AUC/PR, RMSE/MAE, NDCG (depinde de problemă)
- data quality, leakage, drift monitoring
- batch vs real-time inference, latency, SLA
- model versioning, experiment tracking, reproducibility
- CI/CD pentru ML, rollback, shadow deploy
- LLM: prompt evaluation, guardrails, retrieval (RAG) (doar dacă e real)
Template CV ML / AI (copy/paste)
Întrebări frecvente
Ce rol scriu: Data Scientist sau ML Engineer?
Dacă jobul e „producție + integrare + monitorizare”, de obicei ML Engineer / Applied ML. Dacă e mai mult „analiză + modele + experimentare”, Data Scientist. Alege titlul care se potrivește cu ce ai făcut efectiv.
Dacă am doar proiecte (fără experiență comercială)?
E ok, dar tratează proiectele ca livrări: date, evaluare, rezultate, limitări, și cum ai rula/monitoriza în producție.