Model CV ML / AI (România): bullet-uri + cuvinte cheie

Bullet-uri de CV pentru ML/AI (impact, evaluare, deployment), structură practică, greșeli frecvente și template descărcabil.

Autor: Ivo Pereira 14 min Ultima actualizare: 2026-01-06

Un CV de ML/AI trebuie să arate ce ai construit, cum ai măsurat și cum ai livrat în producție (data quality, monitoring, drift, latență).

Vezi și ghidul general: Model CV IT (România).

TL;DR

  • Recruiterii caută impact + evaluare + “production readiness”.
  • „Am antrenat un model” nu e suficient; spune data, metrici, baseline și deployment.
  • Dacă nu ai metrici, folosește semnale verificabile: stabilitate mai bună, iterații mai rapide, cost redus.

Checklist rapid (înainte să trimiți)

  • Titlu clar: „ML Engineer” / „Data Scientist” / „Applied AI Engineer” + 1–2 tehnologii relevante (Python, PyTorch, SQL).
  • 3–6 bullet-uri puternice la ultimul rol: problemă → abordare → evaluare → rezultat.
  • Ai menționat: datele (surse/volum), evaluarea (metrici + baseline), deployment (batch/real-time), monitoring (drift/quality).
  • Dacă ai proiecte: include 1 link „curat” (README, setup, rezultate, limitări).

Structură recomandată (ML / AI)

  1. Header (link-uri curate)
  2. Summary (2–4 rânduri: domeniu + tip de modele + ce cauți)
  3. Experience (impact + evaluare + producție)
  4. Selected projects (recomandat pentru juniori / switch; pune rezultate reale)
  5. Skills (Python/ML, data, MLOps, cloud)
  6. Education/Certificări (scurt)

Cum arată un bullet bun (ML / AI)

Formula care ajută: Outcome + context (date/volum) + metodă + evaluare (baseline/metric) + producție (dacă există).

Exemple:

  • „Am redus rata de fraudă fals-pozitivă cu ~18% printr-un model XGBoost, validat prin AUC/PR și testat online pe un subset (rollback plan inclus).”
  • „Am scăzut costul de inferență cu ~25% prin batching + quantization, păstrând calitatea (metrici de evaluare) în limite.”
  • „Am introdus data quality checks pentru input-uri critice, reducând incidentele legate de date după release.”

Nu ai voie să inventezi metrici. Dacă nu ai cifre, folosește semnale verificabile:

  • reproducibilitate, iterații mai rapide, alerte de drift, time-to-detect scăzut, pipeline standardizat, mai puține bug-uri în producție.

Bibliotecă de bullet-uri (ML / AI)

Ia 6–10 bullet-uri care sunt reale pentru tine și ajustează-le pe rol.

Outcome-uri

  • „Am îmbunătățit [metric] cu [X%] prin [abordare] (baseline → nou).”
  • „Am redus costul de inferență cu [X%] prin batching/quantization/pruning.”
  • „Am redus timpul de experimentare cu [X%] prin pipeline standard de train/eval.”
  • „Am crescut rata de adoptare a unui feature printr-un model recomandare/ranking și măsurare online.”
  • „Am redus latența inferenței sub [SLA] prin optimizări și cache unde a fost potrivit.”

Data & evaluare

  • „Am introdus data quality checks, reducând erorile “tăcute” în date.”
  • „Am construit un suite de evaluare (offline + online), crescând încrederea înainte de release.”
  • „Am adăugat versionare și reproducibilitate, reducând debugging-ul pe “s-a schimbat ceva”.”
  • „Am definit o strategie de split (time-based / user-based) pentru a evita leakage și a obține un eval realist.”
  • „Am creat baseline-uri simple, apoi am iterat controlat pe feature engineering / model selection.”
  • „Am documentat limitările modelului și scenariile unde performanța scade (edge cases).”

Deployment & monitoring

  • „Am livrat modelul ca API/serviciu, cu monitorizare și plan de rollback.”
  • „Am adăugat drift monitoring + alerte, reducând timpul până la detecție.”
  • „Am optimizat latența ca să respectăm [SLA], permițând folosirea real-time.”
  • „Am implementat shadow deployment pentru a compara output-ul nou vs vechi înainte de rollout.”
  • „Am definit praguri de alertare pentru calitate (input/output) și am adăugat dashboard-uri pentru echipă.”

MLOps & reproducibilitate

  • „Am standardizat training-ul cu config-uri și tracking de experimente (artefacte + metrici), crescând reproducibilitatea.”
  • „Am introdus versionare pentru dataset/model și am automatizat retraining-ul (unde a fost relevant).”
  • „Am redus timpul de livrare model → producție printr-un pipeline CI/CD pentru ML (testare + validare).”

Prompting / LLM (dacă rolul cere)

  • „Am construit un pipeline de evaluare pentru prompt-uri (dataset de întrebări + rubrică), reducând regresiile.”
  • „Am introdus guardrails (safety, PII, policy) și fallback-uri pentru răspunsuri incerte.”
  • „Am optimizat costul prin caching, batching și alegerea modelului potrivit pe task.”

Greșeli frecvente

  • Listă de modele/algoritmi fără problema rezolvată.
  • Zero evaluare/baseline și zero discuție despre regresii.
  • Repo public fără rezultate, setup clar sau pași reproductibili.
  • „Am folosit GPT-4” fără task, evaluare și constrângeri (cost/latency/safety).

Cuvinte cheie utile (doar dacă le-ai folosit)

  • feature engineering, baselines, cross-validation (unde e potrivit)
  • metrics: precision/recall/F1, AUC/PR, RMSE/MAE, NDCG (depinde de problemă)
  • data quality, leakage, drift monitoring
  • batch vs real-time inference, latency, SLA
  • model versioning, experiment tracking, reproducibility
  • CI/CD pentru ML, rollback, shadow deploy
  • LLM: prompt evaluation, guardrails, retrieval (RAG) (doar dacă e real)

Template CV ML / AI (copy/paste)

Descarcă: DOCX · TXT

Întrebări frecvente

Ce rol scriu: Data Scientist sau ML Engineer?

Dacă jobul e „producție + integrare + monitorizare”, de obicei ML Engineer / Applied ML. Dacă e mai mult „analiză + modele + experimentare”, Data Scientist. Alege titlul care se potrivește cu ce ai făcut efectiv.

Dacă am doar proiecte (fără experiență comercială)?

E ok, dar tratează proiectele ca livrări: date, evaluare, rezultate, limitări, și cum ai rula/monitoriza în producție.