Risorse Veramente Umane

L'AI ha infiltrato il processo di selezione del personale, gamificandolo

La selezione del personale è stata trasformata in un problema di calcolo: si presume che una vita sia misurabile e comparabile. Il curriculum è lo stampo di questa idea. Costringe chi lavora a comprimere la propria storia in parole chiave, ruoli, risultati e date. Tutto ciò che non sta in un elenco (contraddizioni, contesti di cura, percorsi irregolari) va rimosso. Le sezioni vuote sono una pecca, e quindi? Pensiamo fuori dal secchio…

Questo è solo l’inizio 1 della catena disumanizzante: l’aspirante lavoratore deve produrre una sintesi competitiva di sé, poi qualcun altro deve ipotizzare cosa sappia fare questa persona. È già un filtro brutale quando umano, ma nella così detta era dell’automazione in cui dovremmo essere, questo sistema automatizzato non ascolta, ma classifica in una lista dal quale prendere i primi tre o cinque candidati per le fasi successive.2

Rompere il circuito: assedio, stress, racconto

Qui entra Really Human Resources. Non chiediamo una tecnologia che si sforzi di essere giusta, questo processo non può essere salvato: vogliamo rendere invivibile l’idea che una persona sia calcolabile.

“Aiutiamo” chi cerca lavoro a candidarsi in modo massivo e coordinato3, con storie vere ma testi ottimizzati4, fino a trasformare la catena di candidatura in rumore puro, con pochissimo segnale. Un processo disegnato per ottimizzare lo sforzo umano viene costretto a pagare il prezzo della propria astrazione: più chiamate, più colloqui inconcludenti, più assunzioni sbagliate5, più tempo bruciato da entrambe le parti. Quando l’errore diventa sistemico e misurabile, smette di essere sfortuna individuale e diventa questione politica.

La sequenza operativa

Vari componenti ci sono in gioco, segui su XXX-SITO-TODO per vedere come stanno procedendo, e considerando la natura open source e decentralizzata dello sforzo, considera la partecipazione:

  1. Piattaforma di leaking con anonimato forte per far emergere regole interne, metriche e procedure.

  2. Cartografia dei filtri per capire dove si produce lo scarto automatico: i software usati dalle aziende, i portali ed i loro filtri. Saper dare un nome al problema.

  3. Strumenti aperti di candidatura assistita costruiti con sviluppatori e persone in cerca di lavoro: riducono il costo della candidatura e permettono di misurare il processo. Effetto collaterale politico: rompere la fiducia nei numeri.

  4. Bollettino settimanale di osservazione dello stress, seriale e pubblico: quante candidatura abbiamo supportato?

  5. Misurazione e pubblicazione: tempi di risposta, tassi di rimbalzo, annunci chiusi in anticipo, richieste invasive, incoerenze. Per questo serve assistere il lavoro di candidatura dall’inizio alla fine, oppure ricevere resoconti da chi passa per il processo.

  6. Escalation dove possibile: interlocuzioni con sindacati e, nei casi più spinti, azioni collettive legate a decisioni automatizzate. Come suggerito sopra, sappiamo che un cittadino non dovrebbe subire scelte che impattano la sua vita in modo automatizzato, ma i diritti vanno conquistati, non basta che siano scritti sul regolamento protezione dati personali quando poi la tecnologia e la prassi vanno in altre direzioni.


  1. L’evoluzione rapida dei modelli generativi (LLM, generative-AI, text-to-image, deep-fake) consente di creare testi, identità, carriere convincenti, con pochissimo sforzo umano. Lo studio “Unmasking Fake Careers” è del 2025: segno che siamo già in piena “età della generazione sintetica”. arXiv ↩︎

  2. L’incremento del volume delle candidature (su scala globale, remote jobs, piattaforme online) rende impraticabile un controllo umano completo su tutti i CV. Per questo molti processi di selezione restano a priori affidati a sistemi automatici: ma questi — come mostrano gli studi — sono vulnerabili a “data poisoning” o manipolazioni. arXiv ↩︎

  3. Automatizzazione della compilazione di moduli, invio e-mail, creati “su misura” per la job description. Strumenti/servizi oggi esistenti permettono proprio questo. loopcv.pro ↩︎

  4. Anche senza falsificare dati, un candidato può usare AI per generare testo molto pulito, ottimizzato per i sistemi automatici di screening (ATS), ma che nasconde una scarsissima reale competenza o esperienza. Questo aumenta la probabilità che gente poco qualificata passi il filtraggio iniziale. Job in Tourism ↩︎

  5. Le aziende che cercano di ottimizzare tempi e costi rischiano seriamente di abbassare la qualità del processo di assunzione, magari assumendo persone non qualificate — con conseguenze anche legali, reputazionali e organizzative. Bradley ↩︎