Va bene, parliamo di qualcosa che mi preoccupa, qualcosa che torna incessantemente nei miei canali Slack e nelle mie riflessioni notturne: l’intrusione progressiva dell’IA nei nostri processi decisionali, in particolare per quanto riguarda il reclutamento. Non le grandi ovvietà come l’analisi dei CV – le abbiamo viste tutti – ma i modi sottili, quasi invisibili, in cui gli algoritmi iniziano a plasmare chi ottiene un’opportunità e cosa significa questo per la nostra agenzia, sia come individui che come società.
Siamo 21 marzo 2026, e il mercato del lavoro è… strano. Abbiamo più strumenti che mai per connettere le persone, più dati per analizzare le competenze, eppure, sento storie che mi fanno grattare la testa. E sembra sempre tornare ai sistemi ‘guidati dall’IA’ che promettono efficacia, equità e il mitico ‘miglior abbinamento.’ Ma cosa succede se questi sistemi, nella loro incessante ricerca di ottimizzazione, erodono in realtà la nostra capacità di prendere decisioni veramente umane, e ciò facendo, cambiano fondamentalmente ciò che valorizziamo in un collega?
La stretta di mano invisibile: quando gli algoritmi decidono chi incontri
Ricordi quando inviavi un CV, e forse, solo forse, un umano lo esaminava realmente? O quando un responsabile del reclutamento poteva correre il rischio di assumere qualcuno con un percorso non tradizionale perché aveva un buon presentimento? Quei giorni sembrano a volte appartenere a un’altra epoca. Ora, prima ancora che il tuo CV raggiunga un occhio umano, è spesso stato sottoposto a più strati di controllo algoritmico.
La mia amica Sarah, una brillante designer grafica, mi raccontava di aver fatto domanda per una posizione senior in una nota azienda tecnologica. Ha un portfolio che farebbe cadere la mascella, anni di esperienza, e un percorso di innovazione. Eppure, non è riuscita nemmeno a ottenere un primo colloquio. Dopo alcune ricerche, ha scoperto che l’azienda utilizza un sistema di IA che dà priorità ai candidati i cui precedenti titoli di lavoro e i nomi delle aziende corrispondono da vicino a un elenco predefinito. Sarah aveva lavorato per alcune piccole agenzie di nicchia e, nonostante il suo lavoro eccezionale, l’algoritmo non “vedeva” semplicemente la sua esperienza come sufficientemente pertinente.
Non si tratta di essere anti-IA. Utilizzo strumenti di IA quotidianamente per aiutarmi a ricercare, organizzare e anche redigere bozze iniziali per i miei articoli. Sono fantastici per aumentare l’intelligenza umana. Ma quando l’IA passa dall’aumento alla semplice presa di decisioni, soprattutto in settori critici come il reddito di una persona, dobbiamo essere estremamente cauti. Perché ciò che sembra essere efficacia su un foglio di calcolo può rivelarsi una profonda ingiustizia nella vita reale.
Il problema delle metriche proxy: cosa “vede” realmente l’IA
Il problema centrale, secondo me, è che queste IA di reclutamento non comprendono il “potenziale” o la “sfumatura”. Funzionano su metriche proxy. Sono addestrate su dati storici, che portano inevitabilmente i pregiudizi del passato. Se un’azienda ha storicamente assunto persone di una certa università o con un insieme specifico di parole chiave nel loro CV, l’IA impara a dare priorità a questi attributi. È come insegnare a un bambino a riconoscere solo mele mostrandogli solo mele rosse, e poi essere sorpresi quando non riesce a identificare una mela verde come tale.
Diciamo che un’azienda vuole reclutare per “innovazione” e “creatività”. Come misura un algoritmo questo? Non può realmente capire l’impatto di un pezzo del portfolio o lo scintillio negli occhi di un candidato durante un colloquio. Invece, cerca dei proxy: “Numero di brevetti registrati,” “parole chiave come ‘tecnologia dirompente’ o ‘pensiero progettuale’ su un CV,” “diplomi di scuole di design di alto livello.” Non sono metriche intrinsecamente cattive, ma sono *limitati* e possono escludere persone davvero nuove che non si adattano allo stampo.
Pensa a questo: Steve Wozniak probabilmente non avrebbe impressionato un’IA in cerca di qualifiche accademiche tradizionali all’inizio. Allo stesso modo, qualcuno come Maya Angelou, la cui “esperienza” sfidava la categorizzazione facile. Rischiamo di costruire un futuro in cui solo coloro che si allineano perfettamente ai successi passati vengono giudicati degni di opportunità future.
Oltre le parole chiave: recuperare l’agenzia umana nel reclutamento
Allora, cosa facciamo al riguardo? Non suggerisco di scartare tutti gli strumenti di IA. È irrealistico e, francamente, assurdo. Ma dobbiamo essere più intenzionali su dove e come li deployiamo, e soprattutto, dove tracciamo la linea e insistiamo sul giudizio umano.
Passo pratico 1: Auditare i tuoi algoritmi (Davvero, audit li)
Se sei responsabile del reclutamento o nelle risorse umane, devi capire esattamente cosa fanno i tuoi strumenti di IA. Non fidarti semplicemente dei documenti di marketing del fornitore. Fai domande difficili:
- Su quali dati è stato addestrato questo modello?
- Quali sono le 5 principali caratteristiche o metriche che prioritizza?
- Come vengono trattati o attenuati i pregiudizi nei dati di addestramento e nel modello stesso?
- Qual è il tasso di falsi positivi/negativi per il tuo profilo di candidato target?
E poi, soprattutto, devi testarlo. Conduci un piccolo esperimento. Prendi un campione di CV che sono stati respinti dall’IA ma che storicamente rappresentano buone assunzioni per la tua azienda. Esaminali manualmente. Vedi cosa l’IA ha perso. Potresti essere sorpreso.
Ecco un esempio semplificato in Python di come potresti iniziare ad auditare i pregiudizi delle parole chiave. Immagina che il tuo sistema interno utilizzi un algoritmo di corrispondenza delle parole chiave di base per filtrare le candidature iniziali. Potresti scrivere uno script per analizzare la densità delle parole chiave delle assunzioni riuscite rispetto ai candidati respinti per ruoli specifici.
import pandas as pd
from collections import Counter
import re
def get_keywords(text):
# Un estrattore di parole chiave molto semplice a scopo dimostrativo
# In realtà, sarebbe molto più sofisticato (NLP, embeddings, ecc.)
return re.findall(r'\b(?:python|java|aws|azure|leadership|creativity|agile|scrum)\b', text.lower())
# Dati di esempio (in uno scenario reale, verrebbero dal tuo sistema HR)
successful_hires_resumes = [
"Sviluppatore Python esperto con forti competenze AWS e abilità di leadership.",
"Architetto Java, ha guidato team agili, profonda conoscenza di azure e scrum.",
"Risolutore di problemi creativo, esperienza in python, buona esperienza di leadership."
]
rejected_candidates_resumes = [
"Eccellente programmatore C++, alcune esperienze in progettazione di database.",
"Sviluppatore front-end, JavaScript, React, un po' di python.",
"Project manager, forte comunicazione, ma senza parole chiave tecniche dirette."
]
# Elaborazione dei CV
successful_keywords = []
for resume in successful_hires_resumes:
successful_keywords.extend(get_keywords(resume))
rejected_keywords = []
for resume in rejected_candidates_resumes:
rejected_keywords.extend(get_keywords(resume))
# Analizzare la frequenza
successful_counts = Counter(successful_keywords)
rejected_counts = Counter(rejected_keywords)
print("Frequenze di parole chiave per le assunzioni riuscite:")
print(successful_counts)
print("\nFrequenze di parole chiave per i candidati respinti:")
print(rejected_counts)
# Identificare le parole chiave con differenze significative
print("\nParole chiave più frequenti nelle assunzioni riuscite:")
for keyword, count in successful_counts.items():
if count > rejected_counts.get(keyword, 0) * 2: # Soglia arbitraria per "significativo"
print(f"- {keyword} : {count} (Riuscito) vs {rejected_counts.get(keyword, 0)} (Respinto)")
Questo script semplice metterebbe in luce se le tue assunzioni riuscite contengono in modo sproporzionato alcune parole chiave, e se la tua pila di candidati respinti ne è carente. È un esempio rudimentale, ma illustra l’idea di guardare attivamente cosa il sistema prioritizza e se questo corrisponde ai tuoi veri obiettivi di reclutamento.
Passo pratico 2: Ridefinire il “fit” e il “successo” per l’algoritmo
Se intendi utilizzare l’IA per una preselzione iniziale, devi fornirle dati davvero solidi e vari. Ciò significa attivare la curatela dei tuoi profili di “candidati riusciti” per includere persone che hanno avuto successo attraverso percorsi non convenzionali. Ciò significa ampliare la definizione di “esperienza pertinente” oltre i titoli di lavoro diretti.
Invece di fornirgli solo CV di ex assunti, offrigli dati che riflettano i valori della tua azienda: contributi a progetti open-source, lavoro volontario che dimostra leadership, progetti personali che mostrano ingegnosità, o anche sfide specifiche superate. È più difficile da quantificare, lo so, ma se non ci proviamo, perpetuiamo semplicemente lo status quo.
Passaggio pratico 3: Incaricare una revisione umana in fasi chiave
Questo è forse il più cruciale. L’IA dovrebbe servire da filtro, non da decisore finale. Propongo di incaricare una revisione umana in momenti specifici del processo di assunzione. Ad esempio:
- Il gruppo dei “quasi riusciti”: Ogni sistema di IA dovrebbe avere un meccanismo per segnalare i candidati che non hanno rispettato perfettamente i criteri principali ma hanno ottenuto buoni punteggi su metriche secondarie, più qualitative (ad esempio, un portfolio solido, una lettera di presentazione convincente, un’esperienza diversificata). Un umano dovrebbe esaminarli.
- Verifica della diversità: Prima di estendere le offerte, un panel umano dovrebbe esaminare la composizione demografica dei candidati finali. Se è troppo omogenea, rivedi i passaggi precedenti e chiediti perché. L’IA ha involontariamente filtrato alcuni gruppi?
- Il segmento delle “wildcard”: Dedicare una percentuale dei vostri posti per colloqui (anche solo 5-10%) a candidati che non corrispondono al modello algoritmico ma sono stati identificati da un esaminatore umano come aventi un alto potenziale o una prospettiva unica.
Ecco un esempio concettuale di come potresti implementare un processo di revisione “wildcard” utilizzando una semplice query di database, assumendo che la tua IA assegni un “punteggio” e che un esaminatore umano possa contrassegnare un candidato come “wildcard_potential”.
-- Query SQL per identificare i candidati per una revisione "wildcard" umana
-- Si suppone che la tua IA assegni un punteggio numerico 'ai_score' e che un umano possa aggiungere un 'wildcard_tag'
SELECT
candidate_id,
candidate_name,
ai_score,
human_notes
FROM
applications
WHERE
(ai_score BETWEEN 0.6 AND 0.75) -- Candidati che erano "quasi lì" secondo l'IA
OR
wildcard_tag = TRUE -- Candidati segnalati specificamente da un esaminatore umano
ORDER BY
ai_score DESC, candidate_name;
Questa query estrarrà i candidati che erano al limite secondo l’IA, dando a un esaminatore umano la possibilità di rivalutare, accanto a qualsiasi candidato che un umano ha specificamente contrassegnato per un secondo esame, indipendentemente dal loro punteggio IA. Si tratta di creare punti di attrito intenzionali affinché il giudizio umano intervenga.
Il futuro dell’autonomia nel reclutamento
Lo scopo non è fermare il progresso. Si tratta di assicurarsi che il progresso serva all’umanità, e non solo alle metriche di efficienza aziendale. Quando l’IA prende decisioni di reclutamento senza un’adeguata supervisione umana, rischiamo di creare un ciclo di uniformità autoperpetuante. Perdiamo la serendipità, le intuizioni, la capacità di fidarci di qualcuno che potrebbe ridefinire cosa significa “successo” per la nostra organizzazione.
La nostra autonomia nel reclutamento non si limita alla capacità del responsabile delle assunzioni di scegliere un candidato. Si tratta dell’autonomia del candidato di presentare il proprio io intero, di far vedere le proprie qualità uniche, e di non essere escluso da una scatola nera che non comprende la complessità umana, sia caotica che bella, del potenziale umano.
Utilizziamo l’IA per rendere i nostri processi più fluidi, per gestire il lavoro di base, ma proteggiamo con vigore l’elemento umano nelle decisioni che contano realmente. Perché alla fine, non si tratta solo di coprire una posizione; si tratta di costruire team, di promuovere una cultura e di plasmare il futuro stesso del lavoro.
Punti d’azione concreti:
- Richiedere trasparenza: Non accettare ciecamente le affermazioni dei fornitori. Comprendere i dati e la logica dietro la tua IA di reclutamento.
- Definire i tuoi valori: Articolare esplicitamente cosa significa un “buon abbinamento” e un “potenziale” per la tua organizzazione oltre le parole chiave, e cercare di integrarli nella formazione o nei criteri di valutazione della tua IA.
- Implementare porte di revisione umana: Creare punti obbligatori nel tuo pipeline di reclutamento dove il giudizio umano prevale o rinforza le decisioni algoritmiche, soprattutto per i candidati “quasi selezionati” o per le verifiche di diversità.
- Testare e iterare: Audire continuamente le prestazioni della tua IA rispetto ai risultati reali e adeguare i suoi parametri o i tuoi processi di revisione di conseguenza.
- Valorizzare il wildcard: Cercare attivamente e sostenere i candidati che non corrispondono agli standard ma mostrano un potenziale eccezionale o prospettive uniche.
Articoli correlati
- Agente IA che riduce i costi operativi
- Fondamenti dell’Allineamento IA: Consigli Pratici, Suggerimenti ed Esempi per uno Sviluppo Responsabile dell’IA
- Sto esplorando il futuro del lavoro su agntzen.com
🕒 Published: