Assumere un candidato immaginario? Nel 2024 sarà possibile
Forrester Research non usa troppi giri di parole per delineare uno scenario che farà sobbalzare dalla sedia più di un professionista HR: nel corso dei prossimi 12 mesi – ovvero nel 2024 – almeno un’azienda di alto profilo finirà per assumere un candidato fantasma, immaginario, inesistente, non corrispondente ad una persona fisica.
Sembra a tutti gli effetti una sparata sensazionalistica, per lo meno finché non si vadano ad approfondire le motivazioni che si nascondono dietro la frase, che dovrebbe far suonare un campanello d’allarme e mettere in guardia tutti coloro che si occupino di recruiting.
L’uso dei bot e dell’intelligenza artificiale generativa è infatti ormai un fenomeno che sta diventando diffuso sia per ciò che riguarda la ricerca del personale che per ciò che concerne le applicazioni dei candidati. Grandi gruppi internazionali stanno destinando parecchie risorse per incorporare l’intelligenza artificiale generativa nelle loro operazioni di reclutamento, sia nella fase creativa, per ciò che riguarda domande e contenuti da proporre, sia nella fase di raccolta e catalogazione della grande mole di dati.
Nello stesso tempo, i candidati si stanno servendo della nuova tecnologia per avvicinarsi il più possibile alle aziende dove vorrebbero lavorare, conoscerne quante più informazioni possibile e insieme per elaborare lettere di presentazione e curriculum, o per prepararsi ad un colloquio di lavoro.
J.P. Gownder, vicepresidente e principale analista del futuro del lavoro presso il gruppo Forrester, afferma come in entrambi questi due casi si possano creare le condizioni per le quali un datore di lavoro possa finire per assumere un dipendente inesistente. Gownder ha infatti sottolineato come il software di intelligenza artificiale generativa adottato dai reclutatori possa soffrire di “allucinazioni“, presentando informazioni false o fuorvianti a causa della mancanza di dati accurati, così come al contrario possa finire per creare curriculum con informazioni non rispondenti alle reali capacità del candidato. In entrambi i casi, l’azienda si troverebbe a che fare con il paradosso di procedere all’assunzione di un dipendente fantasma.
Ma cosa sono queste “allucinazioni” dell’IA?
Definita come la parola dell’anno 2023 dal Cambridge Dictionary, l’allucinazione dell’IA è un argomento da conoscere e da tenere in grande considerazione. Gli strumenti di intelligenza artificiale generativa si sono infatti dimostrati in grado di generare risposte plausibili, ma create utilizzando elementi fattuali falsi, o fuorvianti o inventati. Hanno “allucinazioni”, talvolta molto credibili (e in qualche caso pericolose).
Come scrivono quelli del Cambridge Dictionary: “Quando un’intelligenza artificiale (ovvero un sistema informatico che possiede alcune delle qualità del cervello umano, come la capacità di produrre un linguaggio in un modo che sembri umano) ha allucinazioni, produce false informazioni”.
Dunque, così come il candidato più rispondente alla caratteristica X richiesta dall’azienda attraverso l’IA potrebbe in realtà rivelarsi non essere il migliore acquisto per l’organizzazione, allo stesso modo le competenze chiave segnalate su un curriculum di un candidato compilato con l’aiuto dell’IA potrebbero non rispondere in tutto e per tutto alla realtà dei fatti, inducendo all’errore il selezionatore. Qualcosa che deve far alzare la guardia sul fatto che prendere per oro colato quanto prodotto dall’IA nasconda tutta una serie di rischi non indifferenti, nel settore HR del quale ci occupiamo ma certamente non solo.
Come limitare i danni
Intanto, si sta cercando di limitare quanto più possibile le allucinazioni dell’IA. Come sottolinea Barbara Calderini su Agenda Digitale, “la possibilità di errori e risposte false o incongruenti è un problema su cui i ricercatori sono già all’opera. Ottimizzare i set di dati di addestramento è il primo passo, assieme alla revisione da parte di valutatori umani. Un ciclo di feedback che preveda la supervisione di ricercatori addestrati ad analizzare e vagliare le risposte riduce ancora di più non solo la possibilità di allucinazioni vere e proprie ma anche di risposte bizzarre che, sebbene possano avere un senso, non lo hanno nel contesto della conversazione”.
E per ciò che riguarda gli esperti di recruiting, è bene tenere a mente buone pratiche di comportamento, che possono essere il rafforzamento delle pratiche di verifica dei candidati, da effettuare anche solo tramite interviste video, un sano bilanciamento tra uso dell’IA e coinvolgimento umano, una formazione consistente e continua sull’argomento, tra l’altro in rapida evoluzione, e la stesura di linee guida chiare ed inequivocabili riguardo agli utilizzi di questi strumenti nelle pratiche aziendali.
Sfruttare i punti di forza dell’intelligenza artificiale, tutelandosi nello stesso tempo dai suoi punti deboli, significa ad oggi saper coniugare questa nuova tecnologia con il giudizio umano.
E meno male che ancora ha un peso rilevante, diremmo noi…
Crediti immagini:
Immagine di KamranAydinov su Freepik
Immagine di rawpixel.com su Freepik
Immagine di Freepik