People Analytics ed etica sul posto di lavoro: le 4 dimensioni della fiducia

Glickon Blog

People Analytics e AI sono ormai in fase di decollo all’interno delle aziende. Come abbiamo già scritto nei nostri articoli passati, il posto di lavoro è diventato un luogo ricco di strumenti operativi e di misurazione. Le aziende utilizzano sondaggi e strumenti di feedback per ottenere le opinioni dei propri dipendenti e strumenti di monitoraggio delle email per determinare la rete di comunicazione di ogni dipendente (ONA).

Leggi anche: Cosa sono le ONA: Organizational Network Analysis

A questo si aggiungere un nuovo flusso di dati che include video (oltre il 40% delle interviste di lavoro vengono registrate), audio (strumenti che registrano le riunioni possono percepire l’umore) e strumenti di riconoscimento visivo.

Agli albori della People Analytics, le aziende hanno acquisito una grande quantità di dati sui dipendenti per misurare le prestazioni prestazioni e la pipeline dei candidati. Oggi, con tutte le nuove informazioni entrate ormai nel mondo del lavoro (praticamente ogni clic sul posto di lavoro può venire memorizzato in un repository e analizzato), è chiaro quindi che la People Analytics sta diventando molto personale e sta realmente entrando nella vita lavorativa di ogni dipendente.

Bisogna quindi sottolineare alcune questioni etiche.

Leggi anche: People Analytics: cos’è e perché è un vantaggio per l’azienda?

People Analytics ed etica: l’abuso dei dati

Proviamo a dare prima una piccola motivazione. Supponiamo di utilizzare strumenti tecnologici per una valutazione avanzata dei candidati. I vendor dei software di candidate experience, lavorano duramente (in Glickon possiamo confermare 🙂) per rimuovere ogni tipo di pregiudizio razziale e di genere, e rilasciare un piattaforma limpida, in grado di determinare, attraverso la tecnologia, il candidato più giusto per quella posizione e per quella determinata azienda.

Ma l’abuso dei dati, non è determinato dalla tecnologia, ma dall’uso che se ne fa. Facciamo un esempio su un caso reale. Una società ha attivato il suo modello predittivo per determinare il proprio tasso di retention. Quindi alcuni manager possiedono una grossa quantità di informazioni sui dipendenti a rischio abbandono. Alcuni di questi manager però utilizzano questi dati per:

  • Non rivolgere più la parola a quei dipendenti che hanno un’alta probabilità di abbandonare l’azienda
  • Ridurre il supporto tecnico a questa tipologia di dipendenti

Questo non è un buon utilizzo dei dati!

I dati sono un’inesauribile fonte di informazione, ma vanno utilizzati con criterio, in quanto i problemi sono dietro l’angolo. Basti pensare a cosa è successo a Facebook, Equifax, Marriott e ogni altra grande azienda che pensava di proteggere i dati. Le persone fanno errori, i dipendenti compiono azioni giuste o sbagliate; i professionisti HR abbinati alla giusta tecnologia, hanno il dovere di proteggere i dati, algoritmi e soprattutto comportamenti manageriali scorretti.

Ricorda la fiducia è uno dei fattori più importanti per la carriera di un singolo e per l’intera organizzazione.

Ma quindi, come gestire l’etica nella People Analytics?

Per aiutarvi a capire il problema dell’etica in un progetto di People Analytics, vi mostriamo il framework presentato da Josh Bersin:

People Analytics ed etica

Come si evince dal grafico, sono due le dimensioni dell’etica.

  • Innanzitutto è la comprensione della bontà dei dati e dell’algoritmo che stai utilizzando. La domanda da porti è: “Il sistema che sto utilizzando riflette accuratamente i dati relativi alle prestazioni o alla produttività che desideri dai dipendenti? senza escludere, discriminare o inavvertitamente influenzare il risultato?
  • Secondo, il sistema dati e l’algoritmo sono sicuri? Stai proteggendo privacy, riservatezza e sicurezza?

Proviamo ad esplodere il grafico precedente, determinando in maniera più accurata le 4 dimensione dell’etica nella People Analytics.

People Analytics ed etica

1. Privacy

La prima questione etica da considerare è la privacy. Come mostra il grafico qui sopra, aziende come Facebook, CVS, Yahoo e molte altre si sono trovate nei guai proprio su questo punto. Quando un dipendente si unisce alla tua organizzazione, hai il diritto di raccogliere molti dati, ma come datore di lavoro non puoi esporli. Nelle regole della GDPR, le aziende devono anche “dimenticare” questi dati se il dipendente lo richiede, è chiaro quindi che ci sono alcune pratiche aziendali da considerare. Nel caso delle risorse umane, è necessario dire ai dipendenti quali dati stiamo raccogliendo e accertarci che capiscano che queste informazioni possano essere utilizzati solo per buoni fini.

Per quanto concerne i dati, una delle aree con più rapida crescita è la Virtual Reality (adesso chiamata Immersive Learning). I programmi VR catturano tutti i tipi di dati: la tua capacità di attenzione, i movimenti degli occhi e la tua capacità di affrontare lo stress. Questa tipologia di raccolta dati può essere utile ad uno scopo, ad esempio formativo, ma possono essere anche utilizzati in modo improprio. Quindi come fare?

Spiega ai tuoi dipendenti cosa stai facendo, spiega le politiche e l’obiettivo che vuoi raggiungere e soprattutto cerca di far capire che hai delle ottime norme sulla privacy.

2. Sicurezza

I dati sono archiviati e protetti in un luogo sicuro? Disponi di policy sulle password? sulla crittografia? hai altre pratiche di protezione dei dati in modo che un dipendente non possa portare i dati a casa sua, inviarli a terzi o accidentalmente rilasciarli liberamente sul web? Si tratta di problemi informativi che tutte le aziende devono affrontare.

Come sappiamo in Unione Europea tutto questo si chiama GDPR. Una delle regole base della GDPR è quella di identificare un responsabile della protezione dei dati e avere dei sistemi in grado di proteggerli.

3. Bias

Il terzo è più difficile (e nuovo) problema che abbiamo in un’attività di People Analytics è il pregiudizio. Che tu stia analizzando autonomamente i dati o hai acquistato uno strumento di analisi da un fornitore, è necessario ricordare che tutti i sistemi algoritmici sono basati su dati esistenti. E se i dati esistenti sono di parte, le previsioni e le raccomandazioni saranno di parte.

Questo è un problema molto difficile da risolvere e molte organizzazioni ci stanno lavorando. Per esempio:

I sistemi che cercano di valutare una retribuzione equa confronteranno un dipendente con i colleghi ma potrebbero non comprendere i problemi di razza, ubicazione ed età.

  • I sistemi che prevedono una retention possono discriminare le minoranze o i dipendenti che lasciano le aziende per motivi culturali.
  • I sistemi che si adattano ad un lavoro possono istituzionalizzare pratiche di assunzione vecchie e discriminanti che sono incorporate nella cronologia delle assunzioni.
  • I sistemi che utilizzano l’analisi della rete organizzativa per identificare le prestazioni, potrebbero non rendersi conto che il sesso o l’età svolgono un ruolo enorme nella fiducia e nelle relazioni.
  • I sistemi che prevedono alti livelli di rendimento saranno prevenuti verso individui altamente stimati.

La soluzione migliore che puoi intraprendere per ridurre i bias è monitorare e addestrare i tuoi sistemi di analisi. In altre parole, guarda le previsioni e le raccomandazioni e ispeziona per vedere se i risultati sono di parte. Amazon scoprì che il suo robot dedicato al recruiting era prevenuto nei confronti delle donne.

4. Impatto sulle persone

La quarta dimensione della fiducia è forse la più importante. Qual è il tuo intento nel catturare questi dati?

Se i dipendenti credono di essere monitorati per ragioni sbagliate, l’impatto sarà negativo. Quindi la soluzione ottimale è quella di sedersi e documentare il perché stai catturando un determinato flusso di dati e stabilire chiaramente un obiettivo per il progetto. Facebook ha esattamente saltato questo passaggio e ancora deve riprendersi dal danno di immagine e di reputazione subito.

Ecco alcune pratiche da evitare:

  • Non utilizzare i dati in maniera occulta. Una società di servizi finanziari, ad esempio, ha utilizzato una forma di rilevamento calore e di movimento per determinare chi stava entrando in ufficio. Yahoo aveva implementato un sistema di log VPN per vedere quando le persone lavoravano da casa e quando no. Questo tipo di attività danneggerà il senso di fiducia dei dipendenti e quasi sempre porterà a decisioni sbagliate.
  • Non utilizzare alcuna forma di dati sul welfare per scopi diversi da quelli legalmente consentiti.
  • Non utilizzare i dati raccolti duranti gli allineamenti per la valutare le prestazioni. Questo riduce la fiducia.
  • Non oltrepassare il confine tra dati personali e professionali. Se stai tracciando i dati dai telefoni dei dipendenti, assicurati di non dare alle persone accesso alle informazioni personali. Mentre il dispositivo può essere di proprietà dell’azienda, l’invasione della privacy ti porterà nei guai.

Infatti, nella maggior parte delle grandi aziende dovrebbe esserci una revisione legale prima di iniziare a catturare i dati. Il tuo progetto aderisce alle linee guida GDPR?

Conclusioni, People Analytics ed etica. Usare il buon senso, considerare l’etica come un problema di sicurezza

Sempre più aziende hanno assunto la figura di Chief Ethics Officer per fronteggiare questa tipologia di progetti. Altri stanno creando “comitati sull’uso etico” per assicurarsi che tutti i progetti di analisi siano valutati attentamente.

Quando avvii un nuovo programma di analisi, chiediti sempre: “Che percezione avrebbero le persone se il mio programma di People Analytics venisse pubblicato sulla prima pagina di un quotidiano come NY Times? Danneggerebbe la reputazione dell’azienda?

Se la risposta è si, è necessario rivedere le tue priorità prima di iniziare con un progetto di People Analytics.

Il nostro prodotto People Analytics è GDPR compliant. Vuoi provare la demo di GlickonX?