
“Quanto è lunga la costa della Gran Bretagna?” non è solo una domanda che potrebbe porsi colui che, volando sulle proverbiali bianche scogliere di Dover, notasse le continue insenature da cui è costituita, ma è l’incipit di uno studio con il quale il matematico francese Benoit Malabrot ha elaborato la sua analisi dei frattali. Si tratta di un’immagine efficace non soltanto per trasmettere l’idea che i problemi complessi richiedono la definizione iniziale di un metodo condiviso, ma anche per offrire uno spunto profondo per riflettere su quanti aspetti debbano essere considerati di fronte a fenomeni come quello dell’introduzione dell’Intelligenza artificiale nella vita lavorativa.
Ogni giorno i fatti di cronaca, così come le applicazioni in ambito aziendale, pongono nuove domande relative a questa tecnologia e al suo sviluppo; anche gli aspetti che derivano dalla sua adozione nei processi aziendali sono altrettanto numerosi. Sono questioni che interrogano al tempo stesso imprenditori e lavoratori e richiedono risposte che tengano conto dei cambiamenti della società nel suo complesso.
Di seguito se ne propongono alcune, sapendo che si tratta solo di un abbrivio per un percorso che continuerà a mostrare prospettive e questioni sempre nuove.
COME TUTELARE LA SICUREZZA DEI DATI PERSONALI E DELLE INFORMAZIONI CONFIDENZIALI DELL’AZIENDA
L’uso dell’Intelligenza artificiale nei processi aziendali, soprattutto nel momento in cui non è normato l’utilizzo dei chatbot come ChatGPT da parte dei singoli dipendenti, comporta inevitabilmente la condivisione di dati che talvolta possono risultare sensibili o strategici. È quindi indispensabile che le imprese affrontino in modo proattivo e pragmatico la regolamentazione del loro uso, adottando strategie che non si limitino a sviluppare progetti a livello centrale ma si occupino dell’uso individuale dei chatbot. In che modo? Offrendo elementi di consapevolezza, facendo maturare competenze e favorendo la scelta di strumenti e configurazioni in grado di proteggere le conoscenze dell’azienda e di tutelarne il know how.
La funzionalità “Migliora il modello per tutti” di ChatGPT è dunque da disattivare così come possono essere; al tempo stesso le licenze di Gemini e Copilot sono scelte che debbono contemperare l’aspetto economico e di sicurezza.
COME AFFRONTARE IL RISCHIO DI PERDITA DELLE COMPETENZE
Una recente ricerca in ambito medico ha rilevato che, in soli tre mesi dall’introduzione di un sistema automatico per la rilevazione degli adenomi, gli operatori avevano ridotto la loro capacità autonoma di individuarli dal 28% al 22% dei casi. Più deleghiamo alle macchine l’applicazione di competenze che sono appannaggio dell’uomo, più vi è un rischio di “deskilling”, di riduzione della capacità di riconoscere gli errori che la tecnologia, di per sé fallibile, può produrre. E questo vale non solo per le questioni che riguardano la salute.
Se questa impasse ha avuto luogo ogni qualvolta una nuova tecnologia ha cambiato lo scenario del lavoro, il salto qualitativo rappresentato dalla diffusione dell’Intelligenza artificiale ci deve interrogare nel profondo. Nel caso dell’imprenditore, occorre governare l’introduzione degli strumenti preservando le competenze in grado di giudicarne l’apporto e, in ultima analisi, migliorando il risultato del lavoro di ciascuno.
Forse è lecito persino chiedersi – a mano a mano che si diffonde l’uso di chatbot e agenti basati sulla AI Generativa e ne cresce il costo – se sarà sempre possibile scegliere di poterne fare a meno.
QUALI CAUTELE ADOTTARE PER ACCRESCERE CON L’IA LA SICUREZZA NEI LUOGHI DI LAVORO
Anche casi italiani come quello di Tenaris mettono in evidenza la misura con cui l’IA possa contribuire a rendere più sicuri i luoghi di lavoro: rilevare comportamenti scorretti, segnalare rischi ambientali, prevenire incidenti sono alcuni degli aspetti che possono essere individuati grazie all’introduzione della Computer Vision, ovvero di quella particolare tecnologia che è già impiegata in tanti processi produttivi per il controllo di qualità.
Occorre però considerare l’adozione di queste opportunità nel rispetto del GDPR: hanno avuto infatti luogo casi, non nel nostro Paese, nei quali il riconoscimento facciale, il monitoraggio di dati provenienti dal tracciamento del microfono o dalle reazioni dei candidati nella registrazione delle interviste online durante un colloquio di lavoro abbiano avuto come seguito indagini e controversie.
Il confine fra sicurezza e sorveglianza deve essere rispettato anche, e soprattutto, di fronte a tecnologie tanto pervasive quanto soggette ad errore e di fronte ai rischi di accrescere situazioni di ansia e discriminazione tra i lavoratori.
COME RIDURRE I BIAS DELL’IA
Quando si pensa agli stereotipi della IA vengono immediatamente in mente i luoghi comuni legati al genere e alle appartenenze etniche. Come osservato fin dall’avvento di questi impieghi, sono presenti ad esempio diversi stereotipi nelle descrizioni o nelle immagini (spesso da cartolina anni ’50), generate da strumenti come ChatGPT che sono associate al nostro Paese; questi errori sono però riconoscibili e forse per questo meno pericolosi.
Se dunque da un lato occorre proseguire nel ricercare le caratteristiche meno appariscenti di queste differenze, dall’altro occorre trovare risposte ai bias intrinseci dei chatbot: il fatto che ci diano sempre ragione e che diano risposte anche quando non vi sono elementi affidabili costituiscono limiti evidenti del loro uso quotidiano.
A livello aziendale, inoltre, è opportuno condurre audit costanti, necessari di fronte ad una tecnologia la cui caratteristica non è essere basata su algoritmi predefiniti, ma su probabilità statistiche, su rappresentazioni della realtà che, in quanto tali, ne amplificano le discriminazioni e le superficialità.
COME RISPETTARE IL DIRITTO D’AUTORE DEI COLLABORATORI
Il caso dell’attrice virtuale Tilly Norwood ha riacceso i riflettori sui temi della protezione del diritto d’autore e delle professioni creative e intellettuali. Grafici, designer, copywriter e creativi e, prima ancora, gli sceneggiatori e i doppiatori di Hollywood stanno scoprendo che i loro lavori possono essere usati per addestrare modelli di Intelligenza artificiale, spesso senza consenso né compenso.
La questione non riguarda solo la proprietà dei contenuti, ma anche la continuità del valore del lavoro creativo in un’epoca in cui i modelli imparano dalle produzioni umane per generare contenuti simili, indistinguibili, a costo zero.
A seguito dell’approvazione della Legge italiana sull’Intelligenza artificiale, l’attenzione al rispetto del diritto d’autore deve essere accresciuta e richiede, nei prossimi mesi in cui saranno definiti i regolamenti attuativi, norme più certe che inquadrino l’evoluzione della tecnologia e offrano elementi utili per normare, nell’ambito di un’azienda, la personalizzazione degli strumenti di Intelligenza artificiale senza rischi sia per l’imprenditore che per i dipendenti e i collaboratori esterni.
COME EVITARE CHE L’IA DIVENTI UN ELEMENTO CHE SEPARA LE GENERAZIONI
Ogni rivoluzione tecnologica porta con sé una frattura generazionale, ma l’IA può rappresentare l’occasione per colmare la distanza invece di accentuarla. Le generazioni più giovani hanno una naturale confidenza con gli strumenti digitali, mentre le più esperte custodiscono il patrimonio di esperienza e di giudizio maturato sul campo: la sfida è farle dialogare.
Promuovere iniziative di cross-mentoring in cui la conoscenza dei processi aziendali si unisca alla dimestichezza con i nuovi strumenti è una strategia vincente già perseguita di fronte ad altre tappe della digital transformation. L’Intelligenza artificiale può diventare così un linguaggio comune, capace di valorizzare la diversità dei percorsi professionali.
Di fronte alle tante questioni aperte – delle quali quelle indicate sono solo degli esempi – viene da pensare che forse la vera domanda, allora, non è quanto sia lunga la costa della Gran Bretagna, ma quanto siamo disposti a percorrerne il perimetro apprendendo un linguaggio comune per affrontare la complessità che porta con sé: un linguaggio fatto di regole, di etica, ma soprattutto di responsabilità condivisa.
Nota sull’autore

ANDREA BOSCARO
Andrea Boscaro è fondatore della società di formazione dedicata al marketing digitale The Vortex. Ha lavorato in Vodafone, in Lycos ed è stato per sei anni amministratore delegato di Pangora (poi entrata nel gruppo americano Connexity).
Autore dei volumi Marketing digitale per l’e-commerce, Effetto Digitale, Tecniche di web-marketing (www.facciamoecommerce.it) e Politica Digitale editi da FrancoAngeli, è un formatore legato ai temi dell’e-business, dei social media e dell’editoria digitale.

