
Lo sviluppo dell’Intelligenza artificiale è oggi uno dei temi più dibattuti a livello internazionale. La presidente della Commissione europea Ursula von der Leyen lo ha citato nell’ultimo Discorso sullo Stato dell’Unione e anche Washington lavora ad una legislazione che non lasci gli Stati Uniti indietro rispetto a quanto già avviato dall’Ue. A questo si aggiunge la proposta avanzata a luglio scorso dal segretario generale dell’Onu, Antonio Guterres, di creare un ente simile all’agenzia internazionale per l’energia atomica, l’Aiea, che vigili sullo sviluppo delle tecnologie di Intelligenza artificiale. “Le preoccupazioni e gli entusiasmi sono gli stessi al di qua e al di là dell’Atlantico – commenta Luciano Floridi (nella foto in alto), professore di Scienze cognitive e founding director del Digital Ethics Center all’Università di Yale –. La differenza è che qui, negli Stati Uniti, si dibatte di un’industria che il paese produce. Non sorprende pertanto la vicinanza del governo federale o il fatto che la lobby del settore negli ultimi dieci anni sia molto cresciuta in termini di presenza e di risorse stanziate e oggi superi quella della difesa. L’attività legislativa in corso, infatti, tocca soprattutto il settore digitale dei grandi operatori quali Meta, Google, Apple, Amazon. D’altra parte, mutatis mutandis, in Germania non ci stupiamo se quando si parla di automotive il governo tedesco ascolta cosa hanno da dire Audi o Volkswagen”. “Da filosofo – aggiunge Floridi – auspicherei un atteggiamento più equilibrato, ovvero ascolterei di più l’industria in Europa e meno negli Stati Uniti. Il rischio è che avvenga una spaccatura, che legislazione e sviluppo dell’Intelligenza artificiale non si armonizzino, che l’America produca e che l’Ue si limiti a legiferare”.
Sul tema non mancano semplificazioni e allarmismi. Cosa ne pensa?
Parlare di IA come il più grande rischio per l’umanità o come se fossimo su “Star Trek” è una grande distrazione di massa. Questa narrativa, alla quale non si sottrae nemmeno Elon Musk, nasce dalla convinzione – quasi di tipo religioso – che questi strumenti siano intelligenti, ovvero l’opposto di ciò che argomento nei miei libri. L’IA, invece, è una “nuova forma dell’agire, che può avere successo senza essere intelligente”[1], una straordinaria capacità di azione che deve essere gestita in maniera sociale, etica e politica.
I timori, però, nascono dal fatto che l’IA generativa, per esempio, può e potrà sostituire un numero crescente di funzioni.
In termini di numeri è un problema enorme, in termini di significato non lo è. La sfida più grande per le imprese è capire come ristrutturare i processi, come “fare parlare” fra di loro, grazie all’IA, aree che oggi non comunicano oppure lo fanno male; come, in buona sostanza, ottenere livelli di efficienza che prima non si era in grado di raggiungere perché non si possedevano gli strumenti giusti. Su questo punto c’è tantissimo lavoro da fare. Al contrario, adottare l’IA per tagliare i costi significa non avere compreso la novità straordinaria dello strumento.
Nel libro Etica dell’Intelligenza artificiale lei introduce il concetto di “avvolgimento”. Afferma che “il mondo sta diventando un’infosfera sempre meglio adattata alle delimitate capacità dell’IA”. Può spiegarci con qualche esempio?
Tutto il mondo dell’agricoltura è sempre più avvolto intorno all’automazione. Pensi alla raccolta delle fragole: non avviene attraverso un automa, ma è la disposizione delle pianticelle a essere strutturata in modo tale che il robot possa raccoglierle. Oppure pensi alla logistica e al modo in cui sono costruiti i magazzini. Le faccio un esempio: Ocado è una grande azienda inglese specializzata nella consegna di frutta e verdura. I guadagni maggiori, però, provengono dall’esportazione della tecnologia che hanno inventato per stoccare i prodotti. Per un robot è infinitamente più facile pescare un oggetto dal basso, mentre sarebbe quasi impossibile afferrarlo da uno scaffale, come facciamo noi. Per questo motivo la piattaforma automatizzata usata da Ocado è costruita con celle collocate in basso sulle quali i robot scorrono e dalle quali prendono i prodotti.
D’accordo ma, applicato all’IA, lei problematizza questo aspetto.
Esatto. Il problema successivo, infatti, è come stiamo regolamentando questa trasformazione del mondo a misura di tecnologia? O forse non ci stiamo pensando? La questione dell’envelop – ben tradotto in italiano con il termine “avvolgimento” – non la vedo dibattuta. Finché parliamo di magazzini e fragole è un conto, ma a mio avviso dobbiamo preoccuparci, per esempio, di come disegneremo gli spazi nei quali opereremo in modo sempre più condiviso e interattivo con le macchine. Walmart, la principale catena di supermercati degli Stati Uniti, aveva provato qualche anno fa a introdurre dei robot per la scansione dei prodotti sugli scaffali. È stato un fallimento. Il robot metteva a disagio le persone, serviva in ogni caso una persona che riempisse i ripiani… Talvolta si sbaglia per eccesso di uso della tecnologia.
Oppure pensiamo alle auto a guida autonoma; dovremmo ridisegnare le città e i flussi di traffico per poterle adoperare. E il pedone? Il ciclista? E chi guida una vecchia auto? Tutto questo non sparisce da un giorno all’altro e, a mio avviso, non lo stiamo considerando abbastanza. Per questo motivo alle aziende suggerisco di fare attenzione affinché questo adattamento avvenga in modo efficiente perché altrimenti si rischia di gettare al vento gli investimenti e dover ricominciare da capo.
Le cito a proposito un altro passaggio del suo libro: “La sfida che ci attende non sarà tanto quella dell’innovazione digitale in sé, quanto piuttosto quella della governance del digitale, compresa l’IA”.
È un altro punto fondamentale che non vedo considerato a sufficienza. Oggi c’è più capacità di risoluzione di problemi che capacità strategica di sfruttarla. Un conto è avere gli strumenti per risolvere i problemi, un altro conto è comprendere quali soluzioni sono buone, quali cattive. La differenza sarà sempre di più in tale discrimine. E in un mondo in cui l’innovazione è costante, capire cosa fare diventa cruciale. Per questo motivo in un altro dei miei lavori parlo dei “colletti verdi”, nuove figure professionali dedicate a gestire queste soluzioni. A tendere, infatti, ci sarà maggiore distanza fra l’output e chi gestisce il processo che porta a ottenere quel prodotto, i lavori diventeranno via via sempre più gestionali e sempre meno operativi.
Questo aspetto andrebbe maggiormente compreso in modo da orientare meglio la formazione delle persone, capire dove sta andando il mondo dell’industria e di che cosa ha bisogno.
Nell’ambito delle tecnologie di IA ce ne sono alcune più problematiche sotto il profilo etico?
Non è l’approccio corretto con cui guardare all’IA e purtroppo è quello che è stato adottato dal legislatore europeo, quando cinque o sei anni fa ha avviato la riflessione sul tema. In quel periodo non c’era l’IA generativa – che si basa su modelli statistici e che quindi può contenere errori –, non si era ancora diffusa ChatGPT e pertanto era più facile pensare all’IA come un prodotto. Ma non lo è. È un servizio flessibile, nel quale l’uso e la contestualizzazione sono fondamentali.
La normativa europea invece si è incanalata sull’oggetto, sulla categorizzazione, ma quell’impianto concettuale funzionava per altro. Nel caso dell’IA generativa, la domanda è “chi è responsabile del modo in cui funziona?”. Faccio un esempio: la tecnologia che consente il riconoscimento facciale è considerata in Europa ad altissimo rischio e va regolamentata a seconda dei contesti. Mentre ospedali, aeroporti e stadi possono rappresentare delle eccezioni, luoghi nei quali verrebbe ritenuta socialmente accettabile, non lo sarebbe invece nelle manifestazioni politiche.
Accanto ai rischi, vi sono anche le opportunità. Che tipo di sensibilizzazione dovrebbero fare istituzioni e associazioni verso gli imprenditori?
Ci vorrebbero due cose: più realismo e concretezza da una parte, più visione di lungo periodo dall’altra. Il grande manager è colui che sa individuare i problemi che sono risolvibili dalle soluzioni offerte, che riesce a far fare all’azienda un salto in avanti grazie agli strumenti oggi disponibili. Serve giocare d’attacco e non in difesa ed è un discorso che vale sia per la piccola che per la grande impresa. D’altra parte il manager è pagato per avere il problema di avere problemi. O no?
[1] Luciano Floridi, Etica dell’Intelligenza artificiale, Raffaello Cortina Editore, 2022, Pag. 39.
(Intervista pubblicata sul numero di ottobre dell’Imprenditore)