ChatGPT, professioni messe a repentaglio dai robot, privacy, libertà e nuove sfide. Cosa dobbiamo attenderci dal futuro? Ne abbiamo parlato con Stefano Machera, esperto del settore e autore di un interessante libro dedicato al tema
Le nostre vite sono sempre più pervase dall’Intelligenza artificiale, che non di rado viene indicata come la soluzione a moltissimi problemi, ma allo stesso tempo additata come la più grande minaccia per l’umanità. Cosa c’è di vero nell’una e nell’altra visione? Quali gli scenari futuri e quali potenziali effetti negativi potrebbe avere sulla società, sul mondo del lavoro, per esempio anche sui lavori intellettuali e legati al mondo della creatività, sulla libertà delle persone? E cosa si dovrebbe fare per gestirla in modo etico evitando che possa accrescere le disuguaglianze socioeconomiche e trasformarla invece in uno strumento per rendere migliore la nostra vita e quella dei nostri figli?
Ne abbiamo parlato con Stefano Machera, fisico ed esperto della materia con alle spalle oltre 35 anni nel campo dell’Information Technology, autore dell’interessante libro Come l’Intelligenza Artificiale cambia il mondo. Le promesse, i pericoli, le scelte che dobbiamo fare.
Come sta cambiando e come cambierà ancora il mondo nei prossimi anni?
Il mondo, lo vediamo tutti, cambia, e sempre più velocemente. Quello di cui nel mio libro ho provato a fornire un ritratto, necessariamente incompleto e “mosso”, è il cambiamento, già ampiamente in corso, innescato dai progressi nel campo dell’Intelligenza Artificiale. Si tratta di qualcosa che investirà ogni aspetto della nostra vita, e che è importante affrontare consapevolmente.
Dobbiamo temere l’Intelligenza artificiale o è un’opportunità per il genere umano?
L’Intelligenza artificiale è certamente un’opportunità enorme per il genere umano. Pur essendo una disciplina che esiste dagli anni Cinquanta, negli ultimi anni ha ottenuto progressi straordinari, e con ogni probabilità nei prossimi anni questo fenomeno continuerà a svilupparsi a velocità molto elevata. L’Intelligenza artificiale sta già portando considerevoli benefici in molti campi, la incontriamo praticamente ovunque. Applicazioni importanti sono già presenti in ambiti cruciali come quelli sanitario e farmacologico, ma abbiamo visto progressi impressionanti in campi diversissimi, dalla traduzione simultanea, agli autoveicoli a guida automatica, alla ricerca scientifica. E siamo solo all’inizio.
Quale il rovescio della medaglia e i maggiori rischi?
Ci sono diversi tipi di rischi, naturalmente, e la cosa non deve sorprenderci. È impensabile che un filone di innovazione tecnologica in grado di trasformare e potenziare quasi ogni campo dell’attività umana non porti con sé dei rischi. Un primo rischio, abbastanza ovvio, è che la potenza degli strumenti di IA possa essere utilizzata a scopi malevoli, ad esempio dai criminali informatici. In questo non c’è niente di nuovo, in fondo.
Una seconda categoria di rischi riguarda i nostri diritti civili e umani. La privacy, la libertà di espressione o di movimento, il diritto a un trattamento equo e imparziale nei procedimenti legali o nelle pratiche finanziarie, devono essere tutelati nel momento in cui una parte rilevante dei processi decisionali e di controllo sia affidata a sistemi di IA.
Una terza categoria di rischi coinvolge invece la nostra organizzazione economico-sociale, in termini di occupazione, welfare, disuguaglianze, e infine il nostro stesso schema di relazioni sociali. Il cambiamento che io credo inevitabilmente ci sarà non potrà non investire in qualche modo tutti questi aspetti della nostra vita.
Personalmente credo che la consapevolezza di questi rischi possa consentirci di affrontarli e gestirli, ma questa consapevolezza al momento mi sembra insufficiente. In un certo senso, il vero rischio che corriamo è di non governare questo fenomeno di portata epocale: tutto il resto è una conseguenza.
Siamo, come qualcuno paventa, di fronte al pericolo di una nuova possibile dittatura? Quella delle multinazionali tecnologiche che controllano l’IA?
Non c’è dubbio che l’IA, nel complesso, produrrà considerevoli benefici economici, ma come questi saranno distribuiti ovviamente non è una questione tecnologica ma di politica economica. Per come è organizzata l’economia globale, esiste certamente il pericolo che l’adozione dell’IA su scala planetaria conduca a un aumento delle disuguaglianze, concentrando i guadagni in poche mani, ossia le imprese multinazionali che forniranno servizi di IA in tutto il mondo, e, in misura minore, le aziende che ne utilizzeranno i servizi per accrescere la propria produttività.
Dall’altra parte, i lavoratori, ma anche i governi stessi, potrebbero veder peggiorare considerevolmente le proprie condizioni, man mano che il peso relativo dei redditi da lavoro diventi sempre più marginale.
Non si tratta di un fenomeno inedito: sappiamo bene che nei Paesi avanzati, più o meno dagli anni Settanta, la crescita economica non ha distribuito i propri benefici in modo uniforme. I meccanismi “spontanei” dell’economia capitalistica favoriscono certamente la concentrazione della ricchezza e quindi anche del potere politico che accompagna la ricchezza, e che ha favorito, ad esempio, la forte riduzione della progressività delle aliquote fiscali negli ultimi decenni.
È necessaria una politica economica e fiscale mirata per compensare le “forze inerziali” del mercato, che di per sé tendono all’aumento delle disuguaglianze.
Qualcuno teorizza che la combinazione di intelligenza artificiale e computer quantici porterà alla supremazia delle macchine sull’essere umano. È uno scenario verosimile?
Un simile scenario, che di solito viene chiamato “singolarità”, è a mio avviso molto meno vicino di quanto dicano molti. Naturalmente, è logico pensare che se le capacità dei sistemi di IA crescono rapidamente, e le nostre no, presto o tardi le prime finiranno per superare le seconde.
Tuttavia, resta secondo me da vedere se l’evoluzione dell’IA andrà davvero nella direzione di un’intelligenza “generale” come la nostra (in inglese si indica con Artificial General Intelligence) o in quella, già avviata oggi, di sistemi estremamente efficaci ma specializzati in aree e compiti delimitati. Un’intelligenza “generale”, in grado di apprendere qualsiasi cosa e di applicarsi a qualsiasi cosa, al momento è più un argomento di ricerca che un obiettivo industriale, anche perché secondo me paradossalmente potrebbe essere meno redditizia. Insomma, tra i vari rischi che dobbiamo tenere in considerazione, questo non mi sembra il più allarmante.
Quello che invece mi aspetto che accada, e anche relativamente presto, è che gli esseri umani possano accrescere le proprie facoltà, o contrastarne il declino con l’età, grazie a “innesti” di protesi elettroniche potenziate dall’IA. Personalmente, spero di vivere abbastanza da diventare una specie di cyborg, e più in generale che a superare le attuali capacità dell’uomo sia ancora l’uomo.
L’intelligenza artificiale porterà a una perdita strutturale di posti di lavoro?
A questa domanda è difficile dare una risposta certa. Piuttosto, è importante riconoscere la possibilità che certe cose accadano, e di conseguenza la necessità di progettare e attuare delle politiche in grado di orientare i probabili cambiamenti nella direzione giusta.
Una cosa di cui penso si possa essere pressoché certi, e su cui più o meno tutti concordano, è che effettivamente ci saranno lavori che spariranno del tutto o quasi. Non saranno, come nei processi di automazione a cui siamo abituati, lavori manuali, ripetitivi, poco specializzati; saranno piuttosto lavori intellettuali, che richiedono competenze e capacità cognitive, e questo sarà in un certo senso un fatto senza precedenti.
Quello su cui gli analisti non sono invece unanimi è se l’IA, a compensazione dei posti di lavoro che eliminerà, produrrà anche nuova occupazione. Secondo molti, la storia dell’innovazione tecnologica ci insegna che alla fine il bilancio tra posti di lavoro perduti e creati è favorevole, e che quelli creati sono anche generalmente più qualificati e più remunerativi.
La mia personale opinione è che questo “ottimismo storico”, come lo chiamo nel mio libro, sia un pericoloso errore, e che gli effetti dell’IA non possano essere previsti semplicemente applicando a essa degli schemi che andavano bene per altri tipi di tecnologia.
Al contrario, io credo che esista una significativa probabilità che l’adozione massiccia dell’IA comporti una perdita di posti di lavoro consistente e strutturale, e che dobbiamo predisporre politiche economiche e sociali adeguate a questo scenario, che potrà anche non verificarsi, ma che rappresenta un’eventualità troppo seria per essere ignorata.
Questione privacy, trattamento dei dati, sicurezza informatica: cosa aspettarsi e cosa ci sarebbe da fare per tutelare le persone?
In realtà, a questo tipo di problemi, che certamente esiste, ed esisterebbe anche senza l’IA, la politica europea è piuttosto sensibile, e ha perciò preso delle iniziative importanti. Per la privacy in quanto tale, è già da anni in vigore il GDPR (Regolamento generale sulla protezione dei dati), che non è stato scritto avendo in mente in particolare l’IA ma che è già più volte stato applicato per proteggere i dati personali dei cittadini anche da rischi derivanti dall’IA, come è stato dimostrato dagli interventi del nostro Garante nei confronti di ChatGPT.
Più recentemente, il Parlamento Europeo e il Consiglio d’Europa hanno trovato un accordo per emanare l’AI Act, una direttiva che regolamenterà le applicazioni dell’AI dal punto di vista appunto della protezione dei cittadini. Un aspetto importante dell’AI Act, tra gli altri, è che contiene norme che limitano anche l’uso dell’IA da parte dei governi, ad esempio per controllare i loro cittadini. In questo senso, penso che l’UE potrà essere, anche in questo campo, un riferimento normativo per tutto il mondo.
Naturalmente, la semplice esistenza di una legge non è sufficiente: occorre vedere come sarà applicata e con quali mezzi, visti gli enormi interessi economici, e non solo, legati all’IA. Io credo che sia necessario intervenire in modo attivo anche, ad esempio, per introdurre una sorta di “certificazione” dei dati e dei metodi usati per “istruire” e collaudare i sistemi di IA prima di immetterli sul mercato.
Cosa si può e si deve fare affinché l’IA non si trasformi in un mezzo per costruire un mondo migliore e non sia invece solo uno strumento per creare nuove disuguaglianze e profitto solo per pochi?
È indispensabile che la politica giochi d’anticipo creando una sorta di governance dell’IA, che abbia la responsabilità appunto di tutelare l’interesse collettivo, non quello di questa o quella categoria, e fare in modo che tutti noi possiamo godere i frutti delle straordinarie potenzialità di questa tecnologia.
Non si tratta di intervenire solo sull’IA e su chi lavora su di essa, anzi: proprio perché l’IA è un fenomeno che trasformerà tutta la nostra vita, occorre innanzitutto riconoscere la necessità di agire per modificare l’organizzazione della nostra società, che deve adeguarsi al cambiamento.
Pensare che si possa affrontare questa transizione solo “imbrigliando” l’IA è assurdo; dobbiamo governare questa rivoluzione innanzitutto accettando il fatto che si tratterà di una rivoluzione, che porterà con sé la fine di un sistema in cui il lavoro umano è al centro di tutto, politica, economia, rapporti sociali e anche la nostra vita personale.
L’innovazione basata sull’IA ci conduce, e in un certo senso ci obbliga, a ripensare tutte queste cose per un mondo futuro che potrà essere migliore di questo, a patto che ci rendiamo conto della necessità di questa trasformazione e agiamo di conseguenza. Questa è una responsabilità anche di tutti noi cittadini, che dobbiamo essere consapevoli e informati, e non limitarci a fare da spettatori di una vicenda che coinvolge i nostri interessi vitali e quelli dei nostri figli.
Vincenzo Petraglia
>>> TI POTREBBE INTERESSARE ANCHE >>> Scenari: l’Intelligenza artificiale porterà alla fine della creatività umana?