L’intervista a Chiara Ghidini è parte di
AI Act: la fuga in avanti dell’Europa
Perché è così importante l’AI Act?
Perché l’intelligenza artificiale ormai da alcuni anni è diventata parte delle nostre vite, non è più un’attività di ricerca, ma è entrata nelle attività di tutti i giorni, dal suggerimento per un post su Facebook all’applicazione dei filtri anti-spam, ai chatbot che diventano sempre più sofisticati, fino alla guida dell’auto autonoma e alle diagnosi in ospedale. E come tutte le novità che arrivano a permeare la società, va regolamentata. L’AI Act è il primo tentativo al mondo di regolare in maniera estesa l’uso delle intelligenze artificiali. L’Europa si è posta alla frontiera come esempio di legislazione.
È una legge completa?
Manca qualcosa dal punto di vista dell’approccio. Non si può decidere dove utilizzare l’intelligenza artificiale attraverso una serie di norme che dividono la realtà in settori. In questo settore sì, in quest’altro settore no. Esempio: l’AI Act dice che non è possibile usare l’AI per infrastrutture critiche tipo l’energia. È vero che si tratterebbe di utilizzi molto rischiosi, ma è anche vero che quello di un miglior utilizzo dell’energia è un problema su cui l’intelligenza artificiale potrebbe avere delle soluzioni da proporre. Quindi, più che normare i settori nella loro interezza, sì/no, occorrerebbe secondo noi una discussione decisa su che cos’è che vogliamo che l’IA faccia, per chi e da parte di chi. Mi spiego: un’istituzione governativa europea che soddisfa determinati requisiti dovrebbe poter adottare soluzioni di AI anche in campi critici, perché lo farebbe per il bene dei cittadini. Mentre questo dovrebbe opportunamente non essere permesso a un’azienda di altro tipo cui quei requisiti mancano.
Quanto il disegno della legge italiana sull’AI ricalca la normativa europea?
Tutto sommato propone gli stessi principi dell’AI Act, ma è ulteriormente restrittiva. Questo tende a penalizzare l’uso di una tecnologia anche senza averla prima sperimentata. Ecco, credo che manchi un po’ di spinta verso la sperimentazione, che invece è presente nell’AI Act, che prevede per piccole e medie imprese l’utilizzo delle cosiddette SandBox, ovvero degli spazi dove sia possibile sperimentare prima di approcciare il mercato. L’AI può avere dei risvolti complessi. Servirebbe un approccio un po’ più graduale e sperimentale, che permettesse anche alle piccole e medie imprese di sviluppare i propri prodotti, di testarli, di valutare insieme a team multidisciplinari il tipo di impatto che potrebbero avere sulla società.
L’applicazione dell’AI Act richiederà due anni. Nel mentre la tecnologia farà ulteriori passi da gigante, saremo costretti a una rincorsa continua?
Questo è un discorso molto sensato. La stessa irruzione dei modelli generativi ha provocato un rallentamento dell’AI Act perché c’erano posizioni molto diverse nel Parlamento Europeo sulla regolamentazione di questi modelli. È innegabile che ci si trovi a rincorrere tecnologia. Così come è chiaro che non ci sono alternative.
Nel dibattito pubblico si parla soprattutto di posti di lavoro a rischio…
È difficile fare previsioni realistiche. Rispetto alle precedenti rivoluzioni industriali, questa andrà a colpire soprattutto il lavoro intellettuale. Succederà, dobbiamo metterlo in conto: sarà un cambiamento culturale molto forte. Già oggi l’AI ha automatizzato dei lavori mettendo a rischio alcune professioni: traduzione multilingue speech to speech, generazione di contenuti, la stessa programmazione che doveva essere il lavoro del futuro… Di nuovo: servirà una chiara discussione sociopolitica su dove vogliamo andare con l’intelligenza artificiale. Perché non è detto che tutto quello che può fare si debba per forza fare. Parafrasando uno dei tre autori del Machine Learning, il problema nel far capire i rischi dell’AI è che manca un’Hiroshima dell’intelligenza artificiale. Manca, cioè, quell’evento clamoroso che faccia capire alle persone dove sono i limiti che non possiamo oltrepassare. Certe cose, a livello sociale, non sono poi così necessarie. È forse necessario spendere tutta l’energia che stiamo spendendo per allenare questi modelli? Dal punto di vista ambientale costa uno sproposito. È socialmente vantaggioso?