Le organizzazioni di tutto il mondo devono sfruttare dati, analytics e intelligenza artificiale per innovare ed essere più resilienti, ma devono farlo in modo etico, responsabile e affidabile. La Trustworthy A.I., l’intelligenza artificiale affidabile, si riferisce a sistemi che incorporano livelli adeguati di responsabilità, inclusività e trasparenza, completezza e robustezza, e sono sviluppati e distribuiti tenendo sempre conto della centralità dell’essere umano.
L’importanza di un’Intelligenza Artificiale affidabile
L’applicabilità dell’intelligenza artificiale spazia ormai dalla medicina alla finanza, dalla logistica al retail, dall’industria manifatturiera a quella dell’energia, dal mercato dei beni di consumo al settore viaggi… man mano che l’A.I. si diffonderà, influenzerà quasi tutti gli aspetti della società, dalla vita professionale a quella personale.
Le opportunità sono incredibili ma vanno di pari passo ai rischi, soprattutto se i sistemi vengono creati, impiegati e gestiti senza un’adeguata governance che tenga conto dell’affidabilità dell’Intelligenza Artificiale (Trustworthy A.I.).
I sistemi di A.I. addestrati su dati distorti, solo per citare un concreto esempio, possono apprendere modelli storici di discriminazione nei confronti di donne, soggetti deboli o popolazioni vulnerabili.
Se i pregiudizi nei sistemi di Intelligenza Artificiale non vengono identificati e mitigati prima di distribuirli e utilizzarli, i sistemi distribuiti possono ereditare pregiudizi sociali e causare conseguenze indesiderate su vasta scala.
Il ruolo delle aziende
A seguito degli ultimi anni di pandemia e crisi globali, le aziende sono ora sotto pressione per mantenere la fiducia dei clienti, dei partner, dei consumatori e per farlo dovranno gestire l’A.I. in modo responsabile. Secondo gli ultimi risultati dell’Edelman Trust Barometer Global Report 2023, i consumatori e i dipendenti si aspettano che le aziende li difendano e agiscano in modo etico e competente, dato che il 63% dei consumatori acquista o sostiene i marchi in base alle proprie convinzioni e ai propri valori.
Questa esigenza di fiducia nelle organizzazioni si rifletterà sempre più anche sull’uso dell’A.I. da parte delle aziende e solo le organizzazioni che potranno dimostrare un uso responsabile ed etico dell’intelligenza artificiale avranno maggiore successo.
Il “senso” di una Trustworthy A.I.
La fiducia nell’uso responsabile dell’Intelligenza Artificiale da parte delle aziende sarà dunque il perno essenziale per il continuo successo dell’attività e delle relazioni con clienti, partner, consumatori. È qui che entra in gioco la Trustworthy A.I..
Un impegno concreto nei confronti dell’A.I. affidabile richiede innanzitutto un allineamento tra le motivazioni che portano un’azienda ad adottare l’intelligenza artificiale e i suoi valori organizzativi esistenti. I valori aziendali devono rappresentare le fondamenta sulle quali costruire il proprio approccio all’uso dell’A.I., tenendo conto non solo delle esigenze e degli obiettivi interni (nessuna organizzazione aziendale lecita nasce con l’obiettivo di creare danni), ma anche degli effetti delle proprie scelte all’esterno.
Il significato di “senso” e scopo di una Trustworthy A.I., infatti, va costruito tanto sulle motivazioni interne quanto tenendo conto delle pressioni esterne. Le persone, sia nelle vesti di consumatori finali di un bene o servizio che di lavoratori e professionisti, vogliono fare affari con brand e aziende che dimostrano una forte bussola morale e un impegno comprovato a fare ciò che è giusto.
Molte organizzazioni si stanno già impegnando per creare un ambiente che promuova l’innovazione responsabile. L’A.I. affidabile deve inserirsi in questi virtuosi meccanismi o essere il perno per costruirli là dove ancora mancano.
In attesa di una regolamentazione
In ambito pubblico, i Governi di tutto il mondo stanno cercando di bilanciare i benefici dell’Intelligenza Artificiale con la necessità di proteggere i cittadini dalle potenziali conseguenze negative delle decisioni prese da sistemi autonomi. È per questo che il panorama normativo globale relativo all’A.I. sta cambiando rapidamente.
A oggi, la situazione in termini di regulation è decisamente a macchia di leopardo, ma le aziende non possono attendere che ci sia un quadro normativo uniforme e condiviso globalmente per definire il proprio modello di Trustworthy A.I..
Devono familiarizzare con le normative già esistenti, interiorizzare le best practices e le linee guida già disponibili per cogliere le opportunità offerte dall’intelligenza artificiale all’interno però di una efficace strategia che mira alla sua affidabilità.
Tre passi per definire una corretta governance di Trustworthy A.I.
Identificare le motivazioni interne, valutare le pressioni esterne e assimilare i requisiti normativi: sono i tre passaggi fondamentali per stabilire il proprio modello di governance dell’A.I. affidabile.
- Supervisione
Il primo passo consiste nello stabilire un sistema di supervisione, che comprende il quadro di riferimento per la governance dell’A.I, la strategia dell’Intelligenza Artificiale e la formulazione delle policy aziendali. Il tutto tenendo conto dei valori aziendali e delle motivazioni che spingono verso un approccio e una governance di Trustworthy A.I..Comprendere la propensione, la tolleranza e la soglia di rischio di un’organizzazione, per esempio, può aiutare a definire la strategia, la politica e la supervisione aziendale in materia di progettazione, sviluppo, implementazione e utilizzo dei sistemi di A.I.. Ad esempio, se un’organizzazione abbraccia la trasparenza come parte della sua strategia di A.I. affidabile, mitigarne i rischi significa adottare modelli di Explainable A.I. che consentano di capire come vengono prodotti gli insight o prese determinate decisioni. - Compliance
Sistemi efficaci di gestione del rischiopossono essere sfruttati anche in termini di compliance, secondo importante elemento di governance (non solo alle normative esterne ma anche alle politiche interne, quindi in chiave di governance della Trustworthy A.I.). Per esempio, per identificare in modo proattivo i fattori di rischio man mano che una soluzione di A.I. continua a essere utilizzata e per modellare un efficace piano di emergenza e di mitigazione. - Operations
Terzo elemento di una corretta governance dell’A.I. affidabile riguarda la gestione delle operations. Il leadership team dovrebbe creare procedure operative che abbiano senso per l’organizzazione in base alla governance e alla strategia stabilite nel pilastro della supervisione. Queste procedure devono essere pratiche, attuabili e facili da implementare e incorporare dei processi di utilizzo dell’A.I. (che significa definire in che modo verranno utilizzati i sistemi basati su intelligenza artificiale).
Infine, ma non meno importante, è necessario creare una vera e propria cultura condivisa affinché tutti si sentano coinvolti e impegnati nel mantenere alto l’obiettivo dell’A.I. affidabile.
PER APPROFONDIRE: Scarica l’ebook gratuito A Comprehensive Approach to Trustworthy AI Governance
L’approccio di SAS all’intelligenza artificiale affidabile
SAS, società leader negli analytics, ha identificato sei principi guida per definire il proprio approccio alla Trustworthy A.I.. Questi principi aiutano tutte le persone di SAS a navigare, gestire e mitigare le tensioni etiche legate all’uso dell’intelligenza artificiale nei modi più produttivi e meno dannosi possibili.
Organizzata dalla Data Ethics Practice (DEP), l’approccio all’A.I. affidabile di SAS pone un’attenzione particolare alla partecipazione globale e interdisciplinare per acquisire un’ampia gamma di punti di vista e garantire che piattaforma tecnologica, processi e servizi aziendali mantengano l’attenzione sulle persone e seguano sempre un approccio “ethical by design”, dallo sviluppo del prodotto alla strategia di mercato. Questi i 6 principi guida:
- Centralità umana: promuovere il benessere, l’equità e la centralità umana.
- Inclusività: garantire l’accessibilità e l’inclusione di prospettive ed esperienze diverse.
- Responsabilità: identificare e mitigare in modo proattivo gli impatti negativi.
- Trasparenza: comunicare apertamente l’uso previsto, i rischi potenziali e il modo in cui vengono prese le decisioni.
- Robustezza: operare in modo affidabile e sicuro, consentendo al contempo meccanismi che valutano e gestiscono i rischi potenziali durante l’intero ciclo di vita del sistema.
- Privacy e sicurezza: proteggere l’uso e l’applicazione dei dati di un individuo.
Chi oggi sviluppa tecnologie e soluzioni destinate a prendere decisioni che hanno un impatto significativo sugli esseri umani deve assumersi la responsabilità di garantire risultati trasparenti ed equi.
Questo articolo è tratto dalla piattaforma Leading the Art of Innovation di SAS, società leader negli analytics
© Riproduzione riservata