Posted On 11 Novembre 2020 By In Innovazione With 69 Views

6 consigli per un’intelligenza artificiale responsabile

L’intelligenza artificiale sta diventando sempre più presente all’interno della società e per questo motivo se ne dovrebbe fare un uso responsabile. Tra le critiche che le sono mosse troviamo limiti inferiori per le carte di credito per le donne, annunci digitali per alloggi e mutui con pregiudizi razziali, chatbot con contenuti offensivi e molto altro. Nell’articolo di Boston Consulting Group sull’argomento si introduce il concetto di intelligenza artificiale responsabile, una priorità che le aziende dovrebbero inserire nei loro obiettivi di business. Molte in realtà hanno ne hanno già creato alcuni principi per guidare le proprie azioni e per aiutare quelle che non lo hanno fatto BCG ha stilato 6 passaggi fondamentali da seguire.

L’IA responsabile non dovrebbe essere percepita solo come un meccanismo di prevenzione dei rischi poiché se ne perderebbe il potenziale che le aziende possono realizzare perseguendolo. Senza contare le ricompense finanziarie che coprirebbero l’investimento iniziale.

Quali sono i benefici dell’intelligenza artificiale responsabile?

Una bottom line più forte. Creare maggiore fiducia, migliorare la fedeltà dei clienti e aumentare i ricavi. Le principali aziende come Salesforce, Microsoft e Google hanno pubblicizzato l’implementazione dell’IA responsabile. Il motivo? secondo le statistiche le persone valutano l’etica tre volte più della competenza quando valutano l’affidabilità di un’azienda.

Differenziazione del marchio. Le organizzazioni devono assicurarsi che le loro iniziative di IA siano in linea con ciò che apprezzano veramente e l’impatto positivo che cercano di ottenere attraverso il loro scopo.

Reclutamento e fidelizzazione migliorati. L’IA responsabile aiuta ad attrarre i talenti digitali e la costruzione di programmi più sostenibili favorisce la diminuzione del turnover dei dipendenti, riducendo i costi di assunzione e formazione.

 

Come mettere in pratica i principi?

Tante realtà non possiedono sufficienti informazioni per rendere operativi i 6 principi dell’intelligenza artificiale responsabile.
I principi senza azione sono vuoti e la mancanza di azione potrebbe essere percepita negativamente da clienti e dipendenti.

Le aziende dovrebbero esaminare ogni aspetto di IA end-to-end:

  •  la raccolta dei dati
  • l’elaborazione dei dati
  • l’archiviazione dei dati
  • le pratiche di back-end,
  • i decisori che determineranno quando e dove implementare un sistema
  • come verranno presentate le informazioni

 

Di seguiti i sei passaggi fondamentali per rendere reale l’IA responsabile. Un piccolo passo, senza investimenti massicci, che può diventare un percorso lungo e proficuo.

Rafforzare la leadership dell’IA responsabile con un Chief AI ethics officer da nominare al timone dell’iniziativa Responsible AI e che:

  • convoca le parti interessate
  • identifica i campioni in tutta l’organizzazione
  • stabilisce principi e politiche che guidano la creazione di sistemi di intelligenza artificiale

Al suo fianco un comitato multidisciplinare di intelligenza artificiale responsabile che includa la rappresentanza di una varietà di funzioni aziendali regioni e background e che aiuti a guidare il programma generale e risolvere questioni etiche complesse come pregiudizi e conseguenze non intenzionali

Sviluppare principi, politiche e formazione Sebbene i principi non siano sufficienti per ottenere un’IA responsabile, sono di fondamentale importanza, poiché servono come base per il programma più ampio e garantire che i principi siano comunicati fornisce ai dipendenti il ​​contesto per le iniziative che seguiranno ma non con un comunicato stampa o un’email. I principi devono essere suddivisi in politiche e standard specifici e attuabili in base ai quali i team possono eseguire.

Stabilire una governance umana + IA.  Una governance efficace implica colmare il divario tra i team che sviluppano prodotti AI e i leader e il comitato di governance che forniscono la supervisione, in modo che i principi e le politiche possano essere applicati concretamente. Una governance AI responsabile può assumere una varietà di forme. Gli elementi includono percorsi di escalation definiti quando emergono rischi in una particolare fase del progetto, revisioni del codice standardizzate, valutazione delle preoccupazioni individuali e miglioramento continuo per rafforzare le capacità e affrontare nuove sfide.

Condurre revisioni AI responsabili. L’utilizzo di uno strumento di valutazione strutturato aiuta a identificare e mitigare i rischi durante tutto il ciclo di vita del progetto, dal prototipo all’implementazione e all’utilizzo su larga scala. Queste revisioni non dovrebbero essere limitate agli algoritmi ma essere una valutazione completa del sistema di IA completo e end-to-end.

Integrare strumenti e metodi.  I principi e le politiche dell’IA responsabile devono avere un impatto e in quest’ottica gli sviluppatori di sistemi di IA devono essere dotati di strumenti e metodi che li supportino. I toolkit che comprendono esercitazioni, esempi di codice modulare e approcci standardizzati per affrontare problemi comuni come il bias dei dati e risultati distorti sono risorse importanti. Creare queste risorse può sembrare un’impresa sostanziale ma ora sono disponibili una varietà di strumenti e tutorial commerciali e open source.

Costruire e testare un piano di risposta.  Le aziende devono tenere in conto che gli errori esistono e che si possono verificare. Per far fronte a questo si deve mettere in atto un piano di risposta per mitigare gli impatti negativi per i clienti e l’azienda in caso di interruzione dell’IA.

Il piano deve:
– contenere i passaggi da intraprendere per prevenire ulteriori danni
-correggere problemi tecnici
-comunicare a clienti e dipendenti cosa è successo e cosa viene fatto
-designare le persone responsabili di ogni fase, in modo da evitare confusione e garantire un’esecuzione senza interruzioni.

 

Questo approccio ai sei passaggi sarà diverso a seconda del contesto di ciascuna organizzazione, tra cui le sfide aziendali, la cultura organizzativa, i valori e l’ambiente legale ma questa è una buona base di partenza.

Lascia un commento