L’obiettivo della gestione del rischio della catena di approvvigionamento è ridurre al minimo qualsiasi interruzione e mantenere in movimento il flusso delle merci. Ma con la crescente complessità delle catene di fornitura globali, inclusi livelli multipli e fornitori di settore condivisi tra competitors, l’utilizzo di metodi di gestione del rischio che prevedono l’uso di intelligenza artificiale è sempre più una necessità.
Come stiamo imparando anche grazie al dibattito sulla natura di ChatGPT (l’esempio mediaticamente più sentito) l’intelligenza artificiale può identificare modelli e correlazioni nei dati, ricevere input e addestrarsi per diventare sempre più intelligente. Parlando di rischio e AI, il National Institute of Standards & Technology (NIST) ha rilasciato la versione 1.0 del suo Artificial Intelligence Risk Management Framework (AI RMF) a fine gennaio 2023. Uno strumento per progettare e gestire un’intelligenza artificiale (AI) affidabile e responsabile.
AI e gestione del rischio
L’intelligenza artificiale, tra speranze e timori, è al centro del discorso odierno. Considerata la tecnologia disruptive di questo tempo, sembra essere anche la chiave di volta per l’odierna, e sempre più fondamentale, gestione del rischio della catena di approvvigionamento. In questo senso gli algoritmi di intelligenza artificiale possono identificare modelli e tendenze altrimenti difficili da individuare, quindi incorporare linee guida e feedback personalizzati e adeguare immediatamente i piani per mitigare eventuali rischi potenziali identificati.
La gestione del rischio supportata dall’intelligenza artificiale aiuta a ridurre i costi principalmente valutando il rischio in base alla probabilità che si verifichi e concedendo alle aziende più tempo per adeguare le operazioni prima che si verifichi un’interruzione. Le soluzioni basate sull’intelligenza artificiale consentono alle organizzazioni di abbreviare i tempi del ciclo di gestione del rischio e aumentare il ROI tramite una migliore visibilità, analisi in tempo reale, controlli di approvazione automatizzati e molto altro. Le aziende possono riconoscere i rischi più rapidamente e sono in grado di intraprendere azioni preventive, pianificare uno scenario per anticipare i risultati probabili. Per le supply chain odierne, l’intelligenza artificiale è un potente strumento di gestione del rischio.
Inoltre, le aziende possono utilizzare gli strumenti di intelligenza artificiale per analizzare il feedback dei clienti da ordini precedenti per prevedere la domanda futura dei clienti o suggerire miglioramenti che potrebbero contribuire ad aumentare le vendite.
Il valore della supervisione umana
Ma le grandi potenzialità dell’AI devono essere combinate con una costante supervisione umana. Così le aziende possono ottenere informazioni sui potenziali rischi all’interno delle loro catene di approvvigionamento, ottenendo al contempo un maggiore controllo sulle loro operazioni. La supervisione e la verifica umane garantiscono accuratezza, precisione e personalizzazione nelle operazioni di intelligenza artificiale per aiutare a eliminare gli errori dovuti a interpretazioni errate o presupposti illogici fatti dal sistema. I sistemi di intelligenza artificiale possono avere difficoltà con scenari complessi e sfumati, che richiedono una comprensione contestuale più profonda.
D’altra parte, anche i pregiudizi umani devono essere presi in considerazione quando si tratta di revisione e interpretazione dei dati. Per questo le migliori piattaforme di monitoraggio del rischio della catena di approvvigionamento riducono al minimo i pregiudizi umani utilizzando protocolli e formazione che promuovono un processo decisionale imparziale e sviluppano salvaguardie tecniche contro risultati distorti.
Il framework di NIST per gestire il rischio AI
Dall’AI ci si aspetta una migliore gestione del rischio, ma un rischio lo presenta anche utilizzare l’AI. L’intelligenza artificiale, in quanto tecnologia generica, abbraccia un’ampia gamma di tecnologie, fonti di dati e applicazioni. L’Artificial Intelligence Risk Management Framework (AI RMF) del NIST introduce in questo senso dimensioni “socio-tecniche” al suo approccio alla gestione del rischio, che comprendono “dinamiche sociali e comportamento umano” con una vasta gamma di risultati, attori e parti interessate e attori da considerare.
L’AI RMF fornisce due lenti attraverso le quali considerare i problemi: una tabella concettuale per identificare il rischio nel contesto dell’AI, delineando i tipi generali e le fonti di rischio ed enumerando sette caratteristiche chiave relativa alla sua affidabilità; una serie di processi organizzativi e attività per valutare e gestire il rischio, collegando le dimensioni socio-tecniche dell’AI alle fasi del ciclo di vita di un sistema di AI e agli attori coinvolti. Come suggerisce il titolo “Versione 1.0“, il documento pubblicato il 26 gennaio non è pensato per essere l’ultimo sulla gestione del rischio AI. L’agenzia prevede di condurre una revisione formale completa entro il 2028, che potrebbe produrre un’altra versione. Ma nel frattempo, in quanto documento aperto, relativamente al framework il NIST raccoglierà commenti su base continuativa e li esaminerà e li integrerà semestralmente, potenzialmente rilasciando nuove versioni migliorative (come fatto con il Cybersecurity Framework nel 2018).
Questo approccio iterativo può aiutare l’AI RMF ad adattarsi ai cambiamenti sia nella tecnologia AI che nella comprensione dei problemi che presenta. C’è molto altro da imparare sulle caratteristiche dell’AI affidabile identificate nel documento quadro.