Posted On 28 Giugno 2022 By In Innovazione With 88 Views

Intelligenza artificiale: utilizzi e problemi etici

Nelle ultime settimane il tema dell’intelligenza artificiale (AI) è tornato in auge dopo che un ingegnere di Google, Blake Lemoine, ha sostenuto che il chatbot LaMDA (Language Model for Dialogue Applications) fosse senziente.

Lemoine ha presentato ai vertici di Google un documento dal titolo LaMda è senziente? nel quale riportava alcune conversazioni avute con il sistema – avute soprattutto per esaminare in modo specifico i pregiudizi relativi ad aspetti come l’orientamento sessuale, il genere, l’identità, l’etnia e la religione, ora accessibili online – e l’opinione secondo cui l’azienda dovrebbe riconoscerlo come “un dipendente, piuttosto che una proprietà”. Google ha sospeso Lemoine a causa del suo tentativo di far avere un avvocato a LaMDA, per proteggere i suoi diritti.

Ogni settore, dalla sanità ai trasporti, dall’agricoltura all’intrattenimento, sta implementando soluzioni di AI, e anche il procurement non è da meno. Queste tecnologie, al netto della vicenda Lemoine, presentano problematiche etiche da non sottovalutare.

Progressi del settore

Le capacità di conversazione di AI come LaMDA sono state sviluppate nel corso di anni. Come molti modelli linguistici recenti, inclusi BERT e GPT-3, queste tecnologie sono basate su Transformer, un’architettura di rete neurale inventata da Google Research e resa open source nel 2017. La stessa Google la definisce una tecnologia che produce un modello che può essere addestrato a leggere molte parole (una frase o un paragrafo), prestare attenzione a come queste parole si relazionano tra loro e quindi prevedere quali parole verranno dopo. Dei modelli, LaMDA è allenato proprio per il dialogo e per parlare potenzialmente di qualsiasi argomento.

In un documento su LaMDA di gennaio 2022, Google ha avvertito come le persone potrebbero essere indotte a condividere informazioni personali con chatbot che si spacciano per umani, anche quando gli utenti sanno che non lo sono. Il documento riconosceva anche come questi strumenti potrebbero essere usati per seminare disinformazione impersonando lo stile di conversazione di individui specifici. I ricercatori di robotica e di assistenti vocali hanno scoperto che le manifestazioni di empatia hanno il potere di manipolare l’attività umana: le persone si fidano troppo dei sistemi di AI o accettano implicitamente le loro decisioni.

Per Margaret Mitchell, ex co-responsabile della sezione “ethical AI” di Google, scrive Wired, questi rischi sottolineano la necessità di una maggiore trasparenza dei dati sullo sviluppo delle intelligenze artificiali da parte delle aziende.

L’AI nel procurement

Questi tipi di tecnologia possono adattare il proprio comportamento e apprendere processi nuovi. Esempi di AI in uso oggi includono: robot di produzione, auto a guida autonoma, agenti di prenotazione viaggi intelligenti, assistenti virtuali, mappatura delle malattie, investimenti finanziari automatizzati, chatbot conversazionali, strumenti di elaborazione del linguaggio naturale (NLP).

Nel procurement, un assistente virtuale avanzato può svolgere ruoli strategici e operativi per buyer e CPO. Questo tipo di strumento aiuta soprattutto a migliorare l’esperienza e la soddisfazione complessiva degli utenti in ogni fase e ridurre in maniera notevole e ottimizzare il carico di lavoro del personale addetto alle relazioni con clienti e fornitori, analizzando prestazioni e rischi associati. Attività come la gestione dei contratti, l’assistenza agli acquisti, l’approvvigionamento strategico e l’analisi della spesa possono essere incorporate in un algoritmo che offre un output con le informazioni necessarie. L’intelligenza artificiale aiuta i professionisti del procurement con la gestione dei dati, aiutando ad ottenere grandi quantità di informazioni a una velocità maggiore. Inoltre, la tecnologia text-to-image potrà persino permettere di velocizzare i processi di fatturazione.

Rischi e contromisure

Secondo il Parlamento Europeo per intelligenza artificiale si intende “l’abilità di una macchina di mostrare capacità umane quali il ragionamento, l’apprendimento, la pianificazione e la creatività”. Proprio il “mostrare capacità umane” è quanto alla lunga potrebbe determinare la possibilità di incappare in situazioni come quella di Lemoine, laddove il rischio è di antropizzare eccessivamente una macchina che simula comportamenti e lavori umani facendo troppo affidamento sulle sue capacità predittive o descrittive, proprio come avvertito dal rapporto di Google.

Ma l’utilizzo di AI espone anche la Supply Chain 4.0 a rischi cyber esterni. Rischi legati soprattutto allo scambio dati tra fornitori e clienti, ma anche a possibili attacchi di hacker. In questo senso, dal punto di vista delle possibili contromisure da adottare per il futuro, si renderà sempre più necessaria una adeguata formazione interna sui rischi cyber e su tutte le nuove tecnologie via via integrate per rendere il procurement sempre più efficiente e meno costoso.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.