Secondo la MIT Technology Review il 2023 è stato l’anno in cui i legislatori hanno concordato una visione sulle intelligenze artificiali e il 2024 sarà l’anno in cui questo inizierà a trasformarsi in azioni concrete. Un sondaggio di Gartner afferma che la metà dei leader della supply chain sta pianificando di implementare l’IA generativa (GenAI) nei prossimi 12 mesi, un periodo in cui vedremo anche gli effetti delle regolamentazioni.

L’implementazione della IA generativa nella supply chain

Secondo un sondaggio Gartner, la metà dei leader della supply chain sta pianificando di implementare l’IA generativa nei prossimi 12 mesi, mentre un altro 14% afferma di aver già iniziato a implementare la tecnologia all’interno della propria organizzazione. Secondo un rapporto pubblicato il 10 gennaio, solo il 2% circa degli intervistati ha dichiarato di non avere intenzione di implementarla nelle proprie operazioni. Lo studio ha anche dimostrato che le aziende stanno promuovendo piani di attuazione con un sostegno finanziario. I leader della catena di approvvigionamento hanno dichiarato che destineranno in media il 5,8% dei loro budget a questa tecnologia.

Inoltre, il 65% degli intervistati ha dichiarato che assumerà personale ed esperti per implementare la tecnologia generativa all’interno della propria organizzazione. Molti leader della supply chain stavano già sfruttando le tecnologie della supply chain e l’analisi avanzata, ed è chiaro da questi dati che la maggior parte vede anche il valore dell’IA generativa per aumentare la produttività, migliorare l’agilità aziendale e ridurre i costi.

Le normative negli Stati Uniti

L’intelligenza artificiale è entrata nel vivo del dibattito politico negli Stati Uniti nel 2023 con un’ordine esecutivo del presidente Biden sull’intelligenza artificiale alla fine di ottobre che richiede trasparenza e nuovi standard e l’AI Safety Institute statunitense sarà responsabile dell’attuazione della maggior parte delle politiche richieste dall’ordinanza. Biden ha manifestato una politica favorevole all’industria con un’enfasi sulle migliori pratiche, una dipendenza da diverse agenzie per elaborare le proprie regole e un approccio sfumato nella regolamentazione di ciascun settore dell’IA, come scrive la rivista del MIT. Quest’anno verranno attuati molti elementi dettagliati nell’ordine esecutivo di Biden.

Esistono già diverse proposte legislative in gioco che toccano vari aspetti dell’intelligenza artificiale, come la trasparenzai deepfake e la responsabilità della piattaforma. Ma non è chiaro quale di questi progetti di legge prenderà piede l’anno prossimo. Inoltre, le elezioni presidenziali americane del 2024 influenzeranno gran parte del dibattito sulla regolamentazione dell’IA. Come vediamo nell’impatto dell’intelligenza artificiale generativa sulle piattaforme dei social media e sulla disinformazione, possiamo aspettarci che il dibattito su come prevenire i danni derivanti da questa tecnologia sia modellato da ciò che accade durante la stagione elettorale.

Gli avanzamenti in Unione europea

L’Unione Europea ha appena approvato l’AI Act, la prima legge sull’IA al mondo. Dopo intensi ritocchi tecnici e l’approvazione ufficiale da parte dei paesi europei e del Parlamento europeo nella prima metà del 2024, l’AI Act entrerà in vigore abbastanza rapidamente. Nello scenario più ottimistico, i divieti su determinati usi dell’intelligenza artificiale potrebbero essere applicati già entro la fine dell’anno. Tutto ciò significa che il 2024 sarà un anno impegnativo per il settore dell’intelligenza artificiale mentre si prepara a conformarsi alle nuove regole e le aziende che svilupperanno modelli di base e applicazioni, che si ritiene rappresentino un “rischio elevato” per i diritti fondamentali, dovranno soddisfare i nuovi standard dell’UE.

Tra gli usi dell’intelligenza artificiale che saranno completamente vietati nell’UE troviamo la creazione di database di riconoscimento facciale o l’utilizzo della tecnologia di riconoscimento delle emozioni sul lavoro o nelle scuole. L’AI Act richiederà alle aziende di essere più trasparenti su come sviluppano i loro modelli e renderà loro, e le organizzazioni che utilizzano sistemi di IA ad alto rischio, più responsabili per eventuali danni che ne derivano. Le aziende che sviluppano modelli di base – i modelli su cui si basano altri prodotti di intelligenza artificiale, come GPT-4 – dovranno conformarsi alla legge entro un anno dalla sua entrata in vigore. Altre aziende tecnologiche hanno due anni per attuare le regole.

Effetto Bruxelles

L’UE ritiene che i modelli più potenti, come GPT-4 di OpenAI e Gemini di Google, potrebbero rappresentare un rischio “sistemico” per i cittadini e quindi necessitano di ulteriore lavoro per soddisfare gli standard e sempre l’UE sta anche lavorando a una Direttiva sulla responsabilità dell’IA, che garantirà un risarcimento finanziario alle persone danneggiate dall’AI. Le trattative sono ancora in corso e probabilmente riprenderanno quest’anno.

Il Regno Unito ha affermato che non intende regolamentare l’intelligenza artificiale a breve termine ma qualsiasi azienda al di fuori dell’UE, la seconda economia più grande del mondo, dovrà comunque rispettare la legge sull’AI se vuole fare affari nel blocco commerciale: è il cosiddetto “effetto Bruxelles” per cui l’UE è in grado di stabilire lo standard globale de facto. Come scrive ancora la MITTR, vedremo più normative sull’intelligenza artificiale introdotte in altre parti del mondo nel corso del prossimo anno. Oltre alla Cina, anche alcuni paesi come il Ruanda, la Nigeria e il Sudafrica hanno già elaborato strategie nazionali per l’intelligenza artificiale. Organismi globali come l’ONU, l’OCSE, il G20 e le alleanze regionali hanno iniziato a creare gruppi di lavoro che potrebbero rivelarsi utili per creare coerenza normativa tra diverse regioni e sviluppi si attendono anche per questo 2024.