Scroll Top

L’Europa regola l’IA

Insurance Finance Academy

l Parlamento europeo il 13 marzo 2024 ha approvato l’IA Act, il primo quadro giuridico in materia di intelligenza artificiale in Europa.  

Questa legge stabilisce requisiti e obblighi per quanto riguarda gli usi specifici dell’IA e allo stesso tempo cerca di ridurre gli oneri amministrativi e finanziari per le imprese, in particolare per le PMI. 

È chiaramente un primo passo, a cui dovranno seguire misure politiche a sostegno dello sviluppo di IA, per garantire sicurezza e diritti fondamentali delle persone e delle imprese, oltre alla diffusione, agli investimenti e all’innovazione nell’IA in tutta l’Unione Europea. 

A COSA SERVONO LE REGOLE SULLA IA

L’utilizzo dell’Intelligenza Artificiale per la maggior parte dei sistemi non comporta particolari rischi, ma in casi particolari può invece creare situazioni pericolose.

Bisogna, quindi, essere pronti ad affrontare le problematiche che si possono incontrare nell’utilizzo di questi sistemi e quindi, nonostante la legislazione esistente preveda una certa protezione, non è sufficiente ad affrontare le sfide specifiche che i sistemi di IA possono presentare.

Lo scopo di questo importantissimo provvedimento è proprio quello di garantire agli europei la possibilità di fidarsi di ciò che IA può offrire.

I LIVELLI DI RISCHIO

Il quadro normativo definisce i livelli di rischio per i sistemi di IA:

  • Rischio elevato: vi rientrano i sistemi che possono riguardare ad esempio la salute, la sicurezza o i diritti fondamentali, che quindi prima di essere messi sul mercato devono essere sottoposti a una valutazione di conformità per dimostrare il rispetto dei requisiti della legge, come la gestione dei rischi, la qualità dei dati, la documentazione tecnica e la registrazione dei log.
    Ci sono poi misure di trasparenza, cybersicurezza e sorveglianza umana, dove in determinati casi va fatta anche una valutazione d’impatto sui diritti fondamentali e per questi sistemi occorre anche avere la marcatura CE ed essere registrati in un database europeo.
  • Rischio limitato: vi rientrano rischi relativi alla mancanza di trasparenza nell’utilizzo dell’IA. Vengono infatti introdotti specifici obblighi di trasparenza per garantire che le persone siano correttamente informate facendo sì che i fruitori non perdano poi la fiducia. Nel caso per esempio di chatbot e sistemi che interagiscono con le persone, è importante che sappiano che stanno comunicando con una macchina e non con un essere umano.
    I fornitori dovranno anche garantire che i contenuti generati dall’IA siano identificabili. Inoltre, il testo generato dall’IA, pubblicato con lo scopo di informare il pubblico su questioni di interesse pubblico, deve essere etichettato come generato artificialmente. Questo vale anche per i contenuti audio e video che possono costituire dei falsi.
  • Rischio minimo o nullo: vi rientrano applicazioni come videogiochi abilitati per l’IA o filtri antispam. La maggioranza dei sistemi attualmente utilizzati in Europa rientrano in questa categoria.

Va da sé che le autorità predisposte al controllo debbano vigilare sul mercato attraverso una costante sorveglianza e utilizzando anche un monitoraggio umano, mentre i fornitori dispongono di un sistema di monitoraggio post-commercializzazione. Saranno i fornitori e gli operatori a segnalare nel caso incidenti gravi e/o malfunzionamenti.

PROGRESSO E INNOVAZIONE

L’IA Act ha inoltre inserito una serie di norme che facilitano la sperimentazione e l’adeguamento, come ad esempio la regulatory sandbox, un ambiente controllato dove intermediari vigilati e operatori del settore Fintech possono testare, per un periodo di tempo limitato, prodotti e servizi tecnologicamente innovativi nel settore bancario, finanziario e assicurativo.

Sul versante della governance, ogni paese avrà un’autorità di controllo nazionale a cui potranno rivolgersi cittadini e imprese.

Sul versante UE verranno coinvolti diversi soggetti, tra cui Commissione, Comitato europeo per l’intelligenza artificiale e Ufficio per l’IA (istituito a fine gennaio).

Previste pesanti sanzioni per chi violerà il regolamento.

ENTRATA IN VIGORE

Dopo l’approvazione formale di Parlamento e Consiglio e la pubblicazione in Gazzetta Ufficiale, l’IA Act entrerà ufficialmente in vigore, ma l’applicazione sarà graduale. Alcune norme saranno operative dopo 6 mesi (pratiche di IA vietate) e un anno (IA per finalità generali), altre dopo 36 mesi (alcuni sistemi di IA ad alto rischio): la maggior parte della legge diventerà invece applicabile dopo 24 mesi.

Era tempo che l’Europa stabilisse regole chiare e certe su un tema in continuo divenire che rischia di essere normativamente sempre in affanno, ma certo è che la UE ne esce come leader sulla regolamentazione tecnologica.

Skip to content