L’Unione europea ha presentato il primo quadro giuridico sull’intelligenza artificiale (Ia) insieme a un nuovo piano coordinato con gli stati membri per garantire la sicurezza e i diritti fondamentali di persone e imprese. In questo modo, si punta a rinforzare l’adozione dell’Ia, gli investimenti e l’innovazione nel settore in tutta l’Unione. Le nuove regole sulle macchine integreranno questo approccio adottando soluzioni volte ad accrescere la sicurezza in ottica di un maggiore consolidamento della fiducia dei cittadini, e quindi degli utenti.
Il framework risulta fondamentale se si guarda al prossimo futuro del settore. Vedendo le previsioni 2025-2030, infatti, l’intelligenza artificiale dovrebbe attrarre 200 miliardi di euro in Europa. Non solo, l’Ia dovrebbe contribuire a ridurre i gas serra dall’1 al 4%, far aumentare la produttività dall’11 al 37%. Inoltre, entro il 2025, si prevedono anche 177 zettabytes di dati. Un impatto globale, quello di questo settore, che sarà pari a 13,7 trilioni di dollari. Si capisce dunque che occorre frenare i possibili rischi e stabilire delle regole che possano consentire ai cittadini di beneficiare dell’intelligenza artificiale.
Gradi di rischio
Proprio su questo tema lo studio legale Dentons ha tenuto una delle sue digital breakfast, dove la senior associate Chiara Bocchi ha spiegato come l’Unione europea identifichi diverse categorie di rischio. “La prima – spiega – è quella dei sistemi di intelligenza artificiale vietati, ovvero quelli che presentano un rischio inaccettabile perché sono una chiara minaccia per la sicurezza e i diritti delle persone. In questa categoria – prosegue l’avvocata – vengono fatti rientrare i sistemi che sono in grado di manipolare il comportamento umano per condizionare o influenzare la volontà degli individui. Ma anche i sistemi che possono consentire alle pubbliche autorità di verificare e analizzare la meritevolezza degli individui in base al loro comportamento”.
Ci sono poi i sistemi ad alto rischio vengono individuati tenendo conto della loro destinazione d’uso. Questo significa, prosegue Bocchi, “che la Commissione ha individuato nella sua proposta un elenco che comprende le infrastrutture critiche, il recruiting, i sistemi utilizzati nei servizi pubblici essenziali, i sistemi per l’amministrazione della giustizia e per la gestione dei flussi migratori”. Per questi sistemi ad alto rischio sono previsti degli obblighi da soddisfare prima della loro messa in commercio proprio per garantirne la sicurezza e la conformità alla normativa.
Nel dettaglio, “questi obblighi comprendo sistemi di risk assessment, anche attraverso un processo di registrazione dei log, l’utilizzo di dataset di alta qualità, la predisposizione di documentazione tecnica, obblighi di trasparenza. Naturalmente non manca il fatto che ci sia un obbligo di prevedere un controllo umano che sia adeguato per controllare i rischi dei sistemi di intelligenza artificiale ed è anche previsto il sistemo di un controllo qualità che arriva sino all’apposizione del marchio Cee e alla registrazione del sistema di intelligenza artificiale nello specifico database”.
Ci sono poi sistemi a rischio minimo, quello in cui l’intelligenza artificiale è consentita, che si classifica subito prima del rischio basso – come il caso dei bot o deepfake – che deve però adempiere a trasparenza e informazioni da parte di chi usa l’Ai. Infatti, “nel caso di chatbot e deepake l’unico obbligo fondamentale è quello della trasparenza, ovvero rendere gli utenti consapevoli”, chiosa Bocchi.
Un nuovo orizzonte
Le nuove norme avranno un ambito di applicazione molto ampio che interesserà qualsiasi sistema Ia nel mercato europeo e, soprattutto, riguarderanno sia i produttori che gli utilizzatori dei sistemi. “L’applicazione delle nuove norme sarà affidata ai singoli stati che potranno individuare delle autorità specificatamente competenti anche per la sorveglianza sul mercato. I rappresentanti di queste autorità siederanno nello European artificial intelligence board insieme al european data protaction supervisor e sotto la supervisione della commissione europea”, continua l’avvocata.
Va notato che la proposta di regolamento prevede già delle sanzioni: si può raggiungere il 6% del fatturatto quando si utilizzano sistemi AI vietati o violazione disposizioni che impongono utilizzo di dati di alta qualità. Come fa notare Bocchi, “ci sono molti punti di contatto con il Gdpr, come ad esempio gli obblighi di documentazione o conservazione dei log che ricordano il principio di accountability. Ma anche lo stesso european artificial intelligence board che ricorda lo european data protection board”.

Come commenta il team TMT di Dentons a Dealflower, “le specificità dei sistemi di intelligenza artificiale, le loro caratteristiche intrinseche, possono rendere complessa l’applicazione della normativa esistente – anche delle norme tecnologicamente neutre, come anche il Gdpr. Complessità, questa, ancora maggiore se si considera che i sistemi di intelligenza artificiale possono interessare tutte le aree del diritto, dalla contrattualistica alla responsabilità, dalla privacy alla proprietà intellettuale: per fare solo alcuni esempi”.
Insomma, “un nuovo quadro normativo, dedicato ai sistemi di intelligenza artificiale, non può prescindere dall’assicurare un certo controllo, o supervisione, dell’uomo, la robustezza tecnica e la certa sicurezza dei sistemi, la tutela dei dati – che sono il “motore” dell’intelligenza artificiale, la sua “forza vitale” –, una certa trasparenza e spiegabilità dei processi decisionali dell’intelligenza artificiale. E non può prescindere neppure dal tutelare contro il rischio di discriminazioni”.