Since 1985 | www.cflf.eu

  +39 06/ 91931053  ROMA, Piazza Ungheria, 6, int. 11, 00198, ROMA m.condemi@cflf.eu

I rischi dell’algoritmo

di Marcello Condemi

L’intelligenza artificiale – quale tecnologia che consente di simulare (attraverso la creazione e
l’applicazione di algoritmi integrati in ambiente di calcolo dinamico) i processi dell’intelligenza
umana, permettendole di pensare e agire come gli esseri umani – è capace di generare a seconda
dell’algoritmo progettato sia una straordinaria capacità di calcolo, di assimilazione e
interpretazione di enormi masse di dati del tutto impensabile per la capacità umana, sia la
violazione di diritti fondamentali dell’individuo, potendo giungere al punto, sfruttando sue
abitudini, aspettative e pregiudizi, di spingerlo a compiere scelte pilotate. Da qui dunque – al di là
della già ampia e utile applicazione dell’AI in molte aree scientifiche e imprenditoriali (impresa,
finanza, medicina, comunicazioni, informazione, etc.) – le ragioni delle preoccupazioni che essa
desta ove lasciata alla libera iniziativa imprenditoriale e della conseguente richiesta, proveniente
da giuristi e scienziati, di predisporre regole che ne impediscano l’uso dissennato, lesivo dei diritti
fondamentali dell’individuo e a cascata dell’armonica convivenza sociale (si pensi ad esempio alla
possibile manipolazione delle tornate elettorali). Mossi da tali preoccupazioni, il Consiglio e il
Parlamento europeo, per primi nel mondo, hanno lo scorso dicembre raggiunto un accordo
provvisorio sulla proposta relativa all’introduzione di regole armonizzate sull’intelligenza artificiale
(id est: Regolamento sull’intelligenza artificiale), volte ad assicurare che i sistemi di AI utilizzati
nell’UE siano sicuri e rispettino i diritti fondamentali e i valori fondanti della stessa. L’accordo,
quale potenziale benchmark per altre giurisdizioni, stimola l’adozione dell’AI impedendone
applicazioni inaccettabili; l’accordo in particolare, seguendo un approccio “basato sul rischio”,
delinea fattispecie regolatorie (anche presidiate da pesanti sanzioni pecuniarie)
proporzionalmente più rigorose al crescere della rischiosità del modello di AI utilizzato ipotizzando
sistemi: i) a “rischio limitato” soggetti soltanto ad obblighi di trasparenza; ii) a “rischio alto”
autorizzati laddove siano soddisfatti determinati requisiti e siano rispettati taluni obblighi; iii)
“inaccettabili” e perciò vietati, quali, ad esempio, applicazioni che si prefiggano forme di
manipolazione comportamentale, riconoscimento delle emozioni, forme di categorizzazione
biometrica, etc.. L’auspicio è che l’iter di perfezionamento di tale corpus normativo si concluda il
più velocemente possibile, al fine di impedire che l’intelligenza umana, che è poi l’artefice e la
responsabile delle degenerazioni applicative dell’AI che si intendono impedire, produca mostri
ancora peggiori di ciò che talvolta lo stesso genere umano è in grado di generare.

Pubblicato sul quotidiano “Il Tempo” in data 19 gennaio 2024

LOGO CFLF

Risolviamo le tue sfide legali con esperienza e passione affiancandoti in ogni passo.

CFLF | Corporate and finance law firm

© CFLF 2024. Tutti i diritti riservati.