Era l’estate del 1956 a Dartmouth, negli Stati Uniti, quando durante un seminario un gruppo di matematici, ingegneri, informatici, fisici e psicologi si ritrovarono a discutere di un’area di ricerca che chiamarono, allora con una certa ambizione, “intelligenza artificiale”. I risultati del confronto definirono gli obiettivi che avrebbero guidato la ricerca negli anni a venire nel convincimento unitario che le dinamiche dei ragionamenti alla base dell’intelligenza umana potevano essere riprodotti dai calcolatori digitali.

A distanza di più di sessanta anni dobbiamo a questi pionieri la tecnologia in grado di “comprendere” il contenuto dei documenti e le loro sfumature contestuali necessari per la loro classificazione e categorizzazione; di “risolvere” in maniera automatizzata i problemi complessi; di rendere possibili conversazioni umane – scritte o parlate –  in grado di interagire con i dispositivi digitali (chatbot); di effettuare giochi con computer.

Fin dal loro albore i calcolatori elettronici, certamente per volontà e metodi di divulgazione degli sviluppatori, hanno stimolato una gran quantità di miti e fantasie dovuti alla difficoltà di capirne il funzionamento e le loro potenzialità, tanto che negli anni ’50 e ’60 del ‘900 l’opinione pubblica aveva la percezione che i computer fossero “cervelli intelligenti molto più veloci, illimitati, spaventosi e misteriosi” rispetto a quelli umani, una specie di macchine pensanti che anche potessero sfuggire di mano ai loro creatori. L’uso di parole come “pensare” e “memoria” sono state utilizzate dai programmatori proprio generando un intreccio tra informatica e psicologia, biologia e matematica. Eppure i risultati generati nel corso dei decenni dall’intelligenza artificiale hanno evidenziato le differenze rispetto al modo in cui pensano gli esseri umani, mancando nei processi informatici per esempio l’intuito o la coscienza marginale, ma al contempo hanno sviluppato un solido processo di interazione e simbiosi tra persona e macchina. Altresì, non va trascurato che a causa della complessità dei sistemi software contemporanei spesso i programmatori non sono in grado di prevedere o addirittura di comprendere l’output del software. Insomma il software una volta uscito dal laboratorio viene adattato, applicato, riciclato per raggiungere obiettivi molto diversi da quelli previsti originariamente. Lo dichiarava già nell’800 Ada Lovelace Byron, la matematica considerata la prima programmatrice di computer della storia, che comprese come le macchine calcolatrici si potevano utilizzare non solo per svolgere problemi matematici, ma anche per comporre musica, produrre grafica e far progredisce la scienza.

Oggi ci troviamo di fronte ad una delle tecnologie più trasformative e di impatto socio-economico il cui sviluppo non è isolato ma si inquadra in un processo graduale di digitalizzazione, nel quale le informazioni, personali e non, hanno acquisito valore a fini statistici e di ricerca sia in ambito pubblico, per l’analisi, la valutazione e la pianificazione delle politiche di sviluppo e ridistributive, per il miglioramento dei servizi della pubblica amministrazione; sia nel privato, per l’analisi delle tendenze del mercato, per aumentare la competitività mediante l’innovazione dei processi produttivi e la qualità dei prodotti e dei servizi.

E’ evidente che la rapida evoluzione dell’AI ci pone davanti a questioni e dilemmi essenziali, non solo relativi alla protezione dei dati, ma anche a quelli etici e scientifici, di assistenza sanitaria, di rapporti di lavoro e di dinamiche sindacali, di tutela della proprietà intellettuale, di sviluppo dei prodotti, di responsabilità civile, di sicurezza dei sistemi, di comunicazione e di tipo finanziario. Le potenzialità illimitate dell’AI possono portare grandi benefici all’umanità, ma allo stesso tempo necessitano di regolazione e cautela.

Nel settore della ricerca scientifica l’utilizzo di algoritmi di AI sta consentendo di fare passi rapidi, nemmeno immaginati finora, verso lo sviluppo di cure di malattie rare e comuni. Per farlo in maniera sempre più precisa, efficace e personalizzata, si dovrà consentire l’accesso ad informazioni e dati idonei ad alimentare e addestrare gli algoritmi di AI, creando cioè un flusso di informazioni tra centri di ricerca, laboratori, istituti di cura oncologica, industrie farmaceutiche e distributori.

E’ innegabile che il panorama normativo sia sempre un passo indietro rispetto all’innovazione tecnologica, tuttavia alcune settimane fa il Parlamento europeo – con 523 voti favorevoli, 46 contrari e 49 astensioni – ha approvato la legge sull’intelligenza artificiale (IA), che intende garantire sicurezza e rispetto dei diritti fondamentali e promuovere l’innovazione disciplinando l’immissione all’interno del mercato europeo dei sistemi ad alta tecnologia da parte di soggetti pubblici e privati, anche extraeuropei.

Le nuove norme mettono fuori legge alcune applicazioni di IA che minacciano i diritti dei cittadini, come: i sistemi di categorizzazione biometrica basati su caratteristiche sensibili e l’estrapolazione indiscriminata di immagini facciali da internet o dalle registrazioni dei sistemi di telecamere a circuito chiuso per creare banche dati di riconoscimento facciale; i sistemi di riconoscimento delle emozioni sul luogo di lavoro e nelle scuole; i sistemi di credito sociale; le pratiche di polizia predittiva (se basate esclusivamente sulla profilazione o sulla valutazione delle caratteristiche di una persona) e i sistemi che manipolano il comportamento umano o sfruttano le vulnerabilità delle persone.

Sono previsti obblighi definiti anche per altri sistemi di IA ad alto rischio (che potrebbero produrre danni significativi alla salute, alla sicurezza, ai diritti fondamentali, all’ambiente, alla democrazia e allo Stato di diritto), come per esempio gli usi legati a infrastrutture critiche, istruzione e formazione professionale, occupazione, servizi pubblici e privati di base (ad esempio assistenza sanitaria, banche, ecc.), alcuni sistemi di contrasto, migrazione e gestione delle frontiere, giustizia e processi democratici (come nel caso di sistemi usati per influenzare le elezioni). Per questi sistemi viene imposto l’obbligo di valutare e ridurre i rischi, mantenere registri d’uso, essere trasparenti e poter garantire la sorveglianza umana. E’ previsto infine il diritto dei cittadini di presentare reclami sui sistemi di IA e ricevere motivazioni sulle scelte basate su sistemi di IA ad alto rischio che incidono sui loro diritti.

Il regolamento adesso sarà sottoposto alla verifica finale dei giuristi-linguisti e dovrebbe essere adottato definitivamente prima della fine della legislatura. A stretto giro, la legge sarà poi formalmente approvata dal Consiglio. Entrerà in vigore venti giorni dopo la pubblicazione nella Gazzetta ufficiale dell’UE e inizierà ad applicarsi 24 mesi dopo l’entrata in vigore, salvo: i casi dei divieti relativi a pratiche vietate, che si applicheranno a partire da sei mesi dopo l’entrata in vigore; i codici di buone pratiche (nove mesi dopo); le norme sui sistemi di IA per finalità generali, compresa la governance (12 mesi) e gli obblighi per i sistemi ad alto rischio (36 mesi).

In attesa che la norma produca i suoi effetti, certamente dopo due anni di intensi dibattiti, il Parlamento europeo è riuscito ad approvare il primo dispositivo normativo al mondo vincolante sull’intelligenza artificiale, con l’obiettivo di ridurre i rischi, aumentare le opportunità, combattere la discriminazione e garantire trasparenza mettendo gli esseri umani e i valori europei al centro dello sviluppo dell’IA.

LASCIA UN COMMENTO

Please enter your comment!
Please enter your name here