Sì alle smart cities, ma occorre proteggere i dati delle persone.

Lo sviluppo va fondato sull’etica e sulle persone è quanto chiesto dal Parlamento europeo in merito all’applicazione delle tecnologie di intelligenza artificiale (AI) per la costruzione delle “smart cities” (o “città intelligenti). Un processo per gli eurodeputati che può comportare seri rischi, sia per i singoli individui che per i delicati equilibri di coesione territoriale, a partire dalla creazione di nuovi divari, in termini di sviluppo e opportunità sociali ed economiche, tra singole zone delle città, tra città e contesto extra-urbano e fra le varie città di un dato territorio, come evidenziato nel recente studio “Artificial Intelligence and Urban Development” commissionato dal Parlamento europeo.

La ricerca, tuttavia, non manca di valorizzare gli aspetti positivi delle smart cities, L’AI offre enormi potenzialità ai fini dello sviluppo socio-economico e del miglioramento della qualità della vita individuale e collettiva (ad esempio sul fronte della mobilità della gestione dei rifiuti, dell’efficienza energetica, ecc.). L’intelligenza artificiale presenta però potenziali rischi collegati soprattutto alla capacità di raccogliere, elaborare e trasformare immense quantità di dati, sfruttando anche le sinergie con altre tecnologie (Big Data, cloud, Internet delle cose).

LEGGI ANCHE:  Condomini: no a sistemi di videosorveglianza senza delibera dell’assemblea.

In questo quadro, la protezione dei dati rappresenta un volano fondamentale per la valutazione e la mitigazione di rischi di varia natura, che vanno dalle politiche di cyber-security all’influenza di errori e “bias” (pregiudizi) basati sulla raccolta e l’elaborazione dei dati, che possono avere pesanti ripercussioni a livello individuale e collettivo: dal cosiddetto rischio “black-box”, legato all’opacità o addirittura totale impenetrabilità dei processi automatizzati, alle implicazioni etiche connesse ai processi decisionali dell’AI che, a differenza di quelli umani, possono essere completamente avulsi da implicazioni morali, empatia, riferimento al contesto umano (lack-of-value); dai rischi reputazionali dovuti alla condivisione e diffusione incontrollata di dati personali, alle disparità connesse alle differenti opportunità di accesso ai dati; fino ad arrivare all’eccessiva invasività del controllo tecnologico nelle vite quotidiane.

LEGGI ANCHE:  Intelligenza Artificiale, al via la consultazione pubblica sulla Strategia nazionale.

Per sfruttare al massimo il potenziale dell’AI rispettando al contempo la privacy delle persone, lo studio propone alcuni indirizzi operativi: un’attenta cooperazione tra le istituzioni; lo sviluppo di politiche e pratiche focalizzate su una precisa regolazione dell’accesso ai dati e della loro condivisione; un puntuale e tempestivo adeguamento dei quadri giuridici e regolamentari; lo sviluppo di competenze e capacità adeguate (anche in chiave data protection) da parte dei soggetti chiamati a gestire lo sviluppo e la governance dei processi e delle tecnologie connessi alle città intelligenti.

foto Laurie Dieffembacq © European Union 2020 – Source : EP