Intelligenza artificiale. Le indicazioni del PE in campo militare e civile.

Nella risoluzione approvata ieri dal Parlamento europeo, con 364 voti favorevoli, 274 contrari e 52 astensioni, gli eurodeputati hanno chiesto la formalizzazione di un quadro giuridico comunitario sull’intelligenza artificiale (IA) che contenga definizioni e principi etici sul suo utilizzo in campo militare e civile. Un corpo di norme capaci di subordinare l’IA al controllo umano, in modo da essere corretta o disabilitata in caso di comportamenti imprevisti.

Nel corso degli anni, il dibattito tra scienziati sull’IA ha messo spesso in risalto la potenziale pericolosità del suo impiego, arrivando ad essere considerata, dall’autorevole Stephen Hawking , come una “minaccia per la sopravvivenza umana”. Una considerazione di segno negativo ribadita anche dall’innovatore Elon Musk per il quale “dobbiamo essere super attenti all’intelligenza artificiale, potenzialmente più pericolosa del nucleare”.

LEGGI ANCHE:  Parlamento europeo: "Più poteri all'Agenzia europea dei medicinali".

Considerazioni che si fanno più delicate nel campo della difesa, per il quale gli eurodeputati hanno chiesto che i sistemi abilitati all’IA permettano agli esseri umani di esercitavi un controllo significativo, in modo da esserne i responsabili dell’utilizzo.

Come nel caso dei sistemi d’arma autonomi e letali (LAWS, Lethal Autonomous Weapon System, definiti da alcuni come “robot assassini”), che sollevano questioni etiche e legali fondamentali.

Anche nei servizi pubblici, per gli esponenti del Parlamento europeo, l’aumento dei sistemi di IA, specialmente nella sanità e nella giustizia, non dovrebbe sostituire il contatto umano o generare discriminazioni.

Il testo adottato dal Parlamento richiama, inoltre, l’attenzione sulle minacce ai diritti umani fondamentali e alla sovranità dello Stato derivanti dall’uso delle tecnologie di IA nella sorveglianza civile e militare di massa. In particolare il Parlamento europeo ha chiesto l’applicazione del divieto di utilizzo di “applicazioni altamente invasive di punteggio sociale” (per il monitoraggio e la valutazione dei cittadini).

LEGGI ANCHE:  L'inflazione spiegata ai bambini: le nuove iniziative di Eurostat.

Per il relatore del testo Gilles Lebreton del gruppo Identità e Democrazia: “Di fronte alle molteplici sfide poste dallo sviluppo dell’IA, abbiamo bisogno di risposte legali. Per preparare la proposta legislativa della Commissione sul tema, questa relazione mira a mettere in atto un quadro che ricordi essenzialmente che in qualsiasi ambito, e specialmente in campo militare e nei settori gestiti dallo Stato come la giustizia e la salute, l’IA deve sempre rimanere uno strumento utilizzato solo per assistere il processo decisionale o per aiutare ad agire. Non deve mai sostituire o sollevare gli esseri umani dalla loro responsabilità”.

foto © 2020 Leonardo S.p.A.