13 Aprile 2026
Europa

Ue e “difesa del pluralismo”. Contrasto della disinformazione straniera o censura del dibattito interno?

Dove si traccia il confine tra il contrasto alla disinformazione straniera e la limitazione del dibattito politico interno? È la domanda scomoda che l’eurodeputata Christine Anderson ha posto per iscritto alla Commissione Europea, toccando uno dei nodi più delicati dell’architettura regolatoria digitale dell’Unione.

Anderson parte da un dato di fatto riconosciuto dalla stessa Commissione: le operazioni di manipolazione e interferenza dell’informazione straniera (FIMI), incluse le cosiddette “fabbriche di troll” legate alla Russia, rappresentano una minaccia reale ai processi democratici europei. Il problema è che le misure adottate per contrastarle, obblighi orizzontali imposti alle piattaforme digitali, producono effetti che ricadono anche sulla visibilità e sulla diffusione di contenuti perfettamente legali pubblicati da cittadini europei, compresi quelli che si limitano ad amplificare contenuti di origine straniera.

In altre parole: nel tentativo di colpire le operazioni di interferenza esterna, si rischia di silenziare anche voci interne legittime. Un rischio che, alla luce degli articoli 11 e 52 della Carta dei Diritti Fondamentali dell’UE, che tutelano la libertà di espressione, e dei principi di proporzionalità e conferimento sanciti dal Trattato, merita una risposta precisa.

!uali criteri oggettivi, infatti, distinguono le misure anti-FIMI da quelle che influenzano il discorso politico domestico? Come viene valutata la proporzionalità degli interventi quando la giustificazione è la disinformazione ma gli effetti ricadono sul dibattito interno? E quali garanzie impediscono che le risposte regolatorie vengano indirettamente inasprite dall’escalation geopolitica con paesi terzi?

La Commissione UE: “Basta il DSA come scudo”.

A rispondere, a nome della Commissione, è la vicepresidente esecutiva Virkkunen, che ha difeso l’impianto normativo del Digital Services Act. “Il DSA, spiega, impone alle grandi piattaforme di identificare e mitigare i rischi sistemici, incluse le manipolazioni tramite bot e account falsi, senza però prescrivere quali contenuti siano illegali: questa competenza resta in capo agli Stati membri e alle leggi nazionali”. Il regolamento, sottolinea Virkkunen, “non disciplina i processi elettorali né il dibattito politico e anzi rafforza la libertà di espressione garantendo meccanismi di ricorso agli utenti colpiti da decisioni di moderazione: dal momento della sua applicazione, le piattaforme hanno ribaltato il 30% delle decisioni contestate”.

La Commissione ricorda infine che le misure restrittive adottate contro alcuni media russi controllati dallo Stato, inseriti nelle liste sanzionatorie del Consiglio, riguardano esclusivamente organi di propaganda legati alla guerra di aggressione contro l’Ucraina.

Una risposta che lascia aperte diverse domande.

La replica della Commissione è tecnicamente ineccepibile, ma schiva il cuore politico delle domande poste da Anderson. Il DSA può formalmente non regolare il dibattito politico, ma nella pratica gli algoritmi di moderazione e riduzione della visibilità agiscono su contenuti legali senza che i criteri adottati dalle piattaforme siano sempre trasparenti o verificabili. La distinzione tra “interferenza straniera” e “amplificazione domestica” rimane sfumata, e la preoccupazione che le tensioni geopolitiche possano orientare, anche indirettamente, le scelte regolatorie in materia di informazione resta senza una risposta soddisfacente. Senza contare i miliardi di euro distribuiti dalla Commissione Ue e dalle sue agenzie per promuovere il soft power europeo in Ue e nei Paesi extra-Ue.