Intelligenza Artificiale, comunità e sicurezza: un appello all’azione.
Viviamo in un’epoca in cui l’intelligenza artificiale sta trasformando radicalmente la fiducia, la coesione sociale e la sicurezza globale, amplificando la disinformazione, la propaganda tramite deepfake, la manipolazione emotiva e la radicalizzazione. Per contrastare efficacemente queste minacce emergenti, secondo l’IFIMES, serve una strategia globale basata su tre pilastri fondamentali: la creazione di un sistema di difesa contro la disinformazione alimentata dall’IA, il rafforzamento delle contromisure incentrate sull’uomo attraverso iniziative di alfabetizzazione digitale diffusa e, infine, l’istituzione di un “Patto Etico sull’IA” sotto l’egida dell’OSCE per promuovere la stabilità diplomatica e l’armonizzazione delle normative.
Oggi l’intelligenza artificiale non è più solo uno strumento: è una forza attiva negli affari globali, capace di plasmare la percezione, il comportamento, la politica e, nei casi peggiori, frammentare le società minandone la coesione sociale.
Ma, oltre la distorsione digitale e le narrazioni sensazionalistiche, l’umanità rimane fondamentalmente buona, secondo l’IFIMES. Tuttavia, nell’era iper-connessa di oggi, la fiducia è sempre più plasmata non da interazioni umane dirette, ma da narrazioni alimentate dall’IA che sfruttano le nostre emozioni e vulnerabilità.
La domanda che dobbiamo porci quindi è la seguente secondo i ricercatori: cosa succede quando la fiducia non si costruisce più su interazioni umane reali, ma è manipolata dall’intelligenza artificiale?
L’IA è in grado di valutare accuratamente le emozioni umane? La ricerca attuale indica che, in ambienti controllati focalizzati sulle emozioni di base, l’IA ha già raggiunto o superato le performance umane (Schuller & Schuller, 2018). Tuttavia, in scenari complessi e reali, gli esseri umani continuano a mantenere vantaggi significativi (Calvo & D’Mello, 2010), con un margine di errore che si aggira tra il 10 e il 30%. Nonostante questi limiti, i sistemi multimodali di IA, che integrano segnali facciali, vocali e linguistici, hanno recentemente ridotto il divario di prestazioni di circa il 5-10% (Poria et al., 2017), con progressi annuali stimati tra il 2 e il 5% (Li & Deng, 2020).
Le tecniche di riconoscimento delle espressioni facciali (FER), che sfruttano la modellazione 3D e l’apprendimento profondo, stanno migliorando l’accuratezza in applicazioni come l’interazione uomo-computer e la sanità (Singh et al., 2025). Tuttavia, permangono sfide tecniche, tra cui la variabilità culturale e l’elaborazione in tempo reale, che evidenziano la necessità di ulteriori innovazioni per affrontare sia le questioni tecniche che etiche.
Nel 2013, il film Her immaginava un mondo in cui un uomo, Theodore Twombly, si innamorava di un’IA di nome Samantha, progettata per soddisfare ogni suo bisogno emotivo. Solo 12 anni dopo, ciò che sembrava pura fantascienza è diventato realtà. Oggi, attaccamenti emotivi verso l’IA sono diventati concreti, come dimostra Replika, un compagno virtuale che ha permesso a milioni di utenti di elaborare emozioni e costruire connessioni in un ambiente sicuro (Ghosh et al., 2023). Inizialmente creato come chatbot commemorativo da Eugenia Kuyda, Replika ha rapidamente attirato un vasto numero di utenti, con circa il 40% che riporta legami emotivi profondi, tra cui l’amore e la compagnia (Skjuve & Brandtzæg, 2022). Con la crescita esponenziale della piattaforma, che ha raggiunto i 10 milioni di utenti registrati nel gennaio 2022, emergono preoccupazioni etiche e regolatorie legate alla manipolazione emotiva di massa (Kuyda, 2024).
In un’epoca in cui le interazioni digitali spesso sovrastano quelle faccia a faccia, inoltre, non si può sottovalutare l’importanza delle relazioni umane dirette. Le connessioni sociali autentiche sono il fondamento di comunità resilienti, favorendo fiducia, empatia e comprensione reciproca. Le ricerche dimostrano che legami sociali solidi non solo migliorano il benessere individuale, ma rafforzano le comunità contro le avversità (Putnam, 2000). Le iniziative umanocentriche, che favoriscono la partecipazione nelle decisioni e il coinvolgimento della comunità, possono mitigare notevolmente le minacce derivanti dall’IA.
Foto di Gerd Altmann da Pixabay.com