04/14/2026 | News release | Distributed by Public on 04/14/2026 02:16
Sempre più Paesi stanno introducendo o valutando possibili restrizioni all'uso dei social media da parte dei minori, insieme a richieste di maggiore trasparenza e tutela degli utenti. Parallelamente, le grandi piattaforme come Meta, Google, TikTok e Snapchat sono al centro di accuse legate a dipendenza e impatti negativi sulla salute psicologica.
Si sta affacciando una nuova era in cui non cambia solo il modo in cui utilizziamo i social, ma anche le dinamiche che regolano la vita online e offline, ridefinendo il rapporto tra utenti, piattaforme e istituzioni. E in questo scenario, un ruolo chiave è giocato dall'AI: da un lato contribuisce alla diffusione di informazioni e disinformazione, dall'altro offre strumenti per rilevarle e contrastarle, ponendo nuove sfide sul piano della responsabilità e della regolazione delle piattaforme.
Ne abbiamo parlato con Filippo Menczer, Luddy Distinguished Professor e Direttore dell'Observatory on Social Media (Indiana University), e Silvia Giordano, Professoressa ordinaria all'Istituto sistemi informativi e networking (ISIN) del Dipartimento tecnologie innovative. Il tema sarà approfondito durante l'evento AI & Manipulation: Good vs Evil in programma il 21 aprile 2026 al Dipartimento tecnologie innovative della SUPSI.
La manipolazione è sempre esistita, ma le interazioni sociali online la rendono più semplice da operare e più difficile da smascherare. Sui social non è chiaro se stai parlando con un bot o con un umano, o se stai leggendo notizie vere o false. Così siamo particolarmente vulnerabili agli attacchi alle nostre finanze, alla nostra salute, o alle nostre istituzioni democratiche. La manipolazione serve a influenzare ciò che pensiamo, sentiamo e facciamo negli ambienti digitali, e conseguentemente nella nostra vita. In altre parole, non si manipola solo l'informazione, ma l'intero contesto in cui la interpretiamo.
La nostra vulnerabilità alla manipolazione online aumenta ancora di più con gli strumenti di intelligenza artificiali oggi a disposizione. Specialmente con la "generative AI" o i "large language models", diventa semplice ed economico lanciare attacchi velocemente e su larga scala, per esempio generando contenuti - notizie, immagini o video - falsi ma credibili, e creando eserciti di utenti finti pronti ad amplificare certe narrative o sopprimerne altre.
In questo modo si crea l'impressione che un'opinione, una persona, o una teoria del complotto siano condivise e supportate dalle folle, quando in realtà non è così. Il nostro cervello tende infatti considerare più credibili certe narrative quando pensiamo che abbiano largo supporto popolare.
I contenuti manipolati con l'aiuto di AI, come i video o le immagini deep fake di politici e personaggi pubblici, stanno diventando sempre più difficili da rilevare, non solo per noi umani ma anche per gli algoritmi progettati apposta. E le piattaforme, pur dichiarando di supportarli, sono restie ad adottare sistemi di digital watermarking, ovvero stringhe di informazioni invisibili incorporate nei file per tracciarne l'origine e impedirne eventuali modifiche o riproduzioni non autorizzate.
Sul fronte delle operazioni coordinate, però, abbiamo sviluppato tecniche statistiche sempre più efficaci per rilevare i comportamenti degli utenti e gli schemi di similarità sospetta. Per esempio, non c'è da stupirsi se varie persone condividono un post o un video di una celebrità. Ma se due utenti condividono esattamente gli stessi contenuti generati da fonti oscure, e lo fanno centinaia o migliaia di volte, magari postando negli stessi momenti o ripetendo sequenze di azioni identiche, questi schemi sono sospetti. Possiamo stimare la probabilità che tali "coincidenze" accadano per caso, ma se la probabilità è molto bassa, diciamo uno su un milione, la spiegazione più semplice e credibile è che non si tratti di utenti indipendenti, ma coordinati e controllati da una singola entità.
Come tutte le tecnologie, l'intelligenza artificiale può essere usata per fini benevoli o malevoli, e risulta molto efficace in ambo i casi. Ma accanto alle applicazioni volutamente pericolose, come la generazione di contenuti falsi o l'imitazione ingannevole di persone a scopo di manipolazione, stanno emergendo limiti e criticità anche nei casi di applicazioni considerate legittime o con finalità positive.
Per esempio, la frequente interazione con i chatbot senza supervisione o limiti adeguati, in certi casi può favorire forme di dipendenza, radicalizzazione, fino all'istigazione di comportamenti dannosi. Allo stesso modo, i "language models" possono essere usati a scopo educativo, per aiutare gli utenti a capire che una teoria del complotto è falsa o una notizia fuorviante, o possono essere usati da malintenzionati per convincere del contrario. Infine, si aggiunge un limite strutturale: i modelli di AI fanno errori, talvolta gravi, senza segnalare alcuna incertezza. La fiducia riposta nell'autorevolezza di questi modelli può quindi portare a gravi conseguenze.
"Alfabetizzazione" è la parola chiave: alfabetizzazione digitale, informativa, e alfabetizzazione all'uso dell'AI. Dovremo acquisire uno "scetticismo misurato" per diminuire la nostra vulnerabilità senza perdere la fiducia nelle fonti attendibili. Dovremo imparare a controllare le fonti originali, a non fidarci delle apparenze, a resistere all'attrazione delle metriche di partecipazione. E dovremo capire come funzionano gli algoritmi di raccomandazione e i modelli generativi, almeno ad un livello tale da permetterci di interpretare ciò che vediamo sui social e di interrogarci sulla relazione tra quello che ci dice un chatbot e la realtà.
Infine, dovremo imparare a comprendere l'impatto delle nostre azioni online, come condivisioni, like e commenti, che contribuiscono a modellare l'ecosistema. La formazione sarà cruciale non sono per imparare a utilizzare e sviluppare queste nuove tecnologie, ma anche per imparare a gestirle con consapevolezza.