SUPSI - Scuola Universitaria Professionale della Svizzera Italiana

04/14/2026 | News release | Distributed by Public on 04/14/2026 02:16

Social media e manipolazione online: cosa sta cambiando

Social media e manipolazione online: cosa sta cambiando?

  • 14 aprile 2026

Condividi

Tra nuove regole, accuse alle grandi piattaforme e contenuti sempre più difficili da distinguere, il mondo dei social sta vivendo una profonda trasformazione. Al centro c'è l'intelligenza artificiale, che da un lato amplifica i rischi, dall'altro offre strumenti per difendersi. Capire queste dinamiche e sviluppare uno sguardo critico è oggi sempre più importante per orientarsi online.

Sempre più Paesi stanno introducendo o valutando possibili restrizioni all'uso dei social media da parte dei minori, insieme a richieste di maggiore trasparenza e tutela degli utenti. Parallelamente, le grandi piattaforme come Meta, Google, TikTok e Snapchat sono al centro di accuse legate a dipendenza e impatti negativi sulla salute psicologica.

Si sta affacciando una nuova era in cui non cambia solo il modo in cui utilizziamo i social, ma anche le dinamiche che regolano la vita online e offline, ridefinendo il rapporto tra utenti, piattaforme e istituzioni. E in questo scenario, un ruolo chiave è giocato dall'AI: da un lato contribuisce alla diffusione di informazioni e disinformazione, dall'altro offre strumenti per rilevarle e contrastarle, ponendo nuove sfide sul piano della responsabilità e della regolazione delle piattaforme.

Ne abbiamo parlato con Filippo Menczer, Luddy Distinguished Professor e Direttore dell'Observatory on Social Media (Indiana University), e Silvia Giordano, Professoressa ordinaria all'Istituto sistemi informativi e networking (ISIN) del Dipartimento tecnologie innovative. Il tema sarà approfondito durante l'evento AI & Manipulation: Good vs Evil in programma il 21 aprile 2026 al Dipartimento tecnologie innovative della SUPSI.

Cos'è oggi la "manipolazione online" e perché è diventata un tema così urgente?

La manipolazione è sempre esistita, ma le interazioni sociali online la rendono più semplice da operare e più difficile da smascherare. Sui social non è chiaro se stai parlando con un bot o con un umano, o se stai leggendo notizie vere o false. Così siamo particolarmente vulnerabili agli attacchi alle nostre finanze, alla nostra salute, o alle nostre istituzioni democratiche. La manipolazione serve a influenzare ciò che pensiamo, sentiamo e facciamo negli ambienti digitali, e conseguentemente nella nostra vita. In altre parole, non si manipola solo l'informazione, ma l'intero contesto in cui la interpretiamo.

In che modo la generative AI sta cambiando la produzione e la diffusione di contenuti?

La nostra vulnerabilità alla manipolazione online aumenta ancora di più con gli strumenti di intelligenza artificiali oggi a disposizione. Specialmente con la "generative AI" o i "large language models", diventa semplice ed economico lanciare attacchi velocemente e su larga scala, per esempio generando contenuti - notizie, immagini o video - falsi ma credibili, e creando eserciti di utenti finti pronti ad amplificare certe narrative o sopprimerne altre.
In questo modo si crea l'impressione che un'opinione, una persona, o una teoria del complotto siano condivise e supportate dalle folle, quando in realtà non è così. Il nostro cervello tende infatti considerare più credibili certe narrative quando pensiamo che abbiano largo supporto popolare.


Quali sono le tecniche più efficaci per rilevare operazioni coordinate e contenuti manipolati?

I contenuti manipolati con l'aiuto di AI, come i video o le immagini deep fake di politici e personaggi pubblici, stanno diventando sempre più difficili da rilevare, non solo per noi umani ma anche per gli algoritmi progettati apposta. E le piattaforme, pur dichiarando di supportarli, sono restie ad adottare sistemi di digital watermarking, ovvero stringhe di informazioni invisibili incorporate nei file per tracciarne l'origine e impedirne eventuali modifiche o riproduzioni non autorizzate.

Sul fronte delle operazioni coordinate, però, abbiamo sviluppato tecniche statistiche sempre più efficaci per rilevare i comportamenti degli utenti e gli schemi di similarità sospetta. Per esempio, non c'è da stupirsi se varie persone condividono un post o un video di una celebrità. Ma se due utenti condividono esattamente gli stessi contenuti generati da fonti oscure, e lo fanno centinaia o migliaia di volte, magari postando negli stessi momenti o ripetendo sequenze di azioni identiche, questi schemi sono sospetti. Possiamo stimare la probabilità che tali "coincidenze" accadano per caso, ma se la probabilità è molto bassa, diciamo uno su un milione, la spiegazione più semplice e credibile è che non si tratti di utenti indipendenti, ma coordinati e controllati da una singola entità.

In questo contesto, cresce anche il ricorso a soluzioni basate su intelligenza artificiale per contrastare la manipolazione. Quanto sono efficaci e quali limiti presentano?

Come tutte le tecnologie, l'intelligenza artificiale può essere usata per fini benevoli o malevoli, e risulta molto efficace in ambo i casi. Ma accanto alle applicazioni volutamente pericolose, come la generazione di contenuti falsi o l'imitazione ingannevole di persone a scopo di manipolazione, stanno emergendo limiti e criticità anche nei casi di applicazioni considerate legittime o con finalità positive.

Per esempio, la frequente interazione con i chatbot senza supervisione o limiti adeguati, in certi casi può favorire forme di dipendenza, radicalizzazione, fino all'istigazione di comportamenti dannosi. Allo stesso modo, i "language models" possono essere usati a scopo educativo, per aiutare gli utenti a capire che una teoria del complotto è falsa o una notizia fuorviante, o possono essere usati da malintenzionati per convincere del contrario. Infine, si aggiunge un limite strutturale: i modelli di AI fanno errori, talvolta gravi, senza segnalare alcuna incertezza. La fiducia riposta nell'autorevolezza di questi modelli può quindi portare a gravi conseguenze.

Guardando al futuro, quali competenze saranno fondamentali per orientarsi in un ecosistema digitale sempre più complesso?

"Alfabetizzazione" è la parola chiave: alfabetizzazione digitale, informativa, e alfabetizzazione all'uso dell'AI. Dovremo acquisire uno "scetticismo misurato" per diminuire la nostra vulnerabilità senza perdere la fiducia nelle fonti attendibili. Dovremo imparare a controllare le fonti originali, a non fidarci delle apparenze, a resistere all'attrazione delle metriche di partecipazione. E dovremo capire come funzionano gli algoritmi di raccomandazione e i modelli generativi, almeno ad un livello tale da permetterci di interpretare ciò che vediamo sui social e di interrogarci sulla relazione tra quello che ci dice un chatbot e la realtà.

Infine, dovremo imparare a comprendere l'impatto delle nostre azioni online, come condivisioni, like e commenti, che contribuiscono a modellare l'ecosistema. La formazione sarà cruciale non sono per imparare a utilizzare e sviluppare queste nuove tecnologie, ma anche per imparare a gestirle con consapevolezza.

SUPSI - Scuola Universitaria Professionale della Svizzera Italiana published this content on April 14, 2026, and is solely responsible for the information contained herein. Distributed via Public Technologies (PUBT), unedited and unaltered, on April 14, 2026 at 08:16 UTC. If you believe the information included in the content is inaccurate or outdated and requires editing or removal, please contact us at [email protected]