News Corp Australia produce tremila articoli generati dall’intelligenza artificiale ogni settimana. Sembrano notizie locali, hanno il tono rassicurante del giornalismo di prossimità, ma nascono da algoritmi.

Michał Klincewicz, Mark Alfano e Amir Ebrahimi Fard hanno studiato questo fenomeno in un paper pubblicato su Filosofiska Notiser, coniando un termine destinato a fare storia: Slopaganda. La fusione tra slop (parola dell’anno per indicare contenuti AI indesiderati) e propaganda descrive contenuti generati artificialmente e diffusi per manipolare credenze politiche attraverso microtargeting individuale.

La slopaganda si distingue dalla propaganda tradizionale per tre caratteristiche quantitative: scala, velocità e portata. I volumi di contenuti falsi vengono prodotti rapidamente a costi irrisori, diffusi istantaneamente attraverso i social network e personalizzati per pubblici diversi. Ma la vera novità è qualitativa: il microtargeting basato su profili psicometrici delle persone, ricavati dai social e dagli altri strumenti online che “raccolgono” informazioni personali all’apparenza inoffensive, permette di servire messaggi diversi a milioni di persone. Vengono sfruttati dati su localizzazione geografica, orari di connessione, profilo psicologico Big Five e comportamenti online.

La scienza della manipolazione
L’efficacia della slopaganda si fonda su meccanismi cerebrali ben documentati dalle scienze cognitive. L’economia dell’attenzione privilegia contenuti emotivamente allarmanti: minacce e teorie cospirazioniste catturano l’attenzione meglio di altri stimoli per ragioni evolutive. Il bias di negatività fa sì che le informazioni negative vengano ricordate con maggiore facilità, permettendo alla slopaganda di targetizzare gruppi specifici con contenuti che evocano sentimenti ostili verso ciò che già disapprovano.

Il bias di conferma spinge le persone a cercare attivamente prove che confermino le proprie credenze preesistenti. La slopaganda può quindi servire contenuti che rafforzano pregiudizi politici pericolosi, evitando prospettive alternative. L’effetto della verità illusoria, documentato fin dal 1977, dimostra che ripetere un’affermazione ne aumenta la credibilità percepita, indipendentemente dalla sua validità. La velocità e i volumi della slopaganda amplificano questo meccanismo all’ennesima potenza.

Il dato più inquietante riguarda la persistenza delle tracce neurali. Anche dopo che un’informazione viene corretta e la persona accetta la correzione, la rappresentazione cerebrale originale continua a influenzare credenze e ragionamenti. La traccia falsa rimane, abbassando la resistenza a future informazioni simili: piccoli effetti moltiplicati per centinaia di milioni di persone cambiano elezioni, minano politiche sanitarie e alterano comportamenti collettivi.

Slopaganda vs propaganda

DimensionePropaganda classicaSlopaganda
ScalaAmpia ma limitataPotenzialmente illimitata
CostiElevatiMolto bassi
VelocitàLenta o mediaIstantanea
ProduzioneManuale o semi-industrialeAutomatizzata (AI)
TargetMasse o gruppi socialiIndividui
PersonalizzazioneMinimaAltissima
CanaliMedia tradizionaliPiattaforme digitali e social
TrasparenzaRelativamente visibileOpaca e invisibile
AdattamentoRaro e lentoContinuo e in tempo reale
Bias sfruttatiGenericiSpecifici e psicometrici
RipetizioneProgrammataAlgoritmica e massiva
Correzione del falsoPossibile e tracciabileDifficile e inefficace
ImpattoProgressivoRapido e cumulativo
ControlloCentralizzatoDistribuito ma concentrato
Rischio sistemicoAltoEstremo

Strumenti neutrali, usi pericolosi
L’intelligenza artificiale rimane uno strumento neutro: la sua pericolosità dipende da chi la controlla e da come viene impiegata. I ricercatori individuano tre livelli di organizzazione sociale nella diffusione della slopaganda: gli “idealogisti” che orchestrano le campagne, i burocrati che autorizzano le azioni e i soldati semplici che eseguono. La concentrazione di potere economico nelle mani delle grandi aziende tecnologiche riproduce dinamiche già viste con le Compagnie delle Indie: entità ibride che sono insieme mercanti e sovrani, con interessi direttamente opposti a quelli dei territori che governano.

Le soluzioni esistono ma richiedono volontà politica. Gli interventi psicologici come il prebunking (avvisare prima dell’esposizione alla disinformazione) risultano più efficaci del debunking postumo. L’educazione alla digital literacy resta necessaria ma insufficiente: servono strumenti tecnologici come plugin per l’umiltà intellettuale che incoraggino l’autoriflessione durante la navigazione sui social media.

La proposta più radicale del lavoro di ricerca pubblicato nelle scorse settimane riguarda però l’economia politica: una tassa globale sulla ricchezza per ridurre il potere degli oligarchi che controllano gli strumenti di produzione e diffusione della slopaganda. Il problema non è tanto tecnologico quanto soprattutto materiale: riguarda chi ha potere su chi, quanto ne ha e come lo esercita attraverso la manipolazione dell’ecosistema informativo globale.

Alcune fonti di questo articolo: