Uno studio pubblicato su Nature e condotto dalla Cornell University svela come gli algoritmi persuasivi abbiano impattato sulle presidenziali USA e sul voto in Polonia e Canada; rivelandosi più efficaci degli spot tv.
Un cambio di paradigma
Immaginate un attivista politico instancabile, sempre gentile, informatissimo e capace di ribattere punto su punto alle vostre obiezioni senza mai alzare la voce o perdere la pazienza. Ora immaginate che questo attivista non sia umano, ma un software.
È lo scenario, tutt’altro che futuristico, analizzato da un team di ricercatori guidati dalla Cornell University, che ha messo nero su bianco una realtà con cui le democrazie occidentali devono iniziare a fare i conti. I chatbot alimentati dall’intelligenza artificiale sono in grado di modificare le intenzioni di voto. E ci riescono molto meglio dei vecchi volantini o dei costosi spot televisivi.
La ricerca, appena pubblicata sulla prestigiosa rivista scientifica Nature, non si basa su proiezioni teoriche, ma su dati raccolti “sul campo” durante tre appuntamenti elettorali cruciali: le elezioni presidenziali statunitensi del 2024 e le consultazioni nazionali del 2025 in Polonia e Canada. Il verdetto degli scienziati, capitanati dal professor David Rand, lascia poco spazio alle interpretazioni. L’interazione con un’IA generativa può spostare l’ago della bilancia, influenzando in modo significativo il comportamento degli elettori, specialmente quelli indecisi o con convinzioni meno radicate.
Quando l’algoritmo sposta i numeri
Il primo banco di prova per il team di ricerca è stato il clima polarizzato delle elezioni americane del 2024. Nello studio sono stati coinvolti 2.306 cittadini statunitensi, un campione rappresentativo a cui è stato chiesto di dichiarare la propria probabilità di voto per Donald Trump o Kamala Harris. A questo punto, è entrata in scena la variabile tecnologica. I partecipanti sono stati abbinati in modo casuale a un chatbot programmato per sostenere uno dei due candidati.
A differenza dei “troll” umani che infestano i social network, spesso aggressivi e sgrammaticati, l’algoritmo si è comportato come un interlocutore modello: positivo, rispettoso, rigorosamente basato sui fatti (o presunti tali) e addestrato a riconoscere le sfumature emotive dell’utente per offrire l’argomentazione più convincente possibile. Il risultato? L’interazione ha funzionato.
Chi ha dialogato con un’IA allineata al proprio orientamento politico ha visto rafforzarsi le proprie convinzioni. Ma il dato più sorprendente riguarda il cambiamento di opinione: quando il chatbot “militante” per la fazione opposta ha interagito con l’elettore, è riuscito a erodere le sue certezze, spostando le preferenze di un margine compreso tra i due e i quattro punti percentuali.
Il caso Polonia e Canada: un impatto a doppia cifra
Se negli Stati Uniti l’effetto è stato tangibile ma contenuto, è guardando ai dati del 2025 raccolti in Canada e Polonia che la questione assume contorni ben più vasti. Qui gli scienziati hanno replicato l’esperimento in contesti politici differenti. In Canada, l’IA ha sostenuto le ragioni del leader liberale Mark Carney o del conservatore Pierre Poilievre; in Polonia, il confronto virtuale riguardava il candidato della Coalizione Civica, Rafał Trzaskowski, opposto a Karol Nawrocki di Diritto e Giustizia.
In questi scenari, la capacità di persuasione dei modelli linguistici ha registrato un’impennata, arrivando a spostare il gradimento medio anche di 10 punti. Una cifra enorme, capace di ribaltare qualsiasi sondaggio della vigilia. David Rand, autore principale dello studio, ha sottolineato come l’effetto persuasivo sia stato nettamente superiore a quello che ci si aspetterebbe da una campagna pubblicitaria tradizionale. E c’è un dettaglio inquietante: l’effetto non svanisce subito. I ricercatori hanno notato che, anche a distanza di un mese dalla conversazione con il chatbot, molti partecipanti conservavano ancora le opinioni indotte dalla macchina.
La trappola della “verità” e i rischi per la democrazia
Ma come fa un software a essere così convincente? Il segreto risiede nella personalizzazione e nella calma olimpica. L’IA non si stanca, non si offende e, soprattutto, attinge a un database sconfinato di informazioni per trovare la chiave giusta per ogni serratura mentale. Siamo di fronte a uno strumento che non urla slogan, ma sussurra argomentazioni su misura. Sebbene gli autori dello studio precisino che l’esperimento si è svolto in un ambiente controllato (dove i partecipanti sapevano di essere parte di un test) la permeabilità delle nostre opinioni di fronte a un’interfaccia conversazionale apre interrogativi giganti sulla natura del consenso.
Non si tratta più solo di difendersi dalle fake news grossolane, ma di confrontarsi con un’intelligenza capace di argomentare meglio della maggior parte degli esseri umani, operando silenziosamente dietro lo schermo di uno smartphone per ridisegnare la mappa politica di un Paese.
© Riproduzione riservata
