Automi cibernetici, “Bot”, e disinformazione

I falsi account automatici sono stati sia in grado di pubblicare contenuti sia di interagire con altri account, come se fossero guidati da una persona reale. Si potrebbe dire che i Bot abbiano superato, almeno sui social, il famoso “test di Turing”.

0
855

I “robot informatici” o “Bot”, cioè i programmi per computer che inviano automaticamente messaggi, giocano da tempo un ruolo “cruciale” nell’amplificare la “disinformazione” sui social network, e i ricercatori cercano di avanzare modi per limitarne l’influenza.
Al riguardo, un team di ricerca dell’Università dell’Indiana di Bloomington (USA), dopo aver provato a quantificare empiricamente il fenomeno, analizzando 14 milioni di messaggi e 400.000 articoli condivisi su questo social network tra la fine delle primarie e l’inaugurazione del presidente repubblicano Trump (da maggio 2016 a gennaio 20, 2017), ha concluso

• Che il 6% degli account Twitter etichettati come “bot” sono stati in grado di diffondere il 31% dei tweet aventi contenuto “non credibile” su questo social network,
• Come anche il 34% degli articoli provenienti da fonti ritenute, da parte di organizzazioni indipendenti, del tutto non credibili.

I falsi account automatici sono stati sia in grado di pubblicare contenuti sia di interagire con altri account, come se fossero guidati da una persona reale. Si potrebbe dire che i Bot abbiano superato, almeno sui social, il famoso “test di Turing” e che i robot possano perseguire, persino, la disinformazione come loro obiettivo, superando non solo la soglia tracciata da Turing per una simulazione verosimile di un comportamento umano (“non farsi scoprire”), ma anche pervenendo alla capacità di ingannare il potenziale conduttore “umano” del test di Turing, gli utenti reali dei social (“indurre un’opinione inverosimile in veri esseri umani”).

I Bot sono stati finanche capaci di indirizzare i propri messaggi verso le persone che avevano le maggiori probabilità di credervi. Lo affermano i ricercatori dell’Indiana in uno studio pubblicato su Nature Communications.
Per scoprire i Bot gli scienziati hanno dovuto utilizzare un primo apposito strumento del loro laboratorio, in grado di tracciare e mappare la diffusione della disinformazione su Twitter, e un secondo capace di di rilevare i “robot informatici” colpevoli attraverso una più raffinata “intelligenza artificiale”. In questo secondo caso sono stati necessari veri e propri programmi (non quindi operatori umani) per combattere e svelare l’intelligenza malevola di altri programmi.
Le ricerche si sono concentrate, appunto, sull’uso da parte di hackers di “robot malevoli”, aventi scopi di propaganda e manipolazione durante le elezioni americane del presidente. Ciò nonostante lo studio non dichiara in alcun modo quale candidato presidenziale possa essere stato favorito dai “Bot”.

Filippo Menczer, professore di informatica presso l’Università dell’Indiana, che ha diretto lo studio, ha sostenuto che il team avrebbe identificato due strategie vincenti dei Bot. La prima è quella di amplificare il messaggio contenente informazioni poco credibili in modo rapido, cioè nei primissimi secondi dalla diffusione originale. La seconda è quella di dare l’assalto agli account Twitter di persone influenti come giornalisti e politici, menzionandoli o rispondendo ai messaggi che li menzionano. L’obiettivo è incoraggiare questi “influencer” a ridistribuire il messaggio falso e disinformante al maggior numero possibile dei loro followers reali (umani).

Lo studio conferma che, dato che le persone dimostrano maggiore fiducia verso messaggi che sembrano provenire da molte persone, anche quando il contenuto è del tutto non credibile, allora la soluzione naturale del problema-disinformazione consisterebbe nella riduzione, al di sotto di un certa soglia critica, del numero di “robot” presenti in rete, in modo tale da far contrarre drasticamente la percezione di “moltitudine” associata al messaggio.
A tale proposito, i ricercatori hanno realizzato un esperimento con una versione simulata di Twitter e hanno identificato una tale soglia critica, rendendosi conto che, rimuovendo il 10% dei presunti account falsi, questo ridurrebbe notevolmente la quantità di contenuti non accettabili circolanti sul social.

Proprio quest’anno Twitter ha riconosciuto che i “robot” erano molto presenti sulla rete ed erano serviti a diffondere informazioni false. Il sito ha perciò adottato una serie di regole per limitarne l’influenza.

Articolo precedenteKenya, rapita volontaria italiana
Prossimo articoloSinistro stradale: prescrizione biennale se il danno non è conseguenza del reato

Lascia un commento

Please enter your comment!
Please enter your name here