English

Chi Siamo

Servizi

Executive Reputation

Consulenza

Strumenti

News

Contatti

English

Breaking fake-news: il lato oscuro dell’informazione

Reputation Blog

Breaking fake-news: il lato oscuro dell’informazione

6 Settembre 2017

Oltre agli scenari di guerre scatenate dalle macchine, forse oggi ancora un po’ lontani, uno dei timori più attuali è legato ai rischi della penetrazione delle intelligenze artificiali nei sistemi informativi, cui si aggiunge quello relativo all’impatto sul mondo del lavoro derivante dall’adozione diffusa di queste tecnologie.

I due temi s’incrociano già concretamente nel mondo dell’informazione odierna: se da una parte possiamo osservare un forte impegno ad elaborare sistemi efficienti di identificazione e difesa dalle false notizie, ambito nel quale molti grandi protagonisti della rete (Google, Facebook, Twitter) sono comunemente considerati corresponsabili, dall’altra ne sperimentiamo crescentemente la potenza al servizio del “lato oscuro” dell’informazione.

Le fake news posso essere divise in due grandi categorie: quelle derivanti da una disinformazione alimentata da cerchie sociali culturalmente affini ma autoreferenziali e chiuse al confronto, seppure “in buona fede”, e quelle create artificialmente per errore o per i più svariati scopi illeciti. È in quest’ultimo ambito che la tecnologia può determinare effetti importanti grazie velocità e ampiezza di diffusione, e alla credibilità tecnica in grado di esprimere. Nell’ambito della produzione di contenuti si registra infatti una progressiva tendenza all’uso di sistemi capaci di elaborare grandi quantità di dati, e generare automaticamente contenuti grafici e testuali, utilizzando motori di “Natural Language Generation” (NLG), una branchia dell’IA.

I giornalisti si limiteranno in questo modo solo a rileggere i testi confezionati dai computer prima di metterli in rete, ma sapranno davvero entrare nel merito dei dati raccolti? Lo scorso giugno The Los Angeles Times ha pubblicato un pezzo scritto in autonomia dall’algoritmo “Quakebot”, relativo ad un terremoto che avrebbe scosso Santa Barbara in California, dopo pochissimi minuti dal presunto avvenimento. Peccato che i dati, non controllati da alcun sismologo o giornalista, si riferissero ad un evento del 1925, male interpretati dal bot.

L’IA s’incrocia poi con la sicurezza informatica, che dovrebbe impedire la manipolazione di dati terzi per fini propri. Che sia per finalità politiche, di speculazione finanziaria, di appropriazione indebita o manipolazione culturale, l’uso di dati “sbagliati” si configura di fatto come la moderna frontiera della manipolazione di massa.

Tornando a Zuck, fortemente impegnato nella lotta alle fake-news, dopo aver ammesso la propria corresponsabilità nel meccanismo di diffusione della cattiva informazione, ha attivato un programma di fact-checking m asarà davvero in grado di fronteggiare la sfida tecnologica che si prospetta? L’asticella si alza velocemente. Il tema non sono più solo i contenuti testuali: a luglio di quest’anno un gruppo di “computer scientists” della University of Washington ha realizzato un “real fake” video, definizione che sottolinea il suo impressionante realismo. Il sistema d’IA di questi scientists, dopo aver analizzato “milioni” di video per determinare quanti e quali elementi del viso di Barak Obama si muovevano in relazione alle parole pronunciate durante i suoi discorsi, opportunamente “addestrato” è stato in grado di manipolare un video sostituendone l’audio e modificando artificialmente la mimica facciale di Obama per renderla perfettamente coerente con le parole pronunciate, senza precluderne la credibilità visiva.

Ora, rinunciando ad evocare scenari di fantapolitica di una finta dichiarazione di guerra agli Usa da parte di Kim Jong-un, possiamo limitarci ad immaginare CEO d’importanti aziende di prodotti FMCG (fast moving consumer goods) fare dichiarazioni sessiste o razziste, piuttosto che presentare scelte strategiche insulse capaci di muovere rapidamente le borse a vantaggio degli speculatori, o VIP rilasciare interviste con dichiarazioni sul pessimo trattamento ricevuto in strutture ricettive, e così via.

Nell’aprile 2015, le finte dimissioni dell’AD di Intesa Sanpaolo Carlo Messina, partite da un falso comunicato rilanciato senza verifica dalle testate online, hanno determinato la caduta del titolo dell’1% in pochissimi minuti.

Le fake news e i “real fake video” non sono più solo un tema di disinformazione “in buona o in cattiva fede”, ma caratterizzano strutturalmente uno dei lati oscuri della nostra società, quello della post-verità sociale che le nuove tecnologie della neonata intelligenza artificiale sono già in grado di determinare. Oggi più che mai il monitoraggio attivo e costante dei contenuti in rete rappresenta il primo presidio di difesa utile ad intercettare velocemente le diverse forme di faking-news che potrebbero danneggiare una persona, un’azienda, un paese.

Luca Pasini