domenica, Giugno 16

Europee 2019: i rischi di manipolazione on line L’intervista ad Arturo di Corinto, capo della comunicazione del laboratorio sulla Cyber security in Italia

0

Il lavoro per le prossime elezioni europee del 2019 è già iniziato, sia in Italia che negli altri Stati membri. In un contesto in cui numerose sono state le risposte populiste dei cittadini alla crisi, con la scelta di partiti o movimenti che si sono presentati come antisistema, ci si interroga anche su un punto fondamentale: le nostre democrazie corrono anche il rischio di essere indebolite da manipolazioni non chiare, come nel caso di Cambridge analytica, e all’utilizzo improprio dei dati di Facebook? Si tratta di un tema enorme al quale non è facile rispondere.

Lo stesso presidente del Parlamento Europeo, Antonio Tajani, ha affermato in merito che  «ci sono molti sospetti, io non ho le prove». Ma una cosa dal suo punto di vista «è certa: dobbiamo essere in grado di evitare che alle elezioni Europee del 2019, qualcuno possa immaginare di sfasciare l’Europa con mezzi illegali e ovviamente dobbiamo impedirlo anche a chi avesse un progetto politico opposto».

Per comprendere meglio i meccanismi di funzionamento delle piattaforme on line e i rischi di un loro utilizzo improprio, sconosciuto ai cittadini, abbiamo parlato con Arturo Di Corinto, psicologo cognitivo, giornalista, già docente di Comunicazione mediata dal Computer presso l’Università di Roma La Sapienza, capo della comunicazione del laboratorio sulla Cyber security in Italia.

Quanto verificatosi su Cambridge analytica, in relazione all’utilizzo dei dati degli utenti Facebook a scopi elettorali, svela una realtà inquietante: la riservatezza dei nostri dati è a rischio, anche quando si va a votare. Come?

Il punto da cui partire riguarda la potenziale manipolazione delle tendenze elettorali di soggetti di cui si conoscono gusti, preferenze, abitudini, comportamenti, eccetera. Ciò si può fare con una serie di strumenti cosiddetti psicometrici, che misurano i comportamenti, ormai incorporati nella maggior parte delle piattaforme gratuite di comunicazione e app del telefonino. Per usufruire di determinati servizi, che siano i social o le app di booking, noi cediamo volontariamente una serie di dati che ci riguardano: a seguito dell’interazione con le varie applicazioni, si produce un’altra notevole mole di dati, che viene immagazzinata. Così si crea la nostra ‘data immagine’, cioè il profilo digitale delle persone che hanno interagito con degli artefatti elettronici. Quindi, tutti coloro che offrono un servizio digitale o analogico, accedono ad una quantità enorme di informazioni che ci riguardano, che possono anche essere incrociate con altre informazioni: in genere tali informazioni sono incorporate in database che possono eseguire operazioni di carattere predittivo; attraverso gli algoritmi, si possono così creare dei grafici per profilare le persone e le loro tendenze, andando oltre il semplice numero inserito in database.

Ciò cosa comporta?

Quando i dati vengono incrociati, arricchiscono la data immagine, sia per quanto riguarda il profilo individuale che quello collettivo, aggregando i dati per categoria. I dati non sono sempre aggregati per categoria, né sono sempre anonimi: molto spesso sono collegati ad un nome e cognome, una residenza, un conto bancario, ad un indirizzo e-mail, alle relazioni che abbiamo. Più sono ricchi e meglio sono connessi tra di loro questi dati attraverso i metadati, più ci consentono di sapere come le persone vivono la loro vita. Cambridge analytica ha potuto creare i dati di 270000 individui, che hanno risposto ad un questionario che permetteva di profilarli come persone, cittadini, elettori; questi profili erano collegati tuttavia ad altri soggetti, secondo il principio per cui su Facebook attraverso sei passaggi, sei ‘gradi di separazione’, si può conoscere qualsiasi altro individuo. Una volta che si conoscono i gusti, è più facile indirizzare i consumi, proponendo ciò che più la persona desidera: questo vale sia per la pubblicità di una saponetta che per la pubblicità di un messaggio politico. In realtà, un messaggio politico dovrebbe essere più accattivante, anche perché basato su un elemento umano, sui valori della persona, sulle convinzioni, sulla realtà che si desidera; non si parla in questo caso solo dell’igiene di una saponetta! La persuasione che si può ottenere quindi, conoscendo il potenziale elettore, è molto più alta. I dati e i profili sono stati incrociati da Cambridge analytica in maniera fraudolenta, o almeno questo è quello che sappiamo. Lo scandalo non risiede nel fatto che siano stati usati questi profili, ma che siano stati usati all’insaputa di Facebook; o almeno, questa è la linea difensiva di Zuckerberg.

«Ci avviciniamo sempre di più a un mondo che è, apparentemente, sempre più trasparente», ha spiegato Raffaele Cantone. «La trasparenza è un valore positivo che espone però a rischi enormi, a rischi di controlli massicci. Sono preoccupatissimo quando sento che il mondo gira sempre più intorno agli algoritmi, che non si capisce chi li compone e per quali obiettivi». Come commenteresti queste affermazioni?

Sono affermazioni politiche abbastanza generiche; noi sappiamo benissimo chi può gestire questi algoritmi: Facebook, per esempio, è in grado di manipolare attraverso i suoi algoritmi la time line dei profili di chi partecipa. Sappiamo anche che Google non fornisce risultati neutrali quando si fanno delle ricerche. Il funzionamento di un algoritmo, di per sé, è abbastanza semplice, perché si basa su funzioni logico matematiche; è possibile anche fare un’indagine indipendente e una verifica del modo in cui funzionano questi algoritmi, per arrivare a risultati neutrali con le proprie ricerche. Nella mia attività, lavoro con 500 professori e ricercatori specializzati sui vari algoritmi, sulla malware analysis, sui virus, sui fishing. Gli ingegneri informatici possono quindi capire se tali algoritmi fanno ciò che richiede l’azienda oppure no. Spesso sono trattati come un segreto industriale, quindi in maniera estremamente personalizzata: un esempio di questo meccanismo è quello per cui su Facebook ci vengono presentate le persone che più ci possono interessare.

Visualizzando 1 di 2
Visualizzando 1 di 2

L’informazione che non paghi per avere, qualcuno paga perché Ti venga data.

Hai mai trovato qualcuno che ti paga la retta dell’asilo di tuo figlio? O le bollette di gas, luce, telefono? Io no. Chiediti perché c’è, invece, chi ti paga il costo di produzione dell'Informazione che consumi.

Un’informazione che altri pagano perché ti venga data: non è sotto il Tuo controllo, è potenzialmente inquinata, non è tracciata, non è garantita, e, alla fine, non è Informazione, è pubblicità o, peggio, imbonimento.

L’Informazione deve tornare sotto il controllo del Lettore.
Pagare il costo di produzione dell’informazione è un Tuo diritto.
"L’Indro" vuole che il Lettore si riappropri del diritto di conoscere, del diritto all’informazione, del diritto di pagare l’informazione che consuma.

Pagare il costo di produzione dell’informazione, dobbiamo esserne consapevoli, è un diritto. E’ il solo modo per accedere a informazione di qualità e al controllo diretto della qualità che ci entra dentro.

In molti ti chiedono di donare per sostenerli.

Noi no.

Non ti chiediamo di donare, ti chiediamo di pretendere che i giornalisti di questa testata siano al Tuo servizio, che ti servano Informazione.

Se, come noi, credi che l’informazione che consumiamo è alla base della salute del nostro futuro, allora entra.

Entra nel club L'Indro con la nostra Membership

Commenti

Condividi.

Sull'autore