Search Engine Manipulation Effect: i brogli elettorali dell’algoritmo

Nell'immagine: il modo in cui le cinque pagine di Kadoodle sono state settate in uno degli esperimenti realizzati da Robert Epstein. Fonte: "The search engine manipulation effect (SEME) and its possible impact on the outcomes of elections", Robert Epstein and Ronald E. Robertson, American Institute for Behavioral Research and Technology, 16 ottobre 2014
Nell’immagine: il modo in cui le cinque pagine di Kadoodle sono state settate in uno degli esperimenti realizzati da Robert Epstein. Fonte: “The search engine manipulation effect (SEME) and its possible impact on the outcomes of elections”, Robert Epstein and Ronald E. Robertson, American Institute for Behavioral Research and Technology, 16 ottobre 2014

È possibile spostare le preferenze elettorali semplicemente agendo sui risultati delle ricerche che gli elettori fanno online. O almeno così dimostrano recenti studi realizzati da Robert Epstein sul Search Engine Manipulation Effect” (SEME), grazie al quale la percezione di un candidato può essere migliorata di circa il 20% – e fino a punte del 60% in alcuni gruppi demografici – manipolando il posizionamento dei risultati restituiti dai motori di ricerca.

Lo studio (qui il .pdf, in inglese) si inserisce in un lungo lavoro che Epstein – scienziato, giornalista, psicologo per l’American Institute for Behavioral Research ed ex caporedattore di Psychology Today – porta avanti da anni sugli effetti del motore di ricerca di Google.

Gli esperimenti realizzati si basano su alcuni dati di fatto: la sempre maggior fiducia che riponiamo nei risultati forniti dai motori di ricerca e l’impatto sulla memoria e sulle capacità di valutazione delle liste.
Non è un caso se le principali società statunitensi spendano ogni anno centinaia di milioni di dollari per vedere i propri contenuti tra i primi risultati restituiti dai motori di ricerca che, stando a studi realizzati attraverso la eye-tracking technology, sono destinatari del 50% dei click.

L’esperimento
Per dimostrare l’impatto della manipolazione dei motori di ricerca, il team di Epstein ha creato negli Sati Uniti tre gruppi di studio formato da elettori indecisi, a cui è stato chiesto di esprimere un parere su due politici con cui non avevano familiarità: gli ex premier australiani Tony Abbott e Julia Gillard, entrambi candidati alle elezioni presidenziali australiane del 2010.
Dopo la lettura di una breve biografia sui due, ai volontari è stato chiesto di esprimersi su una serie di parametri – come la fiducia riposta o la propensione al voto – su cui gli studiosi sono tornati dopo aver concesso a tutti i partecipanti di navigare per 15 minuti su un motore di ricerca (Kadoodle) appositamente settato per favorire uno dei due candidati (lasciato “neutro” per il gruppo di controllo).

Dopo la navigazione, gli studiosi hanno notato che nei gruppi in cui il motore di ricerca favoriva uno dei due candidati la propensione al voto verso il candidato favorito era aumentata di 3,7 punti, e che il 75% dei volontari non si era accorto della manipolazione. Lo spostamento a favore di uno dei due candidati è stato definito come potere di manipolazione del voto (VMP, vote manipulating power, in inglese) che, spiegano gli studiosi, ha effetti ancora più alti se tra i risultati positivi si inseriscono poche notizie negative, così da dare una parvenza più neutrale alla ricerca e, dunque, più degna di fiducia.

La propaganda realizzata attraverso manipolazione del motore di ricerca di Google ha una (pericolosa) peculiarità rispetto al classico “mercato del voto” realizzato sui media tradizionali: non conosce concorrenza. Circa il 90% delle ricerche online passano attraverso la società di Mountain View, la cui propensione verso un candidato non concede agli altri la possibilità di controbilanciare questo squilibrio.

Negli Stati Uniti i risultati degli studi hanno evidenziato come ad una minor familiarità con i candidati corrisponda un maggior grado di vulnerabilità, che a livello demografico risulta maggiore tra i repubblicani rispetto ai democratici e tra i divorziati. Il gruppo demografico meno vulnerabile è risultato essere invece quello che ha dichiarato un reddito familiare complessivo tra i 40.000 e i 49.999 dollari.
La consapevolezza della manipolazione è stata usata per confermare la superiorità del candidato scelto e non, come era logico attendersi per diminuire l’effetto SEME tra i volontari.

Modi, il presidente del popolo digitale
Per verificare l’effetto di manipolazione dei motori di ricerca nella realtà, il team guidato da Robert Epstein ha scelto la più grande elezione democratica della storia: la votazione tenutasi lo scorso anno per la Lok Sabha (la camera bassa del Parlamento indiano), con una popolazione elettorale di 814 milioni di elettori di cui 480 milioni effettivamente recatisi alle urne.

Prima dell’esperimento, tra i volontari – tutti con alta familiarità con i candidati – si registra una maggior preferenza verso Narendra Modi, leader del Bharatiya Janata Party (il Partito popolare indiano, di centrodestra) poi vincitore delle elezioni a discapito degli altri due sfidanti: Arvind Kejriwal e Rahul Gandhi. Anche in questo caso, l’uso del motore di ricerca ha portato la propensione al voto verso i risultati previsti (con un VMP del 9,4%).

Solo Modi – con una importante presenza su internet e sui social network e che ha visto incrementare del 25% le ricerche online su di lui nei 69 giorni precedenti l’elezione – ha mantenuto quasi invariata la possibilità di essere votato, forte anche di un ampio favore nella popolazione (tra il 68% e l’87% secondo il Pew Research Center).

A livello demografico, lo studio ha visto una maggior vulnerabilità nella fascia d’età 45-64 anni (e in quella 18-24 la meno vulnerabile), nei cristiani rispetto agli indù e nei maschi disoccupati del Kerala. Le donne conservatrici sono risultate le meno suscettibili alla manipolazione.

Brogli digitali
Che si parli di Stati Uniti, India o qualunque altra votazione democratica, il ruolo degli elettori indecisi è spesso fondamentale per decidere gli equilibri di forza tra maggioranza e minoranza e, dunque, per decidere il colore del governo.

Manipolare la vita digitale di questa parte di elettori può costituire un vero e proprio caso di broglio elettorale. Il punto – evidenziato da Jonathan Zittrain, professore di legge ad Harvard – è il rapporto che si instaura tra potere di manipolazione e dati personali.
L’esempio è il cosiddetto Get out the vote” utilizzato da Facebook durante le elezioni del Congresso tenutesi nel 2010, quando la società ha inviato messaggi mirati a 61 milioni di elettori per invogliarli a presentarsi alle urne, riuscendo però a mobilitarne davvero solo 400.000 (60.000 diretti e 340.000 per l’effetto domino).

Questa – legittima – “chiamata alle urne” prevedeva un atteggiamento neutrale della società fondata da Mark Zuckerberg, ma cosa accadrebbe se in una futura elezione i dirigenti decidessero di schierarsi per uno dei candidati?

Sfruttando l’ampia quantità di dati personali in loro possesso, società come Facebook e Google potrebbero inviare richieste di mobilitazione (per una elezione, a favore o contro una causa, come avvenuto con il Secure Online Piracy Act nel gennaio 2012) solo ad uno specifico gruppo di utenti, scelti attraverso un’attività di profilazione data da “like”, informazioni e ricerche online, ignorando tutti gli altri.

Jack Balkin, professore di Diritto Costituzionale alla Yale Law School, pone l’accento sugli “information fiduciaries”, evidenziando come alcune categorie professionali che hanno quotidianamente a che fare con i dati sensibili degli utenti – come medici o avvocati – siano obbligati a non usarli contro di loro né a cederli a terzi. «A causa della loro importanza nella vita delle persone e il grado di fiducia che la gente inevitabilmente concede loro», si chiede Balkin, dovremmo trattare le società che gestiscono i nostri dati digitali «allo stesso modo in cui trattiamo certi rapporti fiduciari in ambito professionale?».

Torniamo così all’importanza del Search Engine Manipulation Effect. Soprattutto, torniamo alla necessità di una regolazione nel rapporto tra tale effetto, sfruttamento dei dati e privacy. Bisogna tener conto di due aspetti fondamentali: la diffusione quasi monopolistica del motore di ricerca di Google (e in generale la dipendenza che società come Google o Facebook «producono e incoraggiano negli utenti finali») e la non neutralità degli algoritmi che, come è noto, riflettono i valori e la visione del mondo di chi li scrive.

In una società “a codice chiuso” – una “black box society”, per dirla con Frank Pasquale, professore di legge all’Università del Maryland – gli algoritmi stanno acquistando un potere pressoché illimitato e non regolato (anche perché chi dovrebbe normare questo campo trae un diretto vantaggio dalla profilazione predittiva, come per la prevenzione dei crimini comuni.

Nonostante sempre più studiosi e attivisti per la privacy lancino da tempo l’allarme, non c’è niente che impedisca a grandi società come Google o Facebook di usare contro gli utenti l’ampia quantità di dati che gli forniamo come pagamento della gratuità dei loro servizi.

In un sistema di equilibri di potere in cui queste grandi società operano anche con una nitida vision politica (si pensi ai rapporti tra Google e il Partito Democratico statunitense o alla “trasparenza radicale” professata da Mark Zuckerberg) ed in cui a nessuno è concesso vedere come quegli algoritmi sono strutturati, il loro potere di manipolazione – che poi è potere di manipolazione di chi ne scrive il codice – diventa un problema e una minaccia per la democrazia, senza neanche la necessità di scomodare la sorveglianza illegale denunciata da Edward Snowden.

Lascia un commento