Facebook: Esperimento “segreto” per condizionare le emozioni
Non è una novità che, da quando hanno fatto la loro comparsa nell’intimo della vita di tutti giorni, ci affidiamo ai social per chiedere risposte, quasi fossero dei “maghi” capaci di regalarci la carrozza a forma di zucca, per intenderci, quella di Biancaneve.
E proprio come quella carrozza, i social tentando di condurci verso scelte a loro gradite in base a dei calcoli matematici su elementi che noi forniamo e, appena avuto il risultato ecco che, proprio come nella fiaba, loro svaniscono e noi “scegliamo”.
In realtà è tutto vero perché loro continuano a catalogare di noi, tutto il possibile inimmaginabile, immagazzinarlo, stoccarlo ed usarlo a loro piacimento.
È così infatti che, nel 2014 Facebook dichiarò pubblicamente che, due anni prima, stavano “osservando” un campione di circa 700.000 “eletti” circa i loro comportamenti emozionali.
Lo avevano chiamo studio perché condotto ribadiamolo, in segreto, con l’università della California e pubblicato su PNAS.
Volevano scoprire i comportamenti del “contagio emotivo” nell’era dei social media e soprattutto come “Si possono indurre le persone a provare le emozioni a loro insaputa”, scrivono gli autori.
Ma come sono riusciti a fare tutto questo?
Semplice, il tutto è avvenuto con la manipolazione dell’algoritmo del News Feed di Facebook di 689.003 persone, totalmente inconsapevoli di quello che stava loro accadendo.
Fecero due tipi di test o forse sarebbe meglio chiamarli esperimenti: erano i giorni tra l’11 e il 18 gennaio 2012.
Gli sperimentatori avevano preparto due tipologie di test, una era quello di bombardare di contenuti positivi i “prescelti”, mentre nel secondo test gli “eletti” vennero esposti ad un flusso delle notizie dai contenuti negativi.
Tennero nascosti questi test per due anni poi nel 2014 arrivò la rivelazione da parte di Facebook, con ogni probabilità perché la notizia non poteva più essere tenuta nascosta, e dichiararono: “La ragione per cui abbiamo svolto questa ricerca è perché ci preoccupiamo per l’impatto emotivo su Facebook e delle persone che lo utilizzano – scrive Adam Kramer, del Data science di Facebook – Allo stesso tempo eravamo preoccupati che l’esposizione alla negatività degli amici potrebbe portare le persone a evitare di visitare Facebook”. Conclude anche dicendosi “dispiaciuto” perché “con il senno di poi i benefici dello studio non giustificano tutta l’ansia provoca” dalla metodologia di ricerca.
Ma tutto questo è corretto, legale, etico?
Visto così parrebbe proprio di no, perché delle persone inconsapevoli, sono state scelte per partecipare a loro insaputa ad un test, pardon ad un esperimento di manipolazione del proprio stato emozionale, un qualche dubbio ci può venire?
Non solo a noi è venuto, ma anche alla Dottoressa Susan Fiske che ha fatto l’editing della ricerca sulla rivista PNAS la quale all’epoca dei fatti dichiarò: “Facebook apparentemente manipola il News Feed in continuazione”.
Ma poi perché in parte questa ricerca è stata finanziata anche con il contributo dall’esercito degli Stati Uniti, dove nel 2012, per chi non lo ricorda, in America si votava e, tutto questo, non è un aspetto nel quale non porsi dubbi.
Inoltre, vi è anche da sottolineare che, chi “costruisce” questi algoritmi sono essenzialmente degli sviluppatori umani, persone come tutti noi, i quali, possono creare comandi che sono tutto, il contrario di tutto.
Forse è venuto il momento di chiederci in che punto della storia stiamo vivendo e quanto invasive siano le tecnologie moderne che quotidianamente usiamo, anche perché ad alimentare questa spirale dell’informazione, siamo noi stessi con quello che quotidianamente, pubblichiamo sui nostri social.
La prudenza non sarà mai troppa, ma siamo sempre ancora in tempo perché dobbiamo metterci il dubbio e chiederci, ma noi siamo la storia o ne facciamo solo parte?
Articolo scritto da: Andrea Caldart
Link Utili:
https://www.pnas.org/doi/full/10.1073/pnas.1320040111
Fonte: Quotidiano Web