lunedì 14 luglio 2014

TU CHIAMALE SE VUOI, EMOZIONI (ALTERATE)

Questa è la storia di un inganno bello e buono. Sissignori, non chiamatelo esperimento - tantomeno aggiungendoci l'aggettivo scientifico -, non chiamatelo un tentativo, una prova, una cosa "solo per vedere di nascosto l'effetto che fa (cit.)": no, questo è un inganno sulla pelle della gente, anzi, sulle bacheche dei profili degli utenti.
Di tanti, utenti. Provate a dirlo tutto d'un fiato: set-te-cen-to-mi-la. (Ok, così non è tutto d'un fiato, ma forse rende l'idea) Questo è il numero ufficiale stimato degli utenti Facebook sottoposti a, come dire, un esperimento - ma non dovevamo chiamarlo così, ricordate? - condotto attraverso il vostro social network preferito e pubblicato addirittura su una rivista scientifica. Settecentomila utenti: non sette, non settanta, non settecento. Qui si parla di intere città, di mini-metropoli, non di quattro gatti; pardon, utenti. L'obiettivo? Cercare di capire se i social network sono in grado di manipolare le emozioni e le reazioni emotive della comunità di utenti più grande che sia stata mai riunita. Intento nobile, non c'è che dire. Per raggiungere l'altissimo scopo alle centinaia di migliaia di iscritti a FB è stato centellinato, o comunque alterato, il flusso di notizie che appare nella propria bacheca. Ovviamente questa nuova "fruizione" dei contenuti rispondeva ad un algoritmo preciso, modellato sulla prosodia delle parole-chiave, ovverosia sul suo contenuto tendenzialmente positivo o negativo. Va da sé che un'alterazione di questo tipo risulti nella "selezione" di notizie a piacimento: e no, qui non si parla di notizie vere o false (almeno quello...), ma di notizie "brutte & buone" sapientemente portate sulle bacheche degli utenti-cavia per carpirne emozioni presumibilmente sotto forma di status e/o commenti. Al diavolo la sentiment analysis fondata sull'oggettività, insomma. In altre parole, estremizzando: se vivo ad Amburgo e mi vien bloccata la possibilità di fruire di notizie relative ai recenti eventi in Medio Oriente e mi si propinano solo notizie relative alla recente vittoria della Germania alla Coppa del Mondo di calcio beh, è facile star allegri. Viceversa, se la scientifica selezione dell'algoritmo propenderà verso la condivisione di meno meme e più notizie "serie", lo stato emotivo del fruitore tenderà ad essere con un mood più negativo.
Non è inganno questo? E nonostante ci sia il consenso degli utenti - volontario o involontario, visto che al momento dell'iscrizione al network si accettano i termini e le condizioni che non stan proprio tutti lì a leggere per filo e per segno - di fatto qui si parla di un'alterazione del "normale" utilizzo della piattaforma. E stiamo parlando del sito Web più celebre e influente della storia di Internet, non di un forum per sfigati. Oggi son settecentomila, e domani? E chi ci garantisce che non siano stati condotti altri studi "mirati", o che FB stesso non sia tutto impostato per manipolare il flusso dell'informazione e dell'emotività reattiva che ne consegue, con risultati facilmente immaginabili, visto che si parla di oltre un miliardo di utenti? Insomma, i "soliti" discorsi, da cui si possono trarre delle logiche conclusioni. E ben vengano, a questo punto, le inchieste delle autorità competenti per cercare di stabilire una verità. Un'altra verità, probabilmente: ne circolano altre, qui in Rete, influenzate da un algoritmo e qualche eminenza grigia. Sulla pagina principale di Facebook, quella di login, campeggia la frase "è gratis e lo sarà sempre". Sicuri che non si stia pagando comunque un certo prezzo?