Back

Cosa abbiamo imparato dal caso Facebook – Casapound?

In questi giorni ha fatto molto discutere la decisione di Facebook e Instagram di rimuovere le pagine ufficiali di Casapound e Forza Nuova, comprese quelle di esponenti di rilievo degli stessi partiti di matrice neo fascista come Simone Di Stefano e Roberto Fiore. Il motivo? Il mancato rispetto delle norme di Facebook sul cosiddetto hate speech: Zuckerberg, infatti, non ammette che sulla propria piattaforma persone e organizzazioni incitino all’odio e alla violenza.

Di qui la decisione di far scattare il ban. In tanti (soprattutto le persone direttamente coinvolte) hanno gridato alla censura e al mancato rispetto della legge italiana che sancisce attraverso la propria Costituzione un principio cardine come la libertà di espressione. Ci sono, però, alcuni aspetti della vicenda che vanno chiariti per comprendere al meglio la scelta di Zuckerberg e le regole del mondo digitale che molti, in questo caso, hanno dimostrato di non conoscere.

Facebook non è lo Stato italiano

Partiamo da una considerazione doverosa e anche piuttosto ovvia: Facebook non è lo Stato italiano, ma un’azienda privata con le proprie regole interne che possono, in parte, differire da quelle nostrane. Come hanno scritto e detto molti in questi giorni, quando ci iscriviamo a Facebook accettiamo (spesso senza leggerlo) il suo regolamento di utilizzo che stabilisce, ad esempio, quali contenuti si possono e non si possono condividere.
Chi non rispetta queste norme può subire delle sanzioni come la sospensione temporanea dell’account, la rimozione di un post o, quando le violazioni sono ripetute o particolarmente gravi, può essere bannato dalla piattaforma. Si tratta di una procedura standard che riguarda migliaia di utenti ogni giorno: non c’è, dunque, alcun complotto né tanto meno è scattata la censura nei confronti di chi ha manifestato contro la nascita del nuovo governo.

È probabile, invece, (non esiste, però, alcun comunicato ufficiale di Facebook in merito) che la rimozione delle pagine ufficiali di Casapound e Forza Nuova sia arrivata in seguito a ripetute segnalazioni da parte degli utenti che hanno portato il team di moderazione dei contenuti ad applicare questo provvedimento “estremo”. Facebook, dunque, in quanto soggetto privato, ha tutto il diritto di stabilire quali valori veicolare sulla propria piattaforma e quali soggetti ospitare. Non è un servizio pubblico, ma ha casomai una rilevanza pubblica che è un concetto ben diverso.

Ecco, quest’ultimo aspetto è un interessante argomento di discussione. La diffusione globale di queste piattaforme le rende degli strumenti così potenti da influenzare momenti essenziali della vita pubblica di un Paese come le elezioni. È giusto allora discutere su un possibile intervento da parte dei singoli Stati per regolamentare l’utilizzo dei social media ed evitare che in futuro una decisione arbitraria di una società privata (Facebook o chi per essa) possa condizionare il dibattito pubblico e soprattutto l’esito di una competizione elettorale.

Il presente e il futuro della moderazione sui social

Esiste un grande problema nell’universo dei social media e riguarda la moderazione dei contenuti. Parliamo di un lavoro complesso e a volte traumatizzante vista l’enorme mole di post che vengono messi online ogni giorno. Nel caso di Facebook e di YouTube il controllo viene effettuato sia in maniera “automatica” attraverso un sistema di filtri che vieta, ad esempio, l’utilizzo dei contenuti cosiddetti espliciti (come immagini di nudo o violente), che tramite l’esame di un team che valuta caso per caso (su segnalazione degli utenti) se un post può restare o meno sulla piattaforma.

C’è, però, una domanda di fondo che dobbiamo porci: come facciamo a stabilire con esattezza cosa sia l’incitamento all’odio e alla violenza? Si tratta di un concetto estremamente ampio. C’è la possibilità concreta di perdere alcuni pezzi per strada e, infatti, ancora oggi ci sono migliaia di account, pagine e gruppi che riescono ad eludere il controllo di Facebook e a diffondere contenuti che veicolano odio e violenza verso determinati gruppi politici, etnici o sociali. Non è facile stabilire quale sia la linea di demarcazione oltre la quale deve scattare il ban.
Dall’altro lato, però, esiste il rischio di limitare davvero la libertà d’espressione e di incidere, come detto sopra, con alcune decisioni arbitrarie sulla sfera pubblica e politica dei singoli Paesi.

Per tutti questi motivi Facebook ha deciso di fare un passo in avanti. Nella giornata di ieri Zuckerberg ha annunciato che sarà istituito l’Oversight Board, ovvero un organismo transnazionale indipendente al quale le persone potranno appellarsi  contro le decisioni di Facebook. Questo istituto, che rappresenta una sorte di Corte d’Appello dei social media, dovrà decidere se confermare o meno le sanzioni comminate da Facebook spiegando pubblicamente e in maniera trasparente le motivazioni. L’obiettivo è garantire la libertà d’espressione e al contempo controllare chi veicola messaggi violenti, facendo giudicare un ente indipendente (sulla sua effettiva indipendenza è giusto sospendere il giudizio visto che sarà la stessa Facebook ad effettuare la selezione).

L’educazione digitale che non c’è

Alla fine di questa vicenda rimane comunque un senso di amarezza per la scarsa educazione digitale presente nel nostro Paese. Vivere su Internet non significa solo godere di alcuni diritti come appunto la libertà d’espressione o l’accesso pressoché illimitato alla conoscenza. Come in tutti gli ambienti sociali, anche su Internet esistono delle regole da rispettare e dei doveri cui adempiere, pena la possibilità di ricevere sanzioni come l’espulsione dall’ambiente stesso. L’impressione è che sia necessario portare avanti con ancora più insistenza, nelle scuole e non solo, campagne sull’uso consapevole di Internet, sui rischi connessi ad un utilizzo improprio e sulle norme che regolano tutto l’ecosistema digitale.

Giuseppe Critelli
Giuseppe Critelli