Le linee guida sui contenuti vietati su Facebook
Oltre a utilizzare algoritmi definiti, il lavoro di controllo viene eseguito anche da un team di 7500 revisori di contenuti.
Quali sono i contenuti permessi su Facebook e quali no? Ecco le linee guida del social network.
Nelle ultime settimane, Facebook è stato al centro del dibattito a livello internazionale a causa dello scandalo di Cambridge Analytica. Si è scoperto che milioni di profili del social network e i loro relativi dati, infatti, sono stati utilizzati per condizionare i risultati elettorali sia negli Stati Uniti che durante il referendum sulla Brexit nel Regno Unito. Dopo la comparsa di Mark Zuckerberg nel Congresso americano, Facebook ha cercato di correggere l'errore proponendo una politica più trasparente ai suoi utenti sull'utilizzo dei dati personali.
Per una maggiore trasparenza, il social network ha per la prima volta reso pubbliche le linee guida utilizzate dall'impresa che permettono di decidere quali contenuti possono essere postati all'interno della rete sociale e quali no. Monika Bickert, vice presidente del Global Product Management, ha spiegato così questa scelta:
«Abbiamo deciso di pubblicare queste linee guida interne per due ragioni. Per prima cosa, le linee guida aiuteranno le persone a capire come prendiamo le decisioni su questioni delicate. Inoltre, questi dettagli renderanno più semplice per tutti, inclusi gli esperti di diversi settori, darci un feedback per migliorare le linee guida e, con il tempo, le decisioni che prendiamo».
Oltre a utilizzare algoritmi definiti, il lavoro di controllo viene eseguito anche da un team di 7500 revisori di contenuti che lavora 24 ore su 24 e 7 giorni su 7. L'obiettivo è quello di creare una piattaforma sicura e rispettosa, evitare la violazione della sicurezza e tutelare la liberà d'espressione. Quali sono le principali linee guida contenute nelle 27 pagine del documento pubblicato da Facebook in merito ai contenuti permessi e vietati?
Violenza e comportamenti criminali
Il team di Facebook vieta i contenuti che possano costituire una minaccia credibile alla sicurezza pubblica o personale, controllando il linguaggio e il contesto dei post. Ciò viene fatto per impedire la presenza di organizzazioni o individui coinvolti, ad esempio, nel terrorismo, nella promozione di attività criminali o nella vendita di armi.
Sicurezza
Il social network rimuove i contenuti che: incoraggiano il suicidio o l'autolesionismo, sfruttano sessualmente o mettono in pericolo bambini, promuovono la violenza sessuale, le aggressioni a sfondo sessuale o lo sfruttamento sessuale, il bullismo o le molestie. L'obiettivo è anche quello di mantenere al sicuro le informazioni personali.
Contenuti deplorevoli
Facebook non permette la pubblicazione di discorsi di incitazione all'odio, di contenuti che promuovono la violenza o celebrano la sofferenza o l'umiliazione, che esprimono crudeltà e insensibilità e censura le immagini di nudo o di atti sessuali.
Integrità e autenticità
La rete sociale cerca di limitare la diffusione di spam commerciale e di controllare l'autenticità del nome delle persone che si connettono a Facebook. In più, il social network cerca di impedire la diffusione delle notizie false su Facebook e permette agli utenti di decidere se, in caso di morte, vogliono cancellare il proprio profilo o renderlo commemorativo.
Rispetto della proprietà intellettuale
Le norme di Facebook "non consentono alle persone di pubblicare contenuti che non rispettano i diritti di proprietà intellettuale di un'altra persona, compresi quelli su copyright e marchi".
Richieste relative ai contenuti
Facebook cerca di rispettare le esigenze degli utenti, fra cui le richieste di rimozione di immagini sull'abuso sui minori da parte del governo o quelle relative alla rimozione dell'account.
Se vuoi ricevere maggiori informazioni sul tema, puoi consultare il nostro elenco di professionisti esperti in diritto dell'informatica.