Facebook, contenuti controllati da umani e intelligenza artificiale
In un articolo pubblicato dal The Guardian a fine maggio e che ha raggiunto in poche ore migliaia di interazioni (Mi Piace, Commenti e Condivisioni), vengono rivelate alcune delle regolamentazioni interne di Facebook su cui si struttura l’operato dei moderatori del Social Network per l’approvazione o la rimozione di contenuti potenzialmente sensibili. Queste sono composte da diverse decine di documenti contenenti indicazioni e politiche aziendali riguardanti svariate tematiche, tra le quali: la sessualità esplicita, la violenza, il linguaggio, le immagini esplicite, il terrorismo e così via.
Fonti interne all’azienda di casa Zuckerberg e la stessa Monika Bickert, Head of Global policy Management di Facebook, affermano come la piattaforma sia effettivamente molto grande e cresciuta troppo in fretta per poter controllare manualmente tutti i contenuti condivisi.
A tale scopo esistono dei moderatori, figure professionali che in pochi secondi devono analizzare contenuti campione definendoli pubblicabili o meno e le cui decisioni vengono poi studiate da algoritmi in grado di auto-apprendere (machine learning) per poter analizzare la mole di dati che viene costantemente condivisa attraverso il social network a partire dall’emulazione del comportamento dei rater (NdA, anche in Google sono presenti tecnologie simili che sfruttano moderatori definiti “Quality Rater” il cui operato viene emulato e migliorato grazie all’algoritmo RankBrain).
In questo modo un contenuto può essere pubblicato o meno in base a delle decisioni precedentemente metabolizzate. Ma come avviene il processo decisionale dei moderatori prima che le macchine lo emulino?
Come mai alcuni contenuti riguardanti atti di violenza non vengono censurati ma al massimo viene avvisato il lettore della potenziale natura esplicita dei contenuti?
.......
Leggi l'articolo intero su CR ⚡ HACK | Numero 00
Commenti
Posta un commento