Facebook a publicat un raport privind eforturile sale de aplicare a orientărilor comunitare.
Luna trecută, Facebook a publicat pentru prima dată recomandarile sale privind aplicarea regulilor interne, iar astazi, compania a oferit câteva cifre pentru a demostra cum arată într-adevăr aplicarea.
Într-un nou raport care va fi publicat trimestrial, Facebook își descompune eforturile de aplicare în șase domenii principale – violența grafică, nuditatea adultului și activitatea sexuală, propaganda teroristă, discursul de ură, spam-ul și conturile false.
Raportul detaliază cât de mult din acest conținut a fost văzut de utilizatorii Facebook, cât de mult a fost eliminat și cât de mult a fost eliminat înainte ca orice utilizatori Facebook să-l fi raportat.
Conturile spam și false au fost cele mai răspândite și în primul trimestru al acestui an, Facebook a eliminat 837 milioane de fragmente de spam și 583 milioane de conturi false.
În plus, compania a acționat pe 21 de milioane de piese de nuditate și activitate sexuală, 3,5 milioane de posturi care au afișat conținut violent, 2,5 milioane exemple de discursuri de ură și 1,9 milioane de piese de conținut terorist.
În unele cazuri, sistemele automatizate Facebook au făcut o treabă bună și au identificat conținut înainte ca utilizatorii să le poată raporta. S
istemele sale au reperat aproape 100% din propaganda spam și propaganda teroristă, aproape 99% din conturile false și aproximativ 96% din posturile cu nuditate și activități sexuale adulte.
Pentru violența grafică, tehnologia Facebook a reprezentat 86% din rapoarte. Cu toate acestea, atunci când a venit discursul de ură, tehnologia companiei a marcat doar 38% din posturile pe care le-a luat măsuri și Facebook notează că are mai mult de lucru acolo.
„După cum a spus Mark Zuckerberg la F8, avem încă multe de făcut pentru a preveni abuzurile”, a declarat vicepreședintele Facebook al managementului produselor, Guy Rosen. „Parțial, tehnologia ca inteligența artificială, fiind promițătoare, este încă departe de a fi eficientă pentru cel mai rău conținut, deoarece contextul este atât de important”.
Pe parcursul raportului, Facebook împărtășește numărul celor mai recente trimestre comparativ cu cele din trimestrul anterior și, acolo unde există schimbări semnificative, constată de ce ar putea fi cazul. De exemplu, cu propaganda teroristă, Facebook declară că rata de eliminare crescută se datorează îmbunătățirilor tehnologiei de detectare a fotografiilor care pot detecta atât conținutul vechi, cât și cel nou publicat.
Facebook a furnizat, de asemenea, un ghid pentru raport, precum și un mesaj Hard Questions despre modul în care măsoară impactul aplicării sale. „Acesta este un prim pas mare”, a declarat Jillian York, Fundația Electronic Frontier, pentru Guardian. „Cu toate acestea, nu avem un sentiment de câte incalcări incorecte se întâmplă – câte apeluri au ca rezultat restabilirea conținutului.
În plus, am dori să vedem o comunicare mai bună a utilizatorilor atunci când au fost întreprinse acțiuni în contul lor, întucât ei cunosc încălcarea specifică. ”
„Noi credem că o transparență sporită tinde să ducă la creșterea răspunderii și responsabilității în timp și publicarea acestor informații ne va împinge să ne îmbunătățim și mai repede”, a scris Rosen.
„Acestea sunt aceleași date pe care le folosim pentru a măsura progresul nostru pe plan intern – și acum îl puteți vedea pentru a vă judeca progresul pentru voi înșivă. Așteptăm cu nerăbdare feedbackul dvs.”
Sursa: engadget.com
Lasă un răspuns