Dimensione carattere: +
5 minuti di lettura (1091 parole)

Facebook cambia algoritmo per abbassare il "contenuto borderline" che quasi viola la sua politica

46275261_10105385390905251_3643739087287877632_o

Facebook ha modificato l'algoritmo del feed di notizie per demotivare contenuti che violano le sue politiche proibendo disinformazione, incitamento all'odio, violenza, bullismo, clickbait, quindi è visto da un minor numero di persone anche se è molto coinvolgente. In una lettera di 5000 parole di Mark Zuckerberg pubblicata oggi, ha spiegato come un "problema di incentivo di base" che "quando non vengono controllate, le persone si impegneranno in modo sproporzionato con contenuti più sensazionalistici e provocatori. La nostra ricerca suggerisce che non importa dove tracciamo le linee per ciò che è permesso, poiché un pezzo di contenuto si avvicina a quella linea, le persone si impegneranno con esso in media - anche quando ci dicono dopo non gli piace il contenuto. "

Senza l'intervento, l'interazione con il contenuto borderline appare come il grafico sopra, aumentando man mano che si avvicina alla linea della politica. Quindi Facebook interviene, sopprimendo artificialmente la distribuzione di News Feed di questo tipo di contenuti in modo che l'engagement assomigli al grafico sottostante.

 Facebook applicherà penalità ai contenuti borderline non solo al feed di notizie, ma a tutti i suoi contenuti, compresi gruppi e pagine stessi per garantire che non radicalizzi le persone raccomandandole di unirsi alle community perché sono molto coinvolgenti grazie al toeing della policy line. "I gruppi e le pagine divergenti possono ancora alimentare la polarizzazione", osserva Zuckerberg.

Tuttavia, gli utenti che desiderano visualizzare intenzionalmente contenuti borderline avranno la possibilità di aderire. Zuckerberg scrive che "Per coloro che vogliono prendere queste decisioni da sé, crediamo che dovrebbero avere questa scelta poiché questo contenuto non viola i nostri standard. "Ad esempio, Facebook potrebbe creare standard flessibili per tipi di contenuti come la nudità in cui le norme culturali variano, come il modo in cui alcuni coutanei vietano alle donne di esporre molta pelle nelle fotografie mentre altri consentono la nudità sulla rete televisiva. Potrebbe essere un po 'di tempo prima che questi opt-in siano disponibili, tuttavia, poiché Zuckerber afferma che Facebook deve prima addestrare la propria intelligenza artificiale a essere in grado di rilevare in modo affidabile i contenuti che attraversano la linea o che si avvicinano intenzionalmente al confine.

Facebook potrebbe finire per essere esposto a critiche, soprattutto da gruppi politici marginali che si affidano a contenuti di confine per alzare le basi e diffondere i loro messaggi. Ma con la polarizzazione e il sensazionalismo dilaganti e laceranti della società, Facebook ha optato per una politica che potrebbe tentare di sostenere la libertà di parola, ma gli utenti non hanno diritto all'amplificazione di quel discorso.

Di seguito è riportata la dichiarazione scritta completa di Zuckerberg sul contenuto borderline:

Uno dei principali problemi affrontati dalle reti sociali è che, se non controllate, le persone si impegneranno in modo sproporzionato con contenuti più sensazionalistici e provocatori. Questo non è un fenomeno nuovo. È diffuso su notizie di cavo oggi ed è stato un graffio di tabloid per più di un secolo. A livello di scala può minare la qualità del discorso pubblico e portare alla polarizzazione. Nel nostro caso, può anche degradare la qualità dei nostri servizi.

[Il grafico mostra la linea con un crescente coinvolgimento fino alla linea della politica, poi bloccato]

La nostra ricerca suggerisce che non importa dove tracciamo le linee per ciò che è permesso, poiché un pezzo di contenuto si avvicina a quella linea, le persone si impegneranno con esso in media - anche quando ci dicono dopo non gli piace il contenuto.

Questo è un problema di incentivi di base che possiamo affrontare penalizzando il contenuto borderline in modo da ottenere meno distribuzione e coinvolgimento. Rendendo la curva di distribuzione simile al grafico sottostante in cui la distribuzione diminuisce mentre il contenuto diventa più sensazionale, le persone sono disincentivate dal creare contenuti provocatori il più vicino possibile alla linea.

[Grafico che mostra il rifiuto della linea che porta alla linea della politica, poi bloccato]

Questo processo per la regolazione di questa curva è simile a quello che ho descritto sopra per identificare in modo proattivo il contenuto dannoso, ma è ora focalizzato sull'identificazione dei contenuti borderline. Formiamo sistemi di intelligenza artificiale per rilevare il contenuto borderline in modo da poterlo distribuire meno.

La categoria su cui ci concentriamo maggiormente è click-bait e disinformazione. Le persone ci dicono costantemente che questi tipi di contenuti peggiorano i nostri servizi, anche se li coinvolgono. Come ho già detto, il modo più efficace per fermare la diffusione della disinformazione è rimuovere i falsi account che lo generano. La prossima strategia più efficace sta riducendo la sua distribuzione e la viralità. (Ho scritto su questi approcci in modo più dettagliato nella mia nota su [Preparing for Elections].)

È interessante notare che la nostra ricerca ha rilevato che questo modello naturale di contenuto borderline che ottiene un maggiore coinvolgimento si applica non solo alle notizie ma a quasi ogni categoria di contenuti. Ad esempio, le foto vicine alla linea della nudità, come gli indumenti rivelatori o le posizioni sessualmente allusive, hanno ottenuto un maggiore coinvolgimento in media prima di cambiare la curva di distribuzione per scoraggiarla. Lo stesso vale per i post che non rientrano nella nostra definizione di incitamento all'odio ma sono ancora offensivi.

Questo schema può essere applicato ai gruppi di persone che si uniscono e alle pagine che seguono. Questo è particolarmente importante da affrontare perché, mentre i social network in generale espongono le persone a punti di vista più diversi, e mentre i gruppi in generale incoraggiano l'inclusione e l'accettazione, i gruppi e le pagine divisorie possono ancora alimentare la polarizzazione. Per gestirlo, dobbiamo applicare queste modifiche alla distribuzione non solo al feed ranking ma a tutti i nostri sistemi di raccomandazione per le cose a cui dovresti aderire.

Una reazione comune è che anziché ridurre la distribuzione, dovremmo semplicemente spostare la linea che definisce ciò che è accettabile. In alcuni casi vale la pena considerarlo, ma è importante ricordare che non affronterà il problema di incentivo sottostante, che è spesso il problema più grande. Questo schema di coinvolgimento sembra esistere indipendentemente da dove disegniamo le linee, quindi dobbiamo cambiare questo incentivo e non solo rimuovere il contenuto.

Credo che questi sforzi sugli incentivi alla base dei nostri sistemi siano alcuni dei lavori più importanti che stiamo svolgendo in tutta l'azienda. Abbiamo compiuto progressi significativi nell'ultimo anno, ma abbiamo ancora molto lavoro da fare.

Fissando questo problema di incentivi nei nostri servizi, crediamo che creerà un circolo virtuoso: riducendo il sensazionalismo di tutte le forme, creeremo un discorso più sano, meno polarizzato, in cui più persone si sentano sicure a partecipare.

loading...
×
Stay Informed

When you subscribe to the blog, we will send you an e-mail when there are new updates on the site so you wouldn't miss them.

L' Allieva 2: anticipazioni penultima puntata di g...
Zuckerberg nega la conoscenza del lavoro di Facebo...
 

By accepting you will be accessing a service provided by a third-party external to http://imperoweb.it/

loading...

Sections

Prodotti

Partner

Consigliati

Azienda

Seguici Sui Social

X

Impero Web Copyright Abilitato

Non è ammessa nessuna copia i contenuti sono protetti da diritti d'autore.