Ultimi Nutizie

Attualità mundiale per u populu corsu

Rivista Principià

Cumu l’algoritmu di Facebook sfila fora di u cuntrollu di i so creatori

Cumu l'algoritmu di Facebook sfila fora di u cuntrollu di i so creatori

Tuttu ciò chì emerge da a lettura di i "Fichi di Facebook". U studiu di Le Monde

In i ducumenti internu di a cumpagnia, i so ingegneri cunfessu u so malintesi di un codice di l'urdinatore cù effetti inespettati, chì facenu a reta suciale una macchina cumplessa è difficiuli di cuntrullà.

Questu hè forse u sintimu principalu chì emerge da a lettura di i "Fichi di Facebook". À mezu à sti millaie di pagine di ducumenti internu Facebook, ritruvatu da Frances Haugen, un anzianu impiigatu, è relayed da una surgente parlamentaria American à diversi media, cumpresi Le Monde , parechji passaghji parenu indicà chì Facebook ùn capisce più, o misunderstand, ciò chì. fà i so algoritmi. È chì a so reta suciale hè diventata una macchina difficiuli di cuntrullà.

Questu hè in particulare u casu di un algoritmu cruciale, rispunsevuli di a "ranking" di i missaghji chì appariscenu in News Feed di l'utilizatori: Facebook usa una multitùdine di signali, da u più simplice – u numeru di persone abbonate à una pagina – à u più cumplessu – l'interessu chì i "amici" di l'utilizatori anu dimustratu in un tema – per assignà un "score" à un missaghju. Quantu più altu hè u puntuatu, u più prubabile di apparisce in a nutizia.

In ogni casu, cù u passaghju di u tempu è l'aghjunzione di novi signali da l'ingegneri di a reta suciale, u "score" mediu di un postu hà splutatu. In un documentu senza data, un analista di Facebook hà fattu qualchì calculu è hà truvatu chì per qualchì cuntenutu, u puntu "pò esse più di 1 billion". Questu hà a cunsequenza diretta di rende inutilizabili assai strumenti di moderazione. L'ultime riduce u puntuatu di certi missaghji problematichi da 20%, 30% o 50%, per impediscenu di sparghje troppu. Ma per u cuntenutu top rated, u puntuatu hè cusì altu chì a metà ùn impedisce micca di cuntinuà à vede. « Une partie de ces contenus resterait au premier rang même si leur score était réduit de 90 % », se plaint l'auteur du document.

SISTEMA COMPLEX SENZA UNA "VISIONE UNIFICATA"

Stu prublema ùn hè micca u risultatu di una pulitica intenzionale chì certi posti deve esse immune à l'arnesi di moderazione automatica. Hè simpricimenti unu di i tanti effetti latu causati da i cintinara di cambiamenti à l'algoritmi di Facebook annantu à l'anni, e cunsequenze di quale l'ingegneri di a rete suciale ùn parenu micca capaci di predichendu.

"E diverse parti di l'applicazioni di Facebook interagiscenu cù l'altri in modu cumplessu", è ogni squadra sviluppa cambiamenti senza una "vista sistemica unificata", si lamenta l'impiegata Mary Beth Hunzaker, in una longa nota scritta à l'occasione di a so partenza da Facebook in Aostu. 2020. A cunsiquenza ? "Un risicu aumentatu di prublemi facilitatu o amplificatu da interazzione inaspettata trà e funzioni o servizii di a piattaforma".

In numerose occasioni, l'impiegati anu tistimuniatu in i ducumenti internu à a so mancanza di capiscenu di u cumpurtamentu problematicu in u so codice di l'informatica. In India, i video pornografichi dolci sò subitu evidenziati in a tabulazione Watch, senza chì nimu capisce perchè. In i Stati Uniti, l'ingegneri tiranu i so capelli per capiscenu perchè certi gruppi pulitichi cuntinueghjanu à esse cunsigliatu à l'utilizatori quandu ùn deve esse più.

"Ogni esperimentu cambia a cumpusizioni di a nutizia in modu inespettatu", nota un articulu di 2018. Dui anni dopu, l'analista di Facebook sò cuntenti di vede chì a quantità di cuntenutu chì induce l'odi pare chì hè diminuitu drasticamente in u News Feed, ma elli cura di spiegà perchè. "Stu risultatu puderia in teoria esse u risultatu di unu o più cambiamenti à l'algoritmu in l'ultimi dui mesi. In ultimamente, pò esse difficiule di determinà quali ", nota un documentu.

Quandu hè dumandatu nantu à questu, Facebook ammette prontamente chì i so algoritmi sò diventati strumenti assai cumplessi, ma si fieru di tweaking regularmente per migliurà. Ancu s'è e cunsequenze di i cambiamenti ùn sò micca sempre faciuli di predichendu, a reta suciale assicura chì l'inchiesta chì cunduce regularmente trà i so utilizatori permettenu di detectà rapidamente qualsiasi prublemi impurtanti è, se ne necessariu, di vultà si un cambiamentu hè troppu problematicu. .

"I PREGIUDIZI"

Sti prublemi ùn venenu micca da una mancanza di cumpetenza. Facebook assume alcuni di i migliori ingegneri in u mondu. Nemmenu sti difetti sò specifichi à a reta suciale: i stessi effetti collaterali indesiderati si verificanu "sempre chì i scientisti di dati è l'ingegneri di software mischianu a persunalizazione di u cuntenutu cù l'amplificazione algoritmica, cum'è in u feed Facebook, a tabulazione For You di TikTok o cunsiglii di YouTube ", scrive Roddy. Lindsay, un anticu ingegnere di Facebook, in un articulu publicatu in u New York Times in ghjugnu. È aghjusta:

"Questi algoritmi […] perpetuanu i preghjudizii è influenzanu a sucità in modi chì i so creatori capiscenu à pena. Facebook hà avutu quindici anni per pruvà chì l'algoritmi per classificà u cuntenutu basatu annantu à l'impegnu [u nùmeru di cumenti, azzioni …] ponu esse designati in modu rispunsevule; s'ellu ùn anu micca successu, ùn anu mai successu ".

È, cum'è i ducumenti Facebook mostranu, ùn hè micca per mancanza di pruvà. L'analisi in-house getta una nova luce nantu à i numerosi cambiamenti, maiò è minori, chì Facebook hà fattu à i so diversi algoritmi in l'ultimi anni. Partendu da u pivot cruciale di 2018, chì hà u scopu di mette in primura ciò chì Facebook chjama "interazzione suciale significativa" (MSI). U prugettu avia un scopu chjaru : priurità di u cuntenutu publicatu da l'amichi intimi, di e foto di famiglia è di i testi, à u detrimentu di u cuntenutu puliticu è di quelli publicati da i media è di e pagine "click-bait", chì u cunsumu passiu era cunsideratu pocu utile da l'internauti. .

In ogni casu, u cambiamentu in MSI hà avutu, in parte, l'effettu cuntrariu à l'intendente: cum'è dimustratu da parechje analisi successive realizate da e squadre di Facebook, favurizeghja u cuntenutu divisivu. Questu hè in parte perchè l'algoritmu mudificatu hà postu un pesu enormu nantu à u cuntenutu spartutu da l'amichi è a famiglia, ancu quandu vene da pagine dubbie o pulitiche. In u risultatu, i reshares profondi, u cuntenutu ri-spartitu da l'amichi di l'amichi, anu pigliatu di colpu una grande importanza in i News Feeds di l'utilizatori, mentre chì à u stessu tempu sò, secondu a ricerca di Facebook, unu di i vettori di distribuzione principali. per e pagine Facebook. estrema destra o cuspirazione.

Da tandu, à a fine d'aprile 2019, un'analisi realizata ind'è a squadra di "integrità", incaricata di studià è di pruposti suluzioni contr'à a disinformazione o u cuntenutu periculosu in Facebook, hà stimatu chì una riduzzione massiva di u pesu di sti ripartizioni prufonde avissi da. permettenu di riduce a visibilità di i missaghji di disinformazione da 25% à 50%, secondu u furmatu. Questu seria "un modu efficace è neutrale per limità i risichi di u cuntenutu più periculosu [nantu à a pulitica o à a salute]", hà dettu l'autore di a pruposta.

"Avemu altre arnesi per riduce a visibilità di certi tipi di cuntenutu, cum'è missaghji di odiu o foto nude", spiegò un portavoce di Facebook. A riduzzione generale di reshares profonde hè un "strumentu smussatu, chì affetta ancu i posti pusitivi o innocui cù un discorsu possibbilmente viulente o provocativu, cusì l'utilicemu cun discrezione". Facebook l'ha implementatu pocu tempu in Etiopia, Birmania, Stati Uniti è Sri Lanka.

UNA LONGA LISTA DI TEST È ERRORI

I detractors di a cumpagnia, cumpresa Frances Haugen , l'accusanu di privilegià, in i paràmetri di a so piattaforma, e dati riguardanti l'ingaghjamentu di l'utilizatori : attività, tempu spentu, nùmeru di piace, sparte, etc. Facebook seria dunque largamente ignurà e cunsequenze negative di i so cambiamenti di l'algoritmu. In u 2020, per l'elezzioni presidenziale di i Stati Uniti, a cumpagnia avia messu in piazza una serie di misure preventive, chì hà disattivatu una volta chì l'elezzioni sò finite – prima di riattivà una parte di elli u 6 di ghjennaghju, durante l'attaccu à u Capitoliu da Donald Trump. sustenituri.

Hè questu avanti è avanti un signu chì a cumpagnia hè primurosu di pruvà à prutezzione di e so statistiche d'usu, chì sò cruciali per vende publicità? Facebook nega vehementamente questu, è dice chì à volte hà pigliatu misure chì anu riduciutu l'ingaghjamentu quandu hè necessariu per a sicurità di i so utilizatori. In u 2018, u cambiamentu di l'algoritmu era destinatu à "priurità u cuntenutu di l'amichi è di a famiglia è era basatu annantu à studii da esperti di benessere", Monika Bickert, capu di pulitica di cuntenutu, hà dettu à Le Monde à principiu di uttrovi di Facebook. E, cum'è previstu, stu cambiamentu hà riduciutu in realtà a quantità di tempu passatu nantu à a piattaforma, da 50 milioni d'ore per ghjornu.

Più in generale, Facebook dice chì focalizà nantu à "ingaghjamentu" à tutti i costi seria una sciocchezza per a cumpagnia, postu chì u so interessu à longu andà hè chì i so utilizatori – è i publicitarii – si sentenu bè nantu à a piattaforma, per assicurà chì fermanu. In ogni casu, a longa lista di testi è cambiamenti suggerisce a cumplessità di l'algoritmi chì sò diventati difficiuli di maestru, è e cunsequenze di quale ùn sò micca sempre immediatamente notevuli. Malgradu i numerosi cambiamenti, i prublemi restanu.

À l'anni, i misuri pruposti da i membri di a squadra di "integrità" parenu esse sempri più cumplessi, quandu ùn anu micca solu circundà u prublema suggerendu cambiamenti, micca à l'algoritmi, ma à l'interfaccia. Per esempiu, parechji ducumenti di l'ultimi dui anni suggerenu di aghjunghje elementi di "frizione" per incuragisce l'utilizatori à sparte certi tipi di cuntenutu menu, per esempiu furzendu à cliccà nantu à un articulu prima di ripubblicà.

Un ducumentu d'aprile 2020 prupone l'implementazione di "un strumentu di trasparenza interna per centralizà l'assicuranza di qualità è u cuntrollu di a retrocessione di u cuntenutu in u filu di nutizie", un segnu chì, ancu per e squadre chì travaglianu nantu à sti tematiche, avè una visione trasversale di i cambiamenti fatti in a cumpagnia hè difficiule.

Alcune di i cambiamenti più recenti parenu ancu avè un latu paradossale è quasi ironicu: dapoi u principiu di u 2021, Facebook hà realizatu esperimenti "in 70 paesi" per vede menu cuntenutu puliticu in i feed di i so utilizatori, è hà fattu sta mudificazione permanente in u 2021. Stati Uniti è in Canada. "Hè una copia carbone di ciò chì dicenu digià in u 2018", ride Katie Harbath, un altru ex impiegatu di a reta suciale chì hà partutu in 2021 per inizià a so propria cumpagnia. "A riduzzione di u cuntenutu puliticu era unu di i mutivi principali di u cambiamentu in l'algoritmu MSI – ci hè veramente l'impressione di girare in cerchi", si dispiace.

SECRETITÀ INDUSTRIALE À L'ALGORITMU FACEBOOK

Se una di e cumpagnie più putenti di u mondu ùn riesce à ghjunghje à i so scopi, puderia ancu esse perchè assai di e misure chì Facebook hà messu in piazza in l'ultimi trè anni vanu direttamente contru, micca tantu u so mudellu di cummerciale, ma l'essenza stessa. di a so piattaforma è algoritmi. In u News Feed, cum'è in i cunsiglii di pagine o gruppi à seguità, Facebook hà pruvatu sopratuttu à custruisce una macchina capace di amplificà, detectendu i cuntenuti è i cunti chì suscitarà l'entusiasmu di i so utilizatori. Facendu più difficiuli di sparte, ammuccià o riduce a visibilità di u cuntenutu chì "funziona" hè fundamentalmente contru à a missione primaria di l'algoritmu.

Hè per quessa chì i regulatori in i Stati Uniti è l'Europa sò sempre più interessate in cumu funziona l'algoritmi. Qualchidunu, cum'è Frances Haugen è Roddy Lindsay, sò ancu favurevuli di incuragisce e plataforme à vultà à una classificazione di cuntenutu cronologicu. Altri, cumpresu Facebook, dicenu digià chì u risultatu seria peghju per l'utilizatore perchè l'algoritmi filtranu ancu u cuntenutu dannosu …

Interrogatu da i pulitici, Facebook ovviamente ùn vole micca furnisce infurmazioni detallati nantu à stu software, chì hè unu di i so secreti principali di u cummerciu. Ma u prugettu di lege aurupeu nantu à i servizii digitale, attualmente in discussione in Bruxelles, pensa à dumandà à e rete suciale per esse più trasparenti nantu à i so algoritmi è per permette à l'utilizatori di Internet di cambià i paràmetri di i sistemi di classificazione di cuntenutu. Una di e sfide per i regulatori hè di ottene un accessu veru à u funziunamentu internu di sti plataformi, chì sò stati opachi finu à avà. U testu prevede auditi, ma a stampa dipinta da i ducumenti interni di Facebook puderia spinghje i pulitichi europei à esse assai più esigenti.

(Extrait de la revue de presse étrangère d'Epr Comunicazione)


Questa hè una traduzzione automatica da a lingua italiana di un post publicatu in StartMag à l’URL https://www.startmag.it/innovazione/come-algoritmo-di-facebook-sta-sfuggendo-al-controllo-dei-suoi-creatori/ u Mon, 01 Nov 2021 07:00:09 +0000.