nrk.no

Facebook under press:
– Driver brannslukking

Kategorier: Det sosiale nettet & Samfunn

En fotomontasje hvor et bilde av en ung mann i skjorte og skinnjakke er lagt oppå et bilde av Mark Zuckerberg som står foran en Facebook-logo.
Magnus Hoem Iversen mener Facebook, med grunnlegger Mark Zuckerberg i spissen, ikke vil gjøre store endringer. Arkivfoto: Anthony Quintano/Flickr og Sigrid Haaland.

Medieviter Magnus Hoem Iversen mener en rystende artikkelserie basert på interne Facebook-dokumenter viser at selskapet ikke ønsker å endre seg, men heller snakke ned de problematiske sidene av nettsamfunnet.

Den siste tiden har avisen Wall Street Journal publisert flere avsløringer om Facebook, etter å ha fått tilgang til en rekke interne dokumenter fra selskapet.

– Det viktigste avsløringene viser, er at Facebook ikke er villig til å gjøre noe som går mot deres forretningsmodell, sier Magnus Hoem Iversen. Han er medieviter og har nettopp gitt ut boken «Sosiale medier» med Ida Aalen.

Hoem Iversen mener avsløringene viser at Facebook er mer opptatt av å unngå kritikk, enn å gjøre selskapets produkter tryggere og bedre for sine brukere.

– Facebook driver brannslukking, sier Hoem Iversen.

En person med bøylemikrofon står på en scene og gestikulerer
Medieviter Magnus Hoem Iversen. Foto: Audun Nydegger Wermundsen / Nordiske Mediedager (CC BY-SA 2.0)

Avsløringer på løpende bånd

De rystende avsløringene baserer på en serie interne Facebook-dokumenter som ifølge WSJ blant annet viser at:

  • Millioner av Facebooks mest profilerte brukere har blitt behandlet med silkehansker, og unngått å få innhold og brukerkontoer fjernet fra plattformen.
  • Facebook skal ha vært klar over at Instagram påvirker enkelte grupper av tenåringer negativt.
  • Facebook viste at en endring av nyhetsstrømmen i 2018 førte til mer spredning av feilinformasjon og mer sinne, men unnlot å gripe inn etter ordre fra selskapets toppsjef.
  • Bare 13 prosent av modereringsressurser ble brukt utenfor USA selv om omtrent 90 prosent av brukerne er utenfor landet.

Ved et tilfelle WSJ omtaler, skal Facebook ha vært klar over at menneskehandel foregikk på plattformen deres. De tok likevel ikke grep før BBC omtalte saken og Apple deretter truet med å kaste ut Facebook fra sin app-butikk.

Engasjement er sentralt

Hoem Iversen beskriver hvordan Facebook tjener penger på engasjement, altså innhold som holder brukerne på plattformen. Dermed kan de vise fram reklame, som de tjener penger på.

– Om de finner enkelte brukere med lumske hensikter så kan de stenge dem ute, men selve problemet er bakt inn i hvordan plattformen fungerer. Den gir trafikk og oppmerksomhet til ting som fyrer opp folk, sier medieviteren.

Facebook kjenner seg ikke igjen

– Vi investerer i forskning for å bli oppmerksom på mangler i våre systemer og identifisere problemer, som må løses. For å sette dette arbeidet i kontekst og fortelle om hvilke endringer dette har medført, har vi gitt intervjuer til journalistene bak artiklene i Wall Street Journal, som de dessverre har unnlatt å gjengi mesteparten av, skriver talsperson for Facebook i Norden, Regize Reeh, via sitt norske PR-byrå.

Facebook mener det som står igjen, er et uferdig og fordreid bilde av selskapet.

– Enhver historie, som bygger på et tilfeldig utvalg av lekkede dokumenter, vil mangle kontekst – ikke minst når dokumentene i tillegg er flere år gamle. Avisen har valgt ut bruddstykker, som lagde en historie om at Facebook ikke bryr seg med å løse problemene sine, og det er rett og slett ikke sant, fortsetter Reeh.

Et stort skilt foran noen trær, med en stor Facebook-tommel på.
Verdens mest kjente tommel? Facebooks hovedkvarter i Silicon Valley, USA. Foto: Greg Bulla

Skremt av manglende moderering

Det overrasker ikke medieviteren at Facebook ifølge Wall Street Journal har brukt betydelig mindre ressurser på moderering utenfor USA.

– Det er helt horribel modereringspraksis av Facebook, sier Hoem Iversen.

I et eksempel avisen trekker fram, har et narkotika-kartell i Mexico gjentatte ganger delt voldelige og groteske bilder, som fortsatt var mulig å finne på plattformen lenge etter det var publisert.

– Facebook bruker ikke nok penger og har ikke nok folk, sier Hoem Iversen.

Han mener måten modereringssystemet til Facebook fungerer på, gjør moderatorene ute av stand til å faktisk forstå innholdet de modererer.

– Facebook sier ofte at de har X antall ansatte, men det er veldig få mennesker som jobber med moderering på verdensbasis. Fordi de er så få, og innholdsmengden er så stor, har de svært krevende forutsetninger for å kunne gjøre en god jobb. Samtidig må mange sitte og se på det verste menneskeheten ha å by på, og noen blir traumatiserte av dette, forteller han.

– Det er viktig å huske på at veldig få av folkene som modererer Facebook jobber på selskapets lekre kontorer i Silicon Valley. De har folk rundt om i verden som ikke kjenner lokal kultur, og forstår hva som er hatprat ulike steder.

Facebook svarer Hoem Iversen at de er langt fra feilfrie, men at de gjør framskritt.

– Vi har siden 2016 firedoblet antall mennesker som arbeider med sikkerhet hos Facebook, til i dag 40.000, og vi har investert over 13 milliarder amerikanske dollar i mennesker, systemer og teknologi for å identifisere og fjerne skadelig innhold på Facebook og Instagram, uavhengig av hvilket språk det er publisert på, svarer Reeh fra Facebook.

– Dette omfatter ekspertteams fordelt på flere enn 20 lokasjoner verden over. Disse er i stand til å gjennomgå og vurdere innhold på mer enn 50 språk, inklusive norsk. Faktisk er størstedelen av innholdet vi gjennomgår på andre språk enn engelsk.

I natt norsk tid møtte Instagram i en høring hos en underkomité i det amerikanske senatet for å svare på spørsmål om blant annet WSJs avsløringer.

Endring 10:57: Lagt inn navnet til Facebooks talsperson i Norden.