nrk.no

Ny Facebook-funksjon fjernet barnemishandler-sladd

Kategorier: Det sosiale nettet, Internett, Journalistikk, Nettjenester & Nettkultur

Hva skjer når bildegjenkjenningsalgoritmene blir så gode at det ikke lenger hjelper å sladde bilder? Illustrasjon: Rashid Akrim/NRK

Norske redaktører tar Vær Varsom-plakaten på alvor. En ny Facebook-funksjon kan gjøre etikkjobben umulig.

For første gang har vi fått eksemplifisert et av de store problemene med at Facebooks datamaskiner blir for smarte.

Facebook har de siste årene brukt enorme ressurser på å forbedre innholdsalgoritmene sine: Spørsmål som «Hvilke bilder bryr du deg om?» og «Hvilke saker er du interessert i?», er utfordringer Facebook prøver å løse bedre, raskere og mer presist for hver dag som går.

Det siste steget i denne utviklingen er at de jobber knallhardt med å levere deg innhold som er relatert til det du ser ut til å være interessert i.

Store datamengder

For mange, og det gjelder også undertegnede, har Facebook i stor grad gått fra å være en tjeneste hvor man følger med på livet til sine venner, til en plattform for å følge med i nyhetsbildet. Facebook-nyhetsstrømmen min er fylt med artikler fra små og store aktører, i stor grad basert på et utvalg jeg selv har gjort.

I eksempelet nedenfor blir jeg servert en sak fra Gawker om rasisme i amerikansk fotball:

related1

Etter å ha trykket på saken, lest den, og kommet tilbake til Facebook, har nyhetsstrømmen oppdatert seg med en ny boks i underkant av Gawker-saken, hvor Facebook viser meg innhold som de mener kan være relevant for det jeg akkurat har lest:

related3

Denne listen er satt sammen av en rekke algoritmer, blant annet gjenkjenning av tekst og bilder.

I praksis betyr det at Facebook støvsuger store deler av nettet, indekserer innholdet i en database, og lager koblinger mellom de ulike innholdssegmentene som måtte befinne seg ute på nettet.

I utgangspunktet er det ikke noe galt i dette: Det øker Facebooks nytteverdi for deg som bruker, og gjør Facebook bedre, som en relevant leverandør av aktualitetsstoff.

Men det finnes også en skyggeside.

Når Facebook identifiserer barnemishandlere

NRKbeta har antagligvis de mest årvåkne leserene i Norge, og i går fikk vi en e-post fra Knut Vegard Fosse, som tipset oss om en sak han fikk levert i Facebook-nyhetsstrømmen sin.

Christoffer-saken, hvor åtteringen som ble mishandlet av sin stefar og til slutt døde av skadene, ble mye omtalt av norsk presse gjennom 2009 og 2010. Ingen norske redaktører valgte å identifisere hverken stefaren eller moren.

Sladdet bilde fra Dagbladet-artikkel om Christoffer-saken. Bildet er brukt med tillatelse fra Ringerikes Blad. ( Red Anm: Vi har endret orginalbildet for å gjøre det vanskeligere å google seg fram til det orginale usladda bildet.)
Sladdet bilde fra Dagbladet-artikkel om Christoffer-saken. Bildet er brukt med tillatelse fra Ringerikes Blad. ( Red Anm: Vi har endret orginalbildet for å gjøre det vanskeligere å google seg fram til det orginale usladda bildet.)

En Dagbladet-sak fra 2009 om skjending av Christoffers grav har blitt mye delt på sosiale medier de siste dagene. Artikkelen inneholder blant annet et pikselert bilde av stefaren og moren, en normal praksis for sladding av bilder i nasjonal og internasjonal presse.

Det aktuelle bildet er ikke direkte relatert til Christoffer-saken, men det er det eneste kjente bildet av de to sammen, og Dagbladet har derfor valgt å bruke dette som en illustrasjon på de to involverte.

Dessverre har det seg sånn at enkel bildesladding ikke er nok i 2014.

Bildet som Dagbladet valgte å pikselere var hentet fra Ringerikes Blad, som har omtalt moren og stefaren i en kontekst som ikke har noe med Christoffer-saken å gjøre. I den uavhengige saken ble både navn og alder til moren og stefaren offentliggjort.

Facebooks bildegjenkjenningsalgoritmer klarte raskt å koble det pikselerte bildet opp mot originalversjonen, selv om originalversjonen var usladdet, og publisert hos en annen nyhetsaktør i en ikke-relatert kontekst.

Som en konsekvens av dette ble Knut Vegard Fosse presentert for en sak som både avslørte moren og stefarens navn og bilde.

sadsadasd
Faksimile fra Facebook som viser en relatert artikkel hvor moren og stefarens navn er offentliggjort. NRKbeta har valgt å sensurere både bilde og tekst fra Facebook-faksimilen. Originalversjonen hadde ikke sensurert bildet av moren og stefaren.

Dette betyr at bildegjenkjenningsteknologien som Facebook bruker, er blitt så raffinert at enkel sladding av ansikter ikke lenger er en velfungerende form for anonymisering.

I praksis betyr dette at Facebook identifiserer både moren og stefaren, stikk i strid med at alle norske redaktører har forsøkt å holde de anonyme.

– Ikke hørt om lignende saker

Kjersti Løken Stavrum, generalsekretær i Norsk Presseforbund, har ikke hørt om lignende saker tidligere:

– Jeg har ikke hørt om lignende saker, men har visst at disse algoritmene kommer til å by på nye etiske problemstillinger, sier Stavrum.

Kjersti Løken Stavrum. Foto: Norsk Presseforbund
Kjersti Løken Stavrum. Foto: Norsk Presseforbund

Utviklingen i den digitale sfæren går ofte raskere enn regelverket, og Stavrum ser absolutt problemer med at Facebook har mulighet til å gjøre disse koblingene:

– For folk som eventuelt har stilt opp til fotografering under løfte av å være anonym, eller der et bilde er tatt i en annen sammenheng og så senere blir misbrukt, så er dette et problem. Vær Varsom-plakatens regler for publisering gjelder uavhengig av teknologiens muligheter., sier Stavrum, og utdyper:

– Problemet oppstår når andre, som ikke er bundet av plakaten, tar seg friheten til å begå det bransjen mener er uetisk – uten å tenke gjennom konsekvensene av det og selvfølgelig uten å ta ansvar for det., sier Stavrum.

– Trygghet i dag er usikkerhet i morgen

Ståle de Lange Kofoed, fagmedarbeider ved Institutt for Journalistikk, er bekymret for kombinasjonen av rask teknisk utvikling og manglende digitalkompetanse hos norske redaksjoner:

– Problemet er at ting ligger på nett for evig tid, mens teknologien forandrer seg. Da er det veldig viktig å følge med på den tekniske utviklingen. Trygghet i dag er usikkerhet i morgen, sier Kofoed.

– Valgt å avpublisere

Ringerikes Blad, som hadde artikkelen hvor det usladdede bildet stammet fra, bekrefter at de i dag har avpublisert saken:

– Etter at vi igjen er gjort kjent med at saken har spredd seg uvanlig mye, har vi valgt å avpublisere, sier Øyvind Lien, nyhetsredaktør i Ringerikes Blad.

Øyvind Lien sier videre at avpubliseringen ikke er en direkte konsekvens av denne konkrete koblingen hos Facebook:

– Vi har ikke fått tips om Facebooks tekniske koblinger spesielt, men vi er gjort kjent med at linker er spredd og kommentert.

– Facebook skaper ikke eget innhold

På spørsmål om hvorvidt Facebook ser på dette som problematisk, svarer Jan Fredriksson hos Facebooks PR-byrå Northern Link følgende:

– Facebook er en platform som ikke skaper eget innhold, men fungerer som en aggregrator for andres innhold. Standard rutine for fjerning av innhold er at våre brukere rapporterer saker.

Fredriksson bekrefter også at Facebook ikke har automatiske algoritmer som sensurerer innhold før det kan postes hos tjenesten:

– Det er ingen automatiske algoritmer som sensurerer innhold i forkant av publisering. Alt sjekkes manuelt av våre moderatorer før en eventuell sensurprosess settes i gang. Når det er gjort har vi noen muligheter for å automatisk sensurere lignende innhold.

– Dette kan få følger

Kjersti Løken Stavrum tror at denne saken kan få følger for hvordan man behandler saker i sosiale medier fremover:

– Dette eksempelet viser at redaktørene og redaksjonene må være enda mer årvåkne ved automatisk lenking og kanskje måtte skru dette av hvis de henter stoff fra andre publikasjoner som vi ser her. Jeg tror også vi vil se langt færre anonyme bilder som følge av dette, og dessuten vil det være enda viktigere å følge debattfeltene, sier Stavrum, og utdyper:

– Vi ser allerede at redaksjonenes bruk av Facebook skaper etisk problematisk farvann. Kontroversielle saker som for eksempel postes på Facebook og debatteres der, er vanskeligere å moderere. Jeg tror det er verdt å stoppe litt opp før man deler saker – og bilder, som vi ser her.

Finnes det flere eksempler?

Dette er det første eksempelet vi i NRKbeta har sett på at Facebooks innholdsalgoritmer fører til store medieetiske problemstillinger. Men vi vet også at vi har blant landets beste og mest oppmerksomme lesere.

Har du andre eksempler på saker hvor Facebook kobler sammen innhold på en måte som skaper problemer? Fortell oss om det i kommentarfeltet!

31 kommentarer

    • Det har vært kjent lenge at det er mulig å gjøre denne koblingen dersom du spesifikt går inn for å finne bildet. Det som er interessant her er at Facebook gjør denne jobben for deg.

      For å gjøre det vanskeligere å google seg frem til originalbildet herfra har vi nå gjort det sladdede bildet svart/hvitt i denne saken.

    • jompa lompa (svar til Eirik Solheim)

      som tilsvarte bare to-tre ekstra klikk uansett siden selv svart-hvittbildet førte til div. dagbladetsaker med fargebildet

    • Forøvig så går det an å bare holde inne «s» når man høyreklikker, så skjer søket automagisk. Da får man opp masse fargede utgaver. s+høyreklikk en gang til, og man har det usladdete bildet.

      Som Arne nevnte lengre nede her, så er det ikke spesielt smart av nettavisene å sladde et bilde som allerede er ute på nett. Finn heller et ubrukt bilde.

      Driver å sysler med å lage en crawler som benytter diverse andre crawlere (Google, Facebook, Twitter, osv) for å finne all informasjon som finnes om en person, bare ved å oppgi to-tre ting man vet om personen. Brukernavn og alder kan være nok til å finne ut alt om en person.

    • Det hjelper ikke. 🙁

      Et par ledd senere finner man det uansett.

      Dette illustrerer da også poenget i artikkelen på en effektiv, men ubehagelig måte. Problemet er allerede så stort at man kan begynne å lure på om man i det hele tatt kan bruke bilder i denne typen saker.

    • Eventuelt kan du bare google Christoffersaken og få navnet på mor og stefar. Bildet ligger lett tilgjengelig der ute.

  1. Facebook har laget et system som jeg syntes nå virker som en redaksjonell funksjon hvor nyhetssaker settes sammen, å da skylde på at dette er automatikk og fraskrive seg ansvar fordi de har laget innholdet er etter min mening ekstremt uetisk.

    virker som for meg at flere store nettsider bruker unnskyldninger for uetiske og noen ganger ulovlige handlinger som ofte går på at brukerene er de sm har laget/delt innholdet og vi fraskriver oss derfor alt ansvar. For å nevne et annet eksempel: Pinterest fraskriver seg alt ansvar for at brukerne deler kopibeskyttet innhold hos dem og det er en jobb i seg selv å unngå dette og få fjernet innholdet hos Pinterest (som ikke skaper trafikk til kilden uansett).

    Nå er det vel mulig at det i tilfellet her med Facebook var noe som var mer et uhell da og kanksje det ikke skjer så ofte, interresert i om noen har flere eksempler.
    Kanskje løsningen er at nyhetsorganisasjoner må slutte å dele (eller la andre dele) nyhetssaker på facebook, siden ikke facebook vil påta seg ansvar og det blir nærmest umulig å beskytte seg (eller de som trenger beskyttelse) mot slikt? Funksjonen som setter sammen saker var jo også noe som nyhetsredaksjonene ikke visste at kom til å komme på plass for noen år siden, så da at facebook lar denne funksjonen fungerefor saker delt før denne funksjonen er kanskje også i seg selv et problem?

    Svar på denne kommentaren

  2. At automatisert aggregering av data kan finne koblinger som ellers ville vært vanskelig å finne er én ting; men det å bruke et bilde som allerede har vært i avisen for så å bare sladde ansiktene er direkte uansvarlig, uansett.

    Svar på denne kommentaren

    • Jarl Arntzen (svar til Arne)

      Helt enig:
      «– Problemet oppstår når andre, som ikke er bundet av plakaten [Facebook, altså???], tar seg friheten til å begå det bransjen mener er uetisk – uten å tenke gjennom konsekvensene av det og selvfølgelig uten å ta ansvar for det., sier Stavrum.»

      Nei, nei, nei!

      Dagbladet, er altså de som har tatt seg friheter ved å gjenbruke et tidligere publisert, usladdet fotografi. Det er Dagbladet som ikke har tenkt gjennom konsekvensene.

      Om bildet finnes igjen ved hjelp av søketeknologi eller fordi noen husker bildet fra en tidligere sak, så blir den koblingen etablert, der og da og kan spres videre.

      Facebook (og alle de andre aktørene som driver med bildesøk) har bare tatt bidratt til å avsløre at Dagbladet, og nå også nrkbeta.no, indirekte har brutt «Vær varsom»-plakaten.

  3. Synes norske redaksjoner ihvertfall kan fjerne exif-data når de først sladder og anonymiserer private bilder, og kanskje ikke bare hente det første og beste bildet de finner av vedkommende som omtales gjennom Facebook. Det er bare direkte farlig latskap.

    Svar på denne kommentaren

  4. Et annet eksempel på lignende sak er for noen måneder siden, da det var mye oppe i media om en viss side som ble benyttet til å dele nakenbilder folk hadde lurt til seg.

    Media (Mener NRK og gjorde denne tabben) begynte å sitere ting som sto på siden…

    Et google-søk på sitatet, og vips så fant man siden det var snakk om… Masse gratisreklame

    Finnes og masse eksempler hvor media av en eller annen grunn må vise et sladdet bilde av en person, som finnes på google usladdet. Hvorfor vise et bilde i det hele tatt? For at vi skal se klærene til gjerningsmannen? Det er virkelig ikke nødvendig…

    Svar på denne kommentaren

  5. Stig Ove Voll

    Jeg er enig med flere av debattantene her. For det første er det uheldig at et bilde publiseres i det hele tatt selv om det er sladdet, for sammen med opplysningene som fremkommer i teksten, er gjenkjennelsesfaren stor. For det andre er det direkte uansvarlig å bruke et bilde som tidligere er publisert, selv om man velger å sladde det. Og for det tredje man man finne mye informasjon i EXIF-dataen, som flere medier ikke fjerner eller endrer.

    Svar på denne kommentaren

  6. Hmm, interessant. Man legger ut et sladdet bilde, det tar noen sekunder å finne med google. Man gjør det sort-hvitt, men det går stadig like fort. Man «endrer» det på en eller annen måte. Fint.

    Hva med å ta det bort? Hvis det ikke lenger identifiserer noe, eller inneholder informasjon, hva er vitsen? Dokumenterer det noe som helst? Kan dere ikke heller legge ut bilder av noen fine blomster, skogen, noen halvnakne mennesker, en fin rød bil, smilende onger, whatever, hvis det altså kun er for å klikke på?

    Svar på denne kommentaren

  7. Norsk media går altfor langt i å beskytte gjerningspersonene, og forsyner disse med sladd også etter at dom er avsagt.

    Jeg forstår selvfølgelig standardargumentet, om at gjerningspersonene også har pårørende, og skulle gjerne ha skjermet dem. I valget mellom hensynet til de pårørende og befolkningen forøvrig, befolkningen forøvrig.

    For personer som er dømt for alvorlige handlinger utøvet mot andre personer, er gapestokk etter mitt syn et akseptabelt virkemiddel.

    Norske fengselsopphold innebærer marginal straff i forhold til det offeret er utsatt for. For at det skal være et element av preventiv virkning, er gapestokken et mildt middel. Det er dessuten feil å holde tilbake informasjon om en gjerningspersons identitet, dersom denne kan representere en fare etter ferdigsonet fengsel.

    Jeg presiserer at dette gjelder alvorlige handlinger som direkte går utover andre, slik som (grov) voldtekt, barnemishandling og andre overgrep mot mindreårige, ran og en hver form for vold og selvfølgelig mord.

    Svar på denne kommentaren

  8. sakte men sikkert begynner nå også journalister (og andre) og forstå deler av Georg Apenes (mfl.) senere livsverk.

    det er dette mange har advart mot, og gir uendelige implikasjoner mtp. hvordan medier skal håndtere slike saker, hvordan man skal beskytte kilder (jmf. hvordan man benyttede lekkede bilder fra Breivik saken og hvordan disse bilder var identifiserbare til hvilken kilde som hadde lekket) og lignende.

    det er klart det er kinkig at politi og etterretning har slik tilgang/muligheter.

    og det er litt mer kinkig med DLD.

    nå når dette treffer hver enkelt så grundig som disse eksempler, og hvor den enkelte person selv kan få tilgang til omtrent samme informasjon om sin nabo, som alle andre (etterretning, politi, failbook, annet), så er det toppen av kinkig.

    forhåpentligvis vil «informasjon på avveie» begynne å bli noe med konkret med denne åpenbaring.

    det er bare å ekstrapolere litt til på konsekvensene, og bruke like mange spaltemeter/megabyte på dette som å lovprise sosiale medier og elektronisk kommunikasjon i sin generellhet, så kan man nok få opplyst folket… lol.

    Svar på denne kommentaren

  9. Vet ikke om jeg er enig med Solheim i at høyreklikk og Google-søk er så veldig annerledes prinsippielt. Problemet er jo fortsatt enkel og omfattende «outing» av mennesker media har anonymisert for dårlig i iver etter å trykke gamle bilder som jeg er veldig usikker på informasjonsverdien i.

    I Sigrid-saken i Oslo visste og spredde svært mange hvem den første mistenkte var, fordi høyreklikk-søk på det «anonymiserte» bildet media trykket ga umiddelbart treff.

    Er media som må ta inn over seg at anonymiserings/sladde-praksis må endres i dagens online-virksomhet om det skal ha noe som helst reell funksjon.

    Svar på denne kommentaren

  10. Denne saken handlet om bilder, men det er liknende problemstillinger når det gjelder tekst. Mediene trenger rett og slett å venne seg til at de langt fra er den eneste kilden leserne har til saker.

    I en overgrepssak for et par år siden la jeg merke til at alle medier prøvde å anonymisere offeret – men de valgte ut hver sine opplysninger som de tenkte kunne sprite opp saken uten å avsløre identiteten. Ved å lese i litt forskjellige medier kunne man finne ut alder, hjemsted, fritidsinteresser, politisk tilknytning osv. Kort sagt: det var enkelt å identifisere vedkommende.

    Jeg har en følelse av at journalister sitter i en egen boble når de skriver saker, og tenker at bare de ikke gir nok opplysninger til at personene kan identifiseres basert på den ene saken alene, er det greit…

    Svar på denne kommentaren

  11. For en vekker og definitivt behov for endring av praksis når det gjelder publisering av sladdete bilder. Praksis har endret seg allerede, i det minste i noen mediehus. I forbindelse med en kvalitativ studie om journalisters arbeidsvaner for å verifisere innhold fra sosiale medier, nevnte to av journalistene vi intervjuet at de stadig oftere lot være å bruke bilder som har vært publisert tidligere, det hjalp ikke om tidligere publiserte bildene var sladdet:

    SITAT fra intervjuet journalist: «Men det fører jo også til ganske store utfordringer for oss rundt vår egen bildebruk når vi velger å ikke identifisere noen. Før var det sånn at, ikke sant, hadde det vært en drapsmann for eksempel så kunne vi brukt et bilde, sladdet ansiktet på vedkommende, og hivd ut det. Det funker jo ikke lenger. Folk er jo like smarte som oss. Hvis ikke mye smartere. Og det er jo sinnsykt hva du klarer å finne ved Google Image Search. Så det har jo vært en konsekvens her, at vi har valgt å stadig oftere ikke bruke bilder som har vært publisert digitalt på en eller annen plattform tidligere.»

    Svar på denne kommentaren

  12. Det som gjør denne saken ekstra spesiell i mine øyne er at artikkelen (med bildet) som det er linket til omhandler disse to menneskene i en helt annen kontekst. Disse to har selv valgt å la seg intervjues, fotograferes og omtales media med fullt navn med noe som ikke har noe med Kristoffer saken å gjøre. Dette burde de jo ikke gjort dersom de ikke ville identifiseres. Artikkelen kom opp ved å søke på navnet til Kristoffers far lenge før Facebook knyttet dette sammen… Artikkelen burde aldri blitt laget, disse to skulle vært «beskyttet mot seg selv» men jeg tipper at journalisten som skrev saken ikke ante hvem de to var på det tidspunktet den ble skrevet.

    Svar på denne kommentaren

  13. Stian Jørgensrud

    Altså, man trenger kanskje en fjerdedel eller mindre av bildet for å finne det identiske… At konklusjonen her er at facebooks bildegjenkennings-algoritmer er gode er jeg ikke med på. De er i hvert fall ikke mye bedre enn bildegjenkjenningen hvem som helst kan gjøre med Google eller andre gratisprogrammer.

    Svar på denne kommentaren

    • Det kan du si, Stian, men vi vet at Facebooks datamaskiner omtrent er like flink til å kjenne igjen bilder som oss mennesker – dét i seg selv er en form for bragd. Og det er lite som tyder på at Google og resten av teknologiverdenen er langt bak.

      Men i dette tilfellet handler det ikke om en aktiv jakt på det usladdede bildet.

      Facebooks koblinger, enten de er basert på tekst, bilde eller andre ting, serverer deg et bilde som den samlede enheten pressenorge har bestemt seg for å hemmeligholde, av hensyn til VVP 4.7 og familiene til de involverte.

  14. «For folk som eventuelt har stilt opp til fotografering under løfte av å være anonym, eller der et bilde er tatt i en annen sammenheng og så senere blir misbrukt, så er dette et problem. »

    Vært kjent lenge at vanlig sladding av bilder ikke fungerer når det ligger elektronisk på nett. Da er det lett å finne orginalbilde. Konklusjonen må være at hvis vedkommende er dum nok til å la seg bli tatt bilde av når’n vil være anonym, så får heller nettavisen ha vett nok til å bruke et annet bilde til artikkelen. Har aldri sett poenget med å bruke sladdede bilder uansett. Blir litt sånn «ja, vi har bildet men vil ikke vise det»-mentalitet som er helt unødvendig.

    Svar på denne kommentaren

  15. Arnt Maasø

    Interessant artikkel og kommentarer. Å tenke fremover på at ‘Trygghet i dag er usikkerhet i morgen’ er også en problemstilling som er svært aktuelt i forskning (som har langt strengere etiske retningslinjer enn i journalistikken). For en tid tilbake var jeg eksempelvis ekstern sensor på en masteroppgave der informanter som uttalte seg i sosiale medier var forsøkt anonymisert. Det tok meg imidlertid bare 5-10 minutter å sette sammen informasjon fra ulike steder i teksten (om tid, sted, rolle o.l.) + søke på brokker av det som var sitert for å finne identiteten til flere av informantene (som var veldig uheldig, for å si det mildt, gitt oppgavens tematikk).

    Sannsynligvis ville en også kunne gå tilbake i mange oppgaver og forskningsartikler levert for 5-10-15 år siden og finne identiteten til informanter en da trodde var anonymisert. Og å sladde (profil)bilder — som jeg selv har anbefalt studenter å gjøre — er det tydeligvis heller ikke nok, og kan snarere gjøre av-anonymisering enklere.

    Kort sagt: Vi må skjerpe oss både den ene og den andre. Og samtidig håpe at FB og andre medier og tjenesteleverandører også tar ansvar…

    Svar på denne kommentaren

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *. Les vår personvernserklæring for informasjon om hvilke data vi lagrer om deg som kommenterer.