nrk.no

Ledende eksperter advarer mot å skanne mobiler for overgrepsmateriale

Kategori: Samfunn

SCANNER MOBIL: Apple ville rulle ut en teknologi som lokalt scanner innholder på en mobil for å avdekke overgrepsmateriale mot barn. Illustrasjonsfoto: Annika Byrde / NTB


– Det er en farlig teknologi, advarer ekspertene.

Apple annonserte i starten av august at de skulle innføre en ny måte å skanne etter overgrepsmateriale.

– Vi vil hjelpe og beskytte barn fra overgripere som bruker kommunikasjonsverktøy for å utnytte dem, og begrense spredningen av overgrepsmateriale for seksuelt misbruk, skrev selskapet i sin kunngjøring.

Forslaget fikk imidlertid ikke mottakelsen Apple hadde håpet på og initiativet ble etter en måneds tid satt på vent.

Nå advarer en rekke høyt respekterte akademikere og teknologer mot å innføre denne typen teknologi. De mener det å skanne etter innhold lokalt på en digital enhet, gjerne forkortet til CSS, i ytterste konsekvens kan svekke demokratiet.

– Introduksjonen av skanning på våre personlige enheter – enheter som lagrer informasjon fra våre gjørelister, tekstmeldinger og bilder – går midt imot enkeltborgeres behov for personvern. Denne formen for masseinnsamling kan føre til omfattende nedkjølingseffekter på ytringsfriheten og faktisk på selve demokratiet, skriver ekspertene i en artikkel publisert på forskningsnettstedet arXiv.

– Vi mener at CSS verken garanterer effektiv kriminalitetsbekjempelse eller forhindrer overvåkning. Faktisk er effekten det motsatte. CSS vil skape alvorlige sikkerhets- og personvernsrisikoer for hele samfunnet, men hjelpen det kan gi politimyndigheter i beste fall er problematisk, skriver de.

Stipendiat innen kryptografi ved NTNU, Tjerand Silde, er ikke overrasket over utspillet.

– Forfatterne av denne artikkelen er ledende eksperter innen kryptografi, informasjonssikkerhet og personvern, med bred erfaring og inngående kunnskap om alt fra de første kryptografiske protokollene ble laget på 1970-tallet til hvordan internett og smarttelefoner fungerer i dag, sier Silde som også er bekymret for hva teknologien kan brukes til.

– Farlig eksperiment

– Å introdusere denne kraftige skanningsteknologien for alle enheter uten å fullt ut forstå dens sårbarheter og å ikke tenke gjennom tekniske og politiske konsekvenser vil være et ekstremt farlig sosialt eksperiment, skriver forfatterne av artikkelen.

– Det er en farlig teknologi. Selv om det kun er ment for å skanne etter overgrepsmateriale mot barn, innhold som åpenbart er ulovlig, vil det være et enormt press på å utvide omfanget. Vi vil slite med å motstå at skanningteknologien brukes til nye formål og kontrollere at systemet ikke blir misbrukt.

Da Apple satt initiativet på vent 3. september skrev selskapet at: «Vi vil ta oss ekstra tid de kommende månedene på å samle inn innspill og gjøre forbedringer før vi relanserer disse kritisk viktige funksjonene for å sikre barn». Apple opplyser til NRK at de for øyeblikket ikke har noe nytt å si om temaet.

INGEN HINDRINGER: – Når en slik teknologi først er implementert så er det ingenting som hindrer dem i å utvide tilgangen til for eksempel å skanne tekstmeldinger, tekstfiler eller lydfiler på telefon, eller hva det sjekkes mot. Dette fører i praksis til at innhold på en iPhone ikke lengre vil kunne være privat eller beskyttet, samt at det åpner for enda flere sårbarheter, sier Tjerand Silde. Foto: Kai T. Dragland

Silde mener et av hovedproblemene er at man ikke kan kontrollere hva man kan søke etter.

– Dette kan utnyttes til sensur og overvåking av brukere. Det er ingen tekniske hindringer som stopper Apple eller noen andre i å bruke det samme verktøyet til å spore alle brukere som uttaler seg kritisk om regimer, har en annen seksualitet eller religion enn hva statslederne godtar, sier han.

Ment som et kompromiss-forslag

Det finnes allerede i dag systemer som søker etter overgrepsmateriale som blir lagret i datasystemene til ulike teknologiselskaper. Forskjellen mellom dette, og det å skanne innhold lokalt på en mobiltelefon, er at dette gjøres på selskapets egne maskiner.

I juli ble en mann i Rogaland dømt i Gulating lagmannsrett, etter at Facebook sine systemer oppdaget at han hadde sendt en film som viste seksuelle overgrep mot fire barn i en Messenger-melding til kjæresten sin.

MANGE TIPS: Facebook rapporterte mer enn 20 millioner bilder av seksuelt misbruk av barn på sine plattformer i 2020, ifølge en rapport fra NCMEC. Foto: Alastair Pike / AFP / NTB

Silde forteller at teknologien har blitt mye diskutert de siste årene, men mest som noe som potensielt kunne brukes i fremtiden.

– Målet har vært å finne en metode alle kan være fornøyde med som både tar vare på personvernet til brukerne, men samtidig gir myndigheter tilgang til å etterforske kriminalitet. Til nå har myndigheter håndtert dette ved å forby eller svekke kryptering, legge inn bakdører eller hacke systemene selv, sier Silde.

Oppdatert med svar fra Apple 15.10 klokken 13.15.

64 kommentarer

  1. Etter min oppfatning går skillet mellom enheten som er eid av brukeren og serverne som er eid av selskapet.

    Selskapet må kunne bestemme at de ikke vil ha ulovlig materiale på sin server.

    Men selskapet skal ikke ha tilgang til innhold som ikke går gjennom selskapets servere på brukerens enhet.

    Like lite som de skal ha tilgang til bedrifters eller staters innhold på enheter eller servere som er lokalt plassert selv om det er selskapets programvare som brukes ved drifting av serverne.

    …så vet vel de aller fleste av oss at det ikke er helt slik det fungerer.

    Svar på denne kommentaren

    • keal (svar til arn)

      Jeg foreslår ofte å sammenligne det å leie ut diskplass med å leie ut golvplass – dvs. en leilighet, som noen bor i. Utleier står som eier, liksom den som tilbyr disk-lagringen står som eier.

      Hvilke rettigheter har eier, i disse to tilfellene, til å regulere leiers bruk av plassen? Jeg snakker ikke om hærverk, men hva utleier kunne ha godtatt.

      Kan eier av disken kaste ut en kunde som lagrer bilder av nakne småunger, fordi han ikke liker det? Kan den som eier leiligheten kaste ut familien som lar ungene springe rundt nakne fordi han ikke liker det?

      Kan eier av disken nekte en kunde å lagre sine politiske pamfletter som maner til revolusjon? Kan utleier nekte en beboer å skrive revolusjonerende politiske pamfletter mens han sitter i leiligheten?

      Og minst like viktig: Hvilke rettigheter har utleier til å installere/bruke mekanismer for å oppdage at det i leiligheten (som uomtvistelig han eier) faktisk løper nakne unger omkring, at det blir skrevet politiske pamfletter med innhold han er motstander av, at det blir spist mat og drukket drikke han (som vegetarianer og avholdsmann) ikke anser som ønskelig, at det unge paret prøver seg på annet enn misjonærstilling?

      Når du leier noe ut, enten det er en gjenstand, en bolig, eller en terabyte, så impliserer det at du i vesentlig grad gir fra deg kontrollen over bruken av det som leies ut. På ingen andre felter (som jeg kjenner til) har utleier rett til å overvåke bruken og forby det som er lovlig og normal bruk (eller bryte leiekontrakten), bare på det grunnlag at utleier ikke liker denne bruken.

      Hvis noen vil trekke opp ulovlig bruk: Det gir likevel ikke eier av boligblokka rett til å installere overvåkingskameraer i alle leiligheter, bare for å kunne forsikre seg om at det ikke skrives pamfletter med oppfordring til voldelig revolusjon. Utleier er ikke lovens forlengede arm.

      Et utleie-forhold er ikke stedet for verken utleiers moralisering eller propagandering for egne politiske eller samfunnsmessige fikse ideer. Det skal ikke være slik for en leilighet; det skal ikke være slik for diskplass.

    • @keal:
      Alle kontrakter/avtaler inneholder betingelser som setter krav til partene i kontrakten.

      I Norge er det generell avtalefrihet, men på noen få områder må kontraktene følge en standard der en del punkter ikke kan fravikes. Det gjelder b.la leie av bolig og kjøp/salg der en konsument part.

      Leier du en SUV kan det stå at du ikke har lov til å kjøre i terrenget/løype (å kjøre i terrenget (utmark) er uansett forbudt), og når du forsikrer en Porsche fremgår det av betingelsene om forsikringen er gyldig på bane eller ei.

      Leier du lagring på server driftet av en bedrift har de gjerne betingelser for hva du kan lagre der. Leier du rackspace og setter inn din egen server bestemmer du gjerne selv hva du lagrer der, men det kan jo være bestemmelser mht hva som kan flyte på deres nettverk, for du er jo nødt til å benytte deres kabler.

      Man kommer neppe unna regler for hvilket innhold som kan lagres på Apples servere.

      Etter min oppfatning er forholdet litt anderledes når det gjelder 4/5G og fibertilbydere ettersom de på en måte er «offentlige nettverk». Men også de har regler som lar de stenge deg ut om reglene brytes.

      Men personlige datamaskiner og duppeditter tilhører brukeren, og ingen har noen rett til å gå inn der med mindre politi/domstol har hjemmel for det.

      Reiser du til Kina, Israel eller USA++ risikerer du at enhetene du har med deg blir tømt i tollen, og det er også steder hvor VPN er straffbart.

      I gamle dager hadde jeg med meg en laptop av amerikansk fabrikat men kjøpt i Norge til/fra USA, og laptopen var omfattet av eksportrestriksjoner i USA (Kongsbergskandalen). Jeg måtte ha med meg kvittering og deklarere den spesielt ved utreise. Om de ønsket det ville de også ha hentet ut alt innhold, men de gutta som kontrollerte den hadde absolutt ingen digital kompetanse.

    • keal (svar til arn)

      Jeg mente slett ikke å si at det er slik at bolig-leie og diskplass-leie er identiske, men at jeg mener de burde være langt mer like enn de faktisk er i dag. Vi har svært stor avtalefrihet i Norge, men det finnes grenser for hva som kan betegnes rimelige leievilkår. Å avtale at leiebilen ikke skal brukes off-road er helt rimelig. Det er lov å inngå en leieavtale som sier at bilen ikke tillates kjørt på veier som heter noe med «veg», kun de som heter noe med «vei». Bare det står i leieavtalen, kan utleier ha montert GPS-utstyr med elektronisk veikart og en mekansime som slår av tenningen hvis du kjører bilen inn på en «veg». En slik begrensing krysser grensen for hva jeg synes er urimelige, meningsløse leievilkår.

      Jeg synes det er tilsvarende urimelig og meningsløst når du leier diskplass for sikkerhetskopiering av dine private familiebilder, innelåst bak et passord og ikke på noen måte åpent tilgjengelig, skal bli nektet å ha sikkerehetskopi av bilder av ungene dine der. For noen år siden fikk en nybakt pappa bastant beskjed fra MS backup-tjeneste (som vel er lagt ned nå) om at et bilde av hans tre timer gamle datter på stellebordet var forbudt og måtte fjernes innen 48 timer, ellers ble kontoen hans avsluttet. Du kan se bildet og starten av artikkelen på dinside.dagbladet.no/okonomi/morten-fikk-48-timer-pa-a-fjerne-bildet/61934572.

      På en backup-tjeneste for private bilder, der du må kjenne passordet for all tilgang, synes jeg det er absurd at man bare får ta sikringskopi av deler av familiealbumet. Det er fullstendig lov å ha avtaler som forbyr f.eks. dette stellebord-bildet. Jeg mener at dette ikke burde være normen – men det er det.

      Fordi det er slik har jeg aldri vurdert å benytte meg av noen kommersiell tjeneste for sikkerhetskopiering. Bare det at de har mekanismer for å se alle mine bilder, lese alt jeg skriver, alle brev jeg mottar og sender, se fra husholdningsregnskapet hvordan jeg bruker pengene mine … Det byr meg imot. Jeg vil ikke inngå slike kontrakter, og vil fraråde alle andre å inngå slike kontrakter.

      Jeg aksepterer fullt ut leiekontrakter med rimelige begrensinger, og hvis jeg bruker et leieobjekt til noe lovstridig, er det helt naturlig at politiet etterforsker det. Men det betyr ikke at jeg aksepterer en leieavtale der utleier kontinuerlig overvåker all min lovlige aktivitet med den begrunnelse at han vil melde meg til politiet hvis han ser noe som tyder på at jeg gjør noe som bryter loven!

      Det kan litt for lett bli som i indre24.no/2021/10/09/bilforer-drakk-vann-fra-vinflaske-under-kjoring/ Hvis jeg har lyst til å bruke ei gammel vinflaske til å blande meg saftogvann når jeg er på tur i sommervarmen (fordi jeg ikke lenger får pant på vinflaskene på polet), så vil jeg kunne gjøre det uten at politiet skal stoppe meg og forhøre meg om mine drikkevaner!

    • @keal:

      Jeg ser ikke bort fra at bilder kommer på avveier når den lykkelige bestemor publiserer helt vanlige, uskyldige og naturlige bilder av et tekstilfritt lite barn i et oppblåsbart basseng på sosiale medier.

      De kan lett havne i pedosamlinger og følgelig bli merket som barnepornografisk.

      Jeg er helt enig i at man ikke skal publisere bilder av barn, men det har ikke noe med moralisme å gjøre, det er et personvernproblem, også i forhold til misbruk av bildemateriale.

      USA er ganske dominert av religiøs ekstremisme der (dobbelt)moral i forhold til seksualitet og alle former for nakenhet ligger på et pervertert nivå.

      Og det er jo det amerikanske perverterte forholdet til naturlig nakenhet som er dominant i reguleringen av tjenestene.

      La meg understreke at jeg slett ikke har sansen for at tilbydere på noen måte skal ha adgang til innhold på leietagers servere, og jeg er motstander av enhver form for eierskap techgigantene tilraner seg for innhold på brukernes konti.

      Men faktum er at tilbyderne med loven i hånd har rett til å sette kriterier for bruk av tjenestene, og de kan sette regler for publisering på deres plattformer. Jeg tror de fleste kan være enig i at det må være noen regler/kriterier for dette.

      En av utfordringene er definisjonen av publisering. Er det publisering om bilder/kommentarer skjer i en lukket/privat og begrenset liten gruppe? Hvor går grensen i antall medlemmer og relasjon mellom medlemmene før det blir publisering fremfor deling?

      Personlig legger jeg til grunn at alt jeg foretar meg på nett/digitalt er sporbart og kan anvendes til b.la profilering.

      Jeg legger også til grunn at dette i større eller mindre grad gjelder mine digitale enheter. I den grad det er fokus på slikt dreier det seg for det meste om mobiler/brett, men når en ser på hvordan MS integrerer maskin med sky, så tror jeg ikke man skal være alt optimistisk der heller.

      Jeg ser ikke for meg at politikere tar tak i personvern og rydder opp skikkelig de neste 10 årene heller – de har hverken digital eller personvernmessig kompetanse. OG de utnytter selv disse plattformene for hva det er verdt.

      Høyre var i kontakt med Cambridge Analytica. nrk.no/norge/hoyre-tok-kontakt-med-cambridge-analytica-1.13972867

    • Martin Gundersen (NRK) (svar til Jone Stava)

      Det er feil. Skanningen foregår lokalt på telefonen, men kun om brukeren har slått på synkronisering med iCloud. De fleste brukere har slått på dette.

    • Jeg rangerer Apple som bedre enn MS, FB og Goog på personvern. Men det skal ikke så mye til, det er ingen grunn til å ha illusjoner.

      Et av problemene Apple nå har pådratt seg er at brukernes OPPFATNING av Apples personvern svekkes vesentlig.

      Det har de ikke råd til. De har kjørt hardt på at de er de beste innen personvern, og man må kunne anta at en hel del av brukerne velger Apples produkter på grunn av tilliten de har til dette. Tilliten er nok sterkt overdrevet, og det ser man blant annet ved at de tilpasser policy for å opprettholde salgstallene i ymse regimer.

    • Knut Richard (svar til Jone Stava)

      Nei, Martin. Du tar feil. Det er rett at at du må ha på synkronisering til iCloud, fordi skanningen foregår på iCloud og ikke lokalt på telefonen. Dersom du ikke har synkronisering på vil likevel det du har på iCloud bli scannet, men ikke det du ikke har lastet opp.

      Det foregår ingen skanning lokalt på selve telefonen, det blir misvisende å si.

    • Martin Gundersen (NRK) (svar til Jone Stava)

      Fra Apple: « Apple’s method of detecting known CSAM is designed with user privacy in mind. Instead of scanning images in the cloud, the system performs on-device matching using a database of known CSAM image hashes provided by NCMEC and other child safety organizations. Apple further transforms this database into an unreadable set of hashes that is securely stored on users’ devices.»

      Kilde: apple.com/child-safety/

  2. Å skanne alles personlige bilder høres mer ut som en kilde til overgripsbilder, intime bilder av folk uten deres samtykke, enn noe som skal virke preventivt. Det er ikke så lang vei fra det til å ta bilder av folk med deres egne kamera, heller.

    Er det noe vi trenger for å forbedre privatliv og personvern, så er det sterkere kryptering og mindre mulighet for tredjeparter å få tilgang på andres data og maskinvare.

    Svar på denne kommentaren

    • Hans Harald Berge (svar til Karl)

      Til info så scanner de etter signaturer av kjente overgrepsfiler, så de ser aldri innholdet på brukeren sine egne bilder. Det blir kun flagget om brukeren har en kopi av det materialet de ser etter.

  3. Dette vil jo legge inn en fin bakdør til kriminelle som ønsker å skape problemer for enkeltpersoner, politikere og andre.

    Det er jo ikke bare myndigheter og politikere som kan hacke telefoner.

    Det er like enkelt for dem som opererer i skyggen, og har mange overgrepsbilder de kan manipulere for så å legge inn på «uønskede» menneskers telefoner.

    Lurer på om de som jobber i Apple har gått fullstendig av skaftet.
    Da er det bedre å overvåke barnehagene fremfor å overvåke alle lovlydige mennesker.

    Svar på denne kommentaren

    • I Australia har det nå blitt lov for politiet å endre data på andre folks telefoner, å logge seg inn med brukerkontoene deres, og å slette data dvs. alibi. De kan forfalske akkurat det bevismaterialet de trenger, uavhengig av virkeligheten.

    • For ikke så mange år siden ble det her i Norge lagt fram et lovforslag for å gi politiet rett til å legge inn en «keylogger» (et spionprogram som registrerer hvert eneste tastetrykk som gjøres på PCen). Dette ble beskrevet og argumentert for i forarbeidene til loven. Regjeringen la fram lovforslaget og ønsket at det skulle vedtas, men takk og pris gikk Stortinget imot det; dette ble ikke vedtatt.

      Beskrivelsen i forarbeidene var såpass klar og fullstendig at jeg ikke er et øyeblikk i tvil om at politiet hadde programvaren klar, og bare ventet på å få lov til å ta den i bruk. Det betyr selvsagt de også i dag har den klar, og har hatt den klar hele tiden siden lovforslaget ble avvist. Men de har ikke lov til å bruke det som de har liggende klar, og som selvsagt ville blitt brukt i strengeste hemmelighet.

  4. Mye kommunikasjon blir allerede lest og scannet av NSA, Kina, Russland o.l. gjennom både avlytting av trafikk og gjennom bakdører som er opprettet av MS, Apple, Huawei osv, og de flagger trusler, terror, økonomi, trade secrets, opposisjon osv. Hvis disse nissene i NSA kunne prioritere barneporno, så hadde man kanskje klart å stoppe en del. Det er En nobel tanke fra Apple med å prøve å bremse barn fra å spre nakenbilder, men kanskje ikke så gjennomtenkt med den lokale databasen med hashes av kjent overgrepsmateriale, med mindre man kan garantere/sikre at databasens innhold kun er overgrep og ikke f.eks «uigur china».
    Det er jo en åpen bakdør de lager. Det vil jo være utrolig hvis de implementerer dette. Bare å snakke om det vil jo plante ideer i hodet til folk med lite noble hensikter.

    Svar på denne kommentaren

    • «Hvis disse nissene i NSA kunne prioritere barneporno, så hadde man kanskje klart å stoppe en del.»

      Nå spørs det om barneporno kan sies å være en trussel mot USAs nasjonale sikkerhet, en jobb for National secrity Agency.

      En annen side av saken er at i dag klassifiseres jo bilder av spebarn på stellebordet eller en naken toåring som plasker i vannet på badestranda i samme gruppe som bilder av unger som blir brutalt voldtatt. Unger på stellebordet er ihvertfall ikke noen trussel for den nasjonale sikkerhet, verken i Norge eller USA. Så la oss slutte å behandle det som om det var slik!

  5. Bengt Johansen

    Google og Facebook samler jo data om sine brukere, så hvorfor kan ikke Apple samle data for å beskytte barn. Vi lever jo i et samfunn nå der nesten alt vi gjør blir overvåket. At det å overvåke at sine kunder ikke bruker produktet til overgrepsbilder mot barn har ikke noe med demokrati å gjøre. Demokrat er verdens mest misbrukte ord. Synes forslaget til Apple er helt OK. Barns rettigheter til et trygt liv trumfer alt.

    Svar på denne kommentaren

    • Man vil alltid finne verdens beste grunner til å foreta inngrep i personvernet, og misbruk av barn er helt klart verdens beste grunn.

      Men om man skal følge din logikk må du også tillate at staten setter opp kamera på badet og soverommet ditt selv om du på IKKE på noen som helst måte er mistenkt for noen form for ulovligheter.

      Det er derfor man pleier å kalle dette for Stasimetoder.

    • problemet er teknologien, ikke at man vil ta overgripere. hvis dette blir en relaitet og politiet/apple kan skjekke alle bildet for barneovergrepsbilder, hvorfor stoppe der? da kan man like godt skjekke alle bilder for å se om man finner noe som helst ulovlig, eller lagre ansikter osv til å spore folk for å se om hva de gjør. dette er det som er farlig. hadde man hatt en GARANTI om at man bare ser etter barneovergrep så hadde jeg likt ideen, men det har man ikke

    • Andreas,
      De må jo se på samtlige bilder for å forsikre seg om at det er bilder de ikke har noen rett til å se, ikke sant? 🙂

      Gammelt minne: Under den kalde krigen var en av Vestens krigsstrategier å lage vitser som ble presentert som om de stammet fra undergrunns-kilder i Russland. En av disse vitsene lød
      – Så din bror Ivan har blitt deportert til Sibir? Hvar var grunnen til det?
      – Bakvasking av staten. I et brev han sendte til en god venn påstod han at staten åpner private brev og leser dem.

      Et skremmende stort antall mekanismer som vi har godtatt at våre myndigheter har tilgang til er basert på 100% tillit til samtlige personer med myndighet er snille ‘Politimester Bastian’er – og at det vil fortsette å være slik i all framtid. Selv i dag stoler jeg slett ikke på at maktmennesker i maktetater har samme ide om hva som er til allmennhetens beste som hva jeg tenker. Men kanskje allmennheten egentlig synes det er helt greit, for eksempel at hittil i år er seks personer skutt og drept, uten at (kjent) gjerningsmann vil bli stilt for retten – bare for å ta et tilfeldig valgt eksempel.

  6. Tviler på at dette kommer til GDPR land;
    Apple confirmed to 9to5Mac today that any expansion of the «CSAM detection feature outside of the United States will take place on a country-by-country basis depending on local laws and regulations. «

    Svar på denne kommentaren

    • Martin Gundersen (NRK) (svar til Espen)

      Det har blitt diskutert i EU som en mulighet å innføre dette. Det kan bli en del av lovpakken Digital Services Act som nå er til behandling.

  7. Om jeg har forstått det riktig er den skanningen det er snakk om her kun hash-checks opp mot kjent overgrepsmateriale – altså at det regnes ut en checksum for bildene på enheten som så sammenlignes med samme checksum for bilder i en database for kjent/beslaglagt overgrepsmateriale. Med andre ord er «spørsmålet» som stilles ikke «Hva viser dette bildet (og er det eventuelt overgrepsmateriale)?» men «Er dette bildet identisk med kjent overgrepsmateriale?». Slik jeg ser det er dette en dramatisk forskjell personvernmessig, da en checksum ikke på noe vis er lik bildet den stammer fra; ingen vil få se bildene; og sammenligningen i utgangspunktet er anonymisert. Eller stemmer ikke dette?

    Svar på denne kommentaren

    • Andreas Ringqvist (svar til Trond)

      Det er i grunn riktig, men man har allerede funnet andre bilder som genererer samme sjekksum. Så bilden du har tatt av ekorn på ferien kan flagge deg som innehavere av barnporno.

    • Andreas,

      Nei, man har ikke funnet to billedfiler som gir samme hash med moderne hash-metoder!

      For gamle, ‘svake’ hash-metoder, f.es. MD5 som fyller tretti år til våren, har det vært demonstrert en håndfull fil-par med identisk hash. Her har det blitt generert en fil ‘for hånd’, ut fra detaljert kjennskap til hvordan hash-beregningen gjøres. Filene har vært ganske små, og bestått av ren tekst, slik at man kunne sette sammen bokstav-sekvenser eksakt tilpasset hash-algoritmen; det var ikke på noen måte noe tilfeldig sammenfall av hash-verdien for to filer. Og det ville være komplett umulig å gjøre noe tilsvarende for en billedfil på flere hundre kilobytes, eventuelt megabytes, med binære data.

      Likevel har MD5 i mange år vært stemplet som ‘usikker’, og ingen anbefaler den i dag.

      Meg bekjent har ingen demonstrert to filer som gir identisk hash med f.eks. SHA-256, og heller ikke har noen demonstrert to billedfiler med identisk hash men ulikt billedinnhold, uansett hash-metode fra MD5 og oppover.

  8. Er det bare jeg som har misforstått helt? Bildene dine sin hash «scannes» bare dersom de skal lastes opp til iCloud, og sammenlignes bare opp mot kjent overgrepsmateriale. Slik som Dropbox og utallige andre aktører gjør allerede.

    Svar på denne kommentaren

    • Martin Gundersen (NRK) (svar til Erik)

      Forskjellen er at bildene skannes lokalt på mobilen. Dette er prinsipielt helt forskjellig enn å skanne på serveren til et selskap.

    • James (svar til Erik)

      Martin, kan du forklare hva forskjellen er da? Hvorfor er det innafor å skanne på server, men ikke på enhet?

    • @ James:

      Fordi du eier mobilen din og de scanner din eiendel om de scanner den.

      Når de scanner serveren er det deres egen eiedel de scanner. Som eier kan de bestemme hvilke regler som gjelder for å lagre innhold på deres server.

      Ettersom Appleenheten er din eiendom er det du som avgjør hva du ønsker å ha på den.

      Politet har i teorien strenge regler for når de kan foreta ransaking, og i USA er det i teorien enda strengere.

      Så Apple skal ikke ha fri adgang til en enhet som selv ikke Politiet har adgang til.

      Når det er sagt, finner du mange rettsaker i Norge der politiet har innhentet bevis ulovlig og domstolene allikevel har godtatt bevisene. I USA skal det mye til for at ulovlig innhentet bevis godtas i retten, gitt at advokatene gjør jobben sin skikkelig.

    • James (svar til Erik)

      @Arn

      Først og fremst skannes det ikke før det skal lastes opp til skyen, så her er det mer korrekt å si at de opererer i en gråsone. Så om du velger å ikke bruke iCloud for bilder vil det ikke skje noe skanning.

      Så er det mitt hoved poeng da, der vi skaper to nye problem ved å akseptere to standarder.

      Om vi sier at det er bare å kjøre på med skanning på server, men ikke på enhet, og om vi skal lære litt fra historie kan vi få to utfall.

      Velger du å ikke bruke skya så kanskje de knebler funksjonaliteten din. Ikke greit.

      Og det at om vi sier skanning er innafor i skya, jo da blir det for seint å klage om noen går for langt med skanning av filer.

      For å presisere, vi kan ikke se oss blind på hvor det skannes. Der server er innafor, men plutselig på enhet er det ikke. Vi må se på hvordan det skannes og hvordan denne teknikken er.

      Leser man litt mer om selve teknikken for skanning etter slike bilder så kan den være svært upresis. Så igjen, lar vi dette skje utan noen protest på server er vi tilbake til problematikken at feil person kan bli anklaget. Enten ved dårlig resultat eller at noen lurer inn et bilde hos dem. Og da er det ganske så irrelevant om det skannes på enhet eller server.

      Dessverre så har de fleste artikler om dette fokusert på selve skanningen bare, ikke at teknikken for hvordan de finner disse bildene er upresis.

  9. Jeg synes det er interessant at Apple på den ene siden jobber mot at politi og etterforskere skal kunne hente ut data fra mistenktes telefoner, samtidig som de nå prøver å være en slik myndighet selv.

    Ønsker vi barnepornografi? Nei! Hvem sin jobb er det å passe på slikt? Politiet!

    Vil du hjelpe saken, så hjelp dem. USA har en historikk med mistillit til politi og myndigheter. Spørs om det å ta loven i egen hånd gjør det hele noe bedre.

    Svar på denne kommentaren

    • En viktig side av dette er: Hva er barnepornografi?

      En gammel historie: dinside.dagbladet.no/okonomi/morten-fikk-48-timer-pa-a-fjerne-bildet/61934572 (uten abonnement får du bare se bildet og lese starten på artikkelen, men det er nok): En nybakt pappa blir kastet ut av en backup-tjeneste for private bilder, om han ikke fjerner bildet av en tre timer gammel baby på stellebordet. Tilgang til bildet var passord-beskyttet; utenforstående hadde ingen adgang til det.

      Når dette bildet blir klassifisert som «barneporno», da mister begrepet all sin vekt og verdi. Vi vet at når ordet brukes, kan det like gjerne være en baby på stellebordet, en toåring som plasker i vannet på badestranda eller noe helt annet uskyldig.

      I fotoalbumene fra min barndom finnes det sikkert et dusin bilder av meg, kanskje flere dusin, som etter moderne normer er å betrakte som «barneporno». Når jeg skanner dem inn for å bevare dem digitalt, kan jeg derfor ikke benhytte meg av nettjenester for sikkerhets-kopiering.

      Heldigvis har vi enda ikke kommet til det stadium at min «bekjennelse» her og nå om at jeg har barnepornografiske bilder i gamle støvete fotoalbum fører til at politiet går på nrkbete for å tiltvinge seg min epost-adresse, og deretter på ISPen for å tiltvinge seg min reelle identited, og deretter får en dommer til å gi dem rett til husransakelse hos meg for å konfiskere fotoalbumene og stille meg for retten for å ha oppbevart barneporno. Men det kan virke som at en del mennesker faktisk mener det ville være riktig av politiet å gjøre det.

      Jeg har vist bildet i artikkelen jeg linker til på toppen her til ganske mange mennesker, og har faktisk møtt et antall mennesker som sier seg enig med Microsoft: Bildet er barnepornografisk og bør kastes ut fra Microsofts lagringstjeneste. Jeg har truffet folk som med fast overbevisning har ment at pappaen burde straffes for å ha et slikt bilde. Da er ikke avstanden stor til å straffe meg for å ha et bilde av meg selv på badestranda som toåring, i et støvete gammelt fotoalbum.

      Det et dette som virkelig bekymrer meg. At politiet går etter de som produserer «ekte» barnepornografi, der ungene reelt misbrukes, det støtter jeg selvsagt. Men at helt ordinære familiebilder settes på lik fot med bilder av unger som blir brutalt voldtatt, «bare for å være på den sikre siden», det er for meg totalt absurd. Og det er der vi er i dag. (Artikkelen er tolv år gammel, og vi har slett ikke blitt noe ‘bedre’ siden den gang – tvert om!)

    • 1984 eller Brave New World? Er det myndighetene som griper inn her, eller er det selskaper som opererer helt som de vil i et fullt anarki?

    • Brave New World er vel ikke spesielt relevant for denne diskusjonen, er den?

      Det er 1984 som er den store romanen om total overvåking, gjennom tekniske mekanismer, av samtlige borgere.

      Nesten like viktig som overvåkingen er den totale informasjons-kontrollen, karikert ved Winstons jobb som ‘historie-revisor’: Han søker opp og får fjernet / omskrevet alle historiske nedtegnelser som ikke passer dagens makthavere; den forkastede informasjonen kastes i minnehulle for destruksjon. Jeg synes dette aspektet har fått alt for liten plass i diskusjoner knyttet til 1984, særlig med dagens web-teknologi der vilkårlig info som du har basert deg på plutselig har forsvunnet i minnehullet.

      Dette aspektet har vel sterkere paralleller til Farenheit 451.

  10. Hva om sky-lagring blir en «ikke-valgfri» funksjon. Hva om auto lagring i sky skjer ut i fra skanning. Hva om begrunnelse for å tillate skanning er ut i fra hva som er et sterkt argument for å tillate slik skanning. Hvem vil bruke mest økonomiske resurser til å deaktivere slike funksjoner. Hva skjer med adferden til brukere når overvåking og kontroll blir for stor. Vil ikke brukere motvirke med å endre adferd. ? At myndigheter rundt omkring har samme interesser som google og Apple er slett ikke noe nytt. Det blir vel et spill for galleriet.

    Svar på denne kommentaren

  11. Selv om jeg selvsagt støtter det å finne overgripere kan dette være en farlig trend, hvis man har mekanismer som scanner alle tatte foto, skal man da scanne alle potensielle foto – slå på sensor hele tiden for å hente alt som passerer. Hvordan kan dette brukes for å kartlegge alle sin hverdag, da er det plutselig legitimt å hente metadata og bevis fra alle sine enheter. Dette kan dessuten misbrukes til å hente ut annen informasjon, industrispionasje, tradisjonell spionasje mm uten at man trenger spesiell programvare, kun modifisering av eksisterende operativsystemprogramvare. – slippery slope kalles det i USA.

    Svar på denne kommentaren

  12. «Scanne» høres helt feil ut. Apple ser ikke hvilke bilder du har. Bildene dine tilknyttet icloud genererer en nøkkel basert på en alghoritme. Bare hvis denne nøkkellen er en match med kjente nøkler fra overgrepsbilder blir innholdet flagget.

    Svar på denne kommentaren

  13. Er det noe rart at Granny er redd for å skaffe seg en smart telefon? Hun har ikke noe å skjule, annet en bankkonto kontakt og politiske samtaler med venner per epost. For henne er det store problemet at det kanskje snart blir umulig å kjøpe en enkel mobil tlf
    som fungerer kun som telefon, med de små finessene som kontakt minne, svarer maskin, sms, vis dato og tid. Tror dere at det blir mulig i fremtiden å skaffe slike? ag

    Svar på denne kommentaren

  14. Jan Ole Pettersen

    Det er en nobrainer at et slikt verktøy bør implementeres for å verne barn. Alt for lenge har samfunnet dyttet personvern foran løsninger som fins. Det viktigste er at håndteringen skjer i henhold til prosedyren som inmplementeres og at det ikke oppstår situasjoner der tilliten til programmet forsvinner når det først blir tatt i bruk.

    Svar på denne kommentaren

    • Har ingen forståelse for hvorfor du mener dette er en nobrainer, og mistenker at du ikke forstår at dette verktøyet fort kan bli utnyttet til å skanne telefoner for helt annet materiale enn opprinnelig tiltenkt. Det er naivt å tro at verktøyet ikke vil bli misbrukt av myndigheter og kriminelle.

      Kanskje du kan forklare hvordan du har kommet fram til at dette er en nobrainer?

  15. Tenk deg følgende. Myndigheter i land som ikke er demokratiske kan stille krav til Apple at de vil sjekke ikke bare bilder etter barneovergrep men også bilder av aktivister og annet. Du kan bruke denne teknologien til å avsløre hvem som har tatt eller har lagret bilder som myndigheten ikke ønsker skal være i omløp. Det er en veldig farlig vei å gå om man åpner for denne form for overvåkning.

    Svar på denne kommentaren

    • DarthVidar (svar til Thomas)

      Er ganske sikker på at du er inne på noe av kjernen av bruksområde for slike bildesøk.
      «Barneporno» argumentet er jo lett å bruke og påvirker ikke Apple økonomisknegativt der selskapet sylter ned alle sine inntekter i Offshorebanker.
      Apple er jo ikke akkurat kjent for å øse penger ut til veldedige formål, eks. bekjempelse av barnearbeid/barnebruder/etc.

      Det det handler om her er vel heller at de lager algoritmer og infrastruktur for å kunne tagge kommunikasjon og informasjonsflyt mellom dissidenter. De med bilder av Dalai Lama, Uigurhelter, Trumph, eller Palestinske ledere på telefonen må trenger jo besøk av noen bevæpnede voksne? Og scanne bare bilder?! Særlig!!!
      Er det noen som virkelig tror at de ikke kommer til å scanne PDF’er/Worddokumenter/Powerpointer/»Zip-filer med innhold»/tekstfiler/etc.
      Man må regne med at det ikke kommer til å være EN søkealgoritme i bruk her. Det kommer til å være mange søkealgoritmer i bruk her, og Apple kommer til å måtte åpne for tredjeparts søk fra Statlige organer i enkelte nasjoner. (US/Kina/Russland/Israel/Burma)
      Søk for barneporno er bare salgsargumentet for åpne for AI-innholdssøk slik at konsumenter av Apple produkter, signerer på hvasomhelst av EULAer.
      Hvis ikke statlige organisasjoner ikke får tilgang til distribusjon av egne algoritmer på plattformenen til Apple, så kan de store nasjonene begrense Apple i markedet. (Kina taper ingenting på å pælme ut Apple fra mobilmarkedet)
      Apple-aksjonærene bryr seg nok kun om Aksjekursen!

  16. Det er all grunn til å bli mistenksom når et selskap som Apple forsøker å fremstå altruistisk. De er vanligvis kalkulert og utstudert i alt de foretar seg.
    Det er nok heller slik at ved tilgang til allés personlige enheter og nye muligheter innen tekstscanning så kan man tråle verden for hver eneste lille ide og evt frø til et patent, design og informasjon om alt, eks. finansmarkedet. Mulighetene er uendelige. På enhetene våre ligger det avtalebøker, notater, filmmanus, ide til en bok, en dokumentar arbeidsdokumenter, tilganger og linker osv, osv. Alle gode ideer vil bli sugd opp og videresolgt

    At Apple nå plutselig bryr seg om alle barn på jorda er ikke troverdig. Da kan de i tilfelle avsette 10% av overskuddet sitt til organisasjoner som jobber med barn.

    Store profittselskaper har nå tatt seg til en rolle hvor de definerer hvordan verden skal håndteres. Men det er selvfølgelig etter en bred og demokratisk diskusjon med seg selv!

    Svar på denne kommentaren

  17. Jeg tror det er en misforståelse her. All fil synkronisering benytter hash tagger, i.e. md5/sha(x). Serveren har hash på alle filer som alt finnes der, og du har hash lokalt på alle filer som skal overføres. Man ekskluderer så overføring av alle filer som alt finnes begge steder.

    Det nye er altså at serveren også har en liste med kjente hash tagger for overgrepsmateriell, og alle filer du forsøker å overføre sjekkes mot denne hash tag lista.

    Om match finnes så vil den altså sannsynlig IKKE laste opp overgrepsmateriale til iCloud, samtidig som den kanskje benyttes for å varsle myndigheter.

    I dette tilfelle er det neppe stor forskjell på om fila må lastes med kopi til iCloud før myndighetene blir varslet, eller om man bare tar hash taggen og varsler myndigheter uten å laste opp fila… Sett fra brukerperspektiv må det være helt likt…

    Svar på denne kommentaren

    • Kenneth (svar til Kenneth)

      Jeg så videoen til Håvard, først med tids-skip og seinere uten: youtube.com/watch?v=9ZZ5erGSKgs&t

      Den hopper jo over den viktige detaljen!!! Det er ikke snakk om en md5 type hash likevel, men en såkalt «NeuralHash» som er noe helt annet. Jeg vet egentlig lite om dette men ser dette kanskje kan åpne for farlig overvåkning likevel.

  18. Christer M.L. Bendixen

    Jeg tenker at et lignende verktøy burde finnes, men at det også burde finnes nok engasjement til å skape det med fri og åpen kildekode. Så lenge Apple og andre aktører ikke får lov å lage lukkede varianter av den, så gir i alle fall det en grad av innsyn.

    Da ville du også hatt et idealistisk samfunn rundt programvaren som ville gjort sitt beste for å lage den på en måte som var vanskelig å misbruke.

    Svar på denne kommentaren

    • «Åpen kildekode» er allerede dominerende blant de fleste aktørene på de fleste områder innen digital sporing/overvåkning av hvem som helst, og de største plattformene for slikt er FOSS-basert.

  19. Hva menes egentlig med «skanning»? Legger man til grunn at materialet «hashes» vil denne informasjonen aldri kunne reverseres slik at en 3. part ser hva bildet inneholder. Hashen sammenlignes med en database. Får man treff så rapporteres dette.

    Microsoft, Google, Facebook etc. startet med dette for flere år siden. Om «skanningen» skjer i en tjeneste eller på enheten er vel hipp som happ? Bortsett fra at «skanningen» skjer på enheten, hva er forskjellen mellom Apple og de andre store?

    Svar på denne kommentaren

  20. Spørsmålet man kan stille seg er: Hvordan kan du vite forskjell på en HASH av et overgrepsbilde, kontra en HASH av:
    -din kommunikasjon med en hviterussisk journalist
    -din oppskrift på en ny vaksine mot Covid-19
    -dine passord til serveren på ditt arbeidsted Norsk Pensjonsfond Utland ??

    Hvis du ikke har noe svar på dette spørsmålet, foreslår jeg at du kjøper en
    Nokia 105 eller lignende, og slutter å støtte Apple sin «kamp for de svake». Dette kommer 100 % sikkert å misbrukes, akkurat som ip-box eller GrayKey.

    Svar på denne kommentaren

    • Les deg opp på hvordan hashing fungerer og hvilke egenskaper det har!

      Risikoen for at to ulike filer (f.eks. et bilde og en tekstlig dialog) er identisk er ekstremt lav! F.eks. for SHA-256, en svært vanlig hash-funksjon, er sjansene for at to filer skal ha samme hash 1 til 2 i 128 potens, eller rundt 1/30000… med trettiåtte nuller i nevneren.

      Hvis du vet at en hash gjelder en gitt billedfil, da kan du med så godt som absolutt sikkerhet vite at om du ser identisk hash for en annen fil, så er de to filene identiske. Den andre fila er også en billedfil, med samme bilde.

      Hvis filene ikke er 100% identiske spiller det ingen rolle om forskjellene er store eller små: Endrer du et komma i teksten til et punktum, blir hash-verdien totalt annerledes. Henter du inn et bilde i en editor og endrer på én enkelt piksel, vil det få en helt ny hashverdi, som ikke vil matche den Apple er på jakt etter.

      I teorien (med sannsynlignet 1/30000….., 38 nuller) kan det finnes to ulike filer med samme SHA-256 hash. For eldre hash-metoder, som MD5, har det blitt funnet enkelte slike fil-par, men MD5 er adskillig ‘svakere’ enn SHA-256. Meg bekjent er det enda ikke funnet eksempler på samme SHA-256-verdi i to ulike filer.

      Dessuten: For falsk identifisering er det ikke nok at det er mulig at to filer har samme hash; hash-verdien for begge må finnes på samme sted, til samme tid. Sett at ditt uskyldige naturbilde har samme hash som mitt excel-regneark hadde i går før jeg la inn inn den siste kassaslappen i husholdnings-regnskapet: Apple ville aldri sitte på hash-verdien for regnearket mitt inntil i går.

      Så din frykt for at et bilde skal feil-identifiseres som kommunikasjon med en hviterussisk journalist, eller motsatt, er totalt ubegrunnet. Hvis noen har hash-verdien for dialogen med journalisten, og treffer på en annen fil med samme hash, inneholder den garantert ikke et overgrepsbilde, men samme dialog som de allerede kjenner til.

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *. Les vår personvernserklæring for informasjon om hvilke data vi lagrer om deg som kommenterer.