nrk.no

Erna Solberg og andre politikere er brukt til å lage falske profilbilder

Kategorier: Kunstig intelligens & Samfunn

Dette bildet ble tatt i 2016 i anledning et besøk av den daværende amerikanske utenriksministeren John Kerry. Foto: Utenriksdepartementet i USA


På nettsiden «Which face is real» får du velge blant profilerte politikere og datagenererte mennesker.

NRKbeta-redaksjonen fikk seg en overraskelse etter at vi først omtalte Nvidias forsøk på å lage falske profilbilder. Først ble vi overrasket over hvor bra de var – kun spesifikke feil i bildene avslørte at de ikke var digitale kopier av ekte mennesker. Så ble vi overrasket over hvem de var basert på.

Kort vil jeg spørre deg om hvilket av disse to bildene du tror er ekte?

Faksimile: whichfaceisreal.com

Kom du frem til at det var kvinnen til høyre valgte du rett – det er Magnhild Meltveit Kleppa. Hun er Senterparti-politiker og fylkesmann i Rogaland.

Kvinnen til venstre er «inspirert» av 70.000 bilder hentet fra Flickr og en bildedatabase av kjendiser.

Disse bildene er blitt brukt som grunnlag til å generere en fremgangsmåte for å lage troverdige, men falske bilder av mennesker.

Da vi undersøkte metadataene som hører til Flickr-bildene fant vi fire partiledere og 250 bilder andre bilder som kan knyttes til Norge eller norske personer.

Blant annet finansminister Siv Jensen, kulturminister Trine Skei Grande, statsminister Erna Solberg, og flere fremtredende politikere fra Senterpartiet.

Noen av politikerne i Flickr-databasen. Foto: Marit Arnstad (Ragne B. Lysaker/Senterpartiet CC BY 2.0); Liv Signe Narvaseter (Ragne B. Lysaker/Senterpartiet CC BY 2.0); Lisbeth Berg-Hansen (Bernt Sønvisen/Troms Arbeiderparti CC BY 2.0); Trygve Slagsvold Vedum (Ragne B. Lysaker/Senterpartiet CC BY 2.0); Trine Skei Grande (Ketil Frøland/Kulturdepartementet CC BY 2.0); Siv Jensen (Rune Kongsro/Finansdepartementet CC 2.0)

Virksomheter som Innovasjon Norge, Bærum kommune, Norske Samers Riksforbund, Økokrim, Fremtiden i våre hender, og miljøorganisasjonen Zero er også representert.

Hva mener treningsgrunnlaget selv?
Statsministerens kontor valgte å ikke svare på vår konkrete henvendelse om hva statsministeren selv tenker om å være en del av treningsgrunnlaget, men valgte å sende oss en uttalelse signert statssekretær Rune Alstadsæter:

– Dette illustrerer noen av dilemmaene med den teknologisk utviklingen. Den kan både bidra til å utvikle bedre og mer målrettede offentlige tjenester, og som i dette tilfellet: generere falske profilbilder.

– Regjeringen skal nå i gang med arbeidet med en helhetlig strategi for kunstig intelligens. Kunstig intelligens kan brukes til mye bra og spennende, men det er også en teknologi som reiser en del vanskelige spørsmål, sier Alstadsæter, som forteller at strategien blant annet skal ta for seg personvern.

Generalsekretær i Senterpartiet, Knut Olsen, forteller at Senterpartiet skal vurdere å legge ut bilder under en mer restriktiv lisens.
– Den gangen vi begynte å legge ut bilder på Flickr var dette ikke en tematikk, og jeg opplever dette som et slags misbruk, sier Olsen.

– Jeg vil tro dette er et globalt problem. Etter hvert som ny teknologi kommer på banen må det komme nye internasjonale retningslinjer.

Automatisert nyhetsbrev fra NRKbeta

Få et ping i postkassa hver gang vi publiserer noe interessant om teknologi eller medier!

Finansdepartementet kommunikasjonssjef Therese Riiser Wålen går hardere ut mot Nvidia:

– Ansvaret for misbruk av bilder som ligger tilgjengelig på nett ligger selvfølgelig hos den som misbruker, ikke hos den som er avbildet. Utover det har vi ingen kommentar til dette, sier Wålen.

NRKbeta har kontaktet Nvidia om praksisen med å hente ned bilder fra Flickr og de ulike uttalelsene, og vil oppdatere saken om de kommer tilbake til oss.


Du kan selv laste ned metadata om bildene på Github, men vi har for enkelhet tilgjengeliggjort oversikten (Excel, csv). Gi oss en lyd om du finner noe interessant!

12 kommentarer

    • Martin Gundersen (NRK) (svar til lksdjfop)

      Tittelen forteller om det som har skjedd. Ser ikke helt hvordan det er click-bait

    • Einar (svar til lksdjfop)

      Så da er statsministeren sitt navn helt tilfeldig valgt?
      Hvorfor ikke bare si at man ønsker å bruke det navnet for å tiltrekke oppmerksomhet.
      Det betyr ikke at det er galt, men å si sannheten, styrker troverdigheten.

  1. Hanna Gulbrandsen

    Bare en litt pussig observasjon. Av en eller annen grunn har jeg merket meg at det som oftest er tennene jeg legger merke til på de genererte bildene jeg har sett. Det er noe med kontrast, mellomrom, plassering, vinkel og antalet som ofte ikke stemmer. Her så jeg med en gang feilen mellom tenne oppe og nede. Men her er det nok ikke snakk om mye tid før det håndteres bedre. Og ikke minst: når det blir mye av det har ingen tid til å studere alt veldig nøye. Dette er uten tvil en utfordring. Jeg mistenker kanskje at merking av bilder vil kunne skje med kryptering som går gjennom troverdige kilder. Det blir spennende å se hva som blir drøftet!

    Svar på denne kommentaren

    • Magnus Lien (svar til Hanna Gulbrandsen)

      For min del er det bakgrunnen, nesten alle eksempler jeg har sett har veldig lite fokusdybde så alt bak ansiktet er uskarpt. Det kan man fint gjøre med et kamera også selvsagt men hver gang jeg ser slike sammenligninger i avisene klarer jeg stort sett alltid å plukke ut den falske.

  2. Harald Korneliussen

    Veldig mye maskinlæring er basert på offentlig tilgjengelig informasjon som utøveren ikke har tillatelse til å redistribuere.

    De store maskinlæringsselskapene og universitetene ser ut til å ha blitt enige i at å lære noe fra offentlig informasjon ikke bør anses som brudd på opphavsrett. De har sikkert snakket med advokater om muligheten til å forsvare dette. Men vi bør ikke krangle om det «er» lovlig, men om det burde være lovlig.

    Og svaret på det er åpenbart ja. Du kan ikke gi noen tilgang på informasjon men nekte dem å analysere den, lære noe fra den.

    Om noen vil bruke det til å lage falske profiler, ja så gjør det ulovlig, da. Ikke prøv å forhindre dem i å lære hvordan ansikter ser ut, med eller uten redskaper.

    Man kan ikke forvente at en tilfeldig Senterpartipolitiker har tenkt over konsekvensene av å forby noe så grunnleggende, men Nrkbeta burde vite bedre. Det er svakt av dere å prøve å lage en skandalesak av dette.

    Svar på denne kommentaren

    • Hvis ikke jeg husker helt feil var Loran C-saken basert på informasjon som var offentlig tilgjengelig i USA, men hemmeligstemplet i Norge. De som ble dømt i denne saken kunne for alle opplysninger og konklusjoner vise til hvilke åpne kilder de hadde brukt. Da var det vanskelig å dømme dem for å ha avslørt informasjon hemmeligstemplet i Norge, når det ikke var her den var funnet.

      Det de ble straffet for var for å ha sammestilt opplysninger fra ulike kilder og trukket (korrekte) konklusjoner ut fra sammenstillingen, «etter å ha analysert den, lært noe fra den».

      Det er ikke en 100% identisk situasjon – opphavsrett er ikke det samme som hemmeligstempling – men den illustrerer likevel at man kan dømmes i norsk rett for å ha tilegnet seg åpen informasjon og trukket konklusjoner av det. Det er ikke «åpenbart» at det må være tillatt i forhold til opphavsrett, når en rettsgyldig dom sier at det er straffbart i forhold til hemmeligstempling.

      Det en del år siden denne saken, og det kan har være gjort visse justeringer i lovtekstene siden den gang. Men skal noe være «åpenbart» i et slikt spørsmål bør det ikke endere seg dramatisk på få tiår, når det ikke har vært noen vesentlige samfunnsomveltinger i mellomtiden.

      En annen side er vel at både publiseringen av de slutningene som ble trukket, og dommen over de som publiserte den, selv i sin samtid ble betraktet som å ha svært sterke politiske undertoner. «Varslere» bør ha en noe større frihet til politisk motiverte handlinger enn domstolenes frihet til å avsi politisk motiverte dommer, men jeg tror ikke vi skal slå oss for brystet og forkynne at vi er fri for politiske motiverte dommer i dag.

      Vi må nok regne med at også i dag kunne analyse og konklusjoner basert på åpne (evt. utenfor Norge) kilder være så ubehagelig for institusjoner og enkeltpersoner i styre og stell at du kunne komme til å bli straffeforfulgt (og eventuelt dømt)for å presentere konklusjoner, selv om disse reelt er sanne og korrekte, selv om du kunne belegge hele slutningrekka med henvisning til offentlig tilgjengelig informasjon. I så henseende tror jeg ikke samfunnet er dramatisk endret fra Loran C fram til i dag.

  3. Fant en litt morsom måte for å få rett hver gang. Det bildet som laster inn raskest er ekte. Dette er selvfølgelig ikke en del av testen, men merket det etter å ha prøvd «spillet» litt.

    Svar på denne kommentaren

  4. Sorry… Greier ikke vri hjernen såpass at den overskriften gir mening. Det er vel ikke et falskt profilbilde før det er brukt i en falsk profil? Inntill da er det bare et maskinskapt bilde.

    Og Erna inngår dessuten kun i et digert datasett som blir brukt til å fortelle maskinen hvordan et ansikt kan se ut.

    Hvordan er det egentlig annerledes enn at en dyktig kunstner lager et fiktivt, men naturtro, ansikt med et bildebehandlingsprogram? Lager han også pr definisjon falske profilbilder?

    Svar på denne kommentaren

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *. Les vår personvernserklæring for informasjon om hvilke data vi lagrer om deg som kommenterer.