nrk.no

Klarer du å se hvem som er laget av en datamaskin?

Kategorier: Kunstig intelligens & Samfunn

Ett av disse portrettene er skapt av en datamaskin. Klarer du å se hvilket?

Den siste nyvinningen innenfor maskinlæring er å lage falske portrettbilder.

Montasjen ovenfor er satt sammen av to portrettbilder. Det ene avbilder en venn av noen i redaksjonen. Det andre er laget av en algoritme utviklet hos et stort amerikansk teknologiforetak.

Svaret på hvilket bilde som er falsk finner du nederst i artikkelen.

En av de store snakkisene i medie- og teknologisfæren de siste årene har vært demokratiseringen av verktøy for lyd-, video- og bildemanipulasjon.

Fra systemer som Adobe Voco, som gjør det mulig å forfalske stemmen til vilkårlige mennesker; til FakeApp, som kan plassere hvem som helst inn i en pornofilm (eller NRK-serien Side om side) – det skjer mye på denne fronten.

VIDEO: Tidligere i år testet vi ut FakeApp, hvor vi flytta Bjarte Tjøstheim inn i TV-serien Side om side.

Nvidia la forrige uke fram en oppsiktsvekkende forskningsartikkel som viser deres nyeste gjennombrudd. Ved å trene en datamaskin på tusenvis av høykvalitetsportretter fra bildesamfunnet Flickr, har forskerne skapt et system som kan lage svært fotorealistiske portretter av mennesker.

Ved å justere på forskjellige parametere i systemet kan man endre hudfarge, etnisitet, øye- og hårfarge og mange andre variabler. Ingen av ansiktene i montasjen er av ekte mennesker. Faksimile: Nvidia

Nettsamfunn som Facebook og Instagram har i årevis slitt med falske svindelprofiler, og det er sannsynlig at denne teknologien nå vil bli brukt for å gjøre disse profilene enda vanskeligere å avsløre.

Systemet er også selvlærende. Det betyr at forskerne ikke har forklart systemet hva som kjennetegner et ansikt, men at systemet selv har analysert såpass mange bilder av ansikter at det til slutt klarer å skille ut de ulike aspektene som til sammen utgjør et fjes.

Det finnes bokstavelig talt ikke grenser for hvor mange unike ansikter Nvidias nye system kan generere. Foto: Nvidia

En av grunnene til at disse fotorealistiske systemene nå dukker opp er at maskinvaren som kreves for å trene maskinlæringssystemene har blitt langt rimeligere. For bare få år siden behøvde man tilgang på skjermkort og datamaskiner til flerfoldige hundre tusen kroner for å gjennomføre en lignende treningsprosess.

Nå kan tilsvarende systemer trenes på spill-skjermkort til under 10.000 kroner, så fremt man aksepterer at treningen tar noe lengre tid. Systemet forskerne har brukt koster i overkant av en million kroner, og kunne gjøre unna hele treningsprosessen på en uke.

Et annet aspekt som forklarer hvorfor dette systemet er i stand til å generere så gode portretter, er at bildematerialet som systemet er trent på er av høy kvalitet. Etter at forskerne hadde lastet ned titusenvis av gode portrettbilder fra Flickr bearbeidet de hvert eneste bilde slik at utsnitt, fargebalanse og vinkel på bildene stemte med hverandre.

Nvidia har tidligere publisert lignende arbeider, da basert på portrettbilder fra filmdatabasen IMDb.

Resultatene ble ikke like overbevisende:

En tidligere versjon av Nvidias teknologi, trent på et dårligere utvalg bilder. Faksimile: Nvidia

I forskningsartikkelen står det at både kildekoden og datasettet som systemet er trent opp på skal offentliggjøres. Det gjør at andre forskningsmiljøer kan videreutvikle teknologien.

Nedenfor kan du se en 6 minutter lang video som forklarer teknologien i detalj:

Og, til spørsmålet i tittel: Portrettet til venstre i toppbildet er ekte, og er tatt av Elisabeth Lien. Det til høyre er skapt av NVIDIAs datamaskiner.

40 kommentarer

  1. Det er mange trekk ved det falske bildet som ikke stemmer. Bakgrunnen f eks ser helt feil ut. Hvorfor klarte ikke AI å selvlære seg å lage en realistisk bakgrunn? «Trening» er vel bare et annet ord for programmering. AI er keiserens nye klær, et dekkord for noe som ikke eksisterer i den virkelige verden.Kunstig er det åpenlyst men den er ganske dum, ikke intelligent. I beste fall er det kun snakk om mer detaljerte look-up-tables. Det er ikke læring men en database med flere detaljer. Nok en håpefull som ikke klarte Turing testen.

    Svar på denne kommentaren

    • Kristoffer Stalsberg (svar til Dagfinn Aksnes)

      Kjenner du til AlphaZero? Programmet som mestrer både sjakk, go og shogi. AZ gikk fra å være helt ubrukelig, til å bli den sterkeste «sjakkspilleren» i verden etter fire timer kun ved å spille mot seg selv om og om igjen. Det eneste programmet fikk greie på var reglene. Dette må da kunne kalles «trening» eller «læring»?

    • Trond Aasland (svar til Dagfinn Aksnes)

      Du har helt rett i at «AI» er et buzzword som i det store og det hele betyr noe i retning av «mer avanserte algoritmer», men å si at «trening» og «programmering» betyr det samme er en fundamental misforståelse, da noe av kjernen i denne typen algoritmer er at de er _selv_lærende. Med andre ord: algoritmen serveres et sett kildemateriale, som så analyseres – dette er «treningen», og det er ingen menneskelig inngripen i denne prosessen ut over utvalg av kildemateriale og det å skrive den opprinnelige alogirtmen. Etter fullført trening skal algoritmen ha samlet et stort nok datagrunnlag til å gjøre jobben den er designet for – men ettersom treningen ikke er gjort med bistand fra (eller under oppsyn av) et menneske er det vanskelig å si nøyaktig hva resultatet blir. Dette er i seg selv ikke noe revolusjonerende, og det eneste som egentlig skiller det fra alle andre algoritmer er graden av kompleksitet, men resonnementet bak å kalle det «AI» er vel noe i nærheten av «fordi systemet lærer på egen hånd». Resultatet er nok omtrent som du sier, noe i retning av detaljerte look-up-tables, men med en såpass stor kompleksitet at et menneske kanskje _kunne_ laget det, men svært tvilsomt hadde giddet.

    • Simen Haugen (svar til Dagfinn Aksnes)

      Nei, «trening» av AI system er ikkje det same som programmering.
      Ein programmerer «systemet» den kunstige intelligensen nytter slik at riktig input gir riktig output type (i dette tilfellet eit bilde). Før ein «trener» systemet produserer det særdeles dårlige resultat, i tilfelle bilde-output er det vanlegvis bare tilfeldig støy. «Treninga» består av å gi systemet inputs/outputs som er stemmer med kvarandre (i dette tilfelle Flickr-bildar av menneskje), og deretter justere systemet seg sjølv til å produsere det same som input/output dataen den har fått, denne justeringa føretar systemet sjølv – programmeraren bidreg berre med treningsdata.
      Om du er interessert i temaet, syns eg den mest pedagogiske introduksjonen var å byrje med ANN-system.

    • Gunnar Harboe (svar til Dagfinn Aksnes)

      Når man studerer det grundig er det en god del avslørende trekk (selv la jeg mest merke til asymmetrien i øyne og leppestift, som jeg husker som et kjennetegn fra tidligere versjoner av dette systemet), men hvis man ikke mistenker noe eller ser veldig nøye etter vil det oppfattes som helt ekte, vil jeg tro.

      Slik teknologi kommer til å ha enorme konsekvenser, både de vi kan forutsi og andre som er helt uante i dag.

    • Hei Dagfinn. Jeg arbeider med «kunstig intelligens» på daglig basis, da spesielt med dyp læring. Jeg tenkte jeg skulle gi deg en litt naiv forklaring hvordan «treningen» fungerer, så kan du selv få avgjøre om det er et annet ord for programmering.

      Jeg regner med at Nvidia her har brukt noe som heter konvolusjonslag. Et konvolusjonslag kan bestå av tusenvis av små matriser (filtre). Nettverket er bygget opp av flere konvulusjonslag, før det munner ut i det vi kan kalle «tette» nettverk. Hele nettverket kan derfor inneholde flere millioner parametre.

      Før «treningen» begynner, så blir alle disse parametrene tilfeldig initiert. Hvis netterveket nå blir bedt om å gjøre noe, så vil det ikke klare å produsere noe som gir mening. Nettverket har altså et stokastisk (tilfeldig) utgangspunkt, noe som skiller dyp læring fra tradisjonelle analytiske metoder.

      «Treningen» fungerer på følgende vis:
      1. Nettverket blir gitt en «input». La oss si «input» er et bilde. Konvolusjonslagene vil konvolvere over hele bildet, og produsere «aktiveringslag». Disse lagene blir sendt videre i nettverket, konvolvert over, osv. Aktiveringene ender opp i den siste delen av nettverket, før nettverket til slutt konkluderer med en «output».
      2. Nettverkets konklusjon sammenlignes med fasiten. Feilen beregnes, og alle parametrene i nettverket blir endret ørlite grann slik at neste gang nettverket blir presentert med bildet vil det konkludere med et resultat som ligner litt mer på fasiten. Dette kalles baklengspropagering ved bruk av «gradient descent.»
      3. Gjenta 1 og 2 til vi er fornøyd med konklusjonene til nettverket.

      Du har rett i at man kan kalle dette nettverket for en database, akkurat slik som den menneskelige hjernen. Når vi mennesker lærer noe nytt forsterkes/svekkes koblinger mellom nevroner (ikke ulikt «treningen» i det kunstige nettverket). Hjernen er selvfølgelig mye mer komplisert satt sammen enn disse kunstige nettverkene, men det er viktig å få med at de kunstige nettverkene er sterkt inspirert av biologiske prosesser.

      Om du er interessert i dette netverket spesielt, anbefaler jeg å undersøke «variational auto-encoders.» Om du føler deg modig, så kan du fortsette med «Generative Adverserial Network» (GAN).

    • Erlend Søby (svar til Dagfinn Aksnes)

      @Trond
      Da skjønner jeg på en måte ikke helt hva du vil si at intelligens er. Hvis den er kunstig må det vel bare være at et program kan ressonere som et menneske? Og det betyr jo til syvende og sist at det bare må lære seg ting opp og gjennom tid (og rom på en måte, men det blir jo litt annerledes). Sesong 2 av Steins;gate har et program kalt Amadeus. Hvis du er interessert i tidsreiser vil jeg ikke spoile for mye, men Amadeus tar da et utgangspunkt i alle minnene til et ekte menneske, og programvaren skal da etterhvert oppføre seg, og tenke slik et menneske ville gjort. Hvorvidt programvaren får følelser eller ei blir noe seeren etterhvert må bedømme selv, men er det der vi skal legge lista for AI? At den rett og slett må forstå at følelser og logikk ikke alltid vil stemme overens, selv om man ofte kan ha en «logisk» biologisk/fysiologisk/psykologisk forklaring bak. Akkurat hvordan vi skal klare å overføre minner vet jeg ikke, men kanskje sensorer, og kamera+lyd, sittende på et menneske fra fødsel til vedkommende er x antall år gammel er veien å gå? Vi har jo allerede klokker som kan måle svært mye, å ha et kamera festet på hodet er kanskje ikke så altfor mye større av en inngripen? Høres jo litt sprøtt ut, men ikke umulig at man ved det kan lære et program hva det vil si å være et menneske – og dermed trolig akseptere sluttresultatet som AI?

    • Ståle Grut (NRK) (svar til Rolf)

      Hehe! Nærmest litt overivrig på presseetikken her, så har flyttet kildeteksten til bunnen av saken. Takk for tips.

  2. Håkon Meidel andersen

    Manipulasjonen er bra, men lyssettingen er feil for ett normalt bilde. Studionbelysning uten skygger ute kan virke avslørende, og fikk ihvertfall meg til å reagere.
    Jeg reagerte ikke på tenner eller blenderåpning, men den kunstige lyssettingen.

    Svar på denne kommentaren

    • Jeg så nok mer på det store bildet (gikk altså ikke i detalj med å se på tenner ol), men klarte altså denne gangen å skille mellom ‘sant’ og ‘falskt’. Uansett så bør vi nok alle i tiden framover forsøke å forholde hos uhyre kritiske til framlagte bildebevis. Men det vet vi jo…. 😊

  3. Og så må en også «ha i bakhodet», at dette er dagens tilgjengelige sivile versjoner. Den mest avanserte efterretningsorganisasjonen opererte allerede for omtrent 20 år siden med de samme kvaliteter!

    Svar på denne kommentaren

    • Du er nok ikke helt realistsk her. Evnen til å tolke bilder av dårlig kvalitet var nok på plass, men den tekniske kvaliteten som etterretningsorganisasjonene har til rådighet ligger ikke tjue år foran det som er tilgengelig for andre.

      Da snakker jeg naturligvis om det som er tilgjengelgig for andre som er villig til å betale like mye – ikke skrot man kan kjøpe på dx.com for $10. At billig skrot med elendig kvalitet er tilgjengelig, er det ingen som bestrider.

  4. Morsomt hvordan poenget med artikkelen flyr over hodet på alle i kommentarfeltet… Det er klart at det bildet til venstre har noen problemer, men teknologien bak dette er fortsatt meget imponerende, og kan ha store implikasjoner på samfunnet. Diskusjon om dette egentlig er intelligens/læring eller ikke er bare tull.

    Svar på denne kommentaren

  5. «Nå kan tilsvarende systemer trenes på spill-skjermkort til under 10.000 kroner, så fremt man aksepterer at treningen tar noe lengre tid. Systemet forskerne har brukt koster i overkant av en million kroner, og kunne gjøre unna hele treningsprosessen på en uke.»

    Jeg tror dere underdriver litt når dere sier at det tar «noe lengre tid» på en ordinær spill-PC…

    Det er ca. linjært forhold mellom pris og ytelse her, tror jeg. Så det som tar ca. 1 uke på million-systemet til Nvidia vil ta anslagsvis 100 uker, altså 2 år, på en ordinær spill-PC. Det er litt mer enn «noe lengre tid».

    Dette er nok litt av det «demokratiske problemet» med disse nye teknologiene. Det er noe som først og fremst er tilgjengelig for de med veldig mye penger.

    Det nærmeste alternativet for en privatperson, for å kunne gjenskape resultatene fra Nvidia i dette tilfellet, er å leie tilsvarende cloud-kapasitet som Nvidia har brukt, i 1 uke. Men selv det vil trolig koste flere titalls tusen kroner.

    Svar på denne kommentaren

  6. Jeg ser at en haug med nerds har div. kommentarer her, og at INGEN av dem nevner de problematiske implikasjonene disse bildemanipulasjonene representerer.

    Nemlig at man ikke lenger kan stole på bilde-bevis!

    Dette poenget skulle hatt en MYE større plass i artikkelen.

    Svar på denne kommentaren

    • Bengt Olsen (svar til Igor Boretti)

      Det er jo en artikkel på NRK-beta, som gjerne fokuserer på teknologien…

      At man fokuserer på teknologien betyr ikke at man ikke ser de andre sidene. Bare at det er stoff for en annen artikkel.

      Jeg tenker det er greit at de ikke sauser sammen disse to vinklingene i en og samme artikkel om dette.

    • Det er et reelt problem, men det kom ikke med dette – det er mye eldre. Vi har har sett en lang rekke saker der avisredaksjoner har blitt avslørt i å publisere sterkt manipulerte bilder for å fremme et visst inntrykk. I dag kalles det «photoshopping», men i realiteten eksisterte det også i den analoge tidsaler. (Jeg har selv i mørkerommet fjernet «uønskede» billedelementer med rødt blodlutsalt!)

      Jeg sitter stadig og venter på at det i en av disse «internett-voldtekt»-sakene, fullstendiguten kontakt mellom «overgriper» og «offer», blir avslørt at bildene «overgiperen» fikk se over nettet var fullstendig data-genererte; det fantes ingen person foran noe webkamera, intet»offer».

      I dag kan du straffes for å ha «voldtatt» et bilde av et offer, men hva om offeret overhodet ikke finnes? Du ser et bilde, og hvis det er «naturlig» begår du en voldtekt, hvis det er generert er det helt OK, er det slik?

      Er det kun en voldtekt dersom du ser bildet over internett? Hvis du laster ned programvaren som genererer bilde, er det helt OK, er det slik? Eller kan du straffes for voldtekt mot en person du ser bilde av i ei bok eller et blad, kanskje tjue eller tretti år gammelt?

      Er det kun voldtekt hvis bildet er digitalt? Hvis du selv er en dyktig tegner, eller kjenner en dyktig tegner, som kan lage tegninger og akvareller av det(/de) som finnes på internett, og du ser på bildene, begår du også da voldtekt? Skjer voldtekten når tegneren dupliserer det som vises på internett, eller ført når noen føler fysisk stimulans av å se på tegningen?

      Kanskje det er slik at enhver som ser et aktmaleri reelt er en voldtektsmann?

      Kanskje enhver som en ettåring stabbe rundt på stranda uten badebukse er en grusom pedofil overgriper?

      Vi kan aldri vite. Panikk-nivået er så ekstremt i dagens samfunn at det er totalt uaktuelt å ta opp noe som helst slikt til nøktern, seriøs vurdering av hvor fornuftige grenser bør gå.

      Min gjetting er at innen få år kan hvem som helst konstruere opp de scenen han vil, animert, med full fotorealisme. Ingen kan i dag stole på et foto – det kan være photoshoppet. Snart kan ingen stole på en video – den kan være fullstendig syntetisk.

      Alle kan generere de syntetiske videoene vil, med de aktører de vil. Det genereres på hjemme-maskinen, så hvorfor betale masse penger til lugubre asiatiske nettsteder?

      Moralsk forkastelig? Ja, det er vel det.

      Offere? Digitale offere, ja, men hvordan skal vi forholde oss til offere som aldri har eksistert i virkeligheten? Blir det som de som er tegnet og malt ut fra kunstnerens fantasi, eller …?

  7. Forstår jeg det rett (uten å ha lest forsknings-rapporten enda!) er alt basert på å skape et troverdig utseende. Det kan gi et vellykket «engangs»-resultat, men er lite fleksibelt, f.eks. hvordan et ansikt kan se ut ti år eldre, eller når det viser ulike emosjoner.

    Animasjon av filmer tar i sterkere grad utgangspunkt i hva som er «under huden» – knokler og muskler og annet kroppsvev – og bruker det til å styre f.eks. hvordan huden buler opp over en spent muskel, hvilken frihet lemmene har i bevegelsene etc. Du endrer ikke på hvor mye huden på overarmen buler opp, men på årsaken til at huden buler: Muskelen trekker seg sammen og blir tykkere. Så tegner du konsekvensen av det.

    Videreutvikling av dette er trolig en langt mer framtidsrettet måte å generere naturtro bilder. Legevitenskapen vet alt om hvordan skjelettet hennger sammen, hvilke muskler vi har og hvilke av dem som strammer seg når du smiler, hvor mye fettvev som ligger mellom muskelen og kinn/lepper, og som begrenser hvordan huden strekkes og munnen åpner seg til et smil.

    De vet hvordan knokler, muskler etc vokser med alderen. Hvordan fettvevet enderer seg når en person blir tykkere eller slankere. Hvordan elastisiteten i huden reduseres når du blir gammel.

    Med modeller laget ut fra detaljert anatomisk kunnskap kan man parametrisere det som gir utseendet (f.eks. størrelse på knokler og muskler, tykkelse på fettlag, elastisitet i huden, …) – årsaken, ikke resutat-utseendet. Det er bare en følge av de som skjer innunder huden.

    Også her er er rom for «læring», for de som er fascinert av det: Med en anatomisk modell av en virkelig person, kan læringen sammenligne bilder generert i modellen med faktiske fotografier, og justere modell-parametrene til det genererte bildet blir likest mulig det ekte, fra hodeskallens form til pigmentering i huden.

    Finnes det bilder fra yngre år, kan modellen først grovjusteres i anatomien (f.eks. skjelettstørrelse) til alderen som på det gamle bildet. Så etterjusteres dette med tanke på tilpasning til vekstkurver etc. til et generert bilde matcher det gamle fotografiet. Med «snapshots» av kroppsveksten ved noen få aldre, kan interpolering for mellomliggende aldre bli svært nær det riktige. En riktigere ekstrapolering til høyere alder er mulig når du har en anatomisk modell med «riktig» skjelett, muskelmasse etc. (i forstand at genererte bilder ut fra modellen matcher faktiske fotografier).

    Selvsagt kan du sette parametere til noe som absolutt ikke matcher fotografiene, men gir helt andre ansikter og kropper. Når de er basert på en anatomisk modell som i prinispp er den samme som for levende mennesker, kan de bli like naturtro!

    Dette er i hovedsak videreutvikling av animasjonsteknikker kjent i mange år (men i ganske forenklet form). Politiet presenterer iblant genererte ekstrapolerte bilder av folk som har vært forsvunnet i flere år (men de har neppe en detaljert anatomisk modell av personen de lager bilde av).

    AI og maskinlæring er moteord og grant-baits for tiden. Det er lettere å ta inn slike begreper i mindre utviklede teknologier, som f.eks. billedanalyse, enn i relativt velkjente teknologier som animasjon og genererte bilder/handlinger; derfor kommer det fram her. (Dessuten er nVidia eksperter på teknologi, ikke på anatomi :-).)
    Min tro er at anatomiske modeller og generering ut fra det som er under huden kan gi rom for mye spennende forksning, og har lang lysere framtid enn den som kun fokuserer på det resulterende utseendet.

    Svar på denne kommentaren

  8. Kunstig intelligens.
    Det er ingen av disse bildene som er laget, eller skapt, av en datamaskin.
    Begge portrettene er fremstilt ved hjelp av datamaskiner. Ingen av dem er heller laget av en algoritme, men ved bruk av numeriske regnestykker formulert av dataingeniører.
    Det som skiller disse to bildene fra hverandre er bruken av forskjellige maskiner.
    Det som skiller bildene fra virkeligheten er ikke intelligens, men teknikk.

    Ikke å forstå dette innebærer en fare beskrevet av Virgil Gheorghiu i boken «25.time»:
    «Et samfunn som er sammensatt av millioner av millioner mekaniske slaver og bare 2000 millioner mennesker, vil få samme egenskaper som sitt pro¬letariske flertall, selv om samfunnet beherskes al¬dri så mye av menneskene. [. . ] Vår sivilisasjons mekaniske slaver beholder disse egenskapene og lever i overensstemmelse med de vyene som føl¬ger av deres natur. […] For å kunne anvende sine mekaniske slaver, må mennesket lære seg å forstå dem, de må imitere deres vaner og lovmes¬sigheter. [. .] Når erobrerne er tallmessig un¬derlegne i forhold til de erobrede, overtar de beseiredes språk og sedvaner, enten det nå skyldes enkelhetshensyn eller andre praktiske grunner; og dette gjør de selv om det er de som er herskerne.
    Den samme prosessen er allerede i gang i vårt eget samfunn, selv om vi ikke vil innrømme det. Vi lærer oss våre slavers lovmessigheter og deres sjar¬gong, for å kunne gi dem befalinger. Langsomt og umerkelig gir vi avkall på våre menneskelige egen¬skaper og på våre lover. Vi umenneskeliggjør oss, idet vi antar våre slavers livsvaner. Det første symptomet på denne avhumaniseringen er forak¬ten for det menneskelige.»

    Svar på denne kommentaren

    • Hva som er «skapt av maskinen» og hva som bare er resultat en programmerer’s algoritmer er en høyst subjetiv vurdering, dels av filosofisk natur.

      I et tradisjonelt program får maskinen ett entydig sett instruksjoner: Gjør dette! AI-folk gir maskinen et sett ulike alternativer: Prøv disse, og før logg over hvilken av alterntivene som ga suksess, og bruk de samme for neste, lignende problem!

      Loggen over alternativer som virket for et gitt problem, er læringen. Her: Startet programmmet med å farge alle pikslene lilla, matchet null av dem noen som helst av svarene – logget som en håpløs vei. Prøv noe annet! Forsøkene med beige-brune toner i midten av bildet gir adskillig mindre avvik fra fasitsvarene: Det er en vei å gå, logg det! Mørkere tone mot toppen, to mørkere sirkulære områder litt lenger nede, etpar rødligere horisontale bånd godt under midten, med en rad hvite felter mellom seg, det reduserer avviket betydelig fra en rekke av fasit-bildene – det er noe å satse på!

      Stadig flere regler for hvilke regler som gjelder alle ansikter, hva som gjelder ulike del-grupper av ansikter, og hvilken variasjon det er i ulike grupper, f.eks. for fargen på det som regel mørkere feltet på toppen, fargen på ringene rundt de to svarte rundingene høyt i bildet, osv.: Hvilke beslutninger som gir størst mulig suksess mot fasiten (dvs lavest mulig avvik fra minst ett fasit-bilde) blir logget.

      Hvis nå programmet ser på fra hva loggen forteller at er «vanlig» i fasit-bildene, og innenfor det hva som er «vanlig» variasjon innenfor hver gruppe av fasiter osv., og så lager et nytt bilde ut fra sin logg, sin akkumulerte informasjon om hvordan typiske ansikter «ser ut», et nytt bilde fullstendig avhengig den akumulerte kunnskapen i loggen, … Er det fortsatt noe som er skapt av programmereren?

      Ettersom tilgjengelig maskinkraft har øket, har AI-folk strebet mot å gi programmene mindre og mindre «hjelp», og gitt dem mer grunnlegende mekanismer programmene kan prøve ut og evalere. Liksom matematikere har arbeidet seg ned til grunnleggende aksiomer, forutsetninger som ikke kan bevises gjennom enklere matematikk, men må aksepteres som «grunnleggende sannheter», gå AI-folk stadig dypere mot «algotitmiske aksiomer», og lar AI-programmene få vurdere situasjoner ut fra dem. Avstanden øker stadig mellom det programmereren definerer som absolutter og de konklusjoner (f.eks i form av et bilde) programmet kommer til. Hvor stor må avstanden være for at vi kan si at programmererems innflytelse er epsilon i annen, så å si alt er basert på hukommelsen, loggen?

      Et gammelt kriterium på intelligens er «Turing-testen»: Hvis et menneske ikke klarer å avsløre om han snakker med et levende menneske eller en maskin, da har maskinen «intelligens», ihvertfall på et visst nivå. En AI-forsker ved MIT fikk, halvt ufrivillig, demonstrert dette: Over universitetets datasystem gjorde han en avtale om gå ut etter jobben for sosialt samvær, men kollegaen dukket ikke opp. Han ante ingenting om avtalen: Da han forlot kontoret koblet han AI-programmet opp mot chat-kanalen sin. Loggen fra denne «samtalen» var i årevis «grunnpensum» for AI-interesserte 🙂

      Jeg kjenner ikke til nyere romaner som behandler AI med noen grad av faglig styrke, men da jeg nylig på nytt plukket opp James P Hogan: The Two Faces of Tomorrow, ble jeg overrasket over hvor godt den stadig holder vann. Anbefales sterkt! Hogan hadde gode kontakter både på MIT og CM for å kvalitetssikre sine romaner (og han hadde selv ganske god peiling på datateknologi!); selv om datateknologen har utviklet seg holder bøkene hans fortsatt godt stand! Er du ikke redd for nattesøvnen din er «Realtime Interrupt» en stadig aktuell roman om virtuell virkelighet! Begge er stadig å finne på Amazon.

      En langt fra like seriøs klassiker, men mer humoristisk og lettlest, basert på hvordan programsystemer kan «lære å lære»: Thomas J Ryan: The Adolescece of P-1. For de som har opplevd 1970-80-tallet (spesielt som datafolk!) er den artig, men for yngre folk vil mange poeng gå både hus og hytte forbi.

  9. Pussig hvordan algoritmene har særlig problemer med tenner. Minst halvparten av de genererte bildene der tennene er synlige, klarer programmet ikke å matche vinkling av ansikt og tannstilling.

    Svar på denne kommentaren

  10. NRKbetas nyhetsbrev 23. februar

    […] Unreal har nettopp vist fram verktøyet MetaHuman Creator som lar deg lage troverdige ansikter og personer rett i nettleseren. Du klarer nok ikke lure noen med dette (ennå), men Ståle er mektig imponert. Foto: Unreal Engine➡️ Les også Henriks (gamle) Beta-artikkel «Klarer du å se hvem som er laget av en datamaskin?» […]

    Svar på denne kommentaren

Legg igjen en kommentar til Dagfinn Aksnes Avbryt svar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *. Les vår personvernserklæring for informasjon om hvilke data vi lagrer om deg som kommenterer.