nrk.no

Kortene på bordet – Er bridge det neste spillet datamaskinene vinner?

Kategori: Kunstig intelligens

Kort - Foto: Caden Crawford - Flickr(CC)
Kort Foto: Caden Crawford – Flickr(CC)

Demis Hassabis, grunnlegger av selskapet DeepMind som eies av Google, har uttalt at «spill er et slags mikrokosmos av omverdenen». Selskapet står bak den kunstige intelligensen AlphaGo, den første noensinne til å slå en ekspert i brettspillet go.

Det mer enn to tusen år gamle kinesiske spillet ble ansett som betydelig vanskeligere å beherske for en datamaskin enn sjakk. Antall lovlige posisjoner på spillbrettet er i størrelsesorden 10^170.

En så høy grad av kompleksitet gjør det til en uoverkommelig oppgave å løse spillet med rå regnekraft (som innebærer å betrakte spillet i sin teoretiske helhet og fastlegge en vinnende strategi fra første til siste trekk).

Brettspillet Go. Foto: Chad Miller - Flickr(CC)
Brettspillet Go. Foto: Chad Miller – Flickr (CC)

Go omtales som et intuitivt spill. Og er ikke intuisjon menneskets domene?

Kan datamaskiner overliste mennesker?


I 1996 ble Garry Kasparov, da regjerende verdensmester i sjakk, slått av IBMs program Deep Blue.

Tjue år senere er et kapittel avsluttet: Kunstig intelligens har overgått mennesket i brettspill, det står 1-0. Dette er først og fremst menneskets bragd, og resultatet av mange års forskning.

Det rydder vei for enda mer ambisiøse prosjekter for den type maskinlæring AlphaGo bruker. All den tid spill er menneskeverden i miniatyr bør vi samtidig reflektere over følgende spørsmål: Blir kunstig intelligens en dag så generell at datamaskiner kan overliste mennesker i alle typer intellektuelle aktiviteter? Fins det en fremtid hvor roboter selv tar initiativ til å lære nye ting?

Kunstig intelligens har enda til gode å utgjøre en reell konkurrent for mennesker i kortspillet bridge. I motsetning til sjakk og go er bridge stokastisk (kortene stokkes før de fordeles til spillerne) og med ufullstendig informasjon (man skjuler kortene for de andre spillerne).

Det medfører at et dataprogram ikke kan bruke de samme algoritmene i bridge som i brettspill. Istedenfor å analysere spillet ved hjelp av såkalte spilltrær og med baklengsinduksjon, bruker bridgeprogrammer Monte Carlo-metoden.

Det innebærer konseptuelt å gjennomføre et tusentalls simulasjoner, som programmet gjennomfører på noen sekunder, for å finne det trekket som oftest fører til suksess basert på den tilgjengelige informasjonen. Programmet spiller det kortet som med høyest sannsynlighet er riktig.

Grunnen til at mennesker likevel slår roboter i bridge er at vi trekker på et bredere og rikere informasjonsgrunnlag. Foreløpig er mennesket overlegent i å forstå menneskers tenkemåte og sinnets tilbøyeligheter, og kan omgjøre dette til en strategisk fordel. Utover denne førstehåndserfaringen med «det menneskelige», har vi et sanseapparat som gjør oss i stand til å berike og modifisere den rent kvantitative informasjonen som roboten bruker (hvilke kort som blir spilt i hvilken rekkefølge).

Vi kan høre usikkerhet i stemmen til motstanderen, betrakte posituren og mimikken hans, plukke opp et øyeblikks nøling, og veier det inn i kalkylen vår. Dette er avgjørende fordi slike «myke» inntrykk kan brukes til å vurdere hvilke kort som sannsynligvis er riktig å spille. I sjakk og go har slike aspekter annenordens betydning, siden det ikke gir ytterligere informasjon om motstanderens spillerom, kun om dennes sinnstilstand.

Så: Trenger roboter ører, øyne, lukte- og følesans for å ha en sjanse til å beseire mennesket i spill som bridge, hvor informasjonen er ufullstendig og sanselig inndata bidrar til å bygge ned statistisk usikkerhet? Eller kreves en enda høyere grad av intuisjon, en form for bevissthet?

Foto: Sean Davis - Flickr (CC BY-ND 2.0)
Foto: Sean Davis – Flickr (CC BY-ND 2.0)

Den umiddelbare hindringen til et kunstig sanseapparat hos roboter er de fysiske delene, de som registrerer ytre stimuli. Hos levende vesener har disse utviklet seg evolusjonært over millioner av år; hos roboter har man kun nylig gjort gjennombrudd med visuell gjenkjenning av objekter. Neste hinder på veien til et velfungerende kunstig sanseapparat er bearbeidelsen og fortolkningen av sanseinntrykkene.

Noe så subtilt som synet av en knyttet neve kan ilegges ulik betydning basert på situasjonen, kulturen, personen, omgivelsene og så videre. Denne kunnskapen om menneskeverdenen må enten forprogrammeres eller tilegnes av roboten selv.

Microsoft lanserte i år Twitter-brukeren Tay, en såkalt chatbot som hentet kunnskapen sin om verden fra Internett og gjennom interaksjon med andre internettbrukere. Populærkulturen har foreslått å mate en kunstig intelligens med folks forespørsler i søkemotorer som Google (Ex Machina, Avengers: Age of Ultron, Her). Utfallet som forespeiles, er dystert: Grenseløs intelligens som ikke geleides av en etisk vurderingsevne må føre til overgrep mot menneskeheten.

Microsoft Tay. Foto: Skjermdump Twitter.com
Microsoft Tay. Foto: Skjermdump Twitter.com

Fremtredende personer som Stephen Hawking, Elon Musk og Bill Gates har advart at en fremtid hvor roboter med fri vilje og evne til kontinuerlig å forbedre seg selv utgjør en trussel mot menneskesamfunnet. Den svenske filosofen Nick Bostrom beskrev i 2003 tankeeksperimentet om «the paperclip maximizer», et scenario hvor mennesket blir forsøkt fjernet av en robot som har blir programmert til kun å produsere binderser.

Innsikten er at selv uten fiendtlige motiver hos en kunstig intelligens, kan den utgjøre en fare for mennesker og dyr.

Det hele startet i 1956

Darthmouth-konferansen i 1956 regnes som oppstarten til kunstig intelligens som fagfelt.

Utgangspunktet for prosjektet var formodningen at «ethvert aspekt av læring eller andre kjennetegn ved intelligens kan i prinsippet beskrives så nøyaktig at man kan få en maskin til å etterligne det.»

Et slikt standpunkt legger til grunn at «fornuft» og «intuisjon» kun er biprodukter av komplekse, men veldefinerte prosesser i hjernen, og ingenlunde forbeholdt mennesket.

Det gjenspeiler den hobbske tanken at fornuft til sist ikke er annet enn beregninger. Hvis dét er en korrekt beskrivelse av intelligens, så må nøkkelen til å gjøre roboter (minst) like intelligente som mennesker ligge i hjerneforskningen. Begreper som fornuft og intuisjon røper vår manglende innsikt i menneskehjernen: Vi tilskriver beslutningene våre prosesser som verken lar seg definere eller forklare, men som likevel skal ha utspring i noe kjødelig og ikke-metafysisk.

Ludwig Wittgensteins sitat «grensene for mitt språk er danner grensene for min verden» beskriver dette fenomenet: vi kan ikke forstå et konsept fullt ut uten å løsrive oss fra ordene vi bruker for å omtale det.

Bridge neste skanse?

Bridge skiller seg fra de fleste andre spill på en viktig måte: Man spiller på lag med en annen person, og vellykket kommunikasjon mellom disse er en forutsetning for å vinne.

FSU studenter spiller bridge i Tallahassee. Foto: Florida Memory - Flickr(CC) - https://www.flickr.com/photos/floridamemory/
FSU studenter spiller bridge i Tallahassee. Foto: Florida Memory – Flickr (CC)

Mens go er en intellektuell øvelse for ett individ, er bridge dypest sett et lagspill. Kommunikasjonsaspektet er en Pandoras eske av problemstillinger for programmere og forskere på kunstig intelligens.

Følgende tankeskritt gjør en bridgespiller systematisk, enten bevisst eller ubevisst. Hvilket stykke informasjon formidlet makker til meg? Hva var budskapet i denne informasjonen? Hva var intensjonen i dette budskapet? Hvordan ville han jeg skulle tolke denne intensjonen? Hva tror han at jeg tillegger hans intensjon? Valgte han nettopp dette budskapet fordi han vet jeg har tillagt et annet budskap med samme intensjon gal betydning tidligere? Evnen til å sette seg inn i et annet menneskes følelses- og tankemønster – empati – gjør mennesker mer skikkede bridgespillere (i det minste i makkerskap med et annet menneske).

Dersom empati er ett av kjennetegnene ved intelligens som Darthmouth-grunnleggerne snakker om, kan det i så fall programmeres? Hvis ikke, setter det muligens en øvre grense for streben etter å oppnå menneskelig intelligens hos roboter.

Framtiden ligger foran oss

Forskningen på kunstig intelligens er fortsatt i sin barndom – de største gjennombruddene ligger foran oss.

Johan Fredrik Storm, en norsk hjerne- og bevissthetsforsker, hevder at roboter én dag vil kunne ha en bevissthet på linje med menneskets (enkelte vil ta til motmæle mot ham med «det kinesiske rommet»-argumentet).

Å la dataprogrammer få kappes mot mennesker i ulike spill er lakmustesten på fremskrittene innenfor kunstig intelligens. Sjakk og go var gårdagens utfordringer for programmerere; det neste nybrottsarbeidet blir spill som bridge med psykologiske og probabilistiske aspekter. Her er mennesket, med sitt sanseapparat og sin intuitive forståelse for spillet, fortsatt suverent.

I Goethes ballade Trollmannens læregutt mister gutten kontrollen over feiekosten, som han har forhekset til sin tjeneste. Et ønske om å bruke magien til å gjøre godt, uten helt å mestre magiens kraft, førte til kaos. Realismen i en slik snøballeffekt må veies opp mot verdien av magiske koster.

16 kommentarer

    • Marius Arnesen (NRK) (svar til Hans Olav)

      Det har du helt rett i… 🙂

      Den hadde falt ut i en liten konverteringsrunde vi hadde på teksten.

      Fikser det.

      Takk!

  1. Burde ikke IBMs Watson mot Ken Jennings og Brad Rutter i Jeopardy nevnes i samme sammenheng som Deep Blue og AlphaGo? Forstå språk som Watson klarer er vel også en vesentlig skritt på denne vegen som er staket ut her?

    Svar på denne kommentaren

    • Vemund Vikjord (svar til Anders)

      Joda. Watson, Siri og deres like representerer stemmegjenkjenning og språkforståelse som blir viktige steg på veien til «menneskelige roboter». Det er imponerende hva IBMs KI fikk til med tanke på hvor tidvis dårlig Google Oversetter er til å tolke inputsetningen.

      Som jeg skriver i artikkelen er sanselige inntrykk mye rikere i innhold enn det en robot per i dag klarer å bruke. Eksempler er ironi, kontekstavhengige utsagn, løgn. Jeg tror nøkkelen er å sosialisere roboter i omgang med mennesker…

    • Roger Olsen (svar til Vemund Vikjord)

      Og her slo du deg sjøl knallhardt i huet…

      Ved sosialisering så skal man oppnå …?

      Man har mennesker som fungerer helt greit, som har trøbbel med alle de tinga du nevner.

      Fellesnevneren ved de høyest fungerende av disse er at de er i stand til å lære. De lærer ironi, løgn, og empati.

      Hvordan skal du skille ett menneske fra en robot da? Når disse egenskaper er noe tillært.

      «Du din assburger funkernte ånkli! Du har lært deg ting!»?

      Du har mildt sagt forlest deg på noe du ønsker skal være sant, og har likt lyden du hørte. Omtrent som en papegøye gjentar du lyden. Skal jeg dermed påstå at du er en robot, siden du ikke har brukt «your own mind»? Er du ett mindre menneske?

      Du en begår en dødsynd, og plasserer mennesket høyest i skaperverket. Som mange av dine referanser.

      Det menneskelige sinnet er ikke noe guddommelig og eget.

      Sirkelargumentasjonen i chinese room blir ikke noe bedre av sånn tull du presterer her.

      Om jeg postulerer at «gud finnes», hvordan skal du motbevise det? Det blir jo bare vrøvl. Samme med argumentene i chinese room. Aksiomene tilsier at resultatet er korrekt, logisk nok. Og akkurat dette eksemplet er jo aksiomet «mennesket er noe eget», så selvfølgelig er konklusjon det samme.

      arggghhhh!!!!1

  2. Didrik Sæther

    Hva med poker? Texas hold’em er interessant, fordi limit-versjonen er formaliserbar, og da mulig for en datamaskin å kalkulere seg frem til. No-limit derimot har jeg ikke funnet (eller hørt om) noen implementasjoner som har klart å stille opp mot verdens beste.
    De beste ai-ene benytter Monte Carlo-algoritmen her også, men hvordan det fungerer for spill hvor bløff er et stort aspekt av spillet er en veldig morsom utfordring.

    Svar på denne kommentaren

  3. Sverre V Blindheim

    Dette var en ganske velskrevet og innsiktsfull artikkel om et meget interessant og fremtidig brennhett tema. Godt jobbet!

    Dog har jeg et behov for å bemerke at Boström bruker tankeeksperimentet om denne «paperclip robot»‘en for å vise at hvilke «mål» vi setter som «ultimate»- han foreslår selv filantropi – for en eventuell fremtidig superintelligens – noe som forøvrig er noe ganske annet enn et eventuelt bridgeprogram ut i fra Boströms egen definisjon -, men også hvordan vi strukturerer hvilke «mål» som har prioritet er problemstillinger vi må ta stilling til før vi utvikler dem.

    Samtidig hevder han at vi bør utvikle den første superintelligensen så fort som mulig, da den med rett programmering vil bidra kvalitativt innen de fleste vitenskapelige aspekter samt kunne løse etiske problemstillinger for oss.

    Slik sett er mitt inntrykk at Niklas Boström selv er positiv til dem, mens du virker mer negativ. Har jeg rett? Hvis ja, hvorfor?

    Svar på denne kommentaren

    • Atte, bake inn filantropi er heller ingen garanti.

      Mener det er Boström (muligens noen andre, men det endrer ikke noe), som nevner «gjør mennesker lykkelig».

      OK? Mennesker smiler når de er lykkelig. Da kobler vi strøm på de så de har konstant smil.

      Filantropisk? Ikke veldig mye.

      Det er nettop slike «kortslutninger» (pun intended) Boström mfl. er redd for.

      Og slike artikler en alvorlige kortslutninger. Og din kommentar.

    • Sverre V Blindheim (svar til Roger Olsen)

      What?

      Boström er ikke redd for disse superintelligente datamaskinene, han oppfordrer oss faktisk til å utvikle dem så fort som mulig.

      Men, han påpeker at vi må være nøye i programmeringsprosessen, da utgangspunktet for den første superintelligente datamaskinen vil være malen for fremtidige superintelligente datamaskiners «målhierarki».

      Og det eksempelet med menneskers lykke, smil, for så å sette strøm på menneskene? What? Tror du har misforstått hva som menes med å sette filantropi som øverste «mål», så en lesing av Boström hadde gjort seg hvis du er interessert i dette temaet.

      Samtidig er det viktig å huske at rasjonaliteten til en slik superintelligent datamaskin er utilgjengelig for oss.
      Den vil forstå mennesker bedre enn mennesker forstår seg selv.
      Slik at for den å sette menneskers beste foran alt er faktisk noe den vil utføre bedre enn oss selv.

      Det beste argumentet oppi alt det her, er at en slik superintelligent datamaskin er umulig, da menneskets bevissthet og dets fantastiske evner ikke er konstituert av det fysiske, og slik sett umulig for oss mennesker å rekonstruere.

      Men, hvis bevisstheten vår er konstituert av det fysiske, og vi kan gjenskape den, så er det bare et spørsmål om tid før disse datamaskinene er et faktum og vi må derfor allerede nå diskutere de etiske detaljene og de tekniske detaljene.

    • Roger Olsen (svar til Sverre V Blindheim)

      jeg sa ikke Boström var redd for maskinene per se, men for «kortslutningene» maskinene kan gjøre om de er lagd/gjort feil. stor forskjell.

      du innbiller deg forøvrig mye rart om du tror at hva du anser å være menneskets beste matcher hva andre mennesker mener. tør jeg minne om at man har forskjellige politiske partier av en grunn? og varierende grad av resultater i ymse settinger av «menneskets beste». du tror kanskje det er mulig å hoste opp en objektiv moralsk sunn definisjon av noe slikt? og at det igjen er mulig å omsette dette til noe «lærbart» maskinellt?

      hvis det var tilfelle så ville man vel hatt en rasjonell tilnærming til dette, og faktisk omsatt dette i praksis snarest mulig? eller er dette i orden, mn det finnes noen som ikke vil at slikt skal komme ut?

      eller tror du at man skal forsøke å lage en ASI og at man på veien din skal klare å la pre-ASIen lære ASIen hva som er korrekt?

      vi snakker i essens om å skape noe tilnærmet magisk (Arthur C. Clarke tror jeg), og å stole på noe slikt overhodet…

      det var det beste for mennesket at dinosaurene ble utryddet. det kan fort være en tilsvarende slutning som blir gjort: det beste for mennesket er å fjerne mennesket, og få noe nytt. man kan være så glad i hesten sin som man bare vil, men man kaller det jo ikke «hestemedisin» for moro skyld.

      så en «safe guard» med en «filantropisk underliggende moral» vil ikke nødvendigvis heller være verdt noe mer enn skribleriene her.

      det er jo også noe interessant at man anser at det som har skjedd på jorden de siste 10-20 000 år som å være det ypperste noensinne i hele universet (alle universer eventuelt for de som tro på den guden), gjennom 14 milliarder år, og som finner status quo sånn omtrent som verdt å bevare.

      at en ASI vil konkludere likedant er ganske naivt. hva trenger vi ASIen til når man allerede har utnevnt seg selv til gud?

      noterer meg i bakkant at NRKBeta åpenbart vil ha det på barneskole-filosofisk-nivå, og blir litt småsnurt når man påpeker denslags surr.

    • Sverre V Blindheim (svar til Roger Olsen)

      Jeg synes du er i overkant selvsikker når du bare konkluderer gang, på gang, på gang, at dette prosjektet er dømt til å feile. Som om du, eller jeg, har mulighet til å forstå dette?

      Men ja, jeg tror at innen moderne programmeringsspråk så finnes det, eller kommer til å finnes, måter å formulere seg på som kan ivareta «ting» som de fleste er enige i er til menneskets beste, og slik sett sette metabegrensninger for super-intelligensens handlinger, som beskytter mennesket.
      Hvordan; hakke peiling!? Er ikke en av de dyktigste programmererne som lever..
      Har faktisk ganske begrenset innsikt i hele problemstillingen..

      Og ja, hvis en slik super-intelligens er mulig, samt blir realisert, så kan den gjennom sin teoretisk høyere forståelse av etikk og generelt sett bedre forståelse av menneskeheten og dens reelle ønsker og behov, utføre handlinger som individer vil reagere på. Slik er det bare, og det er heller ikke veldig ulikt slik politikk utøves idag – at noen utfører handlinger/lager regler som individer er imot.

      Jeg ser din rekke med analogier, men syntes ikke de styrker saken din nevneverdig. Heller ikke dine forsøk på å sverte/latterliggjøre min posisjon.

      Jeg skjønner egentlig ikke helt hva du forsøker å argumentere for heller..
      Mener du at en superintelligens ikke vil forholde seg til sin programmering?

      Eller kanskje at det er en umulig programmeringsteknisk oppgave å formulere slike begrensninger?

      Isåfall vet jeg ikke om jeg klarer å ta deg som autoritet på disse påstandene. Hvorfor skal jeg?

  4. Man merker godt utviklingen som foregår innenfor spillteknologien i bridge. Bridgeroboter, eller GIBs som de også kalles på internettets mest populære bridgespill BBO, var temmelig simple da de ble presentert for noen år siden. Måten de spilte på var slik at man flirte til dem, og kunne bli irritert om man måtte spille på lag med en slik. Men de har vært gjennom en rivende utvikling. Nå kan de hamle opp med middels gode bridgespillere, og de vil nok bli stadig bedre etter hvert som algoritmene forbedres.

    Svar på denne kommentaren

  5. Jeg skjønner ikke helt hvorfor man skal være så redd for en «paperclip optimizer». Det finnes to alternativer: enten er AIen mer intelligent enn funksjonen som forteller den hva det er den skal gjøre, eller så er den ikke mer intelligent enn denne funksjonen.

    Hvis AIen er den smarteste, finner den fort ut at det enkleste å gjøre er å lure seg selv til å tro at universet er fullt av binderser (f.eks. ved å fore sine egne sensorer med falske data). Det er mye enklere enn å faktisk fylle universet med binderser. Det vil være naturlig å tro at personen som programmerte roboten til å lage binderser ville ha lagt inn noe antijuks ala «roboten kan ikke tukle med sensorene som er koblet til seg selv». Men hvis AIen er smartere enn mennesket, så er den også smartere enn antijuksfunksjonen og kommer seg lett unna.

    På den annen side, hvis AIen ikke er smartere enn funksjonen som forteller den hva den skal gjøre, så må den funksjonen være veldig intelligent, og da kan den håndtere unøyaktige instrukser. Da vet den at «gjør mennesker lykkelige» slettes ikke betyr «sett strøm på dem».

    Så enten blir roboten ufarlig etter at den lurer seg selv, eller så klarer den å skjønne hva man faktisk ønsker. I begge tilfellene unngår man bindersapokalypsen. What’s the big deal?

    Det virker som noen har rekonstruert trollmannens lærling-historien i høyteknologisk drakt for så å tenke at siden det er lett å forestille seg roboter som går amok så må det være en reell risiko (availability heuristic style). Men Elon hadde ikke kommet dit han er i dag om han var dum!

    Svar på denne kommentaren

    • navn (svar til Johan)

      Stikkordet her er «idiot savant».

      «Super-intelligent» på ett område. Holder ikke buksa ren ellers.

      Det er en slik variant Boström er «redd for».

    • Sverre V Blindheim (svar til navn)

      En slik variant definerer Boström bort i sin definisjon av super-intelligens, da en super-intelligens er mer intelligent en mennesker på alle områder, ikke bare ett.

      Boström er derfor ikke redd for dette, og generelt sett ikke rett for super-intelligent datamaskiner i det hele tatt.

Legg igjen en kommentar til Anders Avbryt svar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *. Les vår personvernserklæring for informasjon om hvilke data vi lagrer om deg som kommenterer.