nrk.no

Hvordan endte datamaskinen opp med å bli usynlig?

Kategorier: Samfunn & Teknologi og forbruker

Datamaskinene er i ferd med å bli usynlige. (Ikon: http://www.danilodemarco.com/)
Datamaskinene er i ferd med å bli usynlige. Illustrasjon: Kristoffer Dyrkorn; figurer: Danilo De Marco

De første datamaskinene var kompliserte og sårbare, og bare eksperter klarte å bruke dem. I dag bruker vi datamaskiner hele tiden, uten å tenke over det og uten å vite det. Hvordan kom vi hit? Her er litt historie og noen tanker om fremtiden.

I starten, for omtrent 70 år siden, var datamaskiner store, dyre, og vanskelige å lage. Etter hvert gjorde utviklingen i elektronikk at ting ble bedre. Noen av forbedringene som kom gav oss raskere maskiner, mens andre gjorde dem mer brukervennlige – blant annet med hjelp av stadig bedre datagrafikk.

Nå ser vi at datamaskinen er i ferd med å bli erstattet av andre og mer spesialiserte enheter.

Datamaskinen blir usynlig for oss.

Den spede begynnelsen

På 50-tallet var en datamaskin et komplekst og sårbart apparat som gikk i stykker hele tiden. Like fullt la man mye penger og forskning i å gjøre datamaskinene bedre. Tanken bak var at datamaskinen – en ny, elektronisk regnemaskin – skulle klare å gjøre store beregninger mye raskere enn hva de mekaniske regnemaskinene klarte.

Jean Hall programmerer ADIVAC. (Foto: Energy.gov)
Jean Hall programmerer ADIVAC. Foto: Energidepartementet i USA

Datamaskinene var imidlertid vanskelige å bruke. Regneoppgavene måtte programmeres på hullkort av papp, legges i fine stabler i en kortleser på maskinen, og så måtte man vente noen timer eller dager mens maskinen jobbet seg igjennom oppgavene.

Svarene kunne leses ut på strimler av papir dersom alt gikk bra med både innlesningen, kjøringen og utskriften, og dersom programmet ikke hadde feil i seg.

Om maskinen brøt sammen, noe som tidvis skjedde, måtte man også begynne på nytt.

Fra regnemaskin til datamaskin

I 1960 kom maskinen PDP-1. Dette var den første maskinen på markedet som hadde skjerm. Brukeren fikk nå en mulighet til å ha en dialog med maskinen mens den kjørte. Ved å se på skjermen kunne man følge med på hva som skjedde. I tillegg var maskinen så rask at man kunne skrive kommandoene på et tastatur og se resultatet på skjermen etterpå.

Dette var en interaktiv maskin. Maskinen skulle her føye seg etter brukerens arbeidstempo, og ikke omvendt. Den skulle ikke bare gis regneoppgaver og stå og jobbe for seg selv, den skulle bearbeide data i samspill med brukeren. Dette var nytt.

PDP-1, Computer History Museum, Mountain View. (Foto: Sandy Kemsley, CC BY-NC-ND 2.0)
PDP-1, Computer History Museum, Mountain View. Foto: Sandy Kemsley, CC BY-NC-ND 2.0

Skjermen var laget slik at den både kunne vise tekst og grafikk. Og en dag hadde noen laget programmer hvor man kunne styre figurer på skjermen mens de beveget seg. Et av verdens aller første dataspill, Spacewar!, hadde blitt til.

Trykk på videoen for å se hvordan spillet Spacewar! ser ut:

Her skulle brukerne styre to raketter i verdensrommet og forsøke å skyte på hverandre. Den raske grafikken viste seg å være så fengende at spillet ofte ble vist fram for mulige kjøpere. Og PDP-serien av datamaskiner ble veldig populær, det ble laget nye modeller i over 30 år.

Elektronikk og skjermer

Skjermen på PDP-1 var en såkalt vektorskjerm. Når den viste grafikk var bildene bygget opp ved hjelp av rette streker. Grunnen var at det krevde liten lagringsplass (RAM) å vise fram et skjermbilde når det ble definert på denne måten. RAM-brikker, komponentene man trengte for å holde på bilder i hukommelsen til maskinen, var på denne tiden veldig dyre. Så det å bruke streker i opptegningen holdt prisene nede.

Dagens framgangsmåte, det å bruke små punkter (piksler), gir mye bedre gjengivelser av bilder, men krever også mye mer lagringsplass. Det å lagre skjermbildene som piksler ville gjort at maskinene hadde blitt altfor dyre. Og ingen kunne kjøpt dem.

Tektronics 4014 vektorskjerm. (Foto: David Gesswein, CC-BY-SA-4.0)
Tektronics 4014 vektorskjerm. Foto: David Gesswein, CC-BY-SA-4.0

Midt på 70-tallet gikk imidlertid utviklingen av elektronikk og elektroniske kretser veldig fort. Produsentene klarte å krympe innmaten i komponentene, og det gjorde at RAM-brikkene fikk større kapasitet enn før, men uten å bli dyrere. Sagt på en annen måte: Lagringsplass ble billigere. Dette gjorde at også datamaskinene ble billigere. Nå var det mulig for langt flere å ta dem i bruk.

Priser på RAM, 1974-1983. (Kilde: John C. McCallum)
Priser på RAM, 1974-1983. Kilde: John C. McCallum

I 1981 lanserte IBM en datamaskin de kalte Personal Computer. IBM hadde fra før laget systemer for kontorbruk der mange ansatte delte en maskin. Produktidéen til IBM var nå at hver ansatt skulle ha sin egen. Datamaskinen ble personlig.

PC-en ble en så stor suksess at produktnavnet PC ble det nye ordet for datamaskin. Men PC-en var vanskelig å forstå og bruke. Den var laget for tekstbehandling og regnskapsføring, og den kunne ikke tegne grafikk.

Konsepter som filer, programmer og lagring av data, som måtte forstås for å kunne bruke maskinen, ble presentert på abstrakte måter. Mange brukere bladde i håndbøker og gikk på kurs, uten å bli så veldig mye klokere. Datamaskinen forble mystisk og utilgjengelig.

DOS, grensesnittet på IBMs PC. (Foto: Kristoffer Dyrkorn, CC BY-SA 2.0)
DOS, grensesnittet på IBMs PC. Foto: Kristoffer Dyrkorn, CC BY-SA 2.0

Andre valgte å bruke prisnedgangen på elektronikk til andre ting. Da komponentene ble bedre og billigere valgte noen av de som laget spilleautomater å bytte ut vektorskjermene med pikselskjermer. Teknologen var ikke lengre for dyr. Og pikselskjermene gjorde at spillene nå fikk raskere grafikk og store, fargerike flater.

Hjemmedatamaskinene var basert på nettopp denne ideen. Dette var enkle og billige maskiner som stort sett ble brukt til å spille spill. TV-en, som man jo hadde fra før, ble brukt som skjerm.

Hjemmedatamaskinene fikk stor betydning: De gjorde det mulig for langt flere å lære seg hva en datamaskin er og hva den kunne brukes til. En ny generasjon av programmerere kom til. De hadde lært seg koding hjemme, på fritiden, og ikke på jobb eller i et fag på et universitet.

Trykk på videoen for å se spillet Pole Position 2 i aksjon på Atari 7800:

Grafikk og brukervennlighet

Xerox Alto var den første datamaskinen som viste programmer på skjermen slik man gjør i dag, med bruk av ikoner, menyer og vinduer.

Den kom i 1973, nesten 10 år før IBMs PC. Produsenten, Xerox, tok konsepter fra den virkelige verden, puttet dem inn i datamaskinen, og brukte datagrafikk til å gjengi dem på en realistisk måte.

Alto var en maskin som det var lett å lære seg.

Brukerne kjente igjen skrivebordene og arkivmappene fra kontorene sine som ikoner på skjermen. Alto ble dessverre ingen suksess. Den hadde en pikselskjerm, noe som på denne tiden gjorde den for dyr, og utvalget av programmer var ikke stort nok. Men, de samme tankene om brukervennlighet dukket opp på ny senere – i en maskin som skulle bli verdensberømt.

Trykk på videoen for å se hvordan grensesnittet fungerer på en Xerox Alto:

I 1984 lanserte Apple maskinen Macintosh, et slags motstykke til IBMs PC. Macen var en alternativ kontormaskin – og den var tydelig inspirert av Alto. Apple hadde valgt som prinsipp at god interaksjon med brukeren var viktigere enn lav pris og høy ytelse. Macen ble etter hvert veldig populær til kontorbruk, spesielt innen grafisk design og på universiteter.

Grensesnittet på den første Macen. (Skjermdump: Apple)
Grensesnittet på den første Macen. Skjermdump: Apple

Grensesnittet på Macen var mye mer forståelig enn PC-en sitt. Og etter hvert forstod IBM og samarbeidspartneren Microsoft at Apple hadde lyktes med å skape et godt produkt. Brukerne hadde nærmest et religiøst forhold til maskinene sine. Microsoft kom deretter med sitt svar, Windows. Windows ble standard på PC-er, både hjemme og på kontoret.

På dette tidspunktet var det ikke lenger noen tvil: Folk ville ha brukervennlige maskiner, og det betød at maskinene måtte ha god grafikk. Brukerne fikk det etter hvert som de ville, men det oppstod samtidig et problem: De fargerike og detaljerte skjermbildene gjorde at maskinene ble trege. Det var for mye jobb for maskinen å regne ut og tegne opp alt sammen.

Spesialisering

Løsningen ble grafikkort. Dette var en elektronisk krets som kunne plugges inn i maskinen. Grafikkortet jobbet i parallell med resten av maskinen og hadde kun én oppgave: Å regne ut og tegne opp grafikk.

Dette hjalp veldig, ting gikk igjen raskere. Det at grafikkortet var spesiallaget for å jobbe med helt bestemte oppgaver gjorde at ytelsen ble god uten at man å måtte betale så mye for det.

På starten av 90-tallet begynte kappløpet om god grafikk for alvor. Brukerne ønsket seg stadig flere farger, høyere oppløsning og enda jevnere bevegelser på skjermen.

Produsentene tilbød raskere og raskere grafikkort. Teknologien ble etter hvert så god at det å vise ikoner og programmer i vinduer på skjermen ikke var så veldig krevende lengre. Maskinene hadde fått overskudd til å gjøre andre ting også. Behovene – og mulighetene – tok nye retninger.

Tre dimensjoner

Spill som Doom (lansert i 1993) og Quake (i 1996) gjorde at mange oppdaget tredimensjonal grafikk. I disse spillene kunne man bevege seg fritt rundt inne i en virtuell verden, modellert som hus, og skjermen viste grafikk som var mye mer realistisk enn før. Begge spillene ble store suksesser. Realisme og lynrask interaksjon var kult.

Quake. (Skjermdump: id Software)
Quake. Skjermdump: id Software

På slutten av 90-tallet startet en ny periode med spesialisering. Doom og Quake hadde blitt så populære at man begynte å lage egne grafikkort og prosessorer for å håndtere tredimensjonal grafikk. Prosessorene fikk egne navn, de ble kalt GPU-er. GPU-ene tok jobben med å regne ut og tegne opp de virtuelle verdenene man bevegde seg rundt i. De ble etter hvert svært raske. Prisene på elektronikk fortsatte å gå ned, og spesialiseringen gjorde også denne gangen dette ikke ble for dyrt for brukerne.

Det neste tiåret utviklet grafikk-teknologien seg voldsomt. Nye og kraftigere GPU-er ble stadig lansert, og samtidig ble det laget enda mer avanserte og ressurskrevende spill. Ett eksempel er Grand Theft Auto IV (lansert i 2008). Her kunne man bevege seg fritt rundt i store, detaljerte bymiljø med ekstremt naturtro grafikk.

Grand Theft Auto IV. (Skjermdump: Rockstar Games)
Grand Theft Auto IV. Skjermdump: Rockstar Games / GTA Wiki

Likevel var det å spille spill bare en av mange måter å bruke en datamaskin på. Dataspillene fikk mer og mer fascinerende grafikk, men dette endret ikke på hva man ellers så på skjermen. Det grunnleggende innholdet, som filer, programmer og vinduer, ble vist på akkurat samme måte som på Xerox Alto 30 år før.

Den nye personlige datamaskinen

I 2007 lanserte Apple sin første iPhone. Dette var egentlig en liten datamaskin som det også var mulig å ringe med. Først nå fikk vi en datamaskin som faktisk var personlig.

iPhonen snudde også om på de aller fleste ideene om hva en datamaskin skulle være. Skjermen var liten og man brukte berøringsskjerm istedenfor tastatur. Det var bare mulig å kjøre ett program om gangen og det var ingen muligheter for å håndtere filer.

Dette gjorde at en del følte at de mistet litt kontroll.

Men, brukerterskelen ble mye lavere. Det var svært få muligheter for å gjøre feil. Og datamaskinen hadde nå blitt en gjenstand som var tilgjengelig overalt, hele tiden. Man kunne putte den i lommen og den var tilkoblet internett, alltid.

Smarttelefonen, som den ble kalt, ble raskt allemannseie.

Hva nå? Ikke grafikk og datamaskiner

Utviklingen av datamaskiner var lenge styrt av ønsket om å få se informasjon på en skjerm. De tekniske framskrittene påvirket innovasjonen i ulike retninger, men datagrafikken la mye av grunnlaget for den brukervennligheten vi etter hvert har fått.

Datagrafikken gav oss også veldig raske prosessorer, GPU-ene. De ble først laget for å regne på tredimensjonal grafikk, men de har nå fått et helt nytt bruksområde: Å trene opp nevrale nettverk, et verktøy i maskinlæring. Og presis maskinlæring gjør blant annet at stemmestyring fungerer bedre enn før.

Dette gjør at vi i dag ikke trenger å tenke så mye på å lære oss maskinenes språk. De lærer seg vårt. Fra å se på sofistikert grafikk på en skjerm går vi videre til noe som er enda bedre: Å kunne bruke datamaskiner uten å legge merke til det. Grafikken har gjort seg selv overflødig.

Smarttelefonene bidro til å omdefinere hva en datamaskin skulle være. De, og nettbrettene, åpnet for helt nye måter å bruke datamaskiner på.

Berøringsskjermer, stemmegjenkjenning og nettsurfing fra sofaen fantes knapt før.

Denne utviklingen vil antagelig fortsette: Den klassiske datamaskinen med skjerm og tastatur erstattes gradvis av flere små og spesialiserte enheter som man kommuniserer med på nye måter.

Felles for alle de spesialiserte enhetene er at de har datamaskiner inni seg, men vi merker ikke lengre noe til selve datamaskinen i dem.

Datamaskinene er overalt, men samtidig ikke.

Saken er oppdatert med en rettelse: Datamaskinen Alto var ikke laget av DEC, men av Xerox.

6 kommentarer

  1. Det er vel ikke helt sant at det var DEC som produserte Xerox Alto – det var (surprise, surprise!) Xerox.

    DEC sto bak PDP-serien, fra PDP-1 og oppover.

    Da IBM kom med sin PC var det først og fremst å gjøre personlige datamaskiner tilgjengelig for folk med mindre datakunnskaper. IMSAI fra 1975 solgte i innpå 20.000 eksemplarer, Altair, også fra 1975, hadde Basic-tolk fra Microsoft og S-100 standard buss. Disse to så ganske «datalab»-pregede ut, med rader med brytere og lysdioder. I 1977 kom Commodore PET, som var klart og tydelig for konsument-markedet, med tastatur og skjerm og kabinett som kunne plasseres i vilkårlig kontorlandskap.

    IBM PC var heller ikke IBMs første «personlige» maskin: Også de kom med en «kontormodellen» 5100 – et slepbart drog på 24 kg. Men den hadde full APL, som var artig å leke med; jeg fikk inn «workspace»-modellen med morsmelka. Det fantes et fancy grafisk bibliotek, som plottet kurver med ASCII-tegn… Men vi ble vant med ideen om grafiske presentasjoner helt fra starten av.

    Vi hadde også GPU, eller «Graphic Option», til våre Tandberg 2215-terminaler i 1980, riktignok begrenset til strekgrafikk, ingen gråtoner eller farger, men det var fantatsisk til forhåndsvising av typografisk layout. Spesialiserte systemer hadde hatt det noen år; det fantastiske med TDV2215 Grpahic Option var at prisen var så lav at hver eneste mann i redaksjonen kunne ha det på kontorpulten sin; nærmeste konkurrent kostet det tredobbelte.

    Det er naturligvis umulig å ta med seg alt. Men når vi fester oss ved produkter som IBM PC og MacIntosh, må vi være klar over at det svært sjelden er snakk om at de er «først». Tvert om: De er tegn på at teknologien er moden, og slår gjennom i masemarkedene. som regel ligger det flere «prototyping-generasjoner» og anvendelser i små nisje-markeder forut for de navnene vi kjenner.

    Svar på denne kommentaren

    • Kristoffer Dyrkorn (svar til keal)

      Takk for innspill! Du har helt rett angående produsenten av Alto – det var rett og slett en feil som hadde sneket seg inn. Jeg har korrigert teksten nå. Og, som du er inne på, det er umulig å ta med alt i en slik oppsummering. Jeg har her valgt ut noen modeller som jeg synes har vært viktige. Jeg skulle gjerne tatt med mer om hjemmedatamaskinene også, spesielt Commodore Amiga.

  2. Pussig nok har jeg mye av sammen følelsen overfor motorer – de bare er der og gjør jobben.

    I min fars utgamle «Lærebok til førerprøven» er det detaljer om bilmotorens virkemåte og justering, bruk av usynkronsiert girkasse og problemer jeg ikke ante eksisterte. Min mors golvmodell Singer symaskin måtte oljes og renses regelmessig.

    I dag behøver du ikke engang styre gressklipperen eller støvsukeren, de durer rundt på egenhånd. Det er motorer overalt: Jeg hadde et stereoanlegg med fjernkontrol, der fjernkontrollen styrte motoren som trakk nivåkontrollen. Inni en tårn-PC har du kjapt 6-8 motorer, til disker og vifter og DVD-drev og alskens rart. Det er færre i en kompakt bærbar, men kan være et par stykker der også. De som har et fullvoksent videokamera betjener motorer for fokusering og zoom og kanskje billedsstabilisering. Dengang vi brukte tape-kassettter hadde vi motorer både til trommel og spoling og åpning/lukking av deksel…

    Parallellene er mange: På samme måte som vi bruker datamaskiner overalt uten å tenke over det, bruker vi motorer overalt uten å tenke over det.

    Svar på denne kommentaren

    • henriko (svar til keal)

      Så sant så sant! Men det er også på godt og vondt… Jeg var på fjorden i Mai med min 4-takters båtmotor. Du er blitt vant til at det «bare funker», så når den så stopper er det og begrenset hva du kan gjøre. Med de gamle to-takterne var det mye enklere å mekke ting selv. Nå er man overlatt til å kun ringe etter hjelp, og det blir det nok mer og mer av i både bil og båt!

  3. Kult Kristoffer, jeg liker godt å lese historiske fremstillinger om hvordan datamaskinen har blitt som den har blitt idag. Men det hadde også vært interessant å lese mer om drivkreftene bak. F.eks. tilbud/etterspørsel, Moore’s lov og FOU i det militære.

    Svar på denne kommentaren

    • keal (svar til Aksel)

      Hadde vært interessant – men på en del felter er det å stikke hånda inn i et vepsebol. Også (eller i en del tilfeller: særlig) bransjefolk har svært ulik forståelse av hvilke krefter som drev ulike teknologier framover.

      Det behøver verken ha vært kommersielle krefter eller teknologisk overlegenhet, men f.eks. hvilke spesifikasjoner som ble gjort fritt tilgjengelig for teknologi-studenter, slik at flertallet nyutdannede hadde bred erfaring med én teknologi og ikke med en annen. Akademia satser på det som gir mest for pengene; deretter søker de frenetisk etter argumenter for å begrunne at det var det teknologisk beste – ofte med lite hell. Men ikke prøv å diskutere slikt med univeritetsfolk!

      Psykologi er viktig her – med design (les det gjerne som «glossy finish») som en viktig del av dette. Image-bygging, markedsføring.

      Teknologiske aspekter,som Moore og militær forskning, gir råmateriale til markedet for teknologiske produkter, men bestemmer ikke hva som skal slå gjennom. Det bestemmes av markedsføring og reklame, psykologi, design, og ikke-teknologiske ting som f.eks. opplæring, brukerterskel og UX-tilpasning til etablerte konvensjoner, terminologi og hvilke idoler du får til å stille opp i reklamene. Og en rekke andre ikke-teknologiske aspekter. Det er ikke teknologer så glade i å diskutere 🙂

Vil du kommentere? Svar på en quiz fra saken!

Vi er opptatt av kvaliteten på kommentarfeltet vårt. Derfor ønsker vi å sikre oss at alle som kommenterer, faktisk har lest saken. Svar på spørsmålene nedenfor for å låse opp kommentarfeltet.

Hva het den første datamaskinen som ble solgt med skjerm?

GPU-er fikk et nytt bruksområde, å ...

Macintosh var inspirert av

Legg igjen en kommentar til Aksel Avbryt svar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *. Les vår personvernserklæring for informasjon om hvilke data vi lagrer om deg som kommenterer.