NostalgiPC-en gjennom 15 år

– To kjerner? Pøh, vi hadde to prosessorer

Her har du en liten gjennomgang av de siste 15 årene med hjemmedatamaskineri.

I diskettens tid

Spoler vi tiden 15 år bakover skriver vi 1998, året Hardware.no ble til. Ikke alle våre lesere vil huske denne tiden like godt – noen av dere var sikkert ikke engang påtenkt – men gamle travere vil helt klart minnes de smått kaotiske tidene da den personlige datamaskinen tok sine første skritt mot den gjengse forbruker.

US Robotics var et kjært navn i de gamle modemdager.Foto: Vegar Jansen, Hardware.no

Det var en tid fylt med teknologi som vi sjelden ser i eller rundt dagens datamaskiner: IDE- og SCSI-grensesnitt, Master/Slave-problematikk, CRT-skjermer, coax-nettverk og Internett via modem.

Men fikk du øye på en typisk stasjonær PC på et gutterom i ’98, så den i bunn og grunn ut som en av dagens modeller. Kanskje litt kjedeligere og i PC-brungrå farge, men stort sett det samme. Okei, en ny PC er kjappere, og har kanskje vannkjøling, støydemping og litt mer spenstig utseende, men den fungerer på akkurat den samme måten.

Kraftig skjermregime

Alltid gøy å dra på LAN med disse beistene.

Umiddelbart er nok skjermen den største synlige forskjellen – på den tiden var det altså CRT-teknologien som regjerte, noe som betydde skjermer på størrelse og tyngde med små akvarier. LCD-teknologi var riktignok oppfunnet, men på slutten av 90-tallet kostet slike skjermer så mye at ingen normale folk ville ta seg råd til en slik.

I tillegg har dagens skjermer vokst. Da LCD-panelene omsider ble rimelige nok for hvermannsen, sånn rundt 2004, begynte de også å ese ut i bredden. Innen få år fikk vi flere tommer og 16:10 bredde/høydeforhold som standard. I dag har dette dreiet til 16:9, blant annet fordi det er rimeligere å produsere.

De siste årene har vi også fått skikkelig berøringsfunksjonalitet og stadig høyere oppløsninger.

Mus med kule

Datamusa er en annen komponent som har forandret seg fra den gangen. Ikke innen form eller funksjon, men selve sensoren. Den gangen var det ikke laser eller optikk som gjaldt – musa hadde en kule som rullet mot underlaget, og det var denne rullingen som fikk skjermpekeren til å bevege på seg.

Ulempen med denne analoge teknologien var at støv og skitt hadde en tendens til å plukkes opp av kula og settes av på pinnene som oversatte kulas bevegelser til elektriske signaler. Det bød etterhvert på ujevn gange, så rengjøring av mus var noe de fleste hadde peiling på.

Den deilige disketten

Diskettstasjonen må også nevnes. I 1998, og i flere år etterpå, var dette en ren nødvendighet. Relativt få personer hadde Internett, nettverk var kronglete, bærbare PC-er var latterlig dyre og USB-minnepinnen var ikke oppfunnet. Minnekort fantes riktignok, men var verken billig eller utbredt. Derfor var disketten en god venn i ’98. En typisk 3,5-tommers diskett kunne by på hele 1,44 MB lagringsplass – nok til en liten haug med skoleoppgaver, og «alle» PC-er hadde jo en diskettstasjon.

Undertegnedes første harddisk fra 1996: 5,25-tommers Quantum Bigfoot på 2,1 GB. Heldigvis økte kapasiteten relativt fort.Foto: Vegar Jansen, Hardware.no
Iomega Zip var en diskettstasjon, her i en «moderne» USB-strømforsynt utgave som kunne lese disketter på hele 250 MB.Foto: Vegar Jansen, Hardware.no

Lagring og lagringskapasitet er for øvrig kanskje det området der det har skjedd mest siden 1998. Allerede den gangen var det store omveltninger i markedet – CD-ROM-stasjonen var nokså standard (men brenner var for dyrt for de fleste), og MP3-formatet hadde nettopp gjort sitt inntog. I og med at folk begynte å høre på og dele digital musikk, og at nettilgangen var for dårlig for noe annet enn å ha alt lokalt, ble det fort et større press på rimeligere lagring.

I en kort periode var Iomegas Zip- og Jaz-disketter et kjekt og portabelt alternativ, men det tok ikke så veldig mange måneder før harddiskprodusentene slo tilbake med disker som ga mer plass for pengene. På slutten av 90-tallet hadde en god geek alltid med seg en intern 3,5-tommers harddisk i sekken – gjerne i en 5,25-tommers brønneskuff så den enkelt kunne kobles til vennenes datamaskin.

Ved årtusenskiftet dukket også minnepinnen opp, og siden da har de store forandringene stort sett gått på pris, hastighet og kapasitet. Med tiden har riktignok minneteknologi blitt så billig at vi har fått rene minnedisker: SSD. Men dette har strengt tatt ikke forandret måten vi bruker lagring på – det er kun en kjappere teknologi.

Neste side: Vi ser på RAM og tilleggskort >>>

Kort til alt

Behovene blir større

Forskjellen på en PC fra i dag og en for femten år tilbake går naturligvis lenger enn lagringsplass og skjerm. Ser vi på grunnkomponentene – altså prosessor, minne og hovedkort – har det også skjedd en del siden 1998. Det synes bare ikke like godt.

Vi nevnte rimeligere minneteknologi på forrige side, og her har datamaskinens egen RAM vært en pådriver. Med unntak av stormaskiner og servere var ikke minnebehovet så stort på de første datamaskinene – de kjørte uansett kun ett program av gangen, og de var ikke akkurat spesielt kompliserte. I tillegg var programmerere i større grad klar over at minne var luksusvare, og således ikke sløste på det punktet.

Men behovet forandret seg naturligvis. I tillegg til mer komplekse operativsystemer, spill og programmer ble multitasking mer vanlig, og minnebehovet steg raskt. En typisk PC fra 1998 ville hatt 32 eller 64 megabyte minne, og derfra har minnemengden økt jevnt og trutt. Heldigvis har også prisene gått ned – 64 megabyte på den tiden gjorde vondt i lommeboka.

Bransjen hadde også en liten standardkrig ved årtusenskiftet, der teknologiselskapet Rambus og deres RDRAM gikk ut som den tapende part.

Integrert blir populært

Som du ser var det ikke så mange kontakter å skryte av... men desto mer plass til tilleggskort.Foto: Vegar Jansen, Hardware.no

Et annet punkt med datamaskinens innmat er hvordan det aller meste nå er integrert. Med prosessor, minne og hovedkort har du en tilnærmet komplett datamaskin. I de hine hårde dager kunne du ikke regne med å få alt på ett fat, i det minste ikke uten å betale i dyre dommer for det. Og siden prisnivået på datakomponenter var relativt høyt, virket det jo mest fornuftig å kunne «ta med seg» så mye som mulig av funksjonaliteten til den neste datamaskinen.

Så tilleggskort måtte til.

Nvidia Riva TNT (under) og Matrox G400. Førstnevnte har PCI-grensesnitt og gjør fremdeles tjeneste i hjemmeserveren.Foto: Vegar Jansen, Hardware.no

Grafikkort var naturligvis en nødvendiget. Dette er heller ikke uvanlig i dag, men er ikke nødvendig for en som ikke skal spille – de fleste moderne prosessorer har dette innebygd. Unnet du deg luksusen med (og hadde fysisk plass til) flere skjermer, måtte du også ha flere grafikkort. I det minste var det slik frem til årtusenskiftet, da kort som Matrox G400 kom på banen og kunne skilte med flere videoutganger.

Om de siste femten årene med skjermkortutvikling har vi lagd en egen artikkel.
Se den solide utviklingen her »

Sound Blaster AWE32, et ISA-lydkort med stiv pris og lengde på 33 cm.Foto: Vegar Jansen, Hardware.no

Spillinteressert? Da måtte du også ha lydkort, og det var bare én ting som telte: Creative Sound Blaster. Dette var å regne som standarden for lyd, og de fleste spill krevde derfor et «Sound Blaster-kompatibelt» lydkort. Her var det også andre aktører på banen, men kompatibilteten var det heller så som så med. De fleste valgte derfor å svelge unna og kjøpe de dyrere kortene fra Creative.

Akkurat som i dag var det altså spillindustrien som i stor grad dikterte maskinvarebehovene – og ikke minst presset frem nye og bedre komponenter.

Akkurat når det gjaldt lyd tok det heldigvis ikke mange årene før kombinasjonen av et moderne Windows og Intels nye AC´97-kodek sørget for bredere lydstøtte i spill, og ikke minst fikk integrert dette på hovedkortet uten at det kostet finskjorta.

Nettverkskort var også svært vanlig i 1998. Dette var tiden da nettverk gikk fra coaxialkabler – med all moroa det brakte med seg innen terminering – og over til TP (twisted pair)-kabler som vi kjenner i dag. Hva slags nettverkskort du skulle ha var altså avhengig av nettverket du hadde tenkt deg på, og å putte begge deler på et hovedkort var dårlig butikk.

Bla videre, det blir AMD vs. Intel >>>

Prosessorkrigen

Akkurat som nå, var det på slutten av 90-tallet i hovedsak AMD og Intel som kriget på x86-prosessorfronten. Året før hadde de servert markedet henholdsvis AMD K6 og Intel Pentium II, som nå befant seg i mange nye datamaskiner. Men i 1998 slapp Intel sine første Celeron-prosessorer, som sammen med en ny generasjon hovedkort gjorde vei i vellinga for folk med litt trangt budsjett. Komboen Intel Celeron 300A og hovedkortet Abit BH6 er klassisk – denne prosessoren var ment å gå på 300 MHz, men kunne i de fleste tilfeller enkelt overklokkes til minst 450 MHz.

Alt var større og bedre før, her er en Intel Pentium II 333 MHz, sokkelen var Slot 1.Foto: Vegar Jansen, Hardware.no

Prosessorkraft kostet en del på den tiden, så for de mange hobbynerder rundt om i verden var det god butikk å sette seg litt inn i overklokking. Fremdeles er det mange som har interesse av å presse litt ekstra ut av prosessoren sin, selv om du ikke kan regne med en så dramatisk ytelsesøkning for dagens prosessorgenerasjoner.

AMD bryter grenser

Ved årtusenskiftet var det duket for en milepæl. I kappløpet med stadig raskere prosessorer nådde man endelig en klokkefrekvens på 1 GHz, og det var AMD som kom dit først. Prosessoren het AMD Athlon, også kalt K7. Den feide Intels daværende flaggskip Pentium III av banen.

Datidens svar på flere prosessorer med flere kjerner var hovedkort med flere prosessorer.Foto: Vegar Jansen, Hardware.no

Høyere klokkefrekvenser og mer komplekse prosessorer betydde også stadig høyere strømforbruk, noe som ga et par små utfordringer når det kom til strømforsyning og prosessorkjøling. Det hjalp heller ikke at grafikkortene også hadde begynt å bli ganske sugne på strøm. Tilsammen førte dette til en del ustabile systemer, folk var jo vant til å bare bruk strømforsyningen som kom med kabinettet – typisk 250 watt av varierende kvalitet.

Alternativt kunne man skylde manglende stabilitet på Windows 98.

Velkommen viftestøy

Årtusenskiftet og AMD Athlon kunne også by på noe annet: viftestøy. Før dette var det små vifter og store køleribber, men nå var det plutselig kraftige luftstrømmer som var greia. Og noen av fabrikantene ga virkelig blanke i støynivået. De berømte og/eller beryktede Delta-viftene dukket opp på denne tiden. Det var som å ha en hårføner på speed i PC-en.

Athlon var starten på hva vi kan kalle en liten gullalder for AMD – nå var de kongen av prosessormarkedet for stasjonære PC-er. Mens Intel hadde problemer med å få dreisen på sin Pentium 4, dyttet AMD ut gode modeller i alle prisklasser.

I 2003 var det duket for den første 64-bit prosessoren rettet mot vanlige forbrukere: AMD Athlon 64, som fikk to kjerner et par år senere. AMD Athlon 64 X2, som tokjerneren het, ble den siste AMD-prosessoren som kunne hamle opp med rivalen Intel.

Intel slår tilbake

Våren 2006 var det duket for en helt ny Intel-prosessor. Core. Den befant seg først kun i bærbare datamaskiner, og het Core Solo eller Core Duo avhengig av om den hadde en eller to prosessorkjerner. I løpet av sommeren samme år dukket Core 2 opp, og da også for stasjonære PC-er.

Intel Core 2 hadde en ytelse kontra pris som etterlot AMDs prosessorer i støvet. AMD forsøkte å svare med sin Phenom og senere Phenom II, men uten hell – i mellomtiden hadde dessuten Intel stablet på beina sine nye Core i-familie, og den har holdt koken helt frem til i dag.

Til slutt: om bærbare og fremtiden >>>

Smått og godt

Bærbart tar over

Gjennom årene har det skjedd mye med datamaskinens form og størrelse. I dag er det jo ikke stasjonære PC-er som dominerer. Med et stadigere større krav til portabilitet, sitter en vanlig databruker heller på en bærbar datamaskin eller nettbrett i dag.

Nå fantes det da relativt små datamaskiner i 1998, bærbare datamaskiner også, men prisene var drøye og skjermkvaliteten kunne ikke måle seg mot en CRT-skjerm. Først etter årtusenskiftet var et anstendig LCD-panel såpass «rimelig» at en grei bærbar datamaskin ikke trengte koste mer enn en månedslønn.

IBM ThinkPad 600 fra 1998.Foto: IBM/Lenovo

Bortsett en stiv pris og kanskje litt traust design, hadde steinalderens bærbare datamaskiner de samme problemene som mange også har i dag: batterikapasitet, lagringsplass og ytelse. Det sistnevnte ga prosessorprodusentene en sekundær arena å konkurrere på, ettersom prosessoren måtte være langt mer energieffektiv i en bærbar enn det som var nødvendig i en stasjonær.

På sett og vis var det også en mobilprosessor som ble Intels redning i kampen mot AMD. De utviklet sin Pentum M-prosessor for bærbare samtidig med Pentium 4, men valgte en helt annen arkitektur for denne. Når det noen år senere viste seg at Pentium 4 var et blindspor, var det Pentium M Intel så tilbake på da de skulle lage sin første Core-prosessor.

En døende dinosaur?

Med såpass mye fokus på mobiltelefoner, nettbrett og bærbare PC-er, har den tradisjonelle datamaskinen med ujevne mellomrom blir sett på som en døende dinosaur.

Stasjonære MÅ jo ikke være tunge tårn.Foto: Jørgen Elton Nilsen, Hardware.no

Men den stasjonære PC-en lever da i beste velgående ennå, og ikke bare i form av et stort tårn for spillgale tenåringer. Små datamaskiner, stue-PC-er og alt-i-ett-modeller sorterer også under stasjonære, selv om disse gjerne har lånt litt bærbar teknologi – som ekstra strømgjerrige prosessorer eller andre komponenter – slik at størrelse, varmeutvikling og støynivå kan holdes nede.

Vi vet faktisk om minst 10 grunner til å velge stasjonær PC.

15 nye år

Som du nå bør ha fått med deg, har det skjedd en god del på PC-fronten over de femten foregående årene. Ikke bare har datamaskinen blitt kjappere og fått mer lagringsplass, den har også blitt mindre og mer portabel. Dessuten er kravene til nettverk og Internett noe helt annet i dag enn tilbake i 1998.

På den tiden satt du gjerne med et modem på en analog telefonlinje, der du betalte per minutts bruk, og det tok ti minutter å laste ned en vanlig MP3-låt på 3,5 megabyte. I dag har vi kjappe, faste linjer, og mobiltelefonen gjør at du på ett vis alltid er på nettet.

Så hvor går vi herfra? Hvor er vi femten år inn i fremtiden?

«The future's so bright, I gotta wear shades»Foto: Google

Dette er det naturligvis umulig å si noe sikkert om, men en ting som er sikkert er at utviklingen ikke stopper opp av seg selv. Datamaskinene vil stadig bli kraftigere, mindre, «smartere» og jobbe tettere mot Internett. Dette ser vi allerede i dag, med spennende prosjekter som Google Glass, som lar data og grafikk fra nettet overlappe virkeligheten.

Internett og kommunikasjon vil nok i det hele tatt stå sentralt og drive sin del av utviklingen. Du kan regne med at stadig flere dingser vil utstyres med sensorer, prosessorer og trådløse nettverksmuligheter. Ikke bare mennesker, men også ting – alt fra leker og klær til matvarer – vil kunne kommunisere med hverandre og resten av verden.

Hvis du føler deg helt utafor uten nettilgang i dag, blir det derfor ikke enklere når Netcom eller Telenor går ned i det herrens år 2028.

Dette er noe av det som kan komme:
10 fremtidsteknologier som kan gjøre maskinen din bedre

Les også
Slik tok Intel-standarden rotta på Apple
Les også
Verdens første RAM-baserte datamaskin feirer 65 år
Les også
Snart kan du styre HPs PC-er med håndbevegelser
Les også
Derfor bruker leserne våre hundretusener på «folding»
Les også
10 fremtidsteknologier som kan gjøre maskinen din bedre
Les også
Her er IBMs flytende transistor
annonse