Laptops, mobiele telefoons en tablets worden elk jaar goedkoper, slanker en krachtiger, terwijl de batterijduur steeds langer wordt. Heb je je ooit afgevraagd waarom dit zo is en of apparaten voor altijd kunnen blijven verbeteren?

Het antwoord op de eerste vraag wordt verklaard door drie wetten die door onderzoekers zijn ontdekt, bekend als de wet van Moore, de schaal van Dennard en de wet van Koomey. Lees verder om de impact van deze wetten op computers te begrijpen en waar ze ons in de toekomst toe kunnen leiden.

Wat is de wet van Moore?

Beeldcredits: Steve Jurvetson /Flickr

Als u een gewone MakeUseOf-lezer bent, bent u mogelijk op de hoogte van de mythische wet van Moore.

Intel CEO en mede-oprichter Gordon Moore introduceerde het voor het eerst in 1965.

Hij voorspelde dat het aantal transistors op een chip ongeveer elke twee jaar zou verdubbelen en jaarlijks tussen de 20 en 30 procent goedkoper zou worden om te maken. Intel's eerste processor werd uitgebracht in 1971 met 2.250 transistors en een oppervlakte van 12 mm

2. De huidige CPU's bevatten honderden miljoenen transistors per vierkante millimeter.

Hoewel het begon als een voorspelling, nam de industrie ook de wet van Moore aan als een routekaart. Vijf decennia lang stelde de voorspelbaarheid van de wet bedrijven in staat langetermijnstrategieën te formuleren, wetende dat, zelfs als hun ontwerpen onmogelijk waren in de planningsfase, zou de wet van Moore de goederen op het juiste moment afleveren moment.

Dit had een domino-effect op veel gebieden, van de steeds betere graphics van games tot het stijgende aantal megapixels in digitale camera's.

De wet is echter houdbaar en de voortgang vertraagt. Hoewel chipmakers doorgaan nieuwe manieren vinden om de grenzen van siliciumchips te omzeilen, Gelooft Moore zelf dat het tegen het einde van dit decennium niet meer zal werken. Maar het zal niet de eerste wet van de technologie zijn die verdwijnt.

Wanneer de wet van Moore eindigt: 3 alternatieven voor siliciumchips

De wet van Moore bepaalt al decennia het tempo van de technologische ontwikkeling. Maar wat gebeurt er als de fysieke grenzen worden bereikt?

Wat is er ooit gebeurd met Dennard Scaling?

Beeldcredits: Fred Holland /Wikimedia

In 1974 merkte IBM-onderzoeker Robert Dennard op dat naarmate transistors kleiner worden, hun stroomverbruik evenredig blijft met hun oppervlakte.

Dennard-schaalvergroting, zoals het bekend werd, betekende dat het transistoroppervlak elke 18 maanden met 50 procent afnam, wat leidde tot een kloksnelheid van 40 procent, maar met hetzelfde stroomverbruik.

Met andere woorden, het aantal berekeningen per watt zou exponentieel maar betrouwbaar toenemen, en transistors zouden sneller, goedkoper en minder stroom verbruiken.

In het tijdperk van Dennard-schaalvergroting was het verbeteren van prestaties een voorspelbaar proces voor chipmakers. Ze hebben zojuist meer transistors aan CPU's toegevoegd en de klokfrequenties opgevoerd.

Dit was ook gemakkelijk te begrijpen voor de consument: een processor die op 3,0 GHz werkte, was sneller dan een die op 2,0 GHz werkte, en processors werden steeds sneller. Inderdaad, de International Technology Roadmap for Semiconductors (ITRS) zodra de voorspelde kloksnelheden zouden bereiken 12 GHz tegen 2013!

Maar vandaag hebben de beste processors op de markt een basisfrequentie van slechts 4,1 GHz. Wat is er gebeurd?

Het einde van Dennard Scaling

Kloksnelheden kwamen rond 2004 vast te zitten in de modder toen de vermindering van het stroomverbruik geen gelijke tred hield met de krimpsnelheid van transistors.

Transistors werden te klein en de elektrische stroom begon weg te lekken, wat oververhitting en hoge temperaturen veroorzaakte, wat leidde tot fouten en schade aan apparatuur. Dat is een van de redenen waarom uw computerchip een koellichaam heeft. Dennard Scaling had grenzen bereikt die door de wetten van de fysica waren gedicteerd.

Meer kernen, meer problemen

Nu klanten en hele industrieën gewend zijn aan voortdurende snelheidsverbeteringen, hadden chipfabrikanten een oplossing nodig. Dus begonnen ze kernen aan processors toe te voegen om de prestaties te blijven verbeteren.

Meerdere cores zijn echter niet zo effectief als het simpelweg verhogen van de kloksnelheden op single-core units. De meeste software kan geen voordeel halen uit multiprocessing. Geheugencaching en stroomverbruik zijn bijkomende knelpunten.

De overstap naar multicore-chips luidde ook de komst van donker silicium in.

Het donkere tijdperk van silicium

Het werd al snel duidelijk dat als er te veel kernen tegelijkertijd worden gebruikt, de elektrische stroom kan lekken, waardoor het probleem van oververhitting dat Dennard-scaling op single-core chips heeft gedood, weer tot leven komt.

Het resultaat is multicore-processors die niet al hun kernen tegelijk kunnen gebruiken. Hoe meer kernen je toevoegt, hoe meer transistors van een chip moeten worden uitgeschakeld of vertraagd, in een proces dat bekend staat als "donker silicium".

Dus hoewel de wet van Moore steeds meer transistors op een chip laat passen, eet donker silicium het CPU-onroerend goed weg. Daarom wordt het toevoegen van meer kernen zinloos, omdat u ze niet allemaal tegelijkertijd kunt gebruiken.

Het handhaven van de wet van Moore met behulp van meerdere kernen lijkt een doodlopende weg.

Hoe de wet van Moore kon doorgaan

Een remedie is om de multiprocessing van software te verbeteren. Java, C ++ en andere talen die zijn ontworpen voor enkele kernen, zullen plaats maken voor talen zoals Go, die beter gelijktijdig kunnen worden uitgevoerd.

Een andere optie is het vergroten van het gebruik van field-programmable gate arrays (FPGA's), een type aanpasbare processor die na aankoop opnieuw kan worden geconfigureerd voor specifieke taken. Eén FPGA kan bijvoorbeeld door een klant worden geoptimaliseerd om video te verwerken, of kan speciaal worden aangepast om kunstmatige-intelligentietoepassingen uit te voeren.

Transistors bouwen uit verschillende materialen, zoals grafeen, is een ander gebied dat wordt onderzocht om meer leven uit de voorspelling van Moore te persen. En over de hele linie kan quantum computing het spel helemaal veranderen.

De toekomst behoort tot de wet van Koomey

In 2011 toonde professor Jonathan Koomey aan dat energie-efficiëntie met piekoutput (de efficiëntie van een processor die op topsnelheid draait) overeenkwam met het traject van de verwerkingskracht zoals beschreven door de wet van Moore.

De wet van Koomey merkte op dat, vanaf de vacuümbuisbeesten uit de jaren 40 tot de laptops uit de jaren negentig, de berekeningen per joule energie elke 1,57 jaar betrouwbaar waren verdubbeld. Met andere woorden, de batterij die voor een bepaalde taak wordt gebruikt, halveert elke 19 maanden, waardoor de energie die nodig is voor een specifieke berekening elk decennium met een factor 100 daalt.

Hoewel Moore's Law en Dennard-schaalvergroting enorm belangrijk waren in een wereld van desktops en laptops, verwerkers is zo veel veranderd dat de energie-efficiëntie die door de wet van Koomey wordt beloofd, waarschijnlijk relevanter is voor u.

Uw computerleven is waarschijnlijk verdeeld over veel apparaten: laptops, mobiele telefoons, tablets en diverse gadgets. In dit tijdperk van proliferatie van computergebruik, worden batterijduur en prestatie-per-watt belangrijker dan meer GHz uit onze processors met meerdere kernen persen.

Evenzo, nu meer van onze verwerking is uitbesteed aan enorme datacenters in de cloud, zijn de energiekosten van de wet van Koomey van groot belang voor technologiegiganten.

Sinds 2000 is de industriebrede verdubbeling van de energie-efficiëntie zoals beschreven door de wet van Koomey echter vertraagd door het einde van de schaalvergroting van Dennard en de vertraging van de wet van Moore. De wet van Koomey levert nu elke 2,6 jaar op, en in de loop van een decennium neemt de energie-efficiëntie toe met een factor van slechts 16 in plaats van 100.

Het is misschien voorbarig om te zeggen dat de wet van Koomey Dennard en Moore al volgt, de zonsondergang in. In 2020 meldde AMD dat de energie-efficiëntie van zijn AMD Ryzen 7 4800H-processor met een factor is gestegen 31.7 vergeleken met zijn CPU's uit 2014, waardoor de wet van Koomey een tijdige en substantiële boost kreeg.

Verwant: De nieuwe M1-chip van Apple verandert de game: alles wat je moet weten

Efficiëntie opnieuw gedefinieerd om de wet van Koomey uit te breiden

De efficiëntie van het maximale uitgangsvermogen is slechts één manier om de computerefficiëntie te evalueren en een die nu mogelijk verouderd is.

Deze maatstaf was logischer in de afgelopen decennia, toen computers schaars waren, kostbare bronnen die door gebruikers en applicaties tot het uiterste werden opgedreven.

Nu draaien de meeste processors slechts een klein deel van hun leven op topprestaties, bijvoorbeeld tijdens het spelen van een videogame. Andere taken, zoals het controleren van berichten of surfen op internet, vereisen veel minder stroom. Als zodanig wordt de gemiddelde energie-efficiëntie de focus.

Koomey heeft deze "typische gebruiksefficiëntie" berekend door het aantal uitgevoerde bewerkingen per jaar te delen door de totale gebruikte energie en stelt dat dit de standaard voor "piekgebruiksefficiëntie" die in zijn origineel wordt gebruikt, moet vervangen formulering.

Hoewel de analyse nog moet worden gepubliceerd, wordt verwacht dat er tussen 2008 en 2020 een efficiëntie voor typisch gebruik is elke 1,5 jaar verdubbeld, waardoor de wet van Koomey terugkeerde naar het optimale tempo dat werd waargenomen toen de wet van Moore in de macht was prime.

Een implicatie van de wet van Koomey is dat apparaten steeds kleiner worden en minder energie verbruiken. Krimpende - maar nog steeds hoge snelheid - processors kunnen binnenkort zo weinig vermogen hebben dat ze kunnen tekenen hun energie rechtstreeks uit de omgeving, zoals achtergrondwarmte, licht, beweging en andere bronnen.

Dergelijke alomtegenwoordige verwerkingsapparaten hebben het potentieel om het ware tijdperk van het internet der dingen (IoT) in te luiden en ervoor te zorgen dat uw smartphone er net zo verouderd uitziet als de kolossen met vacuümbuizen uit de jaren veertig.

Image Credit: terren in Virginia /Flickr

Echter, terwijl wetenschappers en ingenieurs steeds meer nieuwe technieken ontdekken en implementeren om de "typische gebruiksefficiëntie" te optimaliseren, dat gedeelte van het totale energieverbruik van een computer zal waarschijnlijk zo veel dalen dat bij normaal gebruik alleen de piekoutput significant genoeg zal zijn om meten.

Het piekverbruik wordt opnieuw de maatstaf voor de analyse van de energie-efficiëntie. In dit scenario zal de wet van Koomey uiteindelijk dezelfde natuurkundige wetten tegenkomen die de wet van Moore vertragen.

Die natuurkundige wetten, waaronder de tweede wet van de thermodynamica, betekenen dat de wet van Koomey rond 2048 zal eindigen.

Quantum computing zal alles veranderen

Het goede nieuws is dat quantum computing tegen die tijd goed ontwikkeld zou moeten zijn, met transistors op basis van enkele atomen gemeengoed, en een nieuwe generatie onderzoekers zal een hele reeks andere wetten moeten ontdekken om de toekomst van te voorspellen computergebruik.

E-mail
AMD Vs. Intel: wat is de beste gaming-CPU?

Als je een gaming-pc aan het bouwen bent en verscheurd bent tussen AMD- en Intel-CPU's, is het tijd om erachter te komen welke processor het beste is voor je game-rig.

Gerelateerde onderwerpen
  • Technologie verklaard
  • processor
  • Intel
  • AMD-processor
  • de wet van Moore
Over de auteur
Joe McCrossan (7 Artikelen gepubliceerd)

Joe McCrossan is een freelanceschrijver, vrijwillige technische probleemoplosser en amateurfietsenhersteller. Hij houdt van Linux, open source en allerlei soorten tovenaarsinnovatie.

Meer van Joe McCrossan

Abonneer op onze nieuwsbrief

Word lid van onze nieuwsbrief voor technische tips, recensies, gratis e-boeken en exclusieve deals!

Nog een stap…!

Bevestig uw e-mailadres in de e-mail die we u zojuist hebben gestuurd.

.