Velen van ons zijn bekend met computers. Waarschijnlijk gebruikt u er nu een om dit blogbericht te lezen, aangezien apparaten zoals laptops, smartphones en tablets in wezen dezelfde onderliggende computertechnologie zijn. Aan de andere kant zijn supercomputers ietwat esoterisch omdat ze vaak worden gezien als kolossaal, duur, energiezuigmachines, in grote lijnen ontwikkeld voor overheidsinstellingen, onderzoekscentra en grote bedrijven.
Neem bijvoorbeeld de Sunway TaihuLight van China, momenteel de snelste supercomputer ter wereld, volgens de ranglijst van de supercomputers van Top500. Het bestaat uit 41.000 chips (alleen de processors wegen meer dan 150 ton), kost ongeveer $ 270 miljoen en heeft een vermogen van 15.371 kW. Aan de positieve kant is het echter in staat om biljoenen berekeningen per seconde uit te voeren en kan het tot 100 miljoen boeken opslaan. En net als andere supercomputers, zal het worden gebruikt om enkele van de meest complexe taken op het gebied van wetenschap aan te pakken, zoals weersvoorspellingen en geneesmiddelenonderzoek.
Toen Supercomputers werden uitgevonden
Het idee van een supercomputer ontstond voor het eerst in de jaren zestig toen een elektrotechnisch ingenieur genaamd Seymour Cray aan de slag ging met het maken van 's werelds snelste computer. Cray, beschouwd als de 'vader van supercomputing', had zijn post bij business computing-gigant verlaten Sperry-Rand wordt lid van de nieuw gevormde Control Data Corporation, zodat hij zich kan concentreren op ontwikkeling wetenschappelijke computers. De titel van 's werelds snelste computer werd destijds gehouden door de IBM 7030' Stretch ', een van de eersten die transistors gebruikte in plaats van vacuümbuizen.
In 1964 introduceerde Cray de CDC 6600, met innovaties zoals het uitwisselen van germaniumtransistors ten gunste van silicium en een op freon gebaseerd koelsysteem. Wat nog belangrijker is, het draaide met een snelheid van 40 MHz en voerde ongeveer drie miljoen drijvende-kommabewerkingen per seconde uit, waardoor het de snelste computer ter wereld was. Vaak beschouwd als 's werelds eerste supercomputer, was de CDC 6600 10 keer sneller dan de meeste computers en driemaal sneller dan de IBM 7030 Stretch. De titel werd uiteindelijk in 1969 afgestaan aan zijn opvolger, de CDC 7600.
Seymour Cray gaat solo
In 1972 verliet Cray Control Data Corporation om zijn eigen bedrijf, Cray Research, te vormen. Na enige tijd startkapitaal en financiering van investeerders te hebben opgehaald, debuteerde Cray met de Cray 1, die opnieuw de lat voor computerprestaties met een ruime marge verhoogde. Het nieuwe systeem draaide met een kloksnelheid van 80 MHz en voerde 136 miljoen drijvende-kommabewerkingen per seconde uit (136 megaflops). Andere unieke kenmerken zijn onder meer een nieuwer type processor (vectorverwerking) en een voor snelheid geoptimaliseerd hoefijzervormig ontwerp dat de lengte van de circuits minimaliseerde. De Cray 1 werd in 1976 in het Los Alamos National Laboratory geïnstalleerd.
In de jaren tachtig had Cray zichzelf gevestigd als de vooraanstaande naam in supercomputing en van elke nieuwe release werd algemeen verwacht dat hij zijn eerdere inspanningen zou omverwerpen. Dus terwijl Cray bezig was met het werken aan een opvolger van de Cray 1, bracht een apart team van het bedrijf de Cray X-MP uit, een model dat werd aangekondigd als een meer "opgeruimde" versie van de Cray 1. Het had hetzelfde hoefijzervormige ontwerp, maar beschikte over meerdere processors, een gedeeld geheugen en wordt soms beschreven als twee Cray 1's die met elkaar zijn verbonden. De Cray X-MP (800 megaflops) was een van de eerste 'multiprocessor'-ontwerpen en hielp de deur te openen naar parallelle verwerking, waarbij computertaken worden opgesplitst in delen en gelijktijdig worden uitgevoerd door anders verwerkers.
De Cray X-MP, die voortdurend werd bijgewerkt, diende als vaandeldrager tot de langverwachte lancering van de Cray 2 in 1985. Net als zijn voorgangers nam Cray's nieuwste en beste hetzelfde hoefijzervormige ontwerp en basislay-out aan met geïntegreerde schakelingen op elkaar gestapeld op logicakaarten. Deze keer waren de componenten echter zo stevig gepropt dat de computer moest worden ondergedompeld in een vloeistofkoelsysteem om de warmte af te voeren. De Cray 2 was uitgerust met acht processors, met een "foreground processor" die belast was met de opslag, geheugen en instructies geven aan de "achtergrondprocessors", die belast waren met de daadwerkelijke berekening. Al met al had het een verwerkingssnelheid van 1,9 miljard drijvende-kommabewerkingen per seconde (1,9 Gigaflops), twee keer sneller dan de Cray X-MP.
Er komen meer computerontwerpers
Onnodig te zeggen dat Cray en zijn ontwerpen het vroege tijdperk van de supercomputer beheersten. Maar hij was niet de enige die het veld op ging. Begin jaren '80 zagen we ook de opkomst van massaal parallelle computers, aangedreven door duizenden processors die allemaal samenwerken om prestatiebarrières te doorbreken. Enkele van de eerste multiprocessorsystemen zijn gemaakt door W. Daniel Hillis, die op het idee kwam als afgestudeerde student aan het Massachusetts Institute of Technology. Het doel op dat moment was om de snelheidsbeperkingen van het hebben van een CPU directe berekeningen onder elkaar te overwinnen processors door een gedecentraliseerd netwerk van processors te ontwikkelen die op dezelfde manier functioneerden als het neurale van de hersenen netwerk. Zijn geïmplementeerde oplossing, geïntroduceerd in 1985 als de Connection Machine of CM-1, bevatte 65.536 onderling verbonden single-bit processors.
De vroege jaren 90 markeerden het begin van het einde voor Cray's wurggreep op supercomputing. Tegen die tijd was de pionier op het gebied van supercomputing zich afgesplitst van Cray Research om Cray Computer Corporation te vormen. De zaken begonnen voor het bedrijf naar het zuiden te gaan toen het Cray 3-project, de beoogde opvolger van de Cray 2, een hele reeks problemen tegenkwam. Een van de grootste fouten van Cray was de keuze voor galliumarsenide halfgeleiders - een nieuwere technologie - als een manier om zijn gestelde doel, een twaalfvoudige verbetering van de verwerkingssnelheid, te bereiken. Uiteindelijk leidde de moeilijkheid om ze te produceren, samen met andere technische complicaties, tot vertraging het project jarenlang en resulteerde uiteindelijk in het verlies van veel van de potentiële klanten van het bedrijf interesseren. Het duurde niet lang of het bedrijf had geen geld meer en diende een aanvraag in faillissement in 1995.
De strijd van Cray zou plaats maken voor een wisseling van de wacht, aangezien concurrerende Japanse computersystemen het grootste deel van het decennium het veld zouden gaan domineren. De in Tokio gevestigde NEC Corporation verscheen voor het eerst in 1989 met de SX-3 en een jaar later onthulde een versie met vier processors die het overnam als 's werelds snelste computer, alleen om te worden overschaduwd in 1993. Dat jaar werd Fujitsu's numerieke windtunnel, met de brute kracht van 166 vectorprocessors, de eerste supercomputer die 100 gigaflops overtrof (kanttekening: om u een idee van hoe snel de technologie vordert, de snelste consumentenverwerkers in 2016 kunnen gemakkelijk meer dan 100 gigaflops doen, maar destijds was het bijzonder indrukwekkend). In 1996 verhoogde de Hitachi SR2201 de lat met 2048 processors om een topprestatie van 600 gigaflops te bereiken.
Intel doet mee aan de race
Nu, waar was Intel? Het bedrijf dat zichzelf had gevestigd als de toonaangevende chipmaker van de consumentenmarkt, maakte pas tegen het einde van de eeuw een sprongetje op het gebied van supercomputing. Dit kwam omdat de technologieën in totaal heel verschillende dieren waren. Supercomputers zijn bijvoorbeeld ontworpen om zoveel mogelijk rekenkracht vast te houden terwijl ze persoonlijk zijn Bij computers ging het allemaal om knijpen in efficiëntie door minimale koelcapaciteiten en beperkte energievoorziening. Dus in 1993 namen Intel-ingenieurs eindelijk de sprong door de gewaagde aanpak te kiezen om massaal parallel te gaan met de 3.680 processor Intel XP / S 140 Paragon, die in juni 1994 naar de top van de supercomputer was geklommen ranglijst. Het was de eerste massaal parallelle processor supercomputer die onbetwist het snelste systeem ter wereld was.
Tot nu toe was supercomputing vooral het domein van mensen met het soort diepe zakken om dergelijke ambitieuze projecten te financieren. Dat veranderde allemaal in 1994 toen aannemers van NASA's Goddard Space Flight Center, die niet over die luxe beschikten, met een slimme manier om de kracht van parallel computing te benutten door een reeks pc's te koppelen en te configureren via een ethernet netwerk. Het "Beowulf-cluster" -systeem dat ze ontwikkelden bestond uit 16 486DX-processors, die in het gigaflops-bereik konden werken en minder dan $ 50.000 kosten om te bouwen. Het onderscheidde zich ook van het draaien van Linux in plaats van Unix voordat Linux het besturingssysteem voor supercomputers werd. Al snel werden doe-het-zelvers overal vergelijkbare blauwdrukken gevolgd om hun eigen Beowulf-clusters op te zetten.
Nadat hij de titel in 1996 had overgedragen aan de Hitachi SR2201, kwam Intel dat jaar terug met een ontwerp op basis van de Paragon genaamd ASCI Red, dat bestond uit meer dan 6.000 200 MHz Pentium Pro-processors. Ondanks dat de ASCI Red zich van vectorprocessors afzette ten gunste van kant-en-klare componenten, onderscheidde hij zich als de eerste computer die de barrière van één biljoen flops (1 teraflops) doorbrak. In 1999 konden de upgrades de drie biljoen flops (3 teraflops) overtreffen. De ASCI Red werd geïnstalleerd bij Sandia National Laboratories en werd voornamelijk gebruikt om nucleaire explosies te simuleren en te helpen bij het onderhoud van de nucleair arsenaal.
Nadat Japan met een 35,9 teraflops NEC Earth Simulator de leiding over supercomputers een tijdlang had overgenomen, bracht IBM met de Blue Gene / L in 2004 supercomputing naar ongekende hoogten. Dat jaar debuteerde IBM met een prototype dat de Earth Simulator (36 teraflops) amper omzoomde. En tegen 2007 zouden ingenieurs de hardware opvoeren om de verwerkingscapaciteit naar een piek van bijna 600 teraflops te tillen. Interessant is dat het team dergelijke snelheden kon bereiken door te gaan met de aanpak van het gebruik van meer chips met een relatief laag vermogen, maar energiezuiniger. In 2008 brak IBM opnieuw terrein toen het de Roadrunner inschakelde, de eerste supercomputer die meer dan één biljard drijvende-kommabewerkingen per seconde (1 petaflops) overschreed.