April 17, 2005
Den välkända TOP500-listan har nu uppdaterats för andra gången detta året med världens femhundra snabbaste superdatorer, baserat på deras Linepack prestanda. Prestandaledare är i vanlig ordning IBM BlueGene/L som med sina 280.6 TFlop/s fortfarande är ohotad prestandaledare i superdatorklassen. En av de största nyheterna sedan listan som lanserades i juni 2006 är att vi nu även har fått ytterligare ett system som klättrat över 100 TFlop/s. Det är Sandia National Laboratories som huserar superdatorn Cray Red Storm som nu kan skryta med en prestanda över 100 TFlop/s. Crays superdator har nämligen en registrerad Linepack-prestanda på 101.4 TFlop/s. Det kan även noteras att systemet använder sig av över 10 000 Opteron-processorer klockade till 2GHz.
[Image Can Not Be Found] Cray Red Storm i sin helhet - Bild från http://www.cats.rwth-aachen.de
Cray Red Storm har därmed klättrat hela 8 placeringar sedan senast då man smet in på en nionde plats på TOP500-listan. Samtidigt har IBMs eServer Blue Gene System som finns installerat hos IBMs Thomas Watson Research Center tappat sin andraplacering och ligger nu på tredje plats med 91.20 TFlop/s.
Vi har även fått en ny prestandaledare bland superdatorer i Europa där Tera-10 i Frankrike nu blivit omkörd av IBM JS21 klustret hos Barcelona Supercomputing Center, detta med en Linepack-prestanda på 62.63 TFlop/s och en femteplats på listan. Mer information om superdatorlistan finns på Top500.org.
December 11, 2002
December 11, 2002
Bjornsson wrote: vad gör dom med sånna super-datorer igentligen?
Lär ju inte sitta och bencha 3DMark iaf 😛
Klistrar in vad jag skrev i ett liknande ämne:
Tänk att du vill veta mer om något fenomen i naturen, det kan vara hur en galax bildas, hur ett protein veckas eller vad som händer när två bilar kolliderar. I nästan samtliga fall är det mycket svårt att göra riktiga experiment (även i bilfallet - du vill inte krocka 75 bilar bilar för att hitta rätt placering på en bult. Du använder datorn för att hitta platsen för bulten och krockar sedan en bil för att vara säker på att allt funerar som det ska). Som tur är kan man bygga matematiska modeller för allt detta (och mer därtill).
Tyvärr finns det generellt ingen lösning till de ekvationer som modellerna består av (partiella differentialekvationer, se t ex http://en.wikipedia.org/wiki/P.....l_equation). Lösningen till dessa ekvationer måste istället uppskattas och det gör man lämpligen med en dator. Ju större dator, desto större problem kan du lösa (eller lösa ett lika stort problem mycker mer noggrannt).
Ett problem är att när man har så här stora datorer är att saker går sönder väldigt ofta (minne, processorer osv) eftersom du har så många. När en processor lägger av så vill du inte förlora allt arbete som utförts under kanske flera timmar (några tusen processorer hinner räkna ganska mycket under den tiden).
Ett annat problem är arbetsfördelningen - att få alla processorer att göra lika mycket arbete. Ni som har dual-core, titta efter hur ofta båda processorerna jobbar lika mycket. Tänk sedan på att fördela arbeta till 1000-tals processorer... Jag tjänar mitt levebröd på att utveckla metoder för att förenkla arbetsfördelningen, eller lastbalansen som det egentligen heter. Ett intressant och kul jobb.
1 Guest(s)