April 17, 2005
IBM står sedan ett år tillbaka bakom världens i särklass snabbaste superdator och att man inte tänkt förlora denna positionen är knappast överraskande. Att IBM skulle använda sig av sin hypade Cell-arkitaktur i sitt nästa superdatorprojekt är inte heller direkt någon skräll. Men att man skulle ta hjälp av AMD för att trumfa sin egen superdator BlueGene/L på var kanske inte lika väntat. IBM har nyligen släppt information om sitt "Roadrunner"-projekt som ska bli en superdator som bokstavligt talat springer cirklar runt BlueGene/L. Man har nu meddelat att Roadrunner kommer vara en hybrid som använder sig av både IBMs Cell-processorer och AMDs Opteron-processorer. Mer detaljerat runt 16 000 av vardera processormodell.
IBM siktar på att ta sig över den magiska gränsen, 1 petaflop, med Roadrunner och systemet ska ha en kapacitet på bra mycket mer än så. Man räknar med en maximal prestanda på runt 1.6 Petaflops vilket kan jämföras med BlueGene/L som i dagsläget har en teoretisk maxprestanda på 0.367 Petaflops (367 teraflops). Exakt hur IBM tänkt sig använda AMDs Opteron-arkitektur i Roadrunner är dock något oklart.
"IBM's statement yesterday did offer a few clues. So-called "typical computing processes," the company said, will be handled by the Opteron CPU bank, including file I/O and communication. Some at AMD might say just one Opteron processor handles that job well enough, let alone 2 to the 14th power Opterons."
Det ska utan tvekan bli intressant att följa IBMs arbeta på Roadrunner och få mer information om varför man valt att förlita sig på AMDs Opteron-arkitektur i så stor omfattning.
March 19, 2003
Vad gör det igentligen med dessa superdatorer?
Slår sina egna rekord och sen låter de stå i källaren?
Eller hyr sig typ forskning in på en del när de behöver bearbeta nått snabbt?
Eller bygger det en ny superdator som det säljer till mega stort företag eller behåller de den själv?
Räknar man ihopp alla MC donalds terminaler över hela välden så lär de ha några teraflops också 😉
Undra hur många petaflops man skulle uppnå ifall man sammankopplade alla datorer i hela välden i ett projekt som t.ex. seti, foldin@home, osv osv.
Beräkna cancer grejer eller nått, om det skulle göra någon skillnad.
Man borde väll kunna räkna ut hur många flopps det blir igentligen genom att räkna ut Intel/AMD's försäljningssatestik.
December 11, 2002
BarateaU wrote: Vad gör det igentligen med dessa superdatorer?
Slår sina egna rekord och sen låter de stå i källaren?Eller hyr sig typ forskning in på en del när de behöver bearbeta nått snabbt?
Eller bygger det en ny superdator som det säljer till mega stort företag eller behåller de den själv?
Som Sledgehammer säger - simuleringar. Vilket är mycket viktigt för dig och mig.
Tänk att du vill veta mer om något fenomen i naturen, det kan vara hur en galax bildas, hur ett protein veckas eller vad som händer när två bilar kolliderar. I nästan samtliga fall är det mycket svårt att göra riktiga experiment (även i bilfallet - du vill inte krocka 75 bilar bilar för att hitta rätt placering på en bult. Du använder datorn för att hitta platsen för bulten och krockar sedan bilen för att vara säker på att allt funerar som det ska). Som tur är kan man bygga matematiska modeller för allt detta (och mer därtill).
Tyvärr finns det generellt ingen lösning till de ekvationer som modellerna består av (partiella differentialekvationer, se t ex http://en.wikipedia.org/wiki/P.....l_equation). Lösningen till dessa ekvationer måste istället uppskattas och det gör man lämpligen med en dator. Ju större dator, desto större problem kan du lösa (eller lösa ett lika stort problem mycker mer noggrannt).
Ett problem är att när man har så här stora datorer är att saker går sönder väldigt ofta (minne, processorer osv) eftersom du har små många. När en processor lägger av så vill du inte förlora allt arbete som utförts under kanske flera timmar (16384*2 processorer hinner räkna ganska mycket under den tiden).
Ett annat problem är arbetsfördelningen - att få alla processorer att göra lika mycket arbete. Ni som har dual-core, titta efter hur ofta båda processorerna jobbar lika mycket. Tänk sedan att fördela arbeta till nästan 33000 processorer... Jag tjänar mitt levebröd på att utveckla metoder för att förenkla arbetsfördelningen, eller lastbalansen som det egentligen heter. Ett intressant och kul jobb.
May 19, 2004
Jag har hört en av vårare lärare snacka lite om sånna här system, han har ett eget företag och gjort krocksimulatrorer åt BMW osv, enligt han är det diskar som går mest, inte minne, cpus osv, och när man tänker på det, diskarna får ju alltid jobba på som fan (beronde på uträkninga såklart), för cpun får väll vänta rätt mycket på diskarna pga att ramet inte räcker till även om man har några gb? Eller har jag fattat fel?
Spännande dethär med superdatorer 😛
July 24, 2003
Kriller wrote: Jag har hört en av vårare lärare snacka lite om sånna här system, han har ett eget företag och gjort krocksimulatrorer åt BMW osv, enligt han är det diskar som går mest, inte minne, cpus osv, och när man tänker på det, diskarna får ju alltid jobba på som fan (beronde på uträkninga såklart), för cpun får väll vänta rätt mycket på diskarna pga att ramet inte räcker till även om man har några gb? Eller har jag fattat fel?
Spännande dethär med superdatorer 😛
Som vi nu gör, snackar om superdatorer, en dator som skall vara så extremt högpresterande som möjligt. Hur en dator reagerar prestandamässigt är beroende på tillämpning. I en superdator så ser man alltid till att det finns tillräckligt med RAM för att kunna mata processorerna med data konstant kontinuerligt. Skulle man ha såpass lite RAM så att datorn får swappa från diskarna skulle inte vara en särskilt bra lösning. Ordet "superdator" skulle inte ha sin rätt på en sådan dator.
Mycket intressant att köra AMD's Opteron processorer ihop med IBM's Cell processorer. Det man vet är att Opteron är ruskigt bra i science FPC's, särskilt under AMD64 mode, också att Cell är ett monster i en hel del tillämpningar.
2 Guest(s)