Componenti

Inside Tsubame - il supercomputer GPU Nvidia

Petaflop Biofluidics Simulations on the TSUBAME 2.0 Supercomputer

Petaflop Biofluidics Simulations on the TSUBAME 2.0 Supercomputer
Anonim

Quando entri nella sala computer al secondo piano del computer di Tokyo Institute of Technology, non sei immediatamente colpito dalle dimensioni del secondo supercomputer giapponese più veloce. Non puoi vedere il computer di Tsubame per le unità di condizionamento industriale che ti ostacolano, ma questo di per sé lo sta dicendo. Con oltre 30.000 core di elaborazione che ronzano, la macchina consuma un megawatt di potenza e deve essere tenuta al fresco.

Tsubame è stato classificato al 29 ° supercomputer più veloce del mondo nell'ultima classifica Top 500 con una velocità di 77.48 T Flop (operazioni in virgola mobile al secondo) sul benchmark Linpack standard del settore.

Sebbene la sua posizione sia relativamente buona, non è ciò che lo rende così speciale. La cosa interessante di Tsubame è che non si basa solo sulla potenza di elaborazione delle CPU (unità di elaborazione centrale) per svolgere il proprio lavoro. Tsubame include centinaia di processori grafici dello stesso tipo utilizzati nei PC consumer, lavorando a fianco delle CPU in un ambiente misto che alcuni dicono sia un modello per futuri supercomputer che servono discipline come la chimica dei materiali.

[Ulteriori letture: i migliori NAS per lo streaming multimediale e backup]

I processori grafici (GPU) sono molto bravi a eseguire rapidamente lo stesso calcolo su grandi quantità di dati, in modo che possano fare un breve lavoro su alcuni problemi in aree come la dinamica molecolare, le simulazioni fisiche e l'elaborazione delle immagini. > "Penso che nella grande maggioranza dei problemi interessanti del futuro, i problemi che riguardano l'umanità in cui l'impatto deriva dalla natura … richiede la capacità di manipolare e calcolare su un set di dati molto ampio", ha dichiarato Jen-Hsun Huang, CEO di Nvidia, che ha parlato all'università questa settimana. Tsubame usa 680 schede grafiche Tesla di Nvidia.

Quante differenze fanno le GPU? Takayuki Aoki, professore di chimica dei materiali all'università, ha affermato che le simulazioni che prima richiedevano tre mesi impiegano 10 ore su Tsubame.

Tsubame stesso - una volta superato il condizionatore d'aria - è diviso in più stanze in due piani dell'edificio e sono in gran parte costituiti da sistemi Sun x4600 montati su rack. Ce ne sono 655 in tutto, ognuno dei quali ha 16 core AMD Opteron CPU al suo interno, e le schede di accelerazione Clearspeed CSX600.

I chip grafici sono contenuti in 170 unità Nvidia Tesla S1070 montate su rack che sono state inserite tra Sistemi solari Ciascuno dei sistemi 1U Nvidia ha quattro GPU all'interno, ognuno dei quali ha 240 core di elaborazione per un totale di 960 core per sistema.

I sistemi Tesla sono stati aggiunti a Tsubame nel corso di circa una settimana mentre il computer era in funzione.

"La gente pensava che fossimo pazzi", ha detto Satoshi Matsuoka, direttore del Global Scientific Information and Computing Center all'università. "Questo è un supercomputer da 1 miliardo di dollari (US $ 11 milioni) che consuma un megawatt di potenza, ma abbiamo dimostrato tecnicamente che era possibile."

Il risultato è ciò che lo staff universitario chiama versione 1.2 del supercomputer Tsubame.

" Penso che avremmo dovuto essere in grado di raggiungere 85 [T Flops], ma abbiamo finito il tempo così era 77 [T Flops] ", ha detto Matsuoka dei benchmark eseguiti sul sistema. A 85T Flops sarebbe salito un paio di posti nella Top 500 e sarebbe stato il più veloce in Giappone.

C'è sempre la prossima volta: una nuova Top 500 è in uscita a giugno 2009, e anche Tokyo Institute of Technology più avanti.

"Questa non è la fine di Tsubame, è solo l'inizio dell'accelerazione della GPU che diventa mainstream", ha detto Matsuoka. "Crediamo che nel mondo ci saranno supercomputer che registreranno diversi petaflop negli anni a venire, e vorremmo seguirne l'esempio."

Tsubame 2.0, come ha soprannominato il prossimo aggiornamento, dovrebbe essere qui entro i prossimi due anni e avrà una prestazione sostenuta di almeno un petaflop (un petaflop è di 1.000 teraflop), ha detto. Il progetto di base per la macchina non è ancora finalizzato, ma continuerà la base di calcolo eterogenea del mix di CPU e GPU, ha detto.