Introducing TensorFlow 2.0 and its high-level APIs (TF Dev Summit '19)
Sommario:
Se l'aumento delle velocità dei supercomputer continuerà al loro ritmo attuale, vedremo la prima macchina exascale entro il 2020, stimati i manutentori del Compilazione Top500 dei sistemi più veloci al mondo.
Gli architetti di sistemi di tali computer di grandi dimensioni, tuttavia, affronteranno una serie di problemi critici, un custode dell'elenco avverte.
"Le sfide saranno notevoli per consegnare la macchina" ha detto Jack Dongarra, un'università del Tennessee, Knoxville, ricercatore che è uno dei principali dietro il Top500. Dongarra ha parlato alla conferenza SC2012, che si è tenuta questa settimana a Salt Lake City, durante una presentazione dell'ultima edizione della lista, rilasciata la scorsa settimana.
Abbiamo ancora una strada da percorrere prima che le prestazioni exascale siano possibili. Una macchina exascale sarebbe capace di un quintilione di FLOPS (operazioni in virgola mobile al secondo) o di 10 al 18 FLOPS. Anche i supercomputer più veloci di oggi offrono meno del 20% della capacità di una macchina exascale.
Top500Nuove altezze
Nell'ultima edizione dell'elenco Top500 di supercomputer, pubblicato lunedì, il computer più veloce della lista era il sistema Oak Ridge National Laboratory Titan, una macchina in grado di eseguire 17,55 petaflops. Un petaflop è un quadrilione di calcoli in virgola mobile al secondo, o 10 al 15 FLOPS.
Ma ogni nuovo Top500, la lista che viene compilata due volte l'anno, mostra quanto velocemente crescono le velocità dei supercomputer. A giudicare dalla lista, i supercomputer sembrano guadagnare dieci volte al potere ogni dieci anni circa. Nel 1996, il primo computer teraflop apparve sul Top500 e nel 2008 apparve sulla lista il primo computer petaflop. Estrapolando da questo ritmo, Dongarra stima che il calcolo exascale dovrebbe arrivare intorno al 2020.
La comunità HPC (High Performance Computing) ha assunto il calcolo exascale come una pietra miliare. Intel ha creato una linea di processori multicore, chiamata Phi, che la società spera potrebbe servire come base per i computer exascale che potrebbero essere in funzione entro il 2018.
Nel suo discorso, Dongarra ha delineato le caratteristiche di una macchina di exascale. Tale macchina avrà probabilmente tra 100.000 e 1.000.000 di nodi e sarà in grado di eseguire fino a un miliardo di thread in qualsiasi momento. Le prestazioni dei singoli nodi dovrebbero essere comprese tra 1,5 e 15 teraflop e le interconnessioni dovranno avere un throughput compreso tra 200 e 400 gigabyte al secondo.
I produttori di supercomputer dovranno costruire le loro macchine in modo che il loro costo e il loro consumo non aumentino in modo lineare insieme alla performance, per timore che diventino troppo costosi da acquistare e gestire, ha detto Dongarra. Una macchina di exascale dovrebbe costare circa $ 200 milioni e usare solo circa 20 megawatt, o circa 50 gigaflop per watt.
Dongarra si aspetta che la metà del costo della costruzione di un tale computer sia destinata all'acquisto di memoria per il sistema. A giudicare dalle roadmap dei produttori di memorie, Dongarra stimò che 100 milioni di dollari comprassero tra 32 petabyte e 64 petabyte di memoria entro il 2020.
Top500Sfida software
Oltre alle sfide nell'hardware, i progettisti di supercomputer exascale devono affronta anche problemi di software. Un problema sarà la sincronizzazione, ha detto Dongarra. Le macchine di oggi passano le attività tra molti nodi diversi, sebbene questo approccio debba essere semplificato con l'aumento del numero di nodi.
"Oggi il nostro modello per l'elaborazione parallela è un modello fork / join, ma non è possibile farlo a [il livello exascale di un parallelismo: dobbiamo cambiare il nostro modello, dobbiamo essere più sincroni ", ha detto Dongarra. Sulla stessa linea, è necessario sviluppare algoritmi che riducano la quantità di comunicazione complessiva tra i nodi.
Altri fattori devono essere considerati. Il software deve venire con le routine integrate per l'ottimizzazione. "Non possiamo fare affidamento sull'utente che imposta le manopole e le manopole giuste per far funzionare il software ovunque vicino a prestazioni di punta", ha detto Dongarra. La resilienza ai guasti sarà un'altra caratteristica importante, come la riproducibilità dei risultati, o la garanzia che un calcolo complesso produrrà la stessa risposta esatta quando viene eseguito più di una volta.
La riproducibilità può sembrare una caratteristica ovvia per un computer. Ma in realtà, può essere una sfida per calcoli enormi su supercomputer multinodo.
"Dal punto di vista dei metodi numerici, è difficile garantire la riproducibilità bit-saggia", ha detto Dongarra. "Il problema principale consiste nel fare una riduzione - una sintesi di numeri in parallelo: se non posso garantire l'ordine in cui questi numeri si incontrano, avrò diversi errori di arrotondamento. in un modo che può far sì che le risposte divergano in modo catastrofico ", ha detto.
" Dobbiamo elaborare uno scenario in cui possiamo garantire l'ordine in cui tali operazioni sono state eseguite, così possiamo garantire che abbiamo gli stessi risultati ", Ha detto Dongarra.
Joab Jackson copre le ultime novità del software aziendale e della tecnologia generale per Il servizio di notizie IDG. Segui Joab su Twitter all'indirizzo @Joab_Jackson. L'indirizzo e-mail di Joab è [email protected]
Avanti per iPhone: Multitasking?
Abbiamo sentito parlare molto delle notifiche push, ma Apple potrebbe non essere desiderosa di aggiungere questa funzione all'iPhone .
È Uno schermo migliore Avanti per l'iPhone?
Con il lancio dell'ultimo iPhone di Apple, l'iPhone 3GS, i mulini delle voci sono scendendo a bassa quota su ciò che il segretario informatico potrebbe progettare ...
Nissan Car Monitor GPS per i pericoli stradali Avanti
Nissan ha sviluppato un sistema di sicurezza che lega i dati della velocità della vettura con le informazioni GPS per avvisare i conducenti se sono andare in curva troppo velocemente.