Site icon Studiare (da) Giapponese

Il Supercalcolatore di Kobe

È giapponese il più potente computer mai creato
21-10-2012 / Nanotecnologia / Valentina Tozzini (Ricercatore CNR, Istituto Nanoscienze)

Il cuore del Computer K, a Kobe.
Sono visibili una parte degli 864 armadi che contengono i processori.
I cavi di collegamento sono nascosti nelle guide bianche che li collegano.

PISA, 21 ottobre – Nei primi giorni di settembre partecipavo a Pavia a TACC-2012 (Theory and Applications in Computational Chemistry), una conferenza internazionale su temi riguardanti studi al calcolatore e simulazioni in chimica e struttura della materia. Tra colleghi italiani, europei e americani, si notava una insolitamente cospicua rappresentanza di giapponesi, arrivati per un’intera giornata dedicata alla presentazione del supercomputer di Kobe, che entrerà in servizio pubblico a novembre.

Il Calcolatore K (K-Computer), così si chiama, ha ricevuto nel 2011, in fase di test, il riconoscimento internazionale TOP500 per il record di velocità, abbattendo per primo la barriera dei 10 peta flops, cioè dieci milioni di miliardi di operazioni al secondo (FLOPS = Floating Point operation per second, mentre “peta-” indica la quindicesima potenza di 10). Per confronto, un calcolatore domestico raggiunge la velocità di 10 miliardi di flops (10 giga flops), quindi K è 1 milione di volte più rapido.

Una velocità così estrema, in questo e altri supercomputer, si raggiunge costringendo a lavorare cooperativamente molti singoli calcolatori. Il procedimento si chiama parallelizzazione, e l’idea di base è relativamente semplice. Supponiamo di voler eseguire un compito, ad esempio costruire una casa. Se un operaio da solo ci mette 16 mesi, due operai che lavorano contemporaneamente e cooperando ce ne metteranno 8, quattro ce ne metteranno 4 e così via, dimezzando il tempo di esecuzione ogni volta che in numero di operai raddoppia. Analogamente, facendo lavorare contemporaneamente N calcolatori, si può dividere per N il tempo di esecuzione (e moltiplicare per N la velocità).

Questo tipo di approccio è ormai comunemente adottato anche nei PC commerciali, molti dei quali montano processori a 2, 4 o anche 8 core, suddivisi cioè in unità di calcolo intrinsecamente parallelizzate (i core) che si comportano come singoli operai e moltiplicano per 2, 4 o 8 la velocità del processore. E non è che si sia inventato nulla di nuovo: il nostro cervello funziona solitamente in parallelo, e con un sistema di cooperazione enormemente più complesso di quelli dei calcolatori paralleli.

La presentazione del progetto K-Computer è stata degna dell’immagine tradizionalmente hi-tech del Giappone. Nel K computer i singoli calcolatori (nodi), sono sistemati in gruppi di ventiquattro in appositi armadi (rack); 864 rack sono collegati da una complessa rete di cavi, per un totale di circa 20000 nodi, ciascuno multi-core; in totale la parallelizzazione del sistema raggiunge quasi 90mila core. Un esercito di operai che possono collaborare e costruire una casa in tempi record.

Un progetto titanico, commissionato dal Ministero della Scienza e Educazione giapponese a NEC, Hitachi e Fujitsu, per un costo approssimativo di circa 704 milioni di euro. Titaniche anche le risorse materiali e i consumi. Il sistema occupa un edificio di 3200 mq appositamente costruito a partire dal 2006, e i consumi sono di poco inferiori a 10000 Kwatt (più o meno come 10000 abitazioni). L’impianto di refrigerazione comprende una piscina, e i cavi di collegamento tra i nodi sono lunghi complessivamente chilometri.

Un tale impiego di forze è una scommessa notevole per il Giappone, che sarà vinta se le applicazioni saranno di grande impatto. E infatti, per gestire al meglio questa risorsa, è stato creato l’Istituto Riken di Studi Avanzati in Scienze Computazionali, i cui campi strategici di ricerca sono lo studio dell’origine dell’Universo (cosmologia e fisica delle particelle), la previsione del clima globale e delle catastrofi ambientali (temi particolarmente cari ai giapponesi), l’innovazione industriale (ingegneria automobilistica e aerospaziale), e infine medicina e biologia molecolare (life science) e progettazione di nuovi materiali (material science), più vicini ai temi del congresso.

In particolare su questi temi posso aggiungere qualche commento. Le applicazioni potrebbero portare immenso beneficio nella medicina moderna, che sempre più mira a produrre cure personalizzate e specifiche. Ad esempio, nei tumori, si mira ad agire all’interno delle singole cellule, in modo da eliminare idealmente solo quelle malate lasciando illese le altre per trarre il massimo beneficio curativo con il minimo danno. Per agire in questo modo è però necessario capire le interazioni tra le molecole biologiche, ed in questo, gli studi di simulazione e calcolo numerico sono uno strumento fondamentale. Ma sistemi delle dimensioni di una cellula o anche parti di essa, benché estremamente piccoli, sono troppo grandi per essere simulati con calcolatori normali. Per questo motivo l’uso dei supercalcolatori come quello di Kobe potrebbe portare un notevole avanzamento scientifico.

Tuttavia, l’utilizzo di questo tipo di calcolatori non è solitamente immediato. Tornando all’analogia della costruzione della casa, per gestire un esercito di operai, ci vuole un capocantiere molto ben organizzato. Così, ad esempio, non tutti i software comunemente usati per le simulazioni della dinamica molecolare sono adatti a sfruttare le risorse del K-Computer. Le prestazioni di picco infatti sono state dimostrate per ora solo su software appositamente adattati.

Poi, così a pelle, ho rilevato un istintivo e del tutto personale, senso di anacronismo. Mentre la tecnologia va in direzione della miniaturizzazione, con le immagini del K-Computer ho rivisto il “supercomputer” che usavo ai miei esordi, a inizio anni novanta, che occupava grandi armadi in uno stanzone, con prestazioni inferiori a quelle di un attuale mini-pc. È vero che i singoli processori si miniaturizzano e velocizzano raddoppiando le prestazioni a ritmo esponenziale. Ma l’avidità umana di applicazioni sempre più complesse e performanti cresce di pari passo, da cui la necessità di parallelizzazione estrema, in una gara continua al calcolatore più veloce.

Comunque vada, il progetto K non sarà un flop (o un peta flop, giusto per lanciare una facile battuta). Oltre alle applicazioni che verranno, più o meno di impatto, l’importanza di progetti come questo risiede anche nella sfida che essi costituiscono, nello sforzo tecnologico di risolvere i problemi legati alla realizzazione, nella progettazione dei nuovi materiali necessari nella costruzione, di nuovi protocolli informatici, e in molti altre applicazioni accessorie che fanno funzionare il sistema. E non da ultimo, nel fattore psico-sociale: il governo giapponese conta su questo progetto anche per risollevare l’immagine del paese, dopo le catastrofi ambientali e tecnologiche che lo hanno di recente colpito.

Fonte: LoSchermo.it

Exit mobile version