Il Supercalcolatore di Kobe

È giapponese il più potente computer mai creato
21-10-2012 / Nanotecnologia / Valentina Tozzini (Ricercatore CNR, Istituto Nanoscienze)

Il cuore del Computer K, a Kobe.
Sono visibili una parte degli 864 armadi che contengono i processori.
I cavi di collegamento sono nascosti nelle guide bianche che li collegano.

PISA, 21 ottobre – Nei primi giorni di settembre partecipavo a Pavia a TACC-2012 (Theory and Applications in Computational Chemistry), una conferenza internazionale su temi riguardanti studi al calcolatore e simulazioni in chimica e struttura della materia. Tra colleghi italiani, europei e americani, si notava una insolitamente cospicua rappresentanza di giapponesi, arrivati per un’intera giornata dedicata alla presentazione del supercomputer di Kobe, che entrerà in servizio pubblico a novembre.

Il Calcolatore K (K-Computer), così si chiama, ha ricevuto nel 2011, in fase di test, il riconoscimento internazionale TOP500 per il record di velocità, abbattendo per primo la barriera dei 10 peta flops, cioè dieci milioni di miliardi di operazioni al secondo (FLOPS = Floating Point operation per second, mentre “peta-” indica la quindicesima potenza di 10). Per confronto, un calcolatore domestico raggiunge la velocità di 10 miliardi di flops (10 giga flops), quindi K è 1 milione di volte più rapido.

Una velocità così estrema, in questo e altri supercomputer, si raggiunge costringendo a lavorare cooperativamente molti singoli calcolatori. Il procedimento si chiama parallelizzazione, e l’idea di base è relativamente semplice. Supponiamo di voler eseguire un compito, ad esempio costruire una casa. Se un operaio da solo ci mette 16 mesi, due operai che lavorano contemporaneamente e cooperando ce ne metteranno 8, quattro ce ne metteranno 4 e così via, dimezzando il tempo di esecuzione ogni volta che in numero di operai raddoppia. Analogamente, facendo lavorare contemporaneamente N calcolatori, si può dividere per N il tempo di esecuzione (e moltiplicare per N la velocità).

Questo tipo di approccio è ormai comunemente adottato anche nei PC commerciali, molti dei quali montano processori a 2, 4 o anche 8 core, suddivisi cioè in unità di calcolo intrinsecamente parallelizzate (i core) che si comportano come singoli operai e moltiplicano per 2, 4 o 8 la velocità del processore. E non è che si sia inventato nulla di nuovo: il nostro cervello funziona solitamente in parallelo, e con un sistema di cooperazione enormemente più complesso di quelli dei calcolatori paralleli.

La presentazione del progetto K-Computer è stata degna dell’immagine tradizionalmente hi-tech del Giappone. Nel K computer i singoli calcolatori (nodi), sono sistemati in gruppi di ventiquattro in appositi armadi (rack); 864 rack sono collegati da una complessa rete di cavi, per un totale di circa 20000 nodi, ciascuno multi-core; in totale la parallelizzazione del sistema raggiunge quasi 90mila core. Un esercito di operai che possono collaborare e costruire una casa in tempi record.

Un progetto titanico, commissionato dal Ministero della Scienza e Educazione giapponese a NEC, Hitachi e Fujitsu, per un costo approssimativo di circa 704 milioni di euro. Titaniche anche le risorse materiali e i consumi. Il sistema occupa un edificio di 3200 mq appositamente costruito a partire dal 2006, e i consumi sono di poco inferiori a 10000 Kwatt (più o meno come 10000 abitazioni). L’impianto di refrigerazione comprende una piscina, e i cavi di collegamento tra i nodi sono lunghi complessivamente chilometri.

Un tale impiego di forze è una scommessa notevole per il Giappone, che sarà vinta se le applicazioni saranno di grande impatto. E infatti, per gestire al meglio questa risorsa, è stato creato l’Istituto Riken di Studi Avanzati in Scienze Computazionali, i cui campi strategici di ricerca sono lo studio dell’origine dell’Universo (cosmologia e fisica delle particelle), la previsione del clima globale e delle catastrofi ambientali (temi particolarmente cari ai giapponesi), l’innovazione industriale (ingegneria automobilistica e aerospaziale), e infine medicina e biologia molecolare (life science) e progettazione di nuovi materiali (material science), più vicini ai temi del congresso.

In particolare su questi temi posso aggiungere qualche commento. Le applicazioni potrebbero portare immenso beneficio nella medicina moderna, che sempre più mira a produrre cure personalizzate e specifiche. Ad esempio, nei tumori, si mira ad agire all’interno delle singole cellule, in modo da eliminare idealmente solo quelle malate lasciando illese le altre per trarre il massimo beneficio curativo con il minimo danno. Per agire in questo modo è però necessario capire le interazioni tra le molecole biologiche, ed in questo, gli studi di simulazione e calcolo numerico sono uno strumento fondamentale. Ma sistemi delle dimensioni di una cellula o anche parti di essa, benché estremamente piccoli, sono troppo grandi per essere simulati con calcolatori normali. Per questo motivo l’uso dei supercalcolatori come quello di Kobe potrebbe portare un notevole avanzamento scientifico.

Tuttavia, l’utilizzo di questo tipo di calcolatori non è solitamente immediato. Tornando all’analogia della costruzione della casa, per gestire un esercito di operai, ci vuole un capocantiere molto ben organizzato. Così, ad esempio, non tutti i software comunemente usati per le simulazioni della dinamica molecolare sono adatti a sfruttare le risorse del K-Computer. Le prestazioni di picco infatti sono state dimostrate per ora solo su software appositamente adattati.

Poi, così a pelle, ho rilevato un istintivo e del tutto personale, senso di anacronismo. Mentre la tecnologia va in direzione della miniaturizzazione, con le immagini del K-Computer ho rivisto il “supercomputer” che usavo ai miei esordi, a inizio anni novanta, che occupava grandi armadi in uno stanzone, con prestazioni inferiori a quelle di un attuale mini-pc. È vero che i singoli processori si miniaturizzano e velocizzano raddoppiando le prestazioni a ritmo esponenziale. Ma l’avidità umana di applicazioni sempre più complesse e performanti cresce di pari passo, da cui la necessità di parallelizzazione estrema, in una gara continua al calcolatore più veloce.

Comunque vada, il progetto K non sarà un flop (o un peta flop, giusto per lanciare una facile battuta). Oltre alle applicazioni che verranno, più o meno di impatto, l’importanza di progetti come questo risiede anche nella sfida che essi costituiscono, nello sforzo tecnologico di risolvere i problemi legati alla realizzazione, nella progettazione dei nuovi materiali necessari nella costruzione, di nuovi protocolli informatici, e in molti altre applicazioni accessorie che fanno funzionare il sistema. E non da ultimo, nel fattore psico-sociale: il governo giapponese conta su questo progetto anche per risollevare l’immagine del paese, dopo le catastrofi ambientali e tecnologiche che lo hanno di recente colpito.

Fonte: LoSchermo.it

9 pensieri su “Il Supercalcolatore di Kobe

  1. voglio e bravo questo supercalcolatore!! *-*
    Ma non posso permettermi una “piscina” solo per l’impianto di refrigerazione, nè ho 3200 mq di spazio per ospirarlo o come pagare qualcosa che sciupa corrente quanto 10000 abitazioni XD

    Quindi rinuncio xD
    Ma il progetto è a dir poco spettacolare guardando i numeri e la velocità raggiungibile *-*

    Mi piace

      • Beh, io devo dire che mancava ancora qualche mese alla mia nascita quando NGE venne trasmesso per la prima volta in Giappone, e che ho avuto il piacere di apprezzarlo solo qualche anno fa (dopo di chè l’ ho rivisto altre due volte tra l’ altro) ma ho trovato un’ opera non traboccante di quel fanservice che tanto piace negli anime più recenti (ma non faccio di tutta l’ erba un fascio e sto generalizzando, infatti non parlo ad esempio di Ergo Proxy) ma che trabocca invece di emozioni… cosa che molta gente sul web critica senza nemmeno capire lontanamente e giudica Evangelion senza aver colto nemmeno uno di tutti i messaggi che cerca di trasmettere… un vero peccato.

        Mi piace

  2. Non so se in Giappone non avessero niente di piu’ utile da fare, ma in italia x esempio x trovare la particella di Dio anno speso 1000 miliardi di $ e fanno andare in malora istruzione e ospedali.

    Mi piace

  3. La particella di Dio, come si traduce (erroneamente) “The God particle” (la particella Dio), per chi non lo sapesse è la particella che permette alla materia di aggregarsi e rappresentava uno dei 2 buchi conoscitivi essenziali del modello standard. La sua esistenza o meno corrispondeva a dire “avevamo ragione” o “abbiamo sbagliato tutto”.

    Detto ciò, l’Italia non ha alcun merito, ha semmai il demerito di aver fatto fuggire all’estero alcuni scienziati che hanno partecipato al progetto del CERN (che è in Svizzera).
    Non era un progetto italiano e quindi non abbiamo speso soldi… anche se è la moda dirlo.
    La Gelmini, per esempio, pensava avessimo speso 700 milioni di euro per un (inesistente) tunnel sotterraneo dall’Abruzzo alle Alpi svizzere.
    La verità è che l’Italia è tra i paesi che meno spende per la ricerca. L’1% del PIL va in ricerca (contro il 4% della Svezia), ma solo lo 0,5% è pubblico. Si tratta di circa 8 miliardi di euro che servono a finanziare tutte le università e i centri di ricerca, nonché a incentivare l’uso di fondi privati. Per il sistema italiano si tratta di briciole… non a caso l’ASI, l’agenzia spaziale italiana, non ha più progetti suoi in corso… sostiene i progetti europei e basta: non ha fondi.
    Chissenefrega dello spazio! – diranno i più.
    Quando un’azienda di telecomunicazioni italiana vorrà mettere in orbita un satellite, però, dovrà rivolgersi all’estero e pagare… e saranno soldi italiani che vanno via dall’Italia.

    Qui si vede bene l’errore pratico del pensare che finanziare la scienza sia inutile… ma se non bastasse possiamo riportare dei dati. Da quando la Svezia ha predisposto un ambizioso piano di investimenti nella ricerca, in 10 anni ha raddoppiato il proprio PIL. Ciò significa lavoro e ricchezza, non costosi giocattoli.
    Se ai dati preferiamo le cose concrete, possiamo riparlare dello spazio.
    Se non ci fosse stata la corsa alla Luna negli anni ’60 oggi non avremmo le comunicazioni via satellite (dai telefoni, a Sky)… e questo è ovvio(?), ma non avremmo nemmeno il velcro che trovi su berretti, scarpe, borse…
    Quando si va ai “confini della scienza” si realizzano macchinari mai realizzati prima, spingendo ai limiti estremi l’inventiva e le capacità realizzative degli scienziati e dell’industrie… e nessuno sa a priori quali vantaggi tutto ciò può portare, ma la cosa praticamente certa è che ci saranno dei vantaggi. Magari non subito, magari non abbasseranno il prezzo di un chilo di pane, ma prima o poi si vedranno e saranno essenziali per il futuro.

    Mi piace

この記事へのコメントをどうぞ! ヾ(。>﹏<。)ノ゙✧*。

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione / Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione / Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione / Modifica )

Google+ photo

Stai commentando usando il tuo account Google+. Chiudi sessione / Modifica )

Connessione a %s...