Google Cloud TPU, nuova frontiera per il machine learning

Google ha annunciato le sue nuove TPU di seconda generazione, dedite al machine learning, che permetteranno alla grande G di migliorare le prestazioni dei suoi servizi.

Mamma Google non è seconda a nessuno in termini di innovazione e spinta verso nuove frontiere di servizi online. Per offrire tutto ciò però è necessaria tanta potenza computazionale oltre ad una mole esorbitante di dati. Il machine learning, o anche detto apprendimento automatico, è per questi duri lavori una manna dal cielo poiché permette ad una macchina di apprendere autonomamente il modello per una determinata applicazione senza programmare esplicitamente il codice. In quest’ottica Google ha sviluppato e annunnciato le sue nuove TPU (Tensor Processor Unit) di seconda generazione denominate “Cloud TPU”.

TPU

Al giorno d’oggi il machine learning è suddiviso in due fasi distinte: la prima è intenta all’apprendimento del metodo da applicare; la seconda alla ricerca di corrispondenze dei metodi così da trovare la soluzione algoritmica migliore (detta anche “inferenza”, ndr).

Nell’acquisizione dei metodi, la prima generazione di TPU targata Google era, complessivamente, più veloce nell’eseguire i calcoli dalle 15 alle 30 volte e dalle 30 alle 80 volte più efficiente rispetto alla soluzione CPU + GPU. Con la seconda generazione l’ottimizzazione è estesa anche all’inferenza; un notevole passo in avanti. Nella casa di Mountain View sono certi della direzione che hanno intrapreso e i primi frutti iniziano ad arrivare: è tangibile un importante miglioramento nella qualità di Google Translate grazie allo sfruttamento delle reti neurali.

TPU

La casa produttrice non ha rivelato ulteriori dettagli sulle specifiche tecniche del chip se non le operazioni che la TPU è in grado di svolgere: 180 TeraFLOPS per singolo circuito integrato. Non si hanno però notizie sulla tipologia del calcolo con la quale si otterrebbe quel risultato, se in FP16 o FP32.

Sebbene già una sola Cloud TPU abbia una potenza considerevole (anche paragonandola alla soluzione V100 di Nvidia), il team di sviluppo ha affermato che «Le abbiamo progettate per lavorare ancora meglio insieme.» Infatti gli sviluppatori hanno ben pensato di sfruttare le sinergie dei singoli dispositivi come se fosse una unica entità creando, de facto, un supercomputer: 64 TPU compongono, grazie ad una rete personalizzata ad alta velocità, un TPU pods dalla strabiliante potenza di 11,5 PetaFLOPS.

TPU
Un Google TPU-Pods. Il sogno erotico di un ingegnere elettronico, il sogno ordinatissimo di un sistemista.

Effettuare un vero confronto tra le soluzioni delle aziende concorrenti (Nvidia, AMD, ecc.) non è affatto un compito facile essendo, al momento, un terreno in cui si hanno prestazioni estremamente differenti in base all’ambito in cui sono sfruttate tali macchine. In alcuni primeggia Nvidia, in altri AMD e in altri ancora Google; solo il tempo e la creazione di uno standard tra le proposte potra effettivamente decretare un vincitore.

Per ora Google si limita ad integrare nel pacchetto TPU il software open-source TensorFlow per il machine learning per migliorare i suoi particolari servizi di cloud computing e ad alzare l’asticella delle prestazioni delle reti neurali ad un nuovo standard.

Fonte

Share on Facebook3Tweet about this on TwitterShare on Google+0

Mattia Marino

"Quisque faber ipse fortunae suae" o "Aiutati che Dio ti aiuta" ovvero "Chi dorme non piglia pesci". Vabbè ci siamo capiti.

Lascia un commento