Nvidia Pascal arriverà nel 2016, ma sarà 10 volte più veloce di MaxwellNvidia ha rilasciato nuovi e più ampi dettagli tecnici suPascal, l'architettura grafica che succederà il prossimo anno all'attuale Maxwell. Oltre a una capacità di calcolo fortemente incrementata e alla capacità di ospitare fino a 32 GB di RAM, la novità principale di pascal riguarderà le capacità di Deep Learning, cruciali per lo sviluppo dell'intelligenza artificiale.


Di Pascal, l'architettura che seguirà a Maxwell nel 2016, avevamo già parlato esattamente un anno fa, ma Nvidia ha rilasciato nuovi e più circostanziati dettagli, che gettano nuova luce su questa architettura che si preannuncia davvero rivoluzionaria. Per l'occasione dunque sul palco del GTC (GPU Tech Conference) 2015 è salito Jen-Hsun Huang, CEO del Green Team, come del resto era già accaduto lo scorso anno.

Di Pascal sapevamo già diverse cose, che introdurrà un nuovo processo produttivo chiamato 3D chip-on-wafer, che consentirà di impilare diversi chip uno sull'altro, limitando l'impronta del chip e incrementandone l'efficienza energetica, che adotterà il nuovo socket NVLink, capace di mettere in comunicazione diretta CPU e GPU, eliminando qualsiasi passaggio ulteriore, con una comunicazione da cinque a dodici volte più veloce e con latenze molto inferiori alle attuali e che integrerà anche una memoria unificata, in ossequio al nuovo trend del computing eterogeneo, consentendo alla GPU di dialogare meglio con i processori e di risparmiare tempo per gli sviluppatori, perché non ci sarà più la necessità di programmare in anticipo quali dati andranno elaborati dalla prima e quali dalla seconda.

Nvidia Pascal

Nell'evento però Huang si è concentrato su altre due tecnologie, Mixed-Precision Computing e 3D Memory, che consentiranno alla GPU un deciso balzo in avanti in quello che si chiama Deep Learning o apprendimento approfondito, un settore cruciale nello sviluppo dell'intelligenza artificiale, che si basa sulla capacità da parte delle reti neurali artificiali di apprendere autonomamente e di gestire diversi livelli di rappresentazione, corrispondenti a gerarchie di caratteristiche di fattori o concetti, dove i concetti di alto livello sono definiti sulla base di quelli più in basso.

Lo scopo è di riuscire a gestire grossi volumi di dati e prevedere il futuro sulla base di queste informazioni, un'abilità che potrà tornare utili in moltissimi campi, ad esempio nella ricerca medica, per prevedere tutti i potenziali gli sviluppi di una ricerca. Nvidia utilizza un middleware chiamato Digits, un training system che sfrutta l'accelerazione hardware delle GPU, ottimizzato per l'elaborazione di dati scientifici e in grado di utilizzare il software per reti neurali AlexNet, anch'esso in grado di avvantaggiarsi delle capacità dei processori grafici, per addestrare il sistema a riconoscere il contenuto delle immagini che gli vengono sottoposte. La prima tecnologia dunque si chiama Mixed-Precision Computing ed indica la capacità di Pascal di eseguire calcoli in virgola mobile FP16 a una velocità doppia rispetto ai calcoli FP32 a singola precisione, con un incremento delle prestazioni che avrà effetti benefici non solo nei calcoli dedicati al rendering 3D dei giochi ma anche in operazioni complesse come classificazione e convoluzione, due attività chiave del deep learning.

3D Memory invece è una nuova metodologia per sistemare i moduli di memoria RAM impilandoli uno sull'altro: in questo modo anzitutto si può aumentare significativamente il quantitativo massimo, che infatti salirà fino a 32 GB contro i 12 GB utilizzati attualmente nella GTX Titan X e in secondo luogo si accorciano le piste elettriche su cui i dati fanno avanti e indietro tra il processore grafico e le RAM stesse portando a un raddoppio della bandwidth disponibile, che sale così da 350 a 750 GB/s. Pascal avrà dunque prestazioni quattro volte maggiori in mixed precision rispetto a Maxwell e performance per watt due volte maggiori.

In chiusura bisogna anche notare il ritorno nella roadmap Nvidia di Volta, sparita lo scorso anno e inizialmente prevista dopo Maxwell ossia al posto di Pascal appunto, ma ad oggi a quanto pare slittata addirittura al 2018, uno iato di due anni, insolito per il chipmaker californiano, che solitamente fino a pascal ha seguito il ritmo di una nuova architettura per ogni nuovo anno e che fa presagire particolari difficoltà di sviluppo o per un sistema litografico assai spinto o per soluzioni tecnologiche inedite quanto innovative, ma di difficile implementazione, solo il tempo potrà dircelo.   

Google News
Le notizie e le recensioni di Notebook Italia sono anche su Google News. Seguici cliccando sulla stellina

Commenti