Intel accelera lo sviluppo, l’implementazione e le prestazioni dell’Intelligenza Artificiale con una nuova classe di hardware dal Cloud all’Edge

Nuovi prodotti sviluppati per le esigenze di AI di clienti all'avanguardia, come Baidu e Facebook

Qual è la novità: Oggi, durante un incontro di settore, Intel ha dato il benvenuto alla prossima ondata di intelligenza artificiale (AI), annunciando aggiornamenti riguardanti nuovi prodotti progettati per accelerare lo sviluppo e l’implementazione dei sistemi di AI dal cloud fino all’edge. L’azienda ha dato una dimostrazione dei suoi processori di rete neurale (Neural Network Processors, NNP) Intel® Nervana™ per l’addestramento (NNP-T1000) e l’inferenza (NNP-I1000): sono i primi ASIC di Intel sviluppati appositamente per il deep learning complesso, con livelli incredibili di scalabilità ed efficienza per i clienti che operano nei settori cloud e data center. Intel ha rivelato, inoltre, la prossima generazione di unità di elaborazione visiva (Vision Processoing Unit, VPU) Intel® Movidius™ Myriad™ per applicazioni multimediali, di visione artificiale (computer vision) e inferenza in edge.

“Con questa nuova fase dell’intelligenza artificiale, stiamo raggiungendo un punto di svolta in termini di hardware computazionale e memoria. Per proseguire con gli incredibili progressi nel campo dell’intelligenza artificiale, sono necessari prodotti hardware appositamente sviluppati, come i processori di rete neurale Intel Nervana NNP e le unità di elaborazione visiva Intel Movidius Myriad VPU. L’impiego di forme più avanzate di intelligenza artificiale a livello di sistema ci consentirà di passare dalla trasformazione dei dati in informazioni alla trasformazione di informazioni in conoscenza.” – Naveen Rao, Corporate Vice President di Intel e General Manager dell’Artificial Intelligence Products Group di Intel

Perché sono importanti: Questi prodotti rafforzano ulteriormente il portafoglio di soluzioni di intelligenza artificiale di Intel, che – secondo le previsioni – dovrebbe generare oltre 3,5 miliardi di dollari di fatturato nel 2019. Il portafoglio di soluzioni AI di Intel, il più grande nel settore per ampiezza e profondità, aiuta i clienti a favorire lo sviluppo e l’implementazione di modelli di intelligenza artificiale su qualsiasi scala, dagli enormi cloud ai minuscoli dispositivi edge.

Che cosa abbiamo annunciato: I nuovi processori di rete neurale Intel Nervana NNP, già in produzione e consegnati ai clienti, fanno parte di un approccio all’AI a livello di sistema che offre un software completo sviluppato con componenti open e integrazione di framework per il deep learning, per essere utilizzati al massimo.

Il prodotto Intel Nervana NNP-T raggiunge il giusto equilibrio tra computing, comunicazione e memoria, consentendo scalabilità quasi lineare ed efficienza energetica dai piccoli cluster fino ai più grandi supercomputer per POD (Performance Optimized Datacenter).

A photo shows the Intel Nervana NNP-T for training, Mezzanine card. Intel Nervana Neural Network Processors are Intel’s first purpose-built ASICs for complex deep learning with scale and efficiency for cloud and data center customers. Intel demonstrated the Intel NNPs at the company’s AI Summit on Nov. 12, 2019, in San Francisco. (Credit: Intel Corporation)

Intel Nervana NNP-I è efficiente in termini di consumi e budget ed è ideale per eseguire inferenze multimodali intensive su scala reale utilizzando fattori di forma flessibili.

A photo shows the Intel Nervana NNP-I for inference. Intel Nervana Neural Network Processors are Intel’s first purpose-built ASICs for complex deep learning with scale and efficiency for cloud and data center customers. Intel demonstrated the Intel NNPs at the company’s AI Summit on Nov. 12, 2019, in San Francisco. (Credit: Intel Corporation)

Entrambi i prodotti sono stati sviluppati per le esigenze di elaborazione di intelligenza artificiale da parte di clienti all’avanguardia, come Baidu e Facebook.

Siamo entusiasti di lavorare con Intel per implementare calcoli di inferenza più veloci ed efficienti con il processore di rete neurale Intel Nervana (NNP-I) ed espandere ad esso il supporto per il nostro compilatore di deep learning allo stato dell’arte, Glow. – Misha Smelyanskiy, Facebook director of AI System Co-Design.

Inoltre, la prossima generazione di unità di elaborazione visiva Intel Movidius, prevista per la prima metà del 2020, includerà avanzamenti architetturali esclusivi estremamente efficienti, volti ad offrire prestazioni leader – oltre 10 volte superiori alle prestazioni di inferenza della generazione precedente – con efficienza energetica fino a 6 volte superiore rispetto ai processori della concorrenza. Intel ha anche annunciato il nuovo Intel® DevCloud for the Edge, che, insieme alla distribuzione Intel® del toolkit OpenVINO™, risolve un aspetto cruciale per gli sviluppatori, consentendo loro di sperimentare, prototipare e testare soluzioni di intelligenza artificiale su un’ampia gamma di processori Intel prima di acquistare hardware.

Perché è importante: Sono necessari dati, modelli e tecniche incredibilmente complessi affinché il deep learning progredisca, e questo richiede di pensare diversamente alle architetture.

Con la maggior parte del mondo che esegue parte delle proprie operazioni di intelligenza artificiale con processori Intel® Xeon® Scalable, Intel continua a migliorare questa piattaforma con funzionalità come Intel® Deep Learning Boost con Vector Neural Network Instruction (VNNI), che offre prestazioni di inferenza AI migliorate ad ogni livello di implementazione, dai data center alla periferia della rete. Mentre questa piattaforma continuerà ad offrire robuste fondamenta per l’intelligenza artificiale per molti anni, le esigenze più avanzate di addestramento del deep learning da parte dei clienti di Intel richiedono che le prestazioni raddoppino ogni 3 mesi e mezzo, e questo tipo di innovazione può avvenire soltanto con un portafoglio di soluzioni di intelligenza artificiale come quelle di Intel. L’azienda è equipaggiata per occuparsi di tutta la tecnologia di computing, memoria, storage, interconnessioni, packaging e software per massimizzare l’efficienza, la programmabilità e garantire la facoltà fondamentale di estendere la distribuzione del deep learning su migliaia di nodi, consentendo, di conseguenza, di ampliare la rivoluzione della conoscenza.

Ulteriori Informazioni: 2019 AI Summit (Press Kit) |Artificial Intelligence at Intel (Press Kit) | At Hot Chips, Intel Pushes ‘AI Everywhere’

Informazioni su Intel:

Intel (NASDAQ: INTC) è leader nel settore dei semiconduttori. Attraverso tecnologie di computing e di comunicazione, che costituiscono le fondamenta delle innovazioni in tutto il mondo, dà forma al futuro data-centrico, basato sulla valorizzazione e l’utilizzo dei dati. L’esperienza ingegneristica dell’azienda sta aiutando ad affrontare le più importanti sfide globali e sta contribuendo a potenziare, connettere e rendere sicuro il mondo intelligente e connesso, con i suoi miliardi di dispositivi e la sua infrastruttura: dal cloud alla rete, fino all’edge e tutto ciò che c’è intorno. Maggiori informazioni su Intel sono disponibili su newsroom.intel.it and intel.it.

Intel e il logo Intel sono marchi registrati di Intel Corporation negli Stati Uniti e in altri Paesi.

*Altri nomi e brand potrebbero essere rivendicati come proprietà di terzi.