La Intel del futuro tra nanometri, tecnologia e 6 pilastri di crescita


3 gennaio 2020: sono sull’aereo che mi porter negli Stati Uniti per partecipare al CES di Las Vegas. Mentre sta per completarsi la fase di imbarco e attendo al mio posto che tutti i passeggeri si siedano, squilla il cellulare: il responsabile comunicazione di Intel Italia, che mi chiama per confermarmi una intervista che aveva organizzato per la mia trasferta al CES. A sorpresa cambia per l’intervistato e ne resto non poco stupito. Dovr incontrare dopo qualche giorno Venkata Renduchintala, semplicemente meglio noto come Murthy: CEO di Intel.


murthy_shot_1.jpg


Questa sigla non nel suo caso acronomo di Chief Executive Officer, cio amministratore delegato, ma di Chief Engineering Office, Technology, Systems Architecture and Client Group. Detto in altro modo, quindi, il lavoro di Murthy quello di governare in Intel tutto quello che riguarda lo sviluppo della tecnologia e la capacit produttiva interna all’azienda.

Proprio l’interlocutore giusto, penso, per cercare di fare un po’ di chiarezza su quello a cui Intel sta lavorando e sulle prospettive di sviluppo per i prossimi anni. Ma pi di tutto voglio approfondire le problematiche incontrate dall’azienda nel corso degli ultimi anni, legate alla transizione alla tecnologia produttiva a 10 nanometri. Partiamo proprio da questo nella nostra chiacchierata nei giorni che chiudono il CES 2020.

Dalle parole ai fatti: quella execution che diventata un problema degli ultimi anni

Ai miei occhi quello che mancato ad Intel in questi anni quello che gli americani definiscono con il termine di “execution”, cio la capacit di concretizzare in fatti i piani di sviluppo futuri. Proprio l’ambito nel quale la concorrente AMD ha sempre incontrato notevoli difficolt nel passato e dove invece, da alcuni anni a questa parte, non sembra sbagliarne una. Ed proprio su questo aspetto che inizia la nostra conversazione, con una risposta molto franca di Murthy che ammette le difficolt incontrate dell’azienda, soprattutto nel passaggio alla tecnologia produttiva a 10 nanometri.

“Una delle grandi capacit nella storia di Intel stata quella di fornire nuova tecnologia e processi produttivi in costante evoluzione con una cadenza facilmente prevedibile e costante nel tempo. Recentemente come azienda abbiamo sbagliato, e lo abbiamo fatto gravemente: questo in modo principale legato alle difficolt nel passaggio alla tecnologia produttiva a 10 nanometri, con il quale abbiamo assunto rischi tecnologici troppo spinti e siamo stati eccessivamente ambiziosi e aggressivi.”



Una franchezza, la sua, che vista la posizione ricoperta non mi aspettavo e che ho molto apprezzato



Una franchezza, la sua, che vista la posizione ricoperta non mi aspettavo e che ho molto apprezzato. Da qui passiamo al presente, che vede Intel posizionata in una “clear road to improvement” per citare le parole di Murthy con una roadmap di prodotti a 10 nanometri che vedremo al debutto gi nel corso del 2020 (nota: al CES Intel ha annunciato, in una conferenza stampa, una serie di processori attesi per i prossimi mesi basati su queste tecnologie tanto per sistemi datacenter come per i notebook).

Sar da quest’anno che Intel rientrer in una fase per la quale l’alternanza tra novit tecnologiche e innovazioni nella tecnologia produttiva torner a quella cadenza stabile e prevedibile che ne ha caratterizzato il passato, superando la fase di difficolt incontrata nel corso degli ultimi anni. Ma per raggiungere questo obiettivo Intel ha dovuto anche investire in leadership, inserendo nel proprio organico figure chiave che contribuiscano tanto allo sviluppo tecnologico come a quello della sua capacit produttiva meglio segmentando la struttura all’ingresso con l’obiettivo di renderla pi pronta e rapida ai cambiamenti.

In questo senso vengono subito alla mente due volti pubblici di Intel fortemente impegnati nello sviluppo delle tecnologie del futuro, entrambi che riportano proprio a Murty Renduchintala: Raja Koduri, ex CTO di AMD, e Jim Keller, brillante ingegnere con una carriera di successo tra AMD, Apple e Tesla considerato una sorta di superstar tra gli ingegneri che sviluppano nuove architetture di processore.

Da 10 a 7 nanometri: una lezione per il futuro

La difficileesperienza nella migrazione a 10 nanometri quali ricadute potr avere nel passaggio alla successiva tecnologia produttiva in roadmap, quella a 7 nanometri? Murthy conferma come gi ora il processo di implementazione della tecnologia a 7 nanometri sia in corso e che i problemi a 10 nanometri siano una base di esperienza sulla quale far maturare il nuovo processo evitando gli errori del passato.




fondamentale per Intel non rincorrere a 7 nanometri il massimo livello di scalabilit ricercato a 10 nanometri



In primo luogo fondamentale per Intel non rincorrere il massimo livello di scalabilit ricercato a 10 nanometri, quel 2,7x che si mostrato essere un target troppo ambizioso alla prova dei fatti. Gli ingegneri dell’azienda hanno lavorato ad un gran numero di innovazioni che sommate assieme avrebbero permesso di raggiungere questo obiettivo. E’ stato non tanto il loro sviluppo specifico, quanto tutte le reciproche influenze che queste innovazioni tecnologiche richieste dai 10 nanometri hanno richiesto tra di loro una volta implementate che hanno creato le note difficolt nel passaggio a questo nodo.

Per questo motivo nel passaggio alla tecnologia produttiva a 7 nanometri l’obiettivo interno in Intel sar quello di raggiungere uno scaling con un fattore 2x, limitando in parte il massimo teorico raggiungibile (indicativamente 2,4x-2,5x) ma garantendo in questo modo una maggiore facilit di esecuzione e nei limiti del possibile la certezza di giungere all’obiettivo nei tempi previsti. Da tutto questo scaturisce la nuova roadmap di sviluppo tecnologico nella quale presente un’alternanza annuale tra innovazioni tecnologiche e miglioramenti nelle tecnologie produttive con varie evoluzioni dello stesso processo produttivo.



il continuo affinamento del processo produttivo a 14 nanometri ha permesso almeno in parte di ovviare alla mancanza di prodotti a 10 nanometri



E’ questo quanto accaduto con la tecnologia produttiva a 14 nanometri, che ha visto evoluzioni nella forma di 14nm+ prima e 14nm++ in seguito cos da renderla sempre pi adatta alle necessit specifiche dei prodotti apparsi in commercio. Potremmo dire che questa stata da un lato una innovazione di Intel, dall’altra una necessit pratica: il continuo affinamento del processo produttivo a 14 nanometri ha permesso almeno in parte di ovviare alla mancanza di prodotti a 10 nanometri in volumi adeguati a far fronte alla domanda di mercato.

La sintesi di tutto questo un processo che vede Intel offrire un anno quello che Murthy definisce un “Moore’s Law equivalent” in termini di scalabilit del processo seguito l’anno successivo da un “Moore’s Law equivalent” in termini di prestazioni. Allo stesso tempo importante per l’azienda continuare a far rendere gli investimenti fatti nel corso del tempo, spostando prodotti e tecnologie ai nuovi processi produttivi pi sofisticati solo quando questo si rende necessario e sensato dal punto di vista del risultato finale. In tempi di eterogeneous computing importante per Intel saper scegliere al meglio quale tecnologia produttiva abbinare a quale prodotto, cos da offrire il migliore connubio per i propri clienti.

“we’re very much on plan with our 7nm execution; we’ll be sampling 7nm before the end of 2020 and shipping the first commercial devices before the end of 2021. BY 2022 we’ll have a full portfolio of 7nm devices”

Andare oltre i design monolitici: tra processo e innovazione

Adottare la migliore tecnologia produttiva, e non necessariamente la pi recente e innovativa, in funzione delle specifiche necessit del chip che deve essere costruito porta a pensare in modo naturale alla tecnologia Foveros, della quale Intel ha in pi occasioni parlato nel recente passato. Su questo Murthy molto chiaro: la domanda di superiore potenza di calcolo che proviene dal mercato cos elevata ed in crescita che non pensabile poter sviluppare solo ed esclusivamente soluzioni monolitiche (cio in singolo chip) perch la tecnologia produttiva a disposizione non renderebbe chip di questo tipo sensati dal punto di vista della loro costruzione e delle rese produttive.



i design monolitici sono troppo complessi e con die troppo grandi per ottenere una loro facile applicabilit in ambito produttivo




Anche se si potesse adottare in questo momento una tecnologia prevista per gli anni a venire, come quella a 5 nanometri, la risultante sarebbe quella di avere design monolitici troppo complessi e con die troppo grandi per ottenerne una facile applicabilit in ambito produttivo. Costi troppo elevati ed eventualit di rese produttive insufficienti sono rischi che Intel non vuole correre.

La sfida pi grande quindi quella di capire in che modo poter partizionare un die in un design da monolitico a multi-chip, mantenendo efficienza complessiva sia dal punto di vista energetico sia da quello della potenza.

“The challenge is when you split a die up, how do you do that in a power efficient and a performance efficient way?”

La risposta nella integrazione orizzontale e in quella verticale, con varie tecnologie sviluppate da Intel per entrambi gli ambiti. Nel primo caso, parliamo di integrazione 2D, troviamo quella Multi-Die Interconnect Bridge o EMiB; nel secondo, integrazione 3D, entra in gioco la tecnologia Foveros. La peculiarit di Foveros quella di distribuire tra i chip non solo i dati (con quindi tutto quello che riguarda la bandwidth necessaria per il loro trasferimento) ma anche la potenza loro necessaria per operare. In chiave futura Foveros e EMiB saranno strumenti adottati in forma sempre pi massiccia da Intel per la costruzione di tutti i SoC previsti per il futuro.

slide_foveros_1.jpg
Foveros – Intel Architecture Day 2018

La risultante? La stima di Murthy che nel corso del decennio appena iniziato la maggior parte dei prodotti Intel destinati al mondo del server adotteranno per la propria costruzione tecnologie Foveros e EMiB, con dinamica simile replicata anche per quanto riguarda i System on a Chip destinati al settore dei client. Non si deve per dimenticare che la fattibilit, in termini di costruzione all’interno delle fonderie, dei chip basati su queste tecnologie innovative richieder tanta innovazione e ricerca almeno quanta stata spesa da Intel per la loro ideazione. E’infatti necessario applicarle in modo tale che conducano a rese produttive adeguate con costi che siano bilanciati a quelli che si avrebbero con un tradizionale, e per molti versi irrealizzabile, design monolitico.




forte legame tra innovazione tecnologica, che si manifesta con chip sempre pi complessi e potenti, e capacit produttiva interna all’azienda



Dalle parole di Murthy traspare quindi il forte legame tra innovazione tecnologica, che si manifesta con chip sempre pi complessi e potenti, e capacit produttiva interna all’azienda. Quest’ultimo ambito , per usare un’immagine, la parte nascosta dell’iceberg che rimane sotto la superficie del mare ma che probabilmente quella pi grande e complessa da gestire.

Ci spingiamo quindi verso un futuro fatto di chip sempre pi complessi, potenti ma capaci di operare in condizioni ben precise quanto a potenza e requisiti termici: i design saranno sempre pi basati su un approccio multichip, nel quale le differenti tecnologie produttive a disposizione saranno utilizzate non per essere le pi innovative ma quelle pi adatte alla costruzione dello specifico chip per considerazioni legate alla sua redditivit e fattibilit economica. Lo sviluppo di nuove tecnologie (Intel indica Foveros e EMiB ma altre arriveranno in futuro) permetter ai design multichip di mantenere un bilanciamento in termini di prestazioni e di efficienza energetica richiesti dalla domanda di mercato, sempre pi spinta verso avere a disposizione soluzioni di calcolo potenti e compatte che in questo momento non sembrano accessibili con design monolitici mantenendo adeguati livelli di rese produttive con un adeguato ritorno in termini economici.

I 6 pilastri della crescita futura

In pi occasioni Intel ha rimarcato il proprio cambio di strategia, basato sui cosiddetti “6 pillars”. Si tratta di 6 elementi considerati da Intel quali fondamentali per guidare il proprio sviluppo futuro, e tutti in misura marcata collegati tra di loro: software, sicurezza, interconnessione, memoria, architettura e processo. Il lavoro congiunto su questi elementi permette ad Intel di approcciarsi al mercato in modo differente rispetto a quanto fatto in passato, non limitandosi pi al solo mondo dei chip ma aprendosi ad uno spazio dal controvalore potenziale superiore ai 300 miliardi di dollari.





Non ce n’ uno pi importanti degli altri, perch le relazioni che li legano tra di loro sono cos forti da essere imprescindibili



Chiedere a Murthy quale sia dei 6 elementi chiave quello pi fondamentale degli altri sembrato scontato e da un certo punto di vista altrettanto la risposta. Non ce n’ uno pi importanti degli altri, perch le relazioni che li legano tra di loro sono cos forti da essere imprescindibili. Intel avrebbe potuto nominare questa strategia come quella dei 10 o dei 12 pilastri, mi risponde Murthy: l’identificare nello specifico questi 6 frutto di un processo interno che li ha evidenziati come i pi fondamentali, che di fatto non possono essere modificati con l’evoluzione del tempo.

Che questi 6 siano per certi versi immutabili, quasi inevitabili potremmo aggiungere, nella strategia di Intel parte da una semplice considerazione: ognuno di questi pilastri ha una sua propria rilevanza in funzione dello specifico mercato nel quale viene applicato.

Alla base continuer ad esserci la tecnologia produttiva, necessaria per la costruzione dei prodotti, con la CPU quale fondamentale componente dello sviluppo futuro. Questi due elementi sono stati alla base della strategia passata di Intel, basata sul modello Tick-Tock (alternanza di nuovo processo produttivo e di nuova architettura) e adatta per un mercato di riferimento da 60 miliardi di dollari di controvalore annuale come quello delle CPU. Non pi cos nel momento in cui ci si rivolge ad un mercato da 300 miliardi di dollari di controvalore, per il quale diventa necessario investire in modo massiccio in altre tipologie di soluzioni ponendo al centro le GPU.

Da questo nasce quindi lo sforzo ingegneristico di Intel nella creazione di nuove architetture di GPU, adatte ai differenti scenari d’uso dal mondo dei client sino alle elaborazioni nei datacenter. Per Murthy avere a disposizione delle soluzioni GPU per Intel importante non solo nell’ottica delle necessit delle soluzioni discrete (quindi montate su schede PCI Express), ma uno dei requisiti fondamentali per il mondo dell’elaborazione parallela e quindi per tutta quella serie di elaborazioni complesse.

slide_gpu_2.jpg
architettura Intel Xe – Intel Architecture Day 2018

Non dobbiamo dimenticare che Intel il principale produttore di GPU a livello mondiale, forte di tutti i propri processori con GPU integrata che vengono utilizzati nei sistemi desktop e notebook. Lo sviluppo attuale, incentrato nelle soluzioni della famiglia Xe, punta a rendere Intel ancora pi presente in questo settore e capace di rispondere anche alla domanda di prodotti che puntino alle massime prestazioni.

Avere unit di elaborazione potenti richiede necessariamente strumenti che permettano di trasferire dati da e verso cos da essere processati: da questo l’enfasi per i sistemi di interconnessione quale strumento chiave per poter sfruttare al meglio tutta la potenza di elaborazione insita nelle nuove architetture. Accanto a questo trova spazio il contesto della memoria, strumento anche in questo caso imprescindibile per poter gestire dati e fare in modo che le unit di elaborazione siano sempre pronte ad eseguire applicazioni.






in questa strategia rivesta un ruolo fondamentale il lavoro svolto sulle future GPU discrete


Scontato da questo punto di vista parlare di software, con lo sforzo principale di Intel legato all’iniziativa OneAPI con la quale poter fornire agli sviluppatori un unico ambiente di lavoro nel quale poter sfruttare le differenti risorse di elaborazione senza dover implementare un linguaggio specifico per ogni componente hardware. E come non poter collegare a questo il tema della sicurezza, divenuto ancor pi centrale da alcuni anni a questa parte in seguito alla scoperta di bug hardware all’interno di processori che possono essere sfruttati in modo malevolo.

raja_murthy.jpg
Raja Koduri, Senior VP dell’Intel Architecture and Graphics Solutions group e Murthy Renduchintala, Chief Engineering Officer di Intel, in occasione dell’Intel Architecture Day 2018

I 6 pilastri sono quindi tutti equamente fondamentali per lo sviluppo futuro di Intel e non deve stupire, nel caso specifico, vedere come in questa strategia rivesta un ruolo fondamentale il lavoro svolto sulle future GPU discrete. Raja Koduri, ex AMD come abbiamo detto e responsabile per lo sviluppo dell’architettura Xe, anche fortemente coinvolto nell’iniziativa OneAPI: alla luce di quanto qui detto la cosa non deve stupire.

Immaginiamo il futuro tra 5 anni

Abbiamo analizzato i problemi incontrati da Intel negli ultimi anni, capito le evoluzioni future in termini di tecnologia e posizionati i 6 pilastri che rappresentano la chiave di sviluppo dell’attivit di business dell’azienda per un mercato potenziale da 300 miliardi di dollari di controvalore. Proviamo ora a spingerci con l’immaginazione a 5 anni da oggi: quali potranno essere i dispositivi che avremo con noi a disposizione e utilizzeremo quotidianamente? Sar sempre uno smartphone il prodotto nelle nostre mani o un PC potr prendere uno spazio d’uso diverso? Ho chiesto questo a Murthy Renduchintala ricevendo una risposta molto interessante: dal suo punto di vista continueremo ad avere entrambi i dispositivi al centro della nostra esperienza d’uso, se possibile con una enfasi ancora pi elevata per il notebook.




I PC portatili del prossimo futuro avranno per una caratteristica innovativa: quella di non richiedere pi di avere a disposizione un alimentatore




Se lo smartphone pratico e comodo da avere sempre a disposizione la piattaforma PC quella che garantisce la massima produttivit. I PC portatili del prossimo futuro avranno per una caratteristica innovativa: quella di non richiedere pi di avere a disposizione un alimentatore, dipendendo unicamente dalle batterie. La ricarica sar rapidissima e implementata con tecnologie di induzione: negli uffici e nelle nostre abitazioni saranno presenti stazioni di ricarica che permetteranno di ricaricare i nostri prodotti mobile in pochi minuti, liberandoci dalla ricerca di una presa di corrente per poter essere produttivi per tutta la giornata.

E chiudendo la nostra chiacchierata scontato pensare a come i problemi che lo sviluppo della tecnologia cerca di risolvere siano complessi e abbiano sempre pi ripercussioni uno sull’altro. E’ questo un settore affascinante che non smette di stupire, ma la cui complessit ben celata come la parte inferiore di un iceberg. Il fine ultimo dell’evoluzione tecnologica quello di offrire strumenti e servizi che semplifichino la vita degli utenti: un po’ come Murthy immagina il futuro tra qualche anno, fatto di notebook e smartphone sempre pi potenti e flessibili ma per i quali il cavo di alimentazione, con le immancabili preoccupazioni di restare senza batteria, sia un ricordo del passato.



Fonte: https://feeds.hwupgrade.it

Rate this post
Updated: 28 Gennaio 2020 — 16:01
Siti Web > Notizie di Marketing e comunicazione © 2018 Realizzazione, creazione, sviluppo, progettazione siti web-internet