Ricerca nel sito web

L’intelligenza artificiale potrebbe renderti miliardario nel 2025?


Una serie di nuove funzionalità dei chip, incluso il calcolo analogico, forniranno un processore AI più efficiente, più affidabile e più sicuro per più mercati, afferma il CEO Venkat Mattel.

La battaglia per cambiare l’industria informatica in modo che le macchine possano elaborare meglio i compiti dell’intelligenza artificiale, in particolare il deep learning, continua a far nascere nuove e interessanti potenziali stelle future.

Lunedì, Ceremorphic di San Jose, in California, ha presentato formalmente i progetti di chip che sono stati tenuti in modalità invisibile per due anni, discutendo di un chip che secondo l'azienda rivoluzionerà l'efficienza dell'elaborazione AI in termini di consumo energetico.

"Oggi è controintuitivo, ma prestazioni più elevate equivalgono a una potenza inferiore", ha affermato Venkat Mattela, fondatore e amministratore delegato dell'azienda, in un'intervista a ZDNet tramite Zoom. 

Mattela ritiene che numerosi brevetti sul funzionamento a basso consumo consentiranno al chip della sua azienda di produrre la stessa precisione nei compiti di firma dell'apprendimento automatico con uno sforzo di calcolo molto inferiore.  

"Quello che sto cercando di fare non è solo costruire un chip semiconduttore, ma anche i calcoli e gli algoritmi per ridurre il carico di lavoro", ha affermato. "Se un carico di lavoro richiede cento operazioni, voglio ridurlo a cinquanta, e se cinquanta operazioni costano meno energia di cento, voglio dire che il mio è un sistema con prestazioni più elevate." 

"Ho molta pazienza [...] Non faccio cose incrementali", afferma il fondatore e CEO Venkat Mattela del suo approccio all'ingegneria e al business. Ha venduto la sua ultima azienda, Redpine Signals, a Silicon Labs nel 2020 per 314 milioni di dollari. 

Mattela si sta addentrando in un mercato fortemente contestato, dove startup come Cerebras Systems, Graphcore e SambaNova hanno ricevuto ingenti somme di denaro e dove, nonostante tutti i loro risultati, lottano ancora per rovesciare il peso massimo del settore, Nvidia.  

Mattela è propenso ad avere una visione a lungo termine. La sua ultima startup, Redpine Signals, è stata costruita in un periodo di quattordici anni, a partire dal 2006. Quella società è stata venduta al produttore di chip Silicon Labs nel marzo del 2020 per 314 milioni di dollari per la sua tecnologia di chip Bluetooth e Wi-Fi a basso consumo. (Il chip viene ora utilizzato nello smartwatch Garmin Fenix 7 recentemente introdotto.)

La lezione di quel lavoro di diciassette anni al Redpine e ora al Ceremorphic è duplice: "Ho molta pazienza", ha osservato di se stesso con una risatina. E "Non faccio cose incrementali". 

Mattela sostiene che quando affronta un problema nel campo della progettazione dei chip, lo fa in modo tale da andare significativamente avanti rispetto allo stato dell'arte. La tecnologia dei chip wireless Redpine acquistata da Silicon Labs, ha detto, si è scontrata con le offerte di aziende giganti, Qualcomm e Broadcom, in Bluetooth e Wi-FI. 

"Ho accettato una grande sfida, sono andato contro di loro, ma solo con un wireless metrico, a bassissimo consumo energetico, ventisei volte meno energetico rispetto ai migliori del settore", ha affermato Mattela.

Ora, Mattela ritiene di avere un focus altrettanto vincente sulla potenza, insieme ad altre tre qualità che ritiene uniche nel mercato dei chip AI ed essenziali per la disciplina: affidabilità, sicurezza quantistica e capacità di funzionare in più mercati.

Per rendere tutto ciò possibile, Mattela ha mantenuto le risorse del microprocessore che erano state sviluppate presso Redpine, per costituire le fondamenta di Ceremorphic, e ha mantenuto diciotto dipendenti da quello sforzo, che ha integrato assumendo altre 131 persone. L'azienda ha uffici sia a San Jose, il quartier generale ufficiale, sia in un nuovo scintillante edificio per uffici a Hyderabad, in India.

Mattela ha un elenco intrigante di 26 brevetti statunitensi con il suo nome sopra e un elenco altrettanto intrigante di 14 domande di brevetto statunitensi degli ultimi anni. 

Ciò che Mattela chiama "Hierarchical Learning Processor", o HLP, consiste in un elemento di calcolo per l'apprendimento automatico che funziona a 2 gigahertz; un'unità a virgola mobile personalizzata alla stessa frequenza di clock; un approccio personalizzato alla pianificazione del carico di lavoro multi-threading; e circuiti PCIe gen-6 a 16 corsie appositamente progettati per collegare il processore al processore host di un sistema come un chip x86.

L'ultima di queste, la parte PCIe, potrebbe quasi essere una società a sé stante, sostiene Mattela. 

"In questo momento, ciò che è in produzione è PCIe-4, quello dominante, e PCIe-5 è appena iniziato l'anno scorso", ha spiegato MattelA. "E con noi, PCIe-6 sarà in produzione nel 2024: possiedo questa tecnologia."

"Se dovessi concederlo in licenza, sarebbero 12 milioni di dollari", ha detto di PCIe-6. "Solo questo è una cosa significativa da progettare." Il collegamento PCIe consentirà a Mattela di perfezionare ulteriormente il consumo energetico di un sistema totale, ha affermato.

Al centro del vantaggio del chip ci sono i circuiti analogici che riposano sotto quelli digitali. Alcune aziende hanno utilizzato ampiamente circuiti analogici per l'elaborazione dell'intelligenza artificiale, la più nota è la startup Mythic, che nel 2020 ha rivelato un chip in grado di moltiplicare vettori e matrici - il cuore dell'apprendimento automatico - non come moltiplicazioni digitali ma come combinazioni di continui forme d'onda di energia in conformità con la legge di Ohm, ciò che l'azienda chiama calcolo analogico.

Il chip Ceremorphic HLP utilizzerà il calcolo analogico in modo più selettivo rispetto a Mythic, ha detto Mattela a ZDNet

"Al livello più basso della gerarchia" delle funzionalità dei chip, "eseguo calcoli analogici", ha spiegato Mattela. "Ma a livello più alto, non faccio analogico perché voglio rendere semplice il modello di programmazione." 

Ciò significa "ventitré modelli" per moltiplicarsi-accumularsi in analogico tramite la microarchitettura dell'HLP. Le moltiplicazioni analogiche rappresenteranno un uso più efficiente della tensione rispetto a quelle digitali, ha affermato.

"A un livello più alto, sembra una combinazione di elaborazione vettoriale e elaborazione del percorso dati."

Le diverse caratteristiche del chip contribuiranno a rendere possibili le quattro qualità che Mattela promuove. 

Oltre al funzionamento efficiente dal punto di vista energetico, c'è affidabilità. Il silicio dell’intelligenza artificiale oggi ha un problema di affidabilità, ha affermato Mattela.

I chip di apprendimento automatico sono diventati molto più grandi dei microprocessori convenzionali. La GPU "A100" di Nvidia è già abbastanza pesante, per gli standard classici, 826 millimetri quadrati. Ma i nuovi chip delle startup possono essere molto più grandi, come il chip WSE-2 di Cerebras, che misura 45.225 millimetri quadrati, quasi l’intera superficie di un wafer di silicio da otto pollici. 

"Quando si ha più silicio, c'è una maggiore possibilità di fallimento perché ci sono le particelle alfa, il bombardamento di neutroni", ha osservato Mattela. "Negli ultimi due anni, la gente dice già che i miei sistemi nel data center stanno fallendo."

Mattela sostiene che una combinazione hardware-software unica consentirà al suo chip di "prevedere i guasti e correggerli".

"L'ingegneria affidabile del performance computing è il nostro contributo chiave", ha affermato.

La terza qualità che Mattela sottolinea è la sicurezza, inclusa la protezione contro i futuri sistemi quantistici che potrebbero plausibilmente violare la sicurezza dei dati convenzionale.

"Finora i sistemi di sicurezza sono stati progettati per contrastare gli attacchi hacker da parte degli esseri umani", spiega Mattela. "Ma andando avanti, non si può dare per scontato che la potenza di calcolo sarà limitata e che ci vorranno due giorni per romperla [un sistema], faresti meglio a dare per scontato forse due minuti!"

Il chip Ceremorphic ha una "generazione di numeri casuali resistente ai quanti", ha detto Mattela, che "non può essere violato da un computer ad altissime prestazioni". In termini pratici, ha affermato Mattela, ciò significa che un sistema del genere richiederebbe forse un mese per rompersi, dando al cliente il tempo di modificare la chiave di sicurezza per sventare l’attacco.

La quarta proprietà è ciò che Mattela chiama scaling. Ciò che Mattela intende con questo è rivolgersi a più mercati con un unico chip. Il chip sarà in grado di funzionare nel deep learning, nelle applicazioni automobilistiche, nella robotica, nelle scienze della vita e in una sorta di futura applicazione Metaverse. 

Lo stesso HLP servirà sia per l’addestramento che per l’inferenza, i due aspetti dell’apprendimento automatico.

L’espansione su più mercati, ha affermato Mattela, renderà il suo chip più rilevante di quelli della concorrenza. Sostiene che startup come Cerebras sono impressionanti ma non altrettanto rilevanti. 

"È un'ingegneria molto raffinata, sì, e puoi sempre fare qualcosa che nessun altro può fare, ma il tuo scopo non è fare qualcosa che nessuno fa", ha detto Mattela. 

"Il tuo scopo è creare un risultato che consenta a tutti di guadagnare denaro e che abbia un impatto, abbia un certo valore sul mercato."  

Ovviamente Cerebras e gli altri stanno spedendo i prodotti, mentre Mattela non ha ancora prodotto nemmeno i campioni. 

Per rendere vincente il progetto di Ceremorphic, Mattela ha quello che sembrerebbe essere un asso in tasca: il processo di chip a 5 nanometri di Taiwan Semi, che è una delle "tecnologie avanzate" del colosso manifatturiero, un processo di chip a cui non tutti i clienti sono abituati. accesso. 

"Quando dico alla gente che sto realizzando un progetto a 5 nanometri, dicono: come è possibile ottenere 5 nanometri?", ha detto Mattela, con evidente gioia. "Alcune di queste aziende con centinaia di milioni di finanziamenti non sono nel settore dei 5 nanometri; sono nel settore dei 7 nanometri."

Uno dei motivi è lo stretto rapporto che Mattela ha coltivato con TSM anni fa, quando lavorava presso il gigante dei chip analogici Analog Devices. Ancora più importante, la vendita di Redpine a Silicon Labs ha rafforzato la sua credibilità. TSM, dice, doveva credere di poter vedere il suo prodotto fino alla realizzazione, perché solo allora TSM verrà pagato per intero.

"Ci vogliono tanti, tanti anni", ha detto Mattela, riferendosi al processo produttivo. "Devo spendere 200 milioni di dollari, devo produrre un chip, il chip deve funzionare e, se funziona, loro [TSM] verranno pagati in quel momento." 

Il team di Mattela ha inizialmente progettato il chip come prototipo in quella che viene chiamata corsa navetta, un piccolo lotto di chip, nel processo leggermente meno sofisticato a 7 nanometri. Quest’anno l’azienda espanderà i suoi lotti di trasporto navetta a 5 nanometri. 

Anche se Ceremorphic prevede di fornire ai primi campioni del suo chip ai clienti il prossimo anno, la produzione su vasta scala a 5 nanometri probabilmente non avverrà fino al 2024, afferma. "Queste sono date molto aggressive" per la progettazione in un processo all'avanguardia come 5-nano, ha osservato Mattela a proposito della cronologia.

Un fattore di controllo è un costo. Sottolinea che passare dalla corsa dello shuttle all'utilizzo completo di un wafer - la cosiddetta maschera completa - fa la differenza tra 2 milioni di dollari e oltre 10 milioni di dollari. 

Per questo, Ceremorphic dovrà raccogliere ulteriore capitale. Finora, Ceremorphic è autofinanziato, con Mattela, amici e famiglia che hanno messo insieme 50 milioni di dollari in un round di serie A, una quantità estremamente piccola di finanziamenti rispetto alle startup di chip AI come SambaNova che hanno ricevuto miliardi di capitale di rischio. 

La via preferita da Mattela per ottenere finanziamenti futuri, ha affermato, è attraverso le partnership, sebbene anche un round formale di investimenti di serie B sia una possibilità nel 2023. 

La prima istanza dell'HLP sarà come una scheda PCI che raggruppa ciò di cui il chip ha bisogno per funzionare in un sistema informatico. "L'obiettivo sono i tipici OEM di sistemi", ha affermato. Questo percorso verso il mercato, secondo lui, renderà la sua macchina più ampiamente disponibile. 

"Ogni azienda ha bisogno di un supercomputer per la formazione", ha affermato. "Voglio fornire il supercomputer per la formazione che possa essere accessibile a ogni azienda." 

A differenza di qualcosa di gigantesco come quello di Facebook 

Supercomputer di ricerca per l'intelligenza artificiale (6.080 GPU e 175 petabyte di memoria flash): il blade Ceremorphic PCI avrebbe lo scopo di rendere la tecnologia più accessibile.

"Se potessi fornire un decimo delle dimensioni di un computer in una scatola, questo sarebbe il punto giusto."

Anche se la sua parte non è ancora stata lanciata, Mattela prevede già un rapido sconvolgimento nel mercato delle startup di chip AI. Gli sfidanti come Graphcore hanno raccolto molti soldi e realizzato pochissime entrate; ipotizza, solo una frazione di ciò che Nvidia guadagna in un quarto dall'intelligenza artificiale. 

"Ci sono quattro o cinque aziende oggi; hanno quasi cinque miliardi oggi [di capitale raccolto], sono un sacco di soldi", ha detto Mattela. Ma "l'azienda numero uno guadagna due miliardi di dollari ogni trimestre", riferendosi alle entrate dei data center di Nvidia.

"Se non guadagni nemmeno l'1% dell'azienda numero uno e perdi soldi, non è un business", ha detto Mattela.

La scossa arriverà prima o poi, profetizza Mattela, a causa dello sperpero. "Nel mercato caldo di oggi, sono andati a prendere soldi, buon per loro, ma qualunque denaro abbiano ottenuto, non credo che abbiano davvero capito come spenderli perché l'importo speso è semplicemente anormale", ha detto.

Gli ingegneri junior vengono pagati ingenti somme nelle startup di intelligenza artificiale, sostiene. "Se un nuovo arrivato riceve 200.000 dollari [di stipendio annuo], non è sostenibile", ha detto, usando il gergo del settore tecnologico per la posizione più junior, "perché il ragazzo sarà produttivo dopo due anni, ma, a quel punto, il i soldi sono già finiti."  

Articoli correlati