Le prestazioni del chip AI cloud stesso sono relativamente forti e possono supportare un gran numero di operazioni allo stesso tempo. Inoltre, può anche supportare una varietà di applicazioni diverse come immagini e voce. Nel chip AI, la tecnologia basata sul chip AI cloud può consentire una varietà di dispositivi intelligenti e server cloud sono collegati rapidamente e la connessione può mantenere la massima stabilità, che è anche molto utile. Ad esempio, la funzione di traduzione vocale online che attualmente utilizziamo su Internet non si basa solo sulla tecnologia di intelligenza artificiale AI, ma beneficia anche dell'uso di chip AI cloud, che possono garantire che i dispositivi possano ottenere informazioni sul cloud in modo tempestivo. La tecnologia di intelligenza artificiale AI sarà utilizzata nel 2018. Lo slancio dello sviluppo è molto forte. Anche se vedremo solo spesso il termine AI intelligenza artificiale, ci sono ancora molti chip dietro di esso che supportano le operazioni.
AWS inizialmente voleva chiedere ad altri produttori di PCB di progettare un chip Arm che potesse funzionare su larga scala nel cloud, ma dopo aver aspettato anni senza alcun risultato, ha semplicemente arrotolato le maniche e progettato il chip da solo. AWS ha dato il via all'evento annuale re:Invent per il cloud computing lunedì sera. Ha lanciato una serie di nuovi servizi e un nuovo chip cloud progettato da sé è stato particolarmente accattivante.
Questo chip basato su Arm si chiama Graviton ed è fornito ai suoi clienti cloud attraverso il servizio di cloud computing EC2 di AWS. È stato progettato da Annapurna Labs, uno sviluppatore di chip acquisito da Amazon nel 2015. Baineng.com è una filiale del gruppo Qinji ed è una piattaforma di servizi per l'industria elettronica leader in Cina. Fornisce componenti online, approvvigionamento di sensori, personalizzazione PCB, distribuzione BOM, selezione dei materiali e altre soluzioni complete della catena di fornitura dell'industria elettronica, one-stop per soddisfare l'elettronica Le esigenze generali dei clienti di piccole e medie dimensioni nel settore.
L'attrazione principale è che il chip fornisce servizi di calcolo a basso costo. Amazon sostiene che i suoi chip costano fino al 45% in meno rispetto ai chip Intelâ o AMD quando eseguono carichi di lavoro specifici, e AWS fornisce anche servizi di chip leasing. In altre parole, oltre a scegliere di utilizzare chip Intel e chip AMD, i clienti cloud ora hanno una terza scelta in termini di chip.
Peter DeSantis (Peter DeSantis) Vice Presidente di AWS Global Infrastructure and Customer Support ha dichiarato in serata sul palco che il servizio chip o la nuova istanza in sé si chiama EC2 A1, progettato per il cosiddetto orizzontale che può funzionare su molte macchine. L'estensione dell'utilizzo delle applicazioni e l'esecuzione su molte macchine è una caratteristica di molte applicazioni web. Più specificamente, oltre ad essere adatto per server Web, ambienti di sviluppo e cluster di server cache, questo servizio chip è adatto anche per microservizi containerizzati o applicazioni in bundle, in modo che possano essere eseguiti su più tipi di computer e software.
Il chip Graviton segna la posizione dominante del chip Arm. Il chip Arm è stato tradizionalmente utilizzato principalmente in dispositivi a bassa potenza come gli smartphone, ed è stato recentemente utilizzato in dispositivi come i router di rete. Ora, stanno iniziando a entrare nei server dei data center tradizionali, e l'uso dei chip Graviton nelle istanze di calcolo A1 significa che ora sta entrando nel cloud.
Allo stesso tempo, questo segnale indica che Intel e AMD non dominano più il data center o il campo cloud, ma Intel domina ancora; In questi anni AMD ha cercato di sfidare la dominanza di Intelâ, ma con poco successo, ma i suoi nuovi chip Epyc sono stati realizzati e la risposta è stata molto buona tra gli acquirenti di server e le aziende cloud come AWS.
Graviton non è l'unica versione migliorata di AWS annunciata. La società ha anche annunciato altri nuovi esempi di calcolo, tra cui un geek chiamato P3dn che fornisce le funzioni di un'unità di elaborazione grafica che può essere utilizzata per eseguire applicazioni di machine learning, AI e calcolo ad alte prestazioni. Utilizza il chip V100 Volta di fascia alta di Nvidia per fornire ciò che Matt Wood, il general manager AI di AWS ha detto, è il più grande e veloce esempio di formazione nel cloud.