Die Leistung der Cloud AI Chip selbst ist relativ stark, und es kann eine große Anzahl von Operationen gleichzeitig unterstützen. Darüber hinaus, Es kann auch eine Vielzahl von verschiedenen Anwendungen wie Bilder und Stimme unterstützen. Im KI-Chip, die Technologie, die auf dem Cloud AI Chip Intelligente Geräte und Cloud-Server können schnell verbunden werden, und die Verbindung kann maximale Stabilität beibehalten, was auch sehr nützlich ist. Zum Beispiel, Die Online-Sprachübersetzungsfunktion, die wir derzeit im Internet nutzen, basiert nicht nur auf KI-Technologie, aber auch von der Verwendung von Cloud AI Chips, die sicherstellen kann, dass Geräte Cloud-Informationen zeitnah abrufen können. KI Künstliche Intelligenz wird in 2018 eingesetzt. Die Entwicklungsdynamik ist sehr stark. Obwohl wir den Begriff KI nur häufig sehen werden, Es gibt immer noch viele Chips dahinter, die Operationen unterstützen.
AWS wollte ursprünglich andere fragen Leiterplattenhersteller Entwicklung eines Arm-Chips, der in großem Maßstab in der Cloud laufen könnte, aber nach jahrelangem Warten ohne Erfolg, Er rollte einfach die Ärmel hoch und entwarf den Chip selbst. AWS startete am Montagabend die jährliche re:Invent-Veranstaltung für Cloud Computing. Sie hat eine Vielzahl neuer Dienste eingeführt, und ein neuer Cloud-Chip, der selbst entworfen wurde, war besonders auffällig.
Dieser Arm-basierte Chip heißt Graviton und wird seinen Cloud-Kunden über AWS EC2 Cloud Computing Service zur Verfügung gestellt. Es wurde von Annapurna Labs entworfen, einem Chip-Entwickler, der im 2015-Jahr von Amazon erworben wurde. com ist eine Tochtergesellschaft der Qinji Group und eine führende Dienstleistungsplattform für die elektronische Industrie in China. Es bietet Online-Komponenten, Sensorbeschaffung, Leiterplattenanpassung, Stücklistenverteilung, Materialauswahl und andere Komplettlösungen für die Lieferkette der Elektronikindustrie aus einer Hand, um die Gesamtanforderungen kleiner und mittlerer Kunden in der Industrie zu erfüllen.
Die Hauptattraktion ist, dass der Chip kostengünstigere Rechendienste bietet. Amazon behauptet, seine Chips kosten bis zu 45% niedriger als Intelâs- oder AMDâs-Chips, wenn bestimmte Workloads ausgeführt werden, und AWS bietet auch Chipleasing-Services an. Mit anderen Worten: Neben Intel-Chips und AMD-Chips haben Cloud-Kunden nun eine dritte Wahl in Bezug auf Chips.
AWS Global Infrastructure and Customer Support Vice President Peter DeSantis (Peter DeSantis) sagte am Abend auf der Bühne, dass der Chip-Service oder die neue Instanz selbst EC2 A1 heißt, die für die sogenannte Horizontale ausgelegt ist, die auf vielen Maschinen laufen kann. Die Erweiterung der Anwendungsnutzung und der Ausführung auf vielen Maschinen ist ein Feature vieler Webanwendungen. Genauer gesagt ist dieser Chip-Service nicht nur für Webserver, Entwicklungsumgebungen und Cache-Server-Cluster geeignet, sondern auch für containerisierte Microservices oder gebündelte Anwendungen geeignet, so dass sie auf mehreren Arten von Computern und Software ausgeführt werden können.
Der Graviton-Chip markiert die dominierende Position des Arm-Chips. Der Arm-Chip wurde traditionell hauptsächlich in stromsparenden Geräten wie Smartphones verwendet und wurde kürzlich in Geräten wie Netzwerk-Routern verwendet. Jetzt beginnen sie, Mainstream-Rechenzentrumsserver zu betreten, und die Verwendung von Graviton-Chips in A1-Computing-Instanzen bedeutet, dass es jetzt in die Cloud gelangt.
Gleichzeitig zeigt dieses Signal an, dass Intel und AMD nicht mehr das Rechenzentrum oder Cloud-Feld dominieren, sondern Intel immer noch dominiert; In diesen Jahren hat AMD versucht, Intelâs Dominanz herauszufordern, aber mit wenig Erfolg, aber seine neuen Epyc-Chips sind in Progress, und die Resonanz war sehr gut bei Serverkäufern und Cloud-Unternehmen wie AWS.
Graviton ist nicht die einzige erweiterte Version von AWS angekündigt. Das Unternehmen kündigte auch weitere neue Rechenbeispiele an, darunter ein Geek namens P3dn, das die Funktionen einer Grafikverarbeitungseinheit bereitstellt, mit der maschinelles Lernen, KI und Hochleistungsrechenanwendungen ausgeführt werden können. Es verwendet Nvidias High-End V100 Volta-Chip, um das bereitzustellen, was Matt Wood, der KI-General Manager von AWS, sagte, ist das größte und schnellste Trainingsbeispiel in der Cloud.