Intel-Demos 8

Blog

HeimHeim / Blog / Intel-Demos 8

Jun 14, 2023

Intel-Demos 8

Der 7-nm-Chip verfügt über 66 Threads pro Kern und überträgt 1 TB/s an optischen I/O. Intel stellte auf der Chipkonferenz Hot Chips 2023 sein erstes direktes Mesh-to-Mesh-Photonikgewebe vor und unterstrich damit seine Fortschritte

Der 7-nm-Chip verfügt über 66 Threads pro Kern und überträgt 1 TB/s an optischen I/O.

Intel stellte auf der Chip-Konferenz Hot Chips 2023 sein erstes direktes Mesh-to-Mesh-Photonikgewebe vor und unterstreicht damit seine Fortschritte in Richtung einer Zukunft optischer Chip-zu-Chip-Verbindungen, die auch von Unternehmen wie Nvidia und Ayar Labs gefördert werden. Der Achtkern-528-Thread-Chip, den Intel für die Demonstration verwendete, stahl jedoch aufgrund seiner einzigartigen Architektur, die über 66 Threads pro Kern verfügt und einen Datendurchsatz von bis zu 1 TB/s ermöglicht, das Rampenlicht. Überraschenderweise verbraucht der Chip nur 75 W Strom, wobei etwa 60 % der Leistung von den optischen Verbindungen verbraucht werden, aber das Design könnte letztendlich eine direkte Verbindung von Systemen mit zwei Millionen Kernen mit einer Latenz von weniger als 400 ns ermöglichen.

Der PUMA-Chip (Programmable Unified Memory Architecture) von Intel ist Teil des DARPA HIVE-Programms, das sich auf die Verbesserung der Leistung bei Grafikanalysen im Petabyte-Bereich konzentriert, um eine 1000-fache Verbesserung der Leistung pro Watt bei extrem spärlichen Arbeitslasten zu erzielen.

Überraschenderweise für ein x86-zentriertes Unternehmen wie Intel nutzt der Testchip eine benutzerdefinierte RISC-Architektur für eine optimierte Leistung bei Grafikanalyse-Workloads und liefert eine 8-fache Verbesserung der Single-Threaded-Leistung. Der Chip wird ebenfalls im 7-nm-Prozess von TSMC erstellt, nicht in Intels eigenen internen Knoten.

Nach der Charakterisierung der Ziel-Workloads kam Intel zu dem Schluss, dass eine Architektur entwickelt werden musste, die die Herausforderungen löst, die mit extremer Belastung des Speichersubsystems, tiefen Pipelines, Verzweigungsvorhersagen und durch die Workload verursachter Out-of-Order-Logik verbunden sind.

Intels benutzerdefinierter Kern nutzt extreme Parallelität in Höhe von 66 Hardware-Threads für jeden der acht Kerne, große L1-Befehls- und Daten-Caches und 4 MB Scratchpad-SRAM pro Kern. Der Achtkern-Chip verfügt über 32 optische I/O-Ports, die mit 32 GB/s/dir pro Stück arbeiten, was einer Gesamtbandbreite von 1 TB/s entspricht. Die Chips passen in einen OCP-Serverschlitten mit acht Sockeln und bieten einen optischen Gesamtdurchsatz von bis zu 16 TB/s für das System. Jeder Chip wird von 32 GB benutzerdefiniertem DDR5-4000-DRAM gespeist.

Intel hat den Chip im 7-nm-Prozess von TSMC mit 27,6 Milliarden Transistoren auf einem 316 mm² großen Chip hergestellt. Die acht Kerne, die 1,2 Milliarden Transistoren verbrauchen, verlaufen in der Mitte des Chips und werden von acht benutzerdefinierten Speichercontrollern mit einer Zugriffsgranularität von 8 Byte flankiert. Kommunikationsrouter bevölkern das „leere“ Zentrum des Chips. Der Chip verfügt außerdem über vier optische Hochgeschwindigkeits-I/O-Chiplets mit acht Kanälen, jeweils zwei oben und unten auf dem Chip, die die internen elektrischen Signale zu externen optischen Verbindungen überbrücken . Diese Einheiten sind über Intels EMIB-Paket verbunden und verwenden das AIB-Protokoll. Der Chip verfügt außerdem über eine PCIe 4.0 x8-Verbindung zur Kommunikation mit dem Hostsystem.

Um die unglaubliche Datenmenge, die von 528 Threads erzeugt wird, um den Chip herum zu bewegen, ist eine optimierte Verbindung erforderlich. Deshalb hat Intel ein 2D-On-Die-Mesh mit 16 Routern entwickelt, um Daten zwischen den Kernen, Speichercontrollern und Silizium-Photonik-Verbindungen zu verteilen (acht Router sind integriert). die CPU-Kerne, während sechs Router ausschließlich der Datenbewegung gewidmet sind).

Wie Sie im obigen Album sehen können, sind die Photonik-Anschlüsse in das Chipgehäuse integriert und hängen an den Seiten des Chips herunter, um eine externe Verbindung zu anderen Chips zu ermöglichen. Der Chip ist mit einem externen optischen „HyperX“-Netzwerk verbunden, das All-to-All-Verbindungen für die einzelnen Prozessorkerne bereitstellt. Dieses unglaubliche Netzwerk ermöglicht die direkte All-to-All-Verbindung von bis zu zwei Millionen Kernen mit einer Latenz von weniger als 400 ns.

Das Endergebnis ist beeindruckend: Der Chip verbraucht lediglich 75 W, wobei 59 % dieses Budgets für die Siliziumphotonik und 21 % für die Kerne aufgewendet werden. Intel behauptet, dass die verbesserte Leistung des optischen Netzwerks eine nahezu perfekte lineare Leistungsskalierung von einem bis zu 1000 Kernen ermöglicht.

Das Versprechen optischer Verbindungen hat zu einer Intensivierung der Forschung geführt, da die Branche nach zukünftigen Datentransportmethoden sucht, die im Vergleich zu herkömmlichen Chip-zu-Chip-Kommunikationstechniken bessere Bandbreiten-, Latenz- und Stromverbrauchseigenschaften bieten. Während Mainstream-Implementierungen optischer Chip-Verbindungen weiterhin in Sicht sind, stehen spezialisierte Implementierungen, wie sie von Intel, Nvidia und Ayar Labs befürwortet werden, kurz vor der Reife für groß angelegte Implementierungen in naher Zukunft.

Schließen Sie sich den Experten an, die Tom's Hardware lesen, um Insider-Informationen zu PC-Tech-News für Enthusiasten zu erhalten – und das seit über 25 Jahren. Wir senden Ihnen aktuelle Nachrichten und ausführliche Rezensionen zu CPUs, GPUs, KI, Hersteller-Hardware und mehr direkt in Ihren Posteingang.

Paul Alcorn ist stellvertretender Chefredakteur für Tom's Hardware US. Er schreibt Nachrichten und Rezensionen zu CPUs, Speicher und Unternehmenshardware.

Das Unternehmen schätzt, dass die Entwicklung eines 2-nm-Chips jetzt 725 Millionen US-Dollar kostet

Intel stellt die Optane-Unterstützung für persistenten Speicher von Emerald Rapids ein

AMD sagt, dass sich einige Gamer nicht um den GPU-Stromverbrauch kümmern, Korrekturen sind im Gange (aktualisiert)

Von Mark Tyson, 31. August 2023

Von Brandon Hill, 31. August 2023

Von Anton Shilov, 31. August 2023

Von Zhiye Liu 31. August 2023

Von Anton Shilov, 30. August 2023

Von Anton Shilov, 30. August 2023

Von Ash Hill, 30. August 2023

Von Zhiye Liu 30. August 2023

Von Francisco Pires, 30. August 2023

Von Stewart Bendle, 30. August 2023

Von Anton Shilov, 30. August 2023