5 listopada, 2024

Świat Biotworzyw

Informacje o Polsce. Wybierz tematy, o których chcesz dowiedzieć się więcej

24 rdzenie procesora Zen 4, 146 miliardów tranzystorów, 128 GB HBM3, do 8x szybszy niż MI250X

24 rdzenie procesora Zen 4, 146 miliardów tranzystorów, 128 GB HBM3, do 8x szybszy niż MI250X

AMD właśnie potwierdziło swoją specyfikację Instynkt MI300 Akcelerator CDNA 3, który wykorzystuje 4 rdzenie procesora Zen w pakiecie chipsetu 3D 5 nm.

Specyfikacja AMD Instinct MI300 „CDNA 3”: konstrukcja chipletu 5 nm, 146 miliardów tranzystorów, 24-rdzeniowy procesor Zen 4, 128 GB HBM3

Najnowsze ujawnione specyfikacje akceleratora AMD Instinct MI300 potwierdzają, że ten układ APU będzie bestią w konstrukcji układu scalonego. Procesor będzie zawierał kilka pakietów chipów 5 nm 3D, z których wszystkie będą zawierać 146 miliardów tranzystorów. Tranzystory te obejmują wiele podstawowych adresów IP, interfejsów pamięci, połączeń i wiele innych. Architektura CDNA 3 jest rdzeniem DNA Instinct MI300, ale APU jest również wyposażony w łącznie 24 centra danych Zen 4 i 128 GB pamięci HBM3 nowej generacji działającej w konfiguracji magistrali 8192-bitowej, co jest naprawdę dość spalone.

Podczas AMD Financial Day 2022 firma potwierdziła, że ​​MI300 będzie wieloukładowym i obsługującym wiele adresów IP akceleratorem Instinct, który nie tylko zawiera rdzenie GPU nowej generacji CDNA 3, ale jest również wyposażony w rdzenie procesorów Zen 4 nowej generacji.

Aby zapewnić ponad 2 eksaflopy mocy obliczeniowej o podwójnej precyzji, Departament Energii Stanów Zjednoczonych, Lawrence Livermore National Laboratory i HPE połączyły siły z AMD w celu zaprojektowania El Capitan, który ma być najszybszym na świecie superkomputerem, którego dostawa spodziewana jest na początku 2023 r. .El Capitan będzie korzystać z produktów El Capitan.Następna generacja zawiera ulepszenia z niestandardowego projektu procesora Frontier.

  • Następna generacja procesorów AMD EPYC, o nazwie kodowej „Genoa”, będzie wyposażona w rdzeń procesora „Zen 4” do obsługi pamięci nowej generacji i podsystemów we/wy dla obciążeń AI i HPC.
  • Procesory graficzne nowej generacji oparte na architekturze AMD Instinct zoptymalizowane pod kątem obciążeń HPC i AI będą wykorzystywać pamięć nowej generacji o dużej przepustowości w celu uzyskania optymalnej wydajności uczenia głębokiego.

Ten projekt doskonale sprawdzi się w analizie danych AI i uczenia maszynowego w celu tworzenia modeli, które są szybsze, dokładniejsze i mogą mierzyć niepewność w swoich przewidywaniach.

przez AMD

W swoim najnowszym porównaniu wydajności AMD stwierdza, że ​​Instinct Mi300 oferuje 8-krotny wzrost wydajności AI (TFLOP) i 5-krotny wzrost wydajności AI na wat (TFLOP/wat) w porównaniu z Instinct MI250X.

READ  Aktualizacja N64 Switch Online na żywo (wersja 2.6.0), oto zawartość zestawu

AMD użyje zarówno węzłów procesowych 5 nm, jak i 6 nm dla procesorów Instinct MI300 „CDNA 3”. Układ będzie wyposażony w pamięć podręczną Infinity Cache nowej generacji i architekturę Infinity czwartej generacji, która umożliwia obsługę ekosystemu CXL 3.0. Akcelerator Instinct MI300 wprawi w ruch zunifikowaną architekturę pamięci APU i nowe formaty matematyczne, pozwalając na 5-krotny wzrost wydajności na wat w stosunku do CDNA 2, który jest ogromny. AMD obniża również ponad 8-krotnie wydajność sztucznej inteligencji w porównaniu z akceleratorami Instinct MI250X opartymi na CDNA 2. UMAA procesora graficznego CDNA 3 połączy procesor i kartę graficzną z ujednoliconym pakietem pamięci HBM, eliminując zbędne kopiowanie pamięci, zapewniając jednocześnie niski koszt zakupu.

Akceleratory AMD Instinct MI300 APU mają być dostępne pod koniec 2023 roku, czyli w okolicach premiery wspomnianego superkomputera El Capitan.

Udostępnij tę historię

Facebook

Świergot