AMD właśnie potwierdziło swoją specyfikację Instynkt MI300 Akcelerator CDNA 3, który wykorzystuje 4 rdzenie procesora Zen w pakiecie chipsetu 3D 5 nm.
Specyfikacja AMD Instinct MI300 „CDNA 3”: konstrukcja chipletu 5 nm, 146 miliardów tranzystorów, 24-rdzeniowy procesor Zen 4, 128 GB HBM3
Najnowsze ujawnione specyfikacje akceleratora AMD Instinct MI300 potwierdzają, że ten układ APU będzie bestią w konstrukcji układu scalonego. Procesor będzie zawierał kilka pakietów chipów 5 nm 3D, z których wszystkie będą zawierać 146 miliardów tranzystorów. Tranzystory te obejmują wiele podstawowych adresów IP, interfejsów pamięci, połączeń i wiele innych. Architektura CDNA 3 jest rdzeniem DNA Instinct MI300, ale APU jest również wyposażony w łącznie 24 centra danych Zen 4 i 128 GB pamięci HBM3 nowej generacji działającej w konfiguracji magistrali 8192-bitowej, co jest naprawdę dość spalone.
Podczas AMD Financial Day 2022 firma potwierdziła, że MI300 będzie wieloukładowym i obsługującym wiele adresów IP akceleratorem Instinct, który nie tylko zawiera rdzenie GPU nowej generacji CDNA 3, ale jest również wyposażony w rdzenie procesorów Zen 4 nowej generacji.
Aby zapewnić ponad 2 eksaflopy mocy obliczeniowej o podwójnej precyzji, Departament Energii Stanów Zjednoczonych, Lawrence Livermore National Laboratory i HPE połączyły siły z AMD w celu zaprojektowania El Capitan, który ma być najszybszym na świecie superkomputerem, którego dostawa spodziewana jest na początku 2023 r. .El Capitan będzie korzystać z produktów El Capitan.Następna generacja zawiera ulepszenia z niestandardowego projektu procesora Frontier.
- Następna generacja procesorów AMD EPYC, o nazwie kodowej „Genoa”, będzie wyposażona w rdzeń procesora „Zen 4” do obsługi pamięci nowej generacji i podsystemów we/wy dla obciążeń AI i HPC.
- Procesory graficzne nowej generacji oparte na architekturze AMD Instinct zoptymalizowane pod kątem obciążeń HPC i AI będą wykorzystywać pamięć nowej generacji o dużej przepustowości w celu uzyskania optymalnej wydajności uczenia głębokiego.
Ten projekt doskonale sprawdzi się w analizie danych AI i uczenia maszynowego w celu tworzenia modeli, które są szybsze, dokładniejsze i mogą mierzyć niepewność w swoich przewidywaniach.
W swoim najnowszym porównaniu wydajności AMD stwierdza, że Instinct Mi300 oferuje 8-krotny wzrost wydajności AI (TFLOP) i 5-krotny wzrost wydajności AI na wat (TFLOP/wat) w porównaniu z Instinct MI250X.
AMD użyje zarówno węzłów procesowych 5 nm, jak i 6 nm dla procesorów Instinct MI300 „CDNA 3”. Układ będzie wyposażony w pamięć podręczną Infinity Cache nowej generacji i architekturę Infinity czwartej generacji, która umożliwia obsługę ekosystemu CXL 3.0. Akcelerator Instinct MI300 wprawi w ruch zunifikowaną architekturę pamięci APU i nowe formaty matematyczne, pozwalając na 5-krotny wzrost wydajności na wat w stosunku do CDNA 2, który jest ogromny. AMD obniża również ponad 8-krotnie wydajność sztucznej inteligencji w porównaniu z akceleratorami Instinct MI250X opartymi na CDNA 2. UMAA procesora graficznego CDNA 3 połączy procesor i kartę graficzną z ujednoliconym pakietem pamięci HBM, eliminując zbędne kopiowanie pamięci, zapewniając jednocześnie niski koszt zakupu.
Akceleratory AMD Instinct MI300 APU mają być dostępne pod koniec 2023 roku, czyli w okolicach premiery wspomnianego superkomputera El Capitan.
More Stories
Ta ładowarka GaN o mocy 100 W jest cienka i składana
Kuo: Aktualizacja pamięci RAM do 12 GB w przyszłym roku będzie ograniczona do iPhone’a 17 Pro Max
Verdansk w końcu powraca do Call of Duty Warzone, a fani są z tego powodu zadowoleni