23 grudnia, 2024

Świat Biotworzyw

Informacje o Polsce. Wybierz tematy, o których chcesz dowiedzieć się więcej

Konsensus NVIDIA wskazuje na nieuchronną potrzebę znacznego wykorzystania sztucznej inteligencji: Barclays według Investing.com

W niedawnym tematycznym raporcie inwestycyjnym analitycy Barclays omówili zapotrzebowanie na energię, które będzie towarzyszyć rozwojowi technologii sztucznej inteligencji, ze szczególnym uwzględnieniem roli firmy NVIDIA (NASDAQ:) w tym krajobrazie.

Zdaniem analityków oczekiwane zapotrzebowanie na energię związane z postępem sztucznej inteligencji podkreśla kluczowy aspekt perspektyw rynkowych firmy NVIDIA.

Barclays Analytics sugeruje, że centra danych mogą do 2030 r. zużywać ponad 9% obecnego zapotrzebowania na energię elektryczną w USA, głównie dzięki zapotrzebowaniu na energię sztucznej inteligencji. Analitycy zauważyli, że „sztuczna inteligencja objęta konsensusem firmy NVIDIA” jest jednym z głównych czynników stojących za tą prognozą dotyczącą dużych ilości energii.

W raporcie zauważono również, że chociaż wydajność sztucznej inteligencji stale rośnie wraz z każdą nową generacją procesorów graficznych, rozmiar i złożoność modeli sztucznej inteligencji rośnie w szybkim tempie. Na przykład rozmiar głównych dużych modeli językowych (LLM) rośnie około 3,5 razy rocznie.

Pomimo tych ulepszeń oczekuje się, że ogólne zapotrzebowanie na energię wzrośnie ze względu na rosnący zakres zastosowań sztucznej inteligencji. Każda nowa generacja procesorów graficznych, takich jak serie Hopper i Blackwell firmy NVIDIA, jest bardziej energooszczędna. Jednak większe i bardziej złożone modele sztucznej inteligencji wymagają znacznej mocy obliczeniowej.

„Duże modele językowe wymagają ogromnej mocy obliczeniowej, aby osiągnąć wydajność w czasie rzeczywistym” – stwierdza raport. „Wymagania obliczeniowe dużych modeli językowych przekładają się również na wyższe zużycie energii przy coraz większej ilości pamięci, akceleratorów i serwerów potrzebnych do dopasowania, trenowania i wnioskowania tych modeli”.

„Organizacje, które chcą wdrożyć programy LLM na potrzeby wnioskowania w czasie rzeczywistym, będą musiały stawić czoła tym wyzwaniom” – dodał Barclays.

Aby zilustrować skalę tego zapotrzebowania na energię, Barclays spodziewa się, że zasilanie około 8 milionów procesorów graficznych będzie wymagało około 14,5 gigawatów mocy, co odpowiada około 110 terawatogodzinom energii. W prognozie tej przyjęto średni współczynnik obciążenia na poziomie 85%.

Oczekuje się, że około 70% tych procesorów graficznych zostanie wdrożonych w USA do końca 2027 r., co odpowiada ponad 10 GW i 75 TWh zapotrzebowania na moc i energię AI w samych Stanach Zjednoczonych w ciągu najbliższych trzech lat.

„Kapitalizacja rynkowa NVIDIA wskazuje, że to dopiero początek rozkładania zapotrzebowania na energię za pomocą sztucznej inteligencji” – stwierdzili analitycy. Oczekuje się, że ciągły rozwój i wdrażanie procesorów graficznych przez producenta chipów znacznie zwiększy zużycie energii w centrach danych.

Co więcej, uzależnienie centrów danych od energii elektrycznej z sieci podkreśla znaczenie zaspokojenia szczytowego zapotrzebowania na moc. Centra danych działają w sposób ciągły i wymagają zrównoważonego zasilania.

W raporcie przytacza się godną uwagi wypowiedź Sama Altmana, dyrektora generalnego OpenAI, wygłoszoną na Światowym Forum Ekonomicznym w Davos, gdzie stwierdził: „Potrzebujemy na świecie o wiele więcej energii, niż sądziliśmy, że potrzebujemy wcześniej… Myślę, że nadal potrzebujemy na świecie jest o wiele więcej energii, niż sądziliśmy, że potrzebujemy wcześniej… „Nie szacujemy zapotrzebowania energetycznego tej technologii”.