Stanowiąc kamień milowy w dziedzinie komputerów osobistych, Nvidia umożliwia lepszą sztuczną inteligencję na komputerach PC, umożliwiając generatywne przetwarzanie AI na komputerach z systemem Windows przy użyciu procesorów graficznych (GPU) opartych na RTX.
W zeszłym roku generatywna sztuczna inteligencja stała się trendem transformacyjnym. Dzięki szybkiemu rozwojowi i rosnącej dostępności konsumenci mają teraz uproszczone interfejsy i przyjazne dla użytkownika narzędzia, które wykorzystują moc zoptymalizowanej pod kątem procesora graficznego sztucznej inteligencji, uczenia maszynowego i oprogramowania do obliczeń o wysokiej wydajności (HPC).
Nvidia dokonała tej rewolucji w zakresie sztucznej inteligencji w centrach danych z dużą liczbą procesorów graficznych, a teraz wprowadza procesory graficzne oparte na RTX do ponad 100 milionów komputerów z systemem Windows na całym świecie. Integracja sztucznej inteligencji z podstawowymi aplikacjami systemu Windows to pięcioletnia podróż, podczas której dedykowane procesory AI zwane rdzeniami Tensor, stosowane w procesorach graficznych GeForce RTX i Nvidia RTX, budują możliwości sztucznej inteligencji w komputerach stacjonarnych i stacjach roboczych z systemem Windows.
Jesse Clayton, dyrektor ds. zarządzania produktami i marketingu produktów Windows AI w Nvidii, powiedział w wywiadzie dla GamesBeat, że jesteśmy w ważnym momencie.
„Uważamy, że dla sztucznej inteligencji na komputerach PC jest to jeden z najważniejszych momentów w historii technologii. Nie sądzę, że będzie przesadą stwierdzenie, że sztuczna inteligencja oferuje nowe doświadczenia – graczom, twórcom, streamerom wideo, pracownikom biurowym, studentom, a nawet zwykłym użytkownikom komputerów PC. Odblokowuje kreatywność. Dzięki temu każdemu łatwiej jest zrobić więcej. Sztuczna inteligencja jest wbudowana w każdą krytyczną aplikację. I dotyczy to każdego użytkownika komputera. To naprawdę zasadniczo zmienia sposób, w jaki ludzie korzystają z komputerów.
Centra danych zostały wcześniej powiadomione, TensorRT-LLM, biblioteka open source zaprojektowana w celu przyspieszenia wydajności wnioskowania w przypadku dużych modeli językowych (LLM), trafia teraz do systemu Windows. Ta biblioteka, zoptymalizowana pod kątem procesorów graficznych Nvidia RTX, może nawet czterokrotnie poprawić wydajność najnowszych LLM, takich jak Llama 2 i Code Llama.
Ponadto firma Nvidia udostępniła narzędzia pomagające programistom przyspieszyć ich LLM, w tym skrypty zapewniające zgodność z TensorRT-LLM, modele open source zoptymalizowane pod kątem TensorRT oraz projekt referencyjny dla programistów, który demonstruje szybkość i jakość odpowiedzi LLM.
„Wiele osób nie zdaje sobie sprawy, że przypadki użycia sztucznej inteligencji w informatyce są już ugruntowane. Nvidia rozpoczęła to pięć lat temu w 2018 r.” – powiedział Clayton. Wierzyliśmy, że to będzie ważne. Dlatego wraz z wprowadzeniem tak zwanych procesorów graficznych RTX wprowadziliśmy także technologię AI do gier.
Naprawiono wersję demonstracyjną spreadu
TensorRT Acceleration jest zintegrowany ze Static Diffusion, popularnym internetowym interfejsem użytkownika dystrybucji Automatic1111.
Rozkładówka standardowa pobiera linię tekstu i na jej podstawie tworzy obraz. Twórcy wykorzystują je do tworzenia niesamowitych dzieł sztuki. Jednak pobranie każdego obrazu wymaga czasu i zasobów komputera. Oznacza to, że musisz poczekać, aż się zakończy. Najnowsze procesory graficzne Nvidii mogą podwoić wydajność w porównaniu z poprzednimi implementacjami i być ponad siedmiokrotnie szybsze niż najnowsze chipy Apple. Zatem maszyna z kartą graficzną GeForce RTX 4090 może wygenerować 15 obrazów ze stałym rozłożeniem w czasie, w którym maszyna Apple wykona dwa.
DLSS opiera się na badaniach grafiki, podczas których sztuczna inteligencja pobiera obraz o niskiej rozdzielczości i przeskalowuje go do wyższej rozdzielczości, zwiększając liczbę klatek na sekundę i pomagając graczom w lepszym wykorzystaniu swoich procesorów graficznych. Twórcy gier mogą również dodać do swoich gier więcej artyzmu wizualnego. Obecnie istnieje ponad 300 gier DLSS, a Nvidia właśnie wypuściła wersję 3.5 tej technologii.
„Generatywna sztuczna inteligencja osiągnęła punkt, w którym otwiera zupełnie nową klasę zastosowań z możliwością wprowadzenia sztucznej inteligencji komputerów osobistych do głównego nurtu” – powiedział Clayton. „Gracze będą więc cieszyć się awatarami napędzanymi sztuczną inteligencją. Pracownicy biurowi i studenci korzystają z dużych modeli językowych (LLM) do rysowania dokumentów i slajdów oraz szybkiego wydobywania wniosków z danych CSV. Programiści używają LLM do pomocy w kodowaniu i debugowaniu. Każdego dnia użytkownicy będą korzystać z LLM do wszystkiego, od przeglądania treści internetowych po planowanie podróży i ostatecznie wykorzystywanie sztucznej inteligencji jako cyfrowego asystenta.
Super rozdzielczość wideo
Ponadto wydanie wersji 1.5 RTX Video Super rozdzielczości (VSR) jako części sterownika Game Ready jeszcze bardziej zwiększa możliwości oparte na sztucznej inteligencji. VSR poprawia jakość przesyłanych strumieniowo treści wideo, redukując artefakty kompresji, wyostrzając krawędzie i uwydatniając szczegóły. Najnowsza wersja VSR oferuje jeszcze lepszą jakość obrazu dzięki ulepszonym modelom, usuwaniu artefaktów z treści odtwarzanych w natywnej rozdzielczości oraz obsłudze zarówno profesjonalnych procesorów graficznych z serii RTX, jak i GeForce RTX 20 opartych na architekturze Turing.
Technologia ta została zintegrowana z najnowszym sterownikiem Game Ready i zostanie uwzględniona w nadchodzącym sterowniku Nvidia Studio, którego premiera zaplanowana jest na początek listopada.
Połączenie akceleracji TensorRT-LLM i możliwości LLM otwiera nowe możliwości w zakresie produktywności, umożliwiając działanie LLM nawet czterokrotnie szybciej na komputerach PC z systemem Windows wyposażonych w RTX. To przyspieszenie poprawia komfort użytkownika w przypadku wyrafinowanych zastosowań LLM, takich jak asystenci pisania i kodowania, którzy zapewniają jednocześnie wiele unikalnych wyników automatycznego uzupełniania.
Znalezienie Alana Wake’a 2
Integracja TensorRT-LLM z innymi technologiami, takimi jak generowanie wspomagane wyszukiwaniem (RAG), umożliwia LLM dostarczanie ukierunkowanych odpowiedzi w oparciu o określone zbiory danych.
Przykładowo zapytany o integrację technologii Nvidii w Alan Wake 2, model LLaMa 2 odpowiedział, że początkowo gra nie była zapowiedziana. Jednak gdy w najnowszych artykułach prasowych dotyczących GeForce zastosowano RAG, model LLaMa 2 szybko udzielił prawidłowej odpowiedzi, pokazując szybkość i wydajność osiągniętą dzięki akceleracji TensorRT-LLM.
Jeśli dane już istnieją w chmurze, a model został już na nich przeszkolony, z punktu widzenia architektury sensowne jest uruchomienie ich w chmurze, powiedział Clayton.
Jeśli jednak jest to prywatny zbiór danych, zbiór danych, do którego tylko Ty masz dostęp, lub jeśli model nie jest szkolony w chmurze, musisz znaleźć inny sposób, aby to zrobić – powiedział.
„Ponowne uczenie modeli jest bardzo trudne z obliczeniowego punktu widzenia. Dzięki temu można to zrobić bez konieczności podążania tą drogą. Obecnie płacę 20 dolarów miesięcznie za korzystanie z tego modelu. [AI services]. Za ile z tych usług w chmurze zapłacę, jeśli będę mógł wykonywać dużo pracy lokalnie za pomocą wydajnego procesora graficznego?
Programiści zainteresowani rozwojem TensorRT-LLM mogą pobrać go ze strony Nvidia Developer. Ponadto modele open source zoptymalizowane pod kątem TensorRT i przeszkolona wersja demonstracyjna RAG są dostępne w witrynie GeForce News pod adresem ngc.nvidia.com i GitHub.com/NVIDIA.
Konkurs?
Konkurenci, tacy jak Intel, Advanced Micro Devices, Qualcomm i Apple, wykorzystują konkurencyjne technologie do ulepszania sztucznej inteligencji w komputerach stacjonarnych i urządzeniach inteligentnych. Clayton powiedział, że te rozwiązania są dobre w przypadku lekkich obciążeń AI, które działają przy niskim poborze mocy. Są one podobne do AI Table Stakes, powiedział, i uzupełniają możliwości procesorów graficznych Nvidii.
Procesory graficzne RTX charakteryzują się od 20 do 100 razy większą wydajnością niż procesory CPU przy obciążeniach AI, dlatego też technologia zaczyna się od procesora graficznego. Sercem współczesnej sztucznej inteligencji jest matematyczne mnożenie macierzy, a sercem platformy Nvidii są procesory graficzne RTX z rdzeniami tensorowymi zaprojektowanymi w celu przyspieszania mnożenia macierzy. Dzisiejsze procesory graficzne GeForce RTX mogą wykonywać 1300 bilionów operacji tensorowych na sekundę, co czyni je najszybszymi akceleratorami sztucznej inteligencji dla komputerów PC.
„Reprezentują także największą na świecie bazę instalacji dedykowanego sprzętu AI, obejmującą ponad 100 milionów procesorów graficznych RTX dla komputerów PC na całym świecie” – powiedział Clayton. „Dzięki temu naprawdę mają wydajność i elastyczność, aby sprostać nie tylko dzisiejszym zadaniom, ale także przyszłym przypadkom użycia sztucznej inteligencji”.
Twój komputer może zwrócić się do chmury w przypadku wszelkich zadań AI, które wymagają zbyt dużej mocy procesora graficznego komputera. Obecnie istnieje ponad 400 aplikacji i gier komputerowych obsługujących sztuczną inteligencję.
Credo szybkości gry „Gdzie pasja spotyka się z biznesem” w odniesieniu do branży sportowej. Co to znaczy? Chcemy powiedzieć Ci, jak ważne są dla Ciebie wiadomości – nie tylko jako decydenta w studiu gier, ale także jako fana gier. Niezależnie od tego, czy czytasz nasze artykuły, słuchasz naszych podcastów, czy oglądasz nasze filmy, Gamespeed pomoże Ci poznać branżę i cieszyć się zaangażowaniem. Odkryj nasze abstrakty.
More Stories
JP Morgan spodziewa się w tym roku obniżyć stopę bazową o 100 punktów bazowych
Krokodyl i rekin pożarły prehistoryczną krowę morską, odsłaniając skamielinę
W obliczu rosnącego zaufania Demokratów Harris i Walls wyruszają w podróż autokarową po Gruzji