24 lutego (Reuters) – Meta Platforms Inc (METAO) powiedział w piątek, że udostępni naukowcom nowy duży model językowy, podstawowy program dla nowego systemu sztucznej inteligencji, intensyfikujący wyścig zbrojeń AI, gdy duże firmy technologiczne spieszą się do zintegrować technologię ze swoimi produktami i olśnić inwestorów.
Publiczna bitwa o kontrolę nad przestrzenią technologiczną sztucznej inteligencji rozpoczęła się pod koniec ubiegłego roku wraz z uruchomieniem wspieranego przez Microsoft oprogramowania OpenAI ChatGPT i skłoniła technologiczne giganty od Alphabet Inc (GOOGL.O) do chińskiego Baidu (9888.HK), do promować własne oferty. .
Meta LLaMA, skrót od Large Language Model Meta AI, będzie dostępna na licencji niekomercyjnej dla naukowców, jednostek rządowych, społeczeństwa obywatelskiego i środowisk akademickich. Blog.
Duże modele językowe wydobywają ogromne ilości tekstu w celu podsumowania informacji i tworzenia treści. Mogą na przykład odpowiadać na pytania zdaniami, które można odczytać tak, jakby zostały napisane przez ludzi.
Najnowsze aktualizacje
Zobacz jeszcze 2 historie
Model, który według Meta wymagał „znacznie mniejszej” mocy obliczeniowej niż poprzednie demonstracje, został przeszkolony w 20 językach, z naciskiem na języki z alfabetem łacińskim i cyrylicą.
„Dzisiejsze ogłoszenie Meta wydaje się być krokiem w kierunku przetestowania ich możliwości generatywnej sztucznej inteligencji, aby mogli wdrożyć je w swoich produktach w przyszłości” – powiedziała Jill Luria, starszy analityk oprogramowania w DA Davidson.
„Generative AI to nowa aplikacja sztucznej inteligencji, z którą Meta ma mniejsze doświadczenie, ale jest wyraźnie ważna dla przyszłości ich działalności”.
Sztuczna inteligencja okazała się jasnym punktem dla inwestycji w branży technologicznej, której powolny wzrost doprowadził do masowych zwolnień i obniżenia zakładów na eksperymenty.
Meta powiedział, że LLaMA może przewyższyć konkurencję, badając więcej parametrów lub zmiennych, które bierze pod uwagę algorytm.
W szczególności powiedział, że wersja LLaMA z 13 miliardami parametrów może przewyższyć GPT-3, niedawnego poprzednika modelu, na którym zbudowany jest ChatGPT.
Opisał model LLaMA składający się z 65 miliardów zmiennych jako „konkurencyjny” z Google Chinchilla70B i PaLM-540B, które są większe niż model, którego Google użył do pokazania wyszukiwania opartego na czacie Barda.
Rzeczniczka Meta przypisała wydajność „czystszej” większej ilości danych i „ulepszeniom architektonicznym” w modelu, które poprawiły stabilność treningu.
Meta wypuściła w maju ubiegłego roku duży model językowy OPT-175B, przeznaczony również dla badaczy, który stał się podstawą nowej iteracji chatbota BlenderBot.
Później wprowadziła model o nazwie Galactica, który mógł pisać artykuły naukowe i rozwiązywać problemy matematyczne, ale szybko wycofała wersję demonstracyjną po tym, jak generowała fałszywe, pozornie wiarygodne odpowiedzi.
Dodatkowe raporty autorstwa Yuvraja Malika i Evy Matthews z Bengaluru oraz Katie Paul z Nowego Jorku; Montaż autorstwa Shailesha Coopera i Granta McCalla
Nasze standardy: Zasady zaufania Thomson Reuters.
„Subtelnie czarujący nerd popkultury. Irytująco skromny fanatyk bekonu. Przedsiębiorca”.
More Stories
Ta ładowarka GaN o mocy 100 W jest cienka i składana
Kuo: Aktualizacja pamięci RAM do 12 GB w przyszłym roku będzie ograniczona do iPhone’a 17 Pro Max
Verdansk w końcu powraca do Call of Duty Warzone, a fani są z tego powodu zadowoleni