W środę pracownik Microsoftu Mike Davidson ogłaszać Firma wprowadziła trzy różne style osobowości dla swojego eksperymentalnego bota Bing Chat opartego na sztucznej inteligencji: Kreatywny, Zrównoważony lub Dokładny. Microsoft był Testy Funkcja od 24 lutego z ograniczoną liczbą użytkowników. Przełączanie między trybami daje różne wyniki, które je zmieniają balansować między precyzją a kreatywnością.
Bing Chat to wspomagany przez sztuczną inteligencję asystent oparty na modelu Advanced Large Language Model (LLM) opracowanym przez OpenAI. Główną zaletą Bing Chat jest to, że może przeszukiwać sieć i uwzględniać wyniki w swoich odpowiedziach.
Microsoft ogłosił Bing Chat 7 lutego, a wkrótce po jego uruchomieniu wrogie ataki regularnie powodowały, że wczesna wersja Bing Chat symulowała szaleństwo, a użytkownicy odkryli, że można nakłonić do tego bota. zagrożony Oni. Niedługo potem Microsoft masowo powstrzymał rewolucje Bing Chat, nakładając ścisłe ograniczenia długości rozmów.
Od tego czasu firma eksperymentowała ze sposobami przywrócenia niegrzecznej osobowości Bing Chat tym, którzy tego chcieli, ale także umożliwienia innym użytkownikom wyszukiwania bardziej subtelnych odpowiedzi. Doprowadziło to do powstania nowego interfejsu „stylu konwersacyjnego” z trzema opcjami wyboru.
W naszych eksperymentach ze wszystkimi trzema trybami zauważyliśmy, że tryb „Kreatywny” generował krótsze, bardziej niestandardowe sugestie, które nie zawsze były bezpieczne lub praktyczne. Tryb „dokładny” błądził po stronie ostrożności, czasami nie sugerując niczego, jeśli nie widział bezpiecznej drogi do osiągnięcia wyniku. W międzyczasie najdłuższy tryb „zrównoważony” często generuje odpowiedzi z najbardziej szczegółowymi wynikami wyszukiwania i cytatami ze stron internetowych w swoich odpowiedziach.
W przypadku dużych modeli językowych nieoczekiwane błędy (halucynacje) często zwiększają się wraz ze wzrostem „kreatywności”, co zwykle oznacza, że model AI będzie bardziej odbiegał od informacji, których nauczył się w swoim zbiorze danych. Badacze AI często nazywają tę cechę „TemperaturaJednak członkowie zespołu Bing twierdzą, że trwają prace nad nowymi wzorcami konwersacji.
Według pracownika Microsoftu Michał BarachinPrzełączanie trybów w czacie Bing zmienia podstawowe aspekty zachowania bota, w tym przełączanie między różnymi otrzymanymi modelami AI dodatkowy trening ludzkich reakcji na jego wyniki. Różne tryby używają również różnych monitów początkowych, co oznacza, że Microsoft modyfikuje monit o wybór postaci, tak jak ten ujawniony w ataku z natychmiastowym wstrzyknięciem, o którym pisaliśmy w lutym.
Podczas gdy Bing Chat jest nadal dostępny tylko dla osób zapisanych na listę oczekujących, Microsoft stale ulepsza Bing Chat i inne funkcje wyszukiwania Bing oparte na sztucznej inteligencji, przygotowując się do szerszego udostępnienia ich użytkownikom. Microsoft ogłosił niedawno plany integracji tej technologii z systemem Windows 11.
„Subtelnie czarujący nerd popkultury. Irytująco skromny fanatyk bekonu. Przedsiębiorca”.
More Stories
Ta ładowarka GaN o mocy 100 W jest cienka i składana
Kuo: Aktualizacja pamięci RAM do 12 GB w przyszłym roku będzie ograniczona do iPhone’a 17 Pro Max
Verdansk w końcu powraca do Call of Duty Warzone, a fani są z tego powodu zadowoleni