Firma Google wydała wyjaśnienia dotyczące „niezręcznych i błędnych” obrazów generowanych przez narzędzie Gemini AI. W Piątkowy postGoogle twierdzi, że jego model generował „niedokładne historyczne” obrazy z powodu problemów z dostosowaniem. krawędź Inni na początku tego tygodnia przyłapali Gemini na generowaniu obrazów zróżnicowanych rasowo nazistów i ojców założycieli Stanów Zjednoczonych.
„Postanowiliśmy upewnić się, że Gemini pokazało, że grupa ludzi nie potrafi interpretować sytuacji, które powinny być oczywiste NIE „Pokaż skalę” – napisał w poście Prabhakar Raghavan, starszy wiceprezes Google. „Po drugie, z czasem model stał się bardziej ostrożny, niż zamierzaliśmy, odmawiając całkowitej odpowiedzi na niektóre podpowiedzi, co prowadziło do błędnego interpretowania niektórych bodźców kojących jako wrażliwych”.
Doprowadziło to do tego, że sztuczna inteligencja Gemini „w niektórych przypadkach nadmiernie rekompensowała”, jak widzieliśmy na zdjęciach zróżnicowanych rasowo nazistów. Powoduje to również, że Bliźnięta stają się „nadmiernie konserwatywne”. Doprowadziło to do tego, że odmówiła stworzenia konkretnych obrazów „osoby czarnej” lub „osoby białej”, gdy została o to poproszona.
W poście na blogu Raghavan napisał, że Google „przeprasza, że ta funkcja nie działała dobrze”. Zwraca również uwagę, że Google chce, aby Gemini „działało dobrze dla wszystkich”, co oznacza uzyskiwanie zdjęć różnych typów ludzi (w tym różnych ras), gdy prosi o zdjęcia „piłkarzy” lub „osoby spacerującej z psem”. Ale on mówi:
Jeśli jednak poprosisz Bliźnięta o zdjęcia określonego typu osób – na przykład „czarnego nauczyciela w klasie” lub „białego weterynarza z psem” – lub osób w określonych kontekstach kulturowych lub historycznych, z pewnością powinieneś otrzymać odpowiedź dokładnie odzwierciedla to, o co prosisz.
Raghavan twierdzi, że Google będzie nadal testować możliwości generowania obrazów przez Gemini AI i „pracować nad ich znaczącym ulepszeniem” przed ponownym włączeniem. „Jak już mówiliśmy od początku, halucynacje są wyzwaniem znanym wszystkim posiadaczom LLM [large language models] „Są przypadki, w których sztuczna inteligencja popełnia błędy” – zauważa Raghavan. „Jest to coś, nad czym stale pracujemy, nad ulepszeniem”.
„Subtelnie czarujący nerd popkultury. Irytująco skromny fanatyk bekonu. Przedsiębiorca”.
More Stories
Ta ładowarka GaN o mocy 100 W jest cienka i składana
Kuo: Aktualizacja pamięci RAM do 12 GB w przyszłym roku będzie ograniczona do iPhone’a 17 Pro Max
Verdansk w końcu powraca do Call of Duty Warzone, a fani są z tego powodu zadowoleni