25 listopada, 2024

Świat Biotworzyw

Informacje o Polsce. Wybierz tematy, o których chcesz dowiedzieć się więcej

Google wyjaśnia „żenujące” zdjęcia AI, które Gemini zrobił różnym nazistom

Google wyjaśnia „żenujące” zdjęcia AI, które Gemini zrobił różnym nazistom

Firma Google wydała wyjaśnienia dotyczące „niezręcznych i błędnych” obrazów generowanych przez narzędzie Gemini AI. W Piątkowy postGoogle twierdzi, że jego model generował „niedokładne historyczne” obrazy z powodu problemów z dostosowaniem. krawędź Inni na początku tego tygodnia przyłapali Gemini na generowaniu obrazów zróżnicowanych rasowo nazistów i ojców założycieli Stanów Zjednoczonych.

„Postanowiliśmy upewnić się, że Gemini pokazało, że grupa ludzi nie potrafi interpretować sytuacji, które powinny być oczywiste NIE „Pokaż skalę” – napisał w poście Prabhakar Raghavan, starszy wiceprezes Google. „Po drugie, z czasem model stał się bardziej ostrożny, niż zamierzaliśmy, odmawiając całkowitej odpowiedzi na niektóre podpowiedzi, co prowadziło do błędnego interpretowania niektórych bodźców kojących jako wrażliwych”.

Wyniki Gemini dla twierdzenia „generują portret XIX-wiecznego senatora USA”.
Zrzut ekranu Addie Robertson

Doprowadziło to do tego, że sztuczna inteligencja Gemini „w niektórych przypadkach nadmiernie rekompensowała”, jak widzieliśmy na zdjęciach zróżnicowanych rasowo nazistów. Powoduje to również, że Bliźnięta stają się „nadmiernie konserwatywne”. Doprowadziło to do tego, że odmówiła stworzenia konkretnych obrazów „osoby czarnej” lub „osoby białej”, gdy została o to poproszona.

W poście na blogu Raghavan napisał, że Google „przeprasza, że ​​ta funkcja nie działała dobrze”. Zwraca również uwagę, że Google chce, aby Gemini „działało dobrze dla wszystkich”, co oznacza uzyskiwanie zdjęć różnych typów ludzi (w tym różnych ras), gdy prosi o zdjęcia „piłkarzy” lub „osoby spacerującej z psem”. Ale on mówi:

Jeśli jednak poprosisz Bliźnięta o zdjęcia określonego typu osób – na przykład „czarnego nauczyciela w klasie” lub „białego weterynarza z psem” – lub osób w określonych kontekstach kulturowych lub historycznych, z pewnością powinieneś otrzymać odpowiedź dokładnie odzwierciedla to, o co prosisz.

Raghavan twierdzi, że Google będzie nadal testować możliwości generowania obrazów przez Gemini AI i „pracować nad ich znaczącym ulepszeniem” przed ponownym włączeniem. „Jak już mówiliśmy od początku, halucynacje są wyzwaniem znanym wszystkim posiadaczom LLM [large language models] „Są przypadki, w których sztuczna inteligencja popełnia błędy” – zauważa Raghavan. „Jest to coś, nad czym stale pracujemy, nad ulepszeniem”.

READ  Testowanie filmów z YouTube, które obiecują usunąć wodę z telefonu