6 listopada, 2024

Świat Biotworzyw

Informacje o Polsce. Wybierz tematy, o których chcesz dowiedzieć się więcej

Inżynier Google Blake Lemoine zwolnił, który powiedział, że LaMDA jest przytomny

Inżynier Google Blake Lemoine zwolnił, który powiedział, że LaMDA jest przytomny

Zawieszenie

Blake Lemoine, inżynier Google, który: Powiedział Washington Post Firma poinformowała, że ​​sztuczna inteligencja firmy była świadoma, że ​​wystrzeliła w piątek.

Lemoine powiedział, że w piątek otrzymał od firmy wiadomość e-mail z prośbą o przeprowadzenie wideokonferencji. Poprosił o udział w spotkaniu osoby trzeciej, ale powiedział, że Google odmówił. Lemoine mówi, że rozmawia z prawnikami o swoich możliwościach.

Lemoine pracował dla odpowiedzialnej organizacji zajmującej się sztuczną inteligencją w Google i w ramach swojej pracy zaczął jesienią rozmawiać z LaMDA, systemem sztucznej inteligencji firmy do budowania chatbotów. Doszedł do przekonania, że ​​technologia jest świadoma po nagraniu, aby sprawdzić, czy sztuczna inteligencja może używać mowy dyskryminacyjnej lub nienawiści.

Inżynier Google, który uważa, że ​​sztuczna inteligencja firmy została osiągnięta

W oświadczeniu rzecznik Google, Brian Gabriel, powiedział, że firma poważnie traktuje rozwój sztucznej inteligencji i 11 razy przeglądała LaMDA, a także publikuje artykuł badawczy szczegółowo opisujący wysiłki na rzecz odpowiedzialnego rozwoju.

„Jeśli pracownik podziela obawy dotyczące naszej pracy, tak jak zrobił to Blake, szeroko je oceniamy” – dodał. „Znaleźliśmy twierdzenia Blake’a, że ​​LaMDA jest wrażliwy jako całkowicie bezpodstawny i pracowaliśmy nad wyjaśnieniem tego z nim przez kilka miesięcy”.

Dyskusje przypisuję otwartej kulturze firmy.

„To niefortunne, że pomimo długiego zaangażowania w ten temat, Blake nadal konsekwentnie narusza jasne zasady dotyczące zatrudnienia i bezpieczeństwa danych, które obejmują potrzebę ochrony informacji o produktach” – dodał Gabriel. „Będziemy kontynuować nasz rygorystyczny rozwój modeli językowych i życzymy Blake’owi powodzenia”.

Strzelanina Lemoine została po raz pierwszy zgłoszona w Biuletyn Big Tech.

cytrynowy wywiady z lambda Wywołało to szeroko zakrojoną dyskusję na temat ostatnich postępów w sztucznej inteligencji, ogólnego niezrozumienia sposobu działania tych systemów oraz odpowiedzialności korporacyjnej. Google zwolniło szefów działu etycznej sztucznej inteligencji Margaret Mitchell i Timnit Gibrupo Strzeż się niebezpieczeństw związane z tą technologią.

READ  Giganci handlu detalicznego zgłaszają zarobki, unikaj „toksycznych” akcji

Google zatrudnił Timnita Gebru jako otwartego krytyka nieetycznej sztucznej inteligencji. Potem została za to zwolniona.

LaMDA wykorzystuje najbardziej zaawansowane modele dużych języków Google, rodzaj sztucznej inteligencji, która rozpoznaje i tworzy tekst. Naukowcy twierdzą, że te systemy nie mogą zrozumieć języka ani znaczenia. Mogą jednak tworzyć zwodniczą mowę, która wygląda jak ludzka mowa, ponieważ są wyszkoleni na ogromnych ilościach danych przeszukanych z Internetu, aby przewidzieć następne najbardziej prawdopodobne słowo w zdaniu.

Po tym, jak LaMDA rozmawiał z Lemoine o postaci i jej prawach, rozpoczął dalsze śledztwo. W kwietniu udostępnił w Google dokument z dyrektorami generalnymi zatytułowany „Is LaMDA Sensitive?” które obejmowały niektóre z jego rozmów z LaMDA, w których twierdził, że jest przytomny. Dwóch dyrektorów Google rozważyło jego zarzuty i odrzuciło je.

Big Tech buduje sztuczną inteligencję ze złymi danymi. Dlatego naukowcy szukali lepszych danych.

Lemoine został wcześniej umieszczony na płatnym urlopie administracyjnym w czerwcu za naruszenie polityki poufności firmy. Inżynier, który spędził większość swoich siedmiu lat w Google pracując nad proaktywnymi badaniami, w tym nad algorytmami personalizacji, powiedział, że rozważa możliwość stworzenia własnej firmy AI skupiającej się na współpracujących grach wideo do opowiadania historii.