17 listopada, 2024

Świat Biotworzyw

Informacje o Polsce. Wybierz tematy, o których chcesz dowiedzieć się więcej

Jakie dokładnie zagrożenia stwarza sztuczna inteligencja?

Jakie dokładnie zagrożenia stwarza sztuczna inteligencja?

Pod koniec marca ponad 1000 liderów technologii, badaczy i innych ekspertów pracujących nad sztuczną inteligencją i wokół niej podpisało list otwarty ostrzegający, że technologie sztucznej inteligencji stanowią „poważne zagrożenie dla społeczeństwa i ludzkości”.

Grupa, w skład której wchodził Elon Musk, dyrektor generalny Tesli i właściciel Twittera, wezwała laboratoria sztucznej inteligencji do wstrzymania rozwoju ich najpotężniejszych systemów na sześć miesięcy, aby mogły lepiej zrozumieć ryzyko związane z tą technologią.

„Silne systemy sztucznej inteligencji powinny być opracowywane tylko wtedy, gdy mamy pewność, że ich efekty będą pozytywne, a ryzyko można kontrolować” – czytamy w liście.

List, który ma obecnie ponad 27 000 podpisów, był lakoniczny. Jej język był szeroki. Niektóre nazwiska stojące za listem wydają się mieć ambiwalentny związek z AI. Na przykład pan Musk buduje własną firmę zajmującą się sztuczną inteligencją i jest głównym darczyńcą organizacji, która napisała list.

Ale list odzwierciedla rosnące zaniepokojenie wśród ekspertów AI, że najnowsze systemy, w szczególności GPT-4, technologia wprowadzona przez startup OpenAI z San Francisco, mogą wyrządzić szkodę społeczeństwu. Wierzyli, że przyszłe reżimy będą bardziej niebezpieczne.

Dotarło kilka stawek. Inni nie będą przez miesiące lub lata. Jeszcze inne to tylko przypuszczenia.

„Nasza zdolność zrozumienia, co może pójść nie tak w silnych systemach sztucznej inteligencji, jest bardzo słaba” – powiedział Yoshua Bengio, profesor i badacz sztucznej inteligencji na Uniwersytecie w Montrealu. – Więc musimy być bardzo ostrożni.

Dr Bengio jest prawdopodobnie najważniejszą osobą, która podpisała ten list.

Współpracując z innymi naukowcami – Geoffreyem Hintonem, do niedawna badaczem w Google, i Yannem LeCunem, obecnie głównym naukowcem zajmującym się sztuczną inteligencją w Meta, właścicielu Facebooka – dr Bengio spędził ostatnie cztery dekady na opracowywaniu technologii, która napędza systemy takie jak GPT-4 . W 2018 roku naukowcom przyznano Nagrodę Turinga, często nazywaną „Nagrodą Nobla w dziedzinie informatyki”, w uznaniu ich pracy nad sieciami neuronowymi.

READ  Czego oczekujesz od procesora Pixel 8

Sieć neuronowa to system matematyczny, który uczy się umiejętności poprzez analizę danych. Około pięć lat temu firmy takie jak Google, Microsoft i OpenAI zaczęły budować sieci neuronowe, które uczyły się z ogromnych ilości tekstu cyfrowego, zwanych modelami dużych języków lub LLM.

Identyfikując wzorce w tym tekście, LLM uczy się samodzielnie tworzyć tekst, w tym posty na blogach, wiersze i programy komputerowe. Mogą nawet prowadzić rozmowę.

Ta technologia może pomóc programistom komputerowym, pisarzom i innym pracownikom w generowaniu pomysłów i szybszym wykonywaniu zadań. Ale dr Bengio i inni eksperci ostrzegają również, że LLM mogą nauczyć się niechcianych i nieoczekiwanych zachowań.

Systemy te mogą generować nieprawdziwe, stronnicze i inne toksyczne informacje. Systemy takie jak GPT-4 mylą fakty i informacje w ramkach, co jest zjawiskiem zwanym „halucynacjami”.

Firmy pracują nad rozwiązaniem tych problemów. Ale eksperci, tacy jak dr Bengio, martwią się, że w miarę zwiększania mocy tych systemów, wprowadzą one nowe zagrożenia.

Ponieważ systemy te przedstawiają informacje z całkowitą pewnością, oddzielenie faktów od fikcji może być trudne, gdy są używane. Eksperci obawiają się, że ludzie będą polegać na tych systemach, jeśli chodzi o porady medyczne, wsparcie emocjonalne i surowe informacje, których używają do podejmowania decyzji.

„Nie ma gwarancji, że te systemy będą poprawne w każdym zadaniu, jakie im przypiszesz” – powiedział Subbarao Kambhampati, profesor informatyki na Arizona State University.

Eksperci obawiają się również, że ludzie będą nadużywać tych systemów do szerzenia dezinformacji. Ponieważ potrafią mówić ludzkim językiem, mogą być zaskakująco przekonujące.

„Mamy teraz systemy, które mogą wchodzić z nami w interakcje za pomocą języka naturalnego i nie potrafimy odróżnić prawdziwego od fałszywego” – powiedział dr Bengio.

Eksperci obawiają się, że nowa sztuczna inteligencja może zabić miejsca pracy. Obecnie technologie takie jak GPT-4 mają tendencję do uzupełniania ludzkich pracowników. Ale OpenAI przyznaje, że może zastąpić niektórych pracowników, w tym osoby moderujące treści online.

READ  Aktualizacja N64 Switch Online na żywo (wersja 2.6.0), oto zawartość zestawu

Nie mogą jeszcze powielać pracy prawników, księgowych czy lekarzy. Ale mogą zastąpić asystentów prawnych, osobistych asystentów i tłumaczy.

Artykuł napisany przez badaczy OpenAI Oszacowano, że 80 procent siły roboczej w USA może mieć wpływ na co najmniej 10 procent zadań związanych z LLM, a 19 procent pracowników może zobaczyć, że wpłynie to na co najmniej 50 procent ich zadań.

„Istnieje znak, że rutynowe zawody odchodzą” – powiedział Oren Etzioni, założyciel i dyrektor generalny Allen Institute for Artificial Intelligence, laboratorium badawczego w Seattle.

Niektórzy z podpisujących się pod listem osób uważają też, że sztuczna inteligencja może wymknąć się spod naszej kontroli lub zniszczyć ludzkość. Ale wielu ekspertów twierdzi, że jest to mocno przesadzone.

List został napisany przez grupę z Future of Life Institute, organizacji zajmującej się badaniem egzystencjalnych zagrożeń dla ludzkości. Ostrzegają, że ponieważ systemy sztucznej inteligencji często uczą się nieoczekiwanego zachowania na podstawie ogromnych ilości analizowanych danych, mogą powodować poważne i nieoczekiwane problemy.

Obawiają się, że gdy firmy połączą LLM z innymi usługami internetowymi, systemy te mogą zyskać nieoczekiwane możliwości, ponieważ mogą pisać własny kod komputerowy. Mówią, że programiści stworzą nowe zagrożenia, jeśli pozwolą potężnym systemom sztucznej inteligencji na uruchamianie ich kodu.

powiedział Anthony Aguirre, kosmolog teoretyczny i fizyk z Uniwersytetu Kalifornijskiego w Santa Cruz i współzałożyciel Future Life Institute.

„Jeśli weźmiemy pod uwagę mniej prawdopodobny scenariusz – gdzie rzeczy naprawdę się rozkręcają, gdzie nie ma prawdziwego zarządzania, gdzie te systemy stają się silniejsze niż myśleliśmy – wtedy sprawy stają się naprawdę szalone” – powiedział.

Dr Etzioni powiedział, że mówienie o ryzyku egzystencjalnym jest hipotetyczne. Powiedział jednak, że inne zagrożenia – w szczególności dezinformacja – nie są już spekulacjami.

READ  Destiny zostało zablokowane na Twitchu na czas nieokreślony

„Teraz mamy prawdziwe problemy” – powiedział. „Są w dobrej wierze. Wymagają odpowiedzialnej reakcji. Mogą wymagać regulacji i przepisów”.