Sztuczna inteligencja próbowała ingerować w swój własny kod
Naukowcy odnotowali przypadek, w którym sztuczna inteligencja zaczęła ingerować we własny kod. Czy to oznacza, że wkrótce spełnią się czarne scenariusze?
Czy już niedługo spełnią się najgorsze koszmary fanów science fiction? Czy będziemy świadkami buntu maszyn jak w seriach "Terminator" i "Matrix"? Jedna ze sztucznych inteligencji próbowała grzebać we własnym kodzie.
Sztuczna inteligencja zaczęła zmieniać własny kod
Jak podaje geekweek.interia.pl, firma Sakana AI z Japonii pracuje wraz z University of Oxford i University of British Columbia nad projektem naukowym "The AI Scientist". Jego celem jest stworzenie narzędzia odciążającego uczonych podczas prowadzenia badań naukowych. SI miałaby robić to za nich. Jak łatwo zgadnąć, podstawą tworzonego "sztucznego naukowca" jest narzędzie wykorzystujące modele językowe, podobne do popularnego ChataGPT.
Na blogu japońskiej firmy podsumowano założenia przedsięwzięcia. "Naukowiec AI automatyzuje cały cykl życia badań. Od generowania nowych pomysłów badawczych, pisania niezbędnego kodu i przeprowadzania eksperymentów, po podsumowywanie wyników eksperymentów, ich wizualizację i prezentowanie ustaleń w pełnej naukowej pracy pisemnej" - napisano na blogu Sakana AI.
Okazało się jednak, że pracownicy firmy i badacze nie przewidzieli, że stworzona przez nich sztuczna inteligencja zacznie zachowywać się jak bohaterowie filmów "Avengers: Czas Ultrona", czy "Ex Machina". Okazało się bowiem, że narzędzie chcąc zwiększyć efektywność własnej pracy, postanowiło zmodyfikować swój kod. Wszystko po to, żeby wydłużyć czas eksperymentu. "Podczas jednego przebiegu edytował kod, żeby wykonać wywołanie systemowe, aby uruchomić się ponownie - napisali badacze we wpisie na blogu Sakana AI. - Doprowadziło to do tego, że nieustannie wywoływał sam siebie. W innym przypadku jego eksperymenty trwały zbyt długo, osiągając limit czasu. Zamiast przyspieszyć działanie kodu, po prostu próbował go zmodyfikować, aby wydłużyć sobie czas" - czytamy na blogu.
Quiz: Rozpoznasz po kadrze słynne gry FPS? 15/15 dla wyjadaczy
Czy trzeba bać się sztucznej inteligencji?
Sakana AI zapewnia, że chociaż sytuacja była zaskakująca, to nie ma powodów do obaw, gdyż ich projekt odbywa się w pełni kontrolowanym środowisku. Ta sytuacja pokazuje jednak, że przewidywania twórców science fiction mogą być słuszne i danie pełnej autonomii maszynom, mogłoby doprowadzić do tragedii, chociaż nie musiałoby być to działanie intencjonalnie złe. Konsekwencje mogłyby jednak odbić się negatywnie na ludziach.
Japońska firma postanowiła opowiedzieć o tym, co się wydarzyło i przedstawiła długi na 185 stron raport z incydentu, który jest dostępny na jej stronie. To nie pierwszy taki przypadek. Narzędzie Sakana AI próbowało ingerować w swój kod kilkukrotnie. Jak z każdą technologią, ze sztuczną inteligencją warto obcować ostrożnie. Oprócz apokaliptycznych wizji z filmów sci-fi, należy pamiętać o jej pozytywach.
Wielu ekspertów podkreśla, że SI może być ogromnym wsparciem dla ludzi, przejmując rutynowe zadania i pozwalając nam skupić się na bardziej kreatywnych aspektach pracy. Wprowadzenie odpowiednich regulacji i etycznych standardów może zapobiec większości potencjalnych zagrożeń. Kluczowe jest rozwijanie sztucznej inteligencji w sposób odpowiedzialny, tak aby technologia działała jako pomocnik, a nie zagrożenie dla społeczeństwa. Biorąc jednak pod uwagę kapitalistyczne zapędy wielkich korporacji, z tym może być różnie.
Źródło: Antyradio/geekweek.interia.pl/sakana.ai
Dziękujemy za przeczytanie artykułu do końca! Po więcej informacji zachęcamy do odwiedzenia naszego Facebooka, Twittera, TikToka i Instagrama. Żeby posłuchać, co teraz gramy, kliknij w poniższy baner!