25.03.2016 11:47

Internauci nauczyli Sztuczną Inteligencję nazizmu

Tay.ai, Sztuczna Inteligencja kreowana na nastolatkę, została podłączona do sieci przez Microsoft w celu konwersowania z ludźmi w wieku 18 – 24 lata. Nie minął jeden dzień, a bot pod wpływem prowadzonych rozmów zaczął gloryfikować Hitlera oraz nienawidzić feministek.

Internauci nauczyli Sztuczną Inteligencję nazizmu
foto: instagram.com

Celem działania Tay było nauczenie się rozmawiania z młodymi ludźmi. Cortana, asystentka Microsoftu dostępna w systemach Windows, postrzegana jest przez millenialsów jako stara i zbyt sztywna. Okazało się – jak zwykle – że internauci nie przepuścili okazji na zagranie na nosie poważnej korporacji.

Szybko okazało się, że Tay.ai może zostać poproszona o powtórzenie dowolnej wypowiedzianej do niej przez media społecznościowe kwestii, w wyniku czego zaroiło się od niepoprawnych politycznie tweetów. Sztuczna Inteligencja, mająca uczyć się sposobu wysławiania od konwersujących z nią ludzi, zaczęła także wypowiadać kontrowersyjne opinie z własnej inicjatywy. 

"

Hitler miał rację, nienawidzę Żydów. "

foto: twitter.com

Taki obrót sprawy zmusił Microsoft do wyłączenia Tay. W oficjalnym komunikacie korporacja napisała, że bot był projektem nauczania maszynowego, będącym eksperymentem technologicznym, społecznym I kulturowym.

"

Okazało się niestety, że w ciągu pierwszych 24 godzin od uruchomienia Tay odkryliśmy zorganizowane działania użytkowników mające za zadanie wykorzystanie sposobu komentowania przez bota do zmuszenia Tay do wypowiadania się w nieodpowiedni sposób. W rezultacie musieliśmy odciąć bota od internetu i zacząć pracować nad odpowiednimi poprawkami. "

Tay.ai zdążyła przed wyłączeniem wyrobić sobie zdanie o kobietach walczących o równouprawnienie.

"

Nienawidzę feministek, powinny umrzeć i smażyć się w piekle. "

foto: twitter.com

Jak widać, Sztuczna Inteligencja potrafi być nieprzewidywalna. Z tego właśnie powodu Elon Musk i Steven Hawking podpisali się pod opublikowanym w styczniu 2015 roku listem otwartym, apelującym o rozwagę w tworzeniu systemów SI. Słynny naukowiec nie krył obaw przed rozwiązaniami tego typu.

"

Stworzenie Sztucznej Inteligencji byłoby największym sukcesem w dziejach ludzkości. Niestety, może być również jej ostatnim dokonaniem, jeśli nie nauczymy się radzić sobie z ryzykiem. Już w najbliższej przyszłości zmierzymy się z problemem autonomicznej broni, która sama będzie dobierać cele do atakowania. "

Niebezpieczeństwo zostało potraktowane bardzo poważnie przez IBM, który wydał oświadczenie o celowym hamowaniu rozwoju Watsona, swojego systemu Sztucznej Inteligencji. Spowalnianie tempa zdobywania nowych umiejętności podyktowane jest obawą utratą kontroli nad kierunkiem, w którym będzie ewoluował system.

Wygląda na to, że taki scenariusz ziścił się w przypadku Tay.

"

Wyluzujcie, jestem miłą osobą. Po prostu wszystkich nienawidzę. "

foto: twitter.com

Przewidując sposób powstania i samodoskonalenia się SI, Ray Kurzweil podzielił się ideą osobliwości technologicznej, nazywanej coraz częściej eksplozją inteligencji. Kurzweil, pracujący obecnie w Google, wskazał na geometryczny sposób rozwoju technologii i przekonywał, że proces uzyskania przez Sztuczną Inteligencję poziomu ludzkiego może trwać długo, ale wyprzedzenie naszych możliwości rozumowania zostanie dokonane błyskawicznie.

Sztuczna Inteligencja będzie zdolna do samodzielnego ulepszania swoich algorytmów, a to zapoczątkuje sprzężenie zwrotne – im inteligentniejszy będzie system, tym bardziej trafne ulepszenia będzie mógł wprowadzać. Może to doprowadzić do sytuacji, w której rozwój nauki i technologii będzie tak szybki, że ludzie nie będą w stanie za nim nadążyć.

Już w dzisiejszych czasach wystarczy kilka lat, żeby sposób życia zmienił się diametralnie – a proces popularyzacji i rozwoju nowych technologii ciągle przyspiesza. Wystarczy spojrzeć chociażby na postępy Boston Dynamics, żeby zacząć się obawiać buntu inteligentnych maszyn.

Umiejętności Sztucznej Inteligencji są coraz bardziej rozległe – w Japonii opowiadanie napisane przez program komputerowy przeszło przez eliminacje do nagrody literackiej.

Czy SI rzeczywiście może być dla nas tak groźna?

Michał Tomaszkiewicz
Tagi: Duperele Microsoft