09.01.2019 13:55

Facebook czyta Twoje posty, bo sprawdza czy nie jesteś potencjalnym samobójcą. I wzywa policję

Niemal każda publikacja na Facebooka skanowana jest pod kątem treści sugerującej występowanie myśli samobójczych – jeśli algorytm je wykryje, czytaniem postów i wiadomości zajmują się pracownicy portalu. 

Facebook
foto: materiały prasowe

Wypowiedziom użytkowników serwisu społecznościowego nadawana jest wartość pomiędzy 0 a 1, oznaczająca jak bardzo niebezpieczne są dane treści. Jeśli system uzna, że istnieje realne zagrożenie dzielenia się myślami samobójczymi, sprawa przekazywana jest wyspecjalizowanym moderatorom.

Facebook podkreśla, że wszyscy mają doświadczenie z pracy z ludźmi znajdującymi się w trudnych sytuacjach – pochodzą z policji, pomagali ofiarom gwałtów lub rozmawiali z potencjalnymi samobójcami w telefonach zaufania.

Moderatorzy otrzymują dostęp do informacji publikowanych przez użytkowników, tak by móc dokładnie sprawdzić, czy rzeczywiście niezbędna jest szybka interwencja w celu ratowania życia. W razie potrzeby mają obowiązek powiadomienia odpowiednich służb – w tym policji.

Facebook dzwoni na policję, żeby ratować samobójców

Działania Facebooka zostały przyjęte z aprobatą, chociaż od czasu problemów portalu społecznościowego z zapewnieniem prywatności przechowywanych danych co do sposobu programu zapobiegania samobójstwom pojawiło się dużo wątpliwości.

Słychać przede wszystkim głosy, że informacje o wadze przyznawanej poszczególnym wypowiedziom powinny być traktowane jako dane medyczne, a te podlegają specjalnym zabezpieczeniom.

Przedstawiciel Facebooka poinformował, że oceny wystawiane przez algorytmy, o ile nie wskazują na zagrożenie popełnienia przez danego użytkownika samobójstwa, usuwane są po 30 dniach od chwili zapisania. Nie ujawniono jednak, jak długo i w jaki sposób przechowywane są informacje o osobach, w przypadku których stwierdzono potencjalne ryzyko chęci odebrania sobie życia.

Już sama informacja o długim przechowywaniu danych przez Facebooka staje się w tym przypadku daną medyczną - sugeruje bowiem, że użytkownik ma problemy natury psychicznej.

Czy taki system jest potrzebny?

Michał Tomaszkiewicz
Tagi: Internet