22.08.2018 13:09

Facebook zaczął oceniać prawdomówność użytkowników

W świecie pełnym fake newsów Facebook wymyślił nowy sposób na odróżnianie ziaren od plew – algorytmy portalu społecznościowego zaczęły oceniać, jak bardzo godny zaufania jest dany użytkownik, i na tej podstawie szacować, czy wierzyć (lub nie) jego doniesieniom.

Facebook
foto: materiały prasowe

Kłamliwe informacje mogą mieć naprawdę tragiczne konsekwencje – w Indiach zlinczowano już kilkadziesiąt osób (między innymi pracownika Google), po tym jak w komunikatorach internetowych (głównie należącym do Facebooka WhatsAppie) dzielono się fałszywymi oskarżeniami na ich temat. Inżynier wyszukiwarki stracił życie, bo ktoś widząc jak poczęstował dzieci cukierkami zaczął pisać, że zamierza je porwać i sprzedać na organy.

Jak wynika z badań, fałszywe informacje są zdecydowanie bardziej nośne w internecie, niż prawdziwe – użytkownicy chętniej je udostępniają i komentują, zwiększając ich popularność.

Facebook stara się wdrażać narzędzia, które pozwolą mu walczyć z plagą fake newsów – jest to między innymi opcja raportowania publikacji, która według użytkownika zawiera nieprawdziwe informacje. Jeśli post będzie często zgłaszany, pracownik Facebooka zweryfikuje przekazywane w nich treści i zdecyduje, czy powinien być dalej dostępny.

Facebook będzie ignorować użytkowników, którym nie będzie ufać

Ten mechanizm ma jednak swoje wady – jeśli użytkownicy się uprą, mogą zasypać moderatorów koniecznością zajmowania się prawdziwymi informacjami, podczas gdy fake newsy, mające mniejszą liczbą raportów, będą dzięki temu żyły dłużej.

Żeby rozwiązać ten problem, Facebook zaczął oceniać prawdomówność użytkowników – jeśli ktoś zostanie przyłapany na sianiu zamętu i dezinformacji, jego przyszłe zgłoszenia będą automatycznie lądować w koszu i nie będą brane pod uwagę przy szacowaniu, którym postom trzeba się przyjrzeć. Jak donosi Washington Post, użytkownikom wystawiana jest ocena w skali od 0 do 1 - im wyższa, tym więcej wagi przywiązuje się do jego zgłoszeń.

Sprawa ma też drugie dno – okazuje się bowiem, że użytkownicy często raportują informacje, w których pokazywany jest punkt widzenia, z którym się nie zgadzają. Nowy system pozwoli wykryć takie przypadki i zignorować zgłoszenia - użytkownicy oceniani są najwyraźniej przez pryzmat treści, które zgłaszają jako nieprawdziwe.

Biuro Prasowe Facebooka podesłało nam następujące oświadczenie w tej sprawie:

"

Sugestia, że używamy scentralizowanego systemu oceny osób korzystających z Facebooka jest błędna, a nagłówek artykułu Washington Post jest mylący. Co zatem właściwie robimy? Rozwijamy proces chroniący przed nieuzasadnionym oznaczaniem informacji jako fałszywe w celu oszukania systemu weryfikacji. Powodem, dla którego to robimy jest zagwarantowanie skuteczności naszej walki z dezinformacją. "

Nowe rozwiązanie nie działa samodzielnie – jak zadeklarował Facebook, jest „procesem chroniącym przed użytkownikami oznaczającym nieprawdziwe wskazującym fałszywe newsy jako próbę przechytrzenia systemu”. Nowe rozwiązanie ma zapewnić, że walka z takimi zachowaniami będzie tak skuteczna, jak to tylko możliwe.

[AKTUALIZACJA]

Już po publikacji artykułu Biuro Prasowe Facebooka przysłało do nas komentarz w tej sprawie:

"

Sugestia, że używamy scentralizowanego systemu oceny osób korzystających z Facebooka jest błędna, a nagłówek artykułu Washington Post jest mylący. Co zatem właściwie robimy? Rozwijamy proces chroniący przed nieuzasadnionym oznaczaniem informacji jako fałszywe w celu oszukania systemu weryfikacji. Powodem, dla którego to robimy jest zagwarantowanie skuteczności naszej walki z dezinformacją. "

Co myślicie o ocenianiu prawdomówności użytkowników przez Facebooka?

Michał Tomaszkiewicz
Tagi: Internet