Po samobójstwie nastolatki Instagram będzie ukrywać zdjęcia samookaleczenia
Instagram zapowiedział, że będzie ukrywać zdjęcia, na których wykryte zostanie samookaleczenie. Nawet jeśli taki materiał się znajdzie, to będzie on specjalnie rozmyty, a w pełnej krasie da się go obejrzeć dopiero po świadomym kliknięciu zgody.
Decyzja Instagrama to odpowiedź na samobójstwo 14-latki Molly Russell. Według jej rodziców, nastolatka odebrała sobie życie zainspirowana zdjęciami samookaleczenia oglądanymi na Instagramie oraz Pintereście.
Instagram, jak się okazało, to nie tylko miejsce, w którym piękni, młodzi i bogaci influencerzy pokazują życie, o jakim marzą ich fani – to także serwis, w którym swoimi zdjęciami dzielą się osoby, które ze światem w jego obecnej formie się nie dogadują.
Wśród zdjęć publikowanych na Instagramie można więc znaleźć fotki pokazujący rany (w tym także te zadane sobie samodzielnie), a nawet przygotowania do popełnienia samobójstwa – to właśnie takie obrazy miały pchnąć nastolatkę do zakończenia swojego życia.
Instagram ukryje zdęcia samookaleczania. Dlaczego ich nie usunie?
Oficjale platformy zapewniają, że starają się jak mogą, żeby zminimalizować ryzyko natknięcia się osób wrażliwych na treści, które mogą wpłynąć na ich nastrój. Zdjęcia pokazujące samookaleczenia nie są wyświetlane w wynikach wyszukiwania, nie widać ich w zbiorze treści oznaczonych danym hasztagiem czy rekomendacjach dla konta.
Instagram zapowiedział ponadto zatrudnienie inżynierów oraz moderatorów treści, których zadaniem będzie stworzenie systemu jeszcze lepiej rozpoznającego zawartość zdjęć i chroniących osoby postronne przed ich obejrzeniem.
Zobacz też: >> Transmitował na żywo, jak zabijał swoją 11-miesięczną córkę <<
Serwis zdradził, dlaczego nie zdecydował się na automatyczne usuwanie takich treści – eksperci doradzili platformie, że możliwość dzielenia się ze światem zdjęciami przedstawiającymi zadawanie sobie bólu jest ważną częścią terapii, a wsparcie ze strony innych użytkowników może pomóc ocalić ludzkie życia.
Instagram, podobnie jak Facebook, analizuje publikowane na nim treści w celu wyszukiwania postów mogących wskazywać na chęć popełnienia samobójstwa. Jeśli wykryje potencjalne zdarzenie, zawiadamia odpowiednie służby oraz wyświetla użytkownikowi porady dotyczące szukania pomocy.