Facebook próbuje ratować życie, ale czy w zgodzie z prawem?

Fot. Getty Images/iStockphoto
W ubiegłym roku algorytmy monitorujące treść postów i prywatnych rozmów użytkowników Facebooka około 3500 razy „zdecydowały” o powiadomieniu służb ratowniczych lub policji o zagrożeniu próbą samobójczą. Choć wielu zapewne udało się pomóc, działania internetowego giganta budzą poważne wątpliwości.
Tomasz Kobosz 2019-01-03 12:04

„New York Times” opisuje przypadek mieszkanki stanu Ohio, która napisała na Facebooku „Idę do domu się zabić”. Parę godzin później pracownik Facebooka zadzwonił na lokalny posterunek policji, alarmując o potencjalnej próbie samobójczej.

Policja szybko przyjechała do domu kobiety, ta jednak zaprzeczyła, jakoby miała myśli czy zamiary samobójcze. Mimo to, funkcjonariusz zdecydował, że zostanie zawieziona do szpitala - dobrowolnie, albo pod przymusem. Kobieta trafiła do na izbę przyjęć, gdzie poddano ją ocenie psychiatrycznej.

W ciągu ostatnich 18 miesięcy na całym świecie Facebook kilka tysięcy razy powiadamiał służby o potencjalnych samobójcach. Jest to najprawdopodobniej największy na świecie program przesiewowego zapobiegania samobójstwom. Program opracowano i wdrożono po tym, jak w 2017 roku kilka osób transmitowało swoje samobójstwo na Facebooku.

Facebook w roli globalnego „diagnosty” psychiatrycznego budzi kontrowersje, szczególnie teraz, gdy firma Zuckerberga naraziła się kilkoma poważnymi wpadkami, takimi jak np. udostępnienie firmie Cambridge Analytica danych ok. 87 mln użytkowników serwisu.

Cześć specjalistów w dziedzinie zdrowia psychicznego zwraca uwagę, że powiadamianie policji w podobnych sytuacjach może – niekiedy – wywołać skutek odwrotny od zamierzonego, w skrajnych przypadkach nawet pchnąć do samobójstwa osoby, które nie miały takiego zamiaru, nie wspominając o niepotrzebnych hospitalizacjach.

Skuteczność działań Facebooka nie jest, przynajmniej na razie - możliwa do oceny. Sama firma Zuckerberga twierdzi, że - ze względu na ochronę prywatności użytkowników - nie monitorowano dalszych losów osób, do których wezwano służby.

Nie jest jasne, czy podejście firmy jest skuteczne i bezpieczne. Facebook zachowuje się tu jakby miał uprawnienia agencji zdrowia publicznego, a jednocześnie – będąc prywatną korporacją – nie ujawnia szczegółów procesów, według których podejmuje decyzje takie jak wezwanie policji do domu użytkownika – zauważają krytycy.

– Tak naprawdę nie wiemy, jakimi kryteriami kieruje się Facebook, nie sposób ocenić, czy reakcja algorytmów jest współmierna do realnego ryzyka – podkreśla dr John Torous z Beth Israel Deaconess Medical Center w Bostonie.

– Nasze działania nie są doskonałe, ale zdecydowaliśmy się podjąć ryzyko błędów i pomyłek, aby tak szybko jak to możliwe zapewnić pomoc ludziom, którzy jej naprawdę potrzebują – odpowiada Emily Cain, rzecznik prasowa Facebooka.

System oceny ryzyka samobójstw na podstawie aktywności na Facebooku ma zasięg globalny, ale ograniczony językowo – algorytmy działają na razie tylko w językach: angielskim, hiszpańskim, portugalskim i arabskim. Z powodu przepisów o ochronie danych osobowych (RODO) system nie działa w Unii Europejskiej. Jednak w pozostałych krajach użytkownicy nie mają możliwości rezygnacji z bycia monitorowanymi pod kątem skłonności samobójczych.

Według Światowej Organizacji Zdrowia, samobójstwa są drugą najczęstszą przyczyną zgonów wśród osób w wieku od 15 do 29 lat na całym świecie.

Źródło: New York Times

PDF

Zobacz także