Facebook non potrà più monitorare lo stato di salute mentale dei suoi iscritti, almeno non in Europa, per colpa o per merito del nuovo Gdpr (regolamento sulla protezione dei dati generali). Fino ad oggi, il social di Zuckerberg aveva utilizzato un algoritmo per intercettare situazioni di pericolo legate allo stato mentale di chi posta contenuti su Facebook, principalmente per sventare possibili suicidi.
Il tutto avveniva grazie ad una Intelligenza Artificiale che analizzava (dalla primavera del 2017) le caratteristiche dei post per prevenire atti di autolesionismo: un provvedimento deciso da Menlo Park dopo una catena di suicidi in diretta su Facebook negli USA, dove Facebook ha sviluppato la funzione in collaborazione con associazioni che si occupano del tema.
Nel 2017 si registrarono infatti tre casi eclatanti: un uomo dell’Alabama fece partire la diretta su FB e poi si sparò alla tempia, a Cleveland un omicidio fu postato sulla bacheca dell’assassino e in Thailandia un uomo uccise sua figlia e poi si suicidò, in diretta su Facebook. In tutti e tre i casi i video restarono online per lunghe ore prima che il social intervenisse per rimuoverli.
Anche se a fin di bene, si tratta pur sempre di una raccolta di dati sensibili e in Europa questo è ora tassativamente vietato: in America invece l’AI sfruttata da Facebook potrà continuare a funzionare, perchè le restrizioni imposte sulle informazioni relative alla salute riguardano solo chi si occupa di cartelle cliniche. Il social network potrà quindi continuare a segnalare alle associazioni preposte o alle forze dell’ordine le situazioni a rischio.