I genitori di Molly Russell, una giovane adolescente suicidatasi nel 2017, hanno ottenuto che i social network a cui era iscritta la figlia siano ritenuti responsabili della sua morte. La sua esposizione a contenuti mirati è stata ritenuta ritenuta inappropriata e pericolosa.
Si chiamava Molly Russell, aveva 14 anni, passava molto tempo sui social network, come tanti giovani della sua età: Pinterest, Instagram, WhatsApp… Una sera di novembre 2017, questa residente di Harrow, piacevole sobborgo del nord-ovest di Londra, si è suicidata nella sua camera da letto dopo un tranquillo pasto in famiglia. Dopo questa tragedia, i suoi genitori, Ian e Janet, si sono battuti instancabilmente per il riconoscimento della responsabilità dei giganti di Internet nella scomparsa della loro figlia.
Venerdì 30 settembre hanno vinto la loro causa: dopo quindici giorni di udienza, Andrew Walker, il coroner della North London Coroners’ Court, un organismo indipendente di polizia e giustizia, incaricato di stabilire la causa e le circostanze di una morte , ha concluso che “gli effetti negativi dei contenuti online” avevano “contribuito” alla morte di Molly. Questo contenuto “non era sicuro” e “non avrebbe dovuto essere accessibile per un bambino”, ha aggiunto. È la prima volta nel Regno Unito che i giganti di Internet sono stati ritenuti responsabili della morte di un bambino.
Parlando in particolare a Meta, proprietario di Instagram e Facebook, Ian Russell, il padre di Molly, ha dichiarato alla fine dell’inchiesta: “È ora di proteggere i nostri giovani. È tempo che la cultura tossica al centro delle più grandi piattaforme di social media del mondo cambi e non possano più dare la priorità ai loro profitti a scapito della sofferenza dei giovani. Questo padre Courage che, per cinque anni, non ha mollato i colossi di Internet, ha incoraggiato anche Mark Zuckerberg, CEO di Meta, ad ascoltare “le persone che usano le sue piattaforme, ad ascoltare le conclusioni del medico legale e ad agire di conseguenza ”.
Un’adolescente sotto un’influenza elettronica negativa
Molly era una ragazza normale, aveva molti progetti per il futuro, dicevano spesso i suoi genitori. Il suo comportamento è cambiato circa un anno prima della sua morte: era più ritirata, trascorreva più tempo nella sua stanza, ma inizialmente lo attribuivano all’adolescenza; mentre la loro figlia è sprofondata in una spirale di depressione mentre vedeva grandi quantità di contenuti negativi online. Secondo l’inchiesta del coroner, la giovane è stata bombardata da contenuti legati alla depressione, alle mutilazioni o al suicidio: su 16.300 pagine visualizzate nei sei mesi precedenti la sua morte, ne aveva consultate 2.100 di cui 138 video che parlavano di suicidio o mutilazioni.
In questione, questi algoritmi sfruttano i dati di connessione degli utenti di Internet per offrire loro contenuti mirati. Pertanto, a Molly erano stati consigliati 34 account Instagram che erano “tristi o legati alla depressione”. Molly ha persino ricevuto un messaggio da Pinterest che consigliava “10 spille [punti di interesse] deprimenti che potrebbero piacerti”. Per l’avvocato Oliver Sanders, rappresentante della famiglia Russell, “Instagram ha letteralmente dato idee a Molly”.
Ci sono voluti anni prima che Ian Russell ottenesse l’accesso ai profili online di sua figlia, con la resistenza dei Big Tech. WhatsApp aveva cancellato l’account di Molly e c’è stata una lunga battaglia legale per ottenere l’accesso ai contenuti che aveva visualizzato su Instagram. Costretta a comparire davanti al coroner, Elizabeth Lagone, responsabile “Politiche benessere e salute” di Meta, ha difeso l’adeguatezza di alcuni contenuti consultati da Molly. Jud Hoffman, il responsabile delle operazioni del sito di condivisione di foto Pinterest, invece, si è “profondamente dispiaciuto” che l’adolescente possa essere stato esposta a tali contenuti, ammettendo che non li avrebbe lasciati vedere ai propri figli.
Le rivelazioni del 2021 dell’informatrice Frances Haugen hanno gettato una luce dura sulle pratiche di Facebook. Questo ingegnere che lavora per il social network ha passato migliaia di documenti interni alla US Securities and Exchange Commission e al Wall Street Journal, inclusi alcuni che indicano contenuti potenzialmente pericolosi per le ragazze adolescenti su Instagram. “Stiamo peggiorando i problemi di immagine corporea per una ragazza su tre”, secondo un documento interno del 2019.
Dalla morte di Molly, le società Internet si sono evolute per cercare sempre più contenuti pericolosi per la salute mentale dei giovani. Ma non tutti vengono rimossi o rimossi rapidamente. Il coroner Walker ha chiesto metodi più efficienti di verifica dell’età degli utenti della rete. Le conclusioni della sua indagine potrebbero aiutare l’approvazione dell’Online Safety Bill, volto a controllare meglio i contenuti online, che da mesi è in discussione al Parlamento britannico.
Liz Truss, il nuovo Primo Ministro, ha sospeso la sua recensione, affermando che il controllo di contenuti “legali ma pericolosi” minaccia la libertà di parola. Ma ora sembra difficile, dopo la pubblicità data al caso “Russell”, indebolire troppo il testo della legge. Per Michelle Donelan, ministro della cultura del governo Truss, “dobbiamo alla famiglia di Molly fare tutto ciò che è in nostro potere per impedire che [questo dramma] si ripeta”.
Il British Online Safety Bill obbliga i giganti di Internet a un “dovere di vigilanza”: spetta a loro proteggere i bambini da contenuti potenzialmente pericolosi. Devono valutare i pericoli presentati dalle loro piattaforme e mettere in atto i mezzi adeguati per tenere i bambini lontani da loro. Ofcom, l’autorità nazionale di regolamentazione delle telecomunicazioni, dovrebbe valutare questi sforzi.
(Cécile Ducourtieux su Le Monde del 04/10/2022)
——
Fonte: Nel Regno Unito, la lotta di una famiglia contro i giganti di Internet dopo la morte della figlia