Ti arriva un messaggio: “Mi dispiace, ma devi vederlo assolutamente, seguito da un link. Salta fuori la tua faccia, che ti guarda, mentre sei impegnato in atti sessuali. Ovviamente non sei tu, ma è come se lo fossi: una tua immagine è stata sovrapposta a quella di qualcun altro utilizzando l’Intelligenza Artificiale. È un caso di ‘deepfake’, l’ormai noto fenomeno globale le cui le vittime sono attori, politici, YouTubers ma anche donne non famose. E nella maggior parte dei Paesi, è un pratica del tutto legale.Nel 2017 un utente di Reddit che si chiamava ‘deepfakes’ ha lanciato un thread in cui si potevano guardare video falsi di ‘Maisie Williams’ o ‘Taylor Swift’ mentre facevano sesso. Prima che il thread venisse chiuso, otto settimane più tardi, aveva accumulato ben 90.000 iscritti.Secondo l’azienda di cybersecurity Sensity, i deepfake stanno aumentando in modo esponenziale e il numero dei video raddoppia ogni sei mesi. Degli 85.000 attualmente online, per il 90% sono video pornografici non consensuali con protagoniste donne. E per quanto riguarda i creatori dei video, basta dare un’occhiata alla top 30 su un sito per capire che sono generati in tutto il mondo, anche in USA, Canada, Guatemala e India. E i creatori, fra quelli che indicano il proprio genere, sono tutti uomini, con una sola eccezione. Lo scorso ottobre la scrittrice britannica Helen è venuta a sapere che erano apparsi dei deepfake su un sito porno in cui era impegnata in atti sessuali molto violenti. Quella notte la scrittrice ha avuto incubi tremendi, non riusciva a scacciare dalle mente quelle immagini ed è stata presa da una sensazione di paura totale. “È come essere in un tunnel, vai sempre più avanti e finisci in questo spazio chiuso e senza luce”, Così ha raccontato a Vogue. Una sensazione che ha invaso completamente la vita di Helen. Ogni volta che usciva di casa si sentiva indifesa, e ha anche sofferto di attacchi di panico. Helen ad oggi non ha ancora capito chi abbia potuto farle questo.I video saranno anche fake, ma il loro impatto emotivo è reale. Le vittime vengono assalite da mille interrogativi: chi li ha fatti? Chi li ha visti? Come posso fermarli? Perché una volta che una cosa va online può ripresentarsi in qualunque momento.L’effetto silenziatoreAmnesty International ha studiato gli effetti degli abusi contro le donne su Twitter, in particolare in relazione a come le vittime si comportano in seguito. Secondo…
—
Source: vogue.it