Deepfake, foto di donne denudate da IA. Francesca Barra: «Ecco perché siamo tutti in pericolo»

di Giada Fazzalari

Solo qualche settimana fa, avevamo assistito alla decisione di chiudere e porre sotto sequestro siti come “Phica” in cui venivano pubblicate le foto di donne, soprattutto note, in immagini esplicite, o generate dall’intelligenza artificiale in modo illegittimo, e senza l’autorizzazione delle dirette interessate. Pensavamo si trattasse di una parentesi. Niente affatto, ci risiamo. Altre piattaforme continuano a consentire immagini intime, di revenge porn. Uno di questi è Socialmediagirls. A “denunciare per prima” i contenuti di questa piattaforma, è Francesca Barra, vittima di deep nude, e cioè foto che la ritraggono nuda, non vere, ma generate dall’IA.

Come hai scoperto la vicenda?

«Sono stata avvisata da un utente su Instagram. È una cosa che mi consola il fatto che un uomo fortunatamente abbia preso coscienza del fatto che non si tratta un semplice gioco online ma di un reato. Non avevo la più pallida idea che fossero coinvolte altre persone anche se ho subito immaginato che si potesse trattare di donne note e meno note».

E hai denunciato.

«Sì, è ovvio che di fronte a tutto questo, quando parla una persona poi a cascata lo fanno tutte. Non sono neanche particolarmente d’accordo che si mantenga il silenzio sul nome del sito perché, denunciandolo, si dà a tutti la possibilità di accorgersene, di denunciare e dunque di proteggersi. Molte donne, ad esempio, hanno scoperto di essere bersaglio di ex fidanzati. Abbiamo il dovere di parlare, anche a nome di tutte le donne che non hanno gli strumenti o di giovani ragazze, che temono di denunciare perché hanno paura di essere giudicate».

Il dominio del sito di cui stiamo parlando è stato aperto addirittura undici anni fa e ci sono sette milioni di utenti iscritti. Non ti sembra surreale che sia servita la denuncia di una persona nota come te per smascherare un sito che da anni ha pubblicità esplicite, anche con contenuti pedopornografici?

«È la cosa più grave ed è la ragione per la quale credo sia importantissimo parlarne pubblicamente, perché così si può smascherare un sistema in cui ci sentiamo impigliate, un fatto pericoloso per noi e per le nostre figlie. È doveroso fare rete, non giudicare chi denuncia, chi soffre per questo tipo di violazioni perché il rischio è quello di correre a fare a gara a chi l’ha detta meglio. Bisogna metterci la faccia, perché è una questione politica».

E anche culturale?

«Sì. Il nostro futuro è in mano non solo alla legge ma anche ad un cruciale intervento culturale, perché è vero che è individuale la responsabilità dei gestori di questi siti, ma bisogna insistere anche sul consumatore. Bisogna far capire che cosa si prova e quanto male si produce; è un fatto che non può diventare secondario perché il rispetto del consenso, l’empatia, sono cose che noi ci sforziamo di insegnare ai nostri figli e che ciclicamente riemergono quando si parla di violenze e cyberbullismo. Ma se ci pensi, noi siamo dei cattivi maestri, pessimi educatori, perché quei reati li commettiamo per primi, quindi come possiamo educare le nuove generazioni a non commetterli? Ho pensato, dopo averne parlato in famiglia, che fosse fondamentale denunciare non solo in tribunale ma anche pubblicamente perché qualcuno si poteva riconoscere e dunque proteggere»

L’intelligenza artificiale può produrre di tutto, dal vocale con la tua voce fino addirittura ad un film porno. Si dice che l’IA sia un’opportunità e non un pericolo se viene governata. E quindi c’è un problema di governo del fenomeno? L’impressione è che ci sia un po’ una giungla…

«I padri fondatori dell’intelligenza artificiale ci hanno detto che la macchina non deve mai diventare più intelligente di noi, ma la macchina è già più furba di noi, perché corre più veloce e trova il modo poi di raggirare l’ostacolo, diventa una nuova testa. Lo paragono alle talpe quando escono dei buchi, a quel giochino che esce da una parte e ti rientra dall’altra».

Quanto quindi è importante il fattore campo?

«Ti racconto una cosa. Una mamma mi ha scritto che a suo figlio era successa la stessa cosa su Telegram, ma ha deciso di non denunciare perché aveva paura in qualche modo di essere coinvolta e di risultare colpevole. Questo è un problema enorme: non ci sono solo i tempi di giustizia, c’è anche un tempo personale per elaborare, per comprendere quale sia la mossa più giusta. Di questi reati si muore, ricordiamoci Carolina Picchio, il mio primo pensiero è andato a lei, a cosa deve aver provato nel trovarsi senza consenso delle immagini estrapolate a sua insaputa, in una situazione di estrema vulnerabilità. Io ho la forza per poter ridimensionare la questione, ma non per tutti è così. È importantissimo che diventi una priorità di tutti».

Come possiamo fare, come comunità intendo?

«Sarebbe un passo in avanti parlarne con i ragazzi, andare nelle scuole, riuscire a far capire attraverso le testimonianze quanto sia importante il rispetto del consenso e l’empatia; cose per me vitali».

Siamo tutti sotto ricatto dell’IA?

«Questa è la sensazione; di essere tutti sotto ricatto, non solo della macchina ma anche dagli esseri umani che non sanno tutelarci nel modo migliore. Il ricatto è anche l’impunità. Sapere di poterla fare franca».

Ultima domanda. Apriamo il giornale con una copertina dedicata a Pasolini, nel giorno del cinquantesimo anniversario dalla morte. La sua ultima storica intervista a Furio Colombo, proprio la notte prima di morire, fu titolata: perché siamo tutti in pericolo. Per pura coincidenza è lo stesso titolo che vorrei dare alla tua, visto il ‘tono’. Tu lo faresti?

«Sì, siamo in pericolo e lo dobbiamo ammettere, senza alibi, perché è soltanto da questo che si può ripartire, cioè dalle misure più urgenti, delle pene certe, ma soprattutto la consapevolezza che senza una cultura diversa e senza un buon esempio noi non potremo davvero riuscire a proteggerci e non riusciremo a proteggere le nostre figlie, che è la cosa più importante».

 

Ti potrebbero interessare