Il New York Times e Taylor Swift, giusto una ventina di giorni fa, hanno avuto qualche screzio. Da un lato sul quotidiano statunitense era stato pubblicato un pezzo, firmato dall'opinionista Anna Marks, che azzardava speculazioni sui presunti riferimenti alla comunità LGBTQ+ nella musica della pop star. Dall'altro sia Swift, che il suo entourage, che buona parte dei lettori del Times, s'erano chiesti che senso avessero, nel 2024, quelle 5 mila parole, incorniciate dal titolo Look What We Made Taylor Swift Do (il gioco di parole si riferisce alla hit di Swift del 2017, contenuta nel disco Reputation, dedicata con poco affetto a Kanye West) con cui la giornalista s'era incaponita a teorizzare che la cantante, attraverso molte delle sua canzoni, sia solita inviare "messaggi in codice alla comunità queer", della quale sarebbe segretamente un membro". Oggi, che il destino è beffardo, le due parti sono dalla stessa parte della barricata, accomunate da quello che, nel loro caso, è diventato un nemico comune. Entrambe, infatti, sono vittime dell'Intelligenza Artificiale, seppur in modi diversi. Il New York Times, a dicembre 2023, ha fatto causa a OpenAi e Microsoft, con l'accusa di violazione del diritto d'autore, per l'uso non autorizzato di milioni di suoi articoli usati per addestrare le loro chatbot, incluse ChatGPT e Copilot. La causa, che, va ricordato, è la prima da parte di una grande azienda dei media statunitense, non includeva una richiesta monetaria precisa, ma diceva espressamente che OpenAI e Microsoft dovrebbero essere ritenuti responsabili per "miliardi di dollari di danni" legati "alla copia e all'utilizzo illegale" del lavoro del giornale. Una questione di danno economico, diritto d'autore violato, ma anche di etica del lavoro e di prospettive future sull'uso dell'AI che è ancora scarsamente regolamentato.

Molte cose, dunque, ma a Taylor Swift, che in questo momento storico sembra stia pagando l'anno e mezzo di successo oltre ogni record con un'attenzione morbosa e al limite dello psicopatico nei suoi confronti, è andata peggio. La sua vicenda, di fatti, ha a che fare con il deepfake porn, ovvero il lato più sinistro dell'intelligenza artificiale, che è ancora un porto franco, un terreno governato dall'anarchia, e nel quale le maglie della giustizia faticano ad entrare, figurarsi ad agire. Per spiegare che cosa si intenda per deepfake porn, usiamo come esempio un caso relativamente recente, di cui vi abbiamo raccontato a settembre dello scorso anno. Nella città di Almendralejo, nel sud-ovest della Spagna, è successo che le forze dell'ordine abbiano ricevuto undici denunce da parte di ragazze, tutte minorenni, vittime di revenge porn per mezzo di foto e video falsi e diffusi on line. I presunti autori di queste immagini avevano manipolato alcune foto delle adolescenti, per posizionare i loro volti su immagini di corpi nudi di altre persone. La stessa cosa è toccata a Swift, che ha visto pubblicate e diffuse delle sue immagini sessualmente esplicite, alcune anche di tipo pornografico, subito diventate virali su X, dove hanno ottenuto milioni di views. Una in particolare è arrivata a 47 milioni prima della sua rimozione. Il materiale è stato prodotto dall'intelligenza artificiale, e la sua diffusione fuori controllo ha fatto sì che X si sia deciso a bloccare la ricerca di "Taylor Swift". Al momento, e non si sa ancora per quanto, se si prova a cercare “Taylor Swift” su X compare una pagina vuota con il messaggio "Qualcosa è andato storto. Prova ad aggiornare".

Dopo la pubblicazione delle foto finte, X era stato molto criticato per non essere intervenuto tempestivamente eliminandole, e i fan della cantante avevano protestato, bombardando X con l'hashtag #ProtectTaylorSwift ("proteggete Taylor Swift"), nel tentativo di sommergere le immagini e renderle più difficili da trovare. Ma non si sono mossi solamente gli Swifties: persino il governo degli Stati Uniti aveva commentato con preoccupazione la diffusione delle foto finte della cantante. La portavoce della Casa Bianca, Karine Jean-Pierre, aveva definito quanto accaduto "allarmante" e aveva detto che sarebbe necessaria una legge per contrastare l’uso improprio dell’intelligenza artificiale sui social media. X in seguito aveva diffuso un comunicato in cui aveva detto che pubblicare immagini di nudo non consensuali "è severamente vietato" e che il social network ha "una politica di tolleranza zero nei confronti di tali contenuti". Alcuni membri del Congresso, come il deputato Joe Morell, hanno raddoppiato gli appelli per rendere un reato federale la condivisione di falsi pornografici non consensuali. Yvette D Clarke, deputata democratica di New York, ha scritto su X: "Quello che è successo a Taylor Swift non è una novità. Per anni, le donne sono state bersaglio di deepfake senza il loro consenso. E con i progressi nell’intelligenza artificiale, creare deepfake è più semplice ed economico". Anche la Sag, il sindacato degli attori, è sceso in campo, mentre Elon Musk, proprietario di X, non si e' ancora pronunciato sulla vicenda. Tuttavia la Ceo del fu Twitter, Linda Vaccarino, sarà nei prossimi giorni, tempestivamente e per la prima volta, a Capitol Hill per parlare degli sforzi dei Big Tech nel proteggere i minori dallo sfruttamento sessuale online, e la questione del deepfakes porn, vista l'attualità del caso di Taylor Swift, potrebbe facilmente entrare nel dibattito. Ma il problema è che la legge è spesso più lenta della tecnologia. Negli Usa, alcuni Stati hanno una propria legislazione contro i deepfake, ma c’è una crescente spinta per una modifica della legge federale. Nel maggio 2023, ci aveva provato il deputato democratico Joseph Morelle, che aveva presentato la proposta di legge Preventing Deepfakes of Intimate Images Act, che intendeva rendere illegale la condivisione di pornografia deepfake senza consenso. Morelle ha affermato che le immagini e i video “possono causare danni emotivi, finanziari e reputazionali irrevocabili, e sfortunatamente le donne ne risentono in modo sproporzionato”. La sua proposta, quasi un anno dopo, non è ancora diventata legge. Anche il deputato repubblicano Tom Kean Jr, che oggi ha dichiarato: “È chiaro che la tecnologia dell’intelligenza artificiale stia avanzando più velocemente dei necessari guardrail. Che la vittima sia Taylor Swift o qualsiasi giovane nel nostro Paese, dobbiamo stabilire misure di salvaguardia per combattere questa tendenza allarmante”, aveva co-sponsorizzato il disegno di legge di Morelle, e introdotto il suo AI Labeling Act che richiederebbe che tutti i contenuti generati dall'intelligenza artificiale (compresi i chatbot più innocui utilizzati nelle impostazioni del servizio clienti, ad esempio) siano etichettati come tali. Anche questa al momento rimane solo una proposta di legge.

Da noi il tema non è presente nell'agenda del governo di Giorgia Meloni, che, per quanto riguarda il mondo del web, al momento ha legiferato solo in materia di regolamentazione del lavoro degli influencer, specie se correlato ad attività di presunta beneficenza. E questo perché l'attualità italiana ha portato l'attenzione lì. Inevitabilmente, succede che i fatti più eclatanti che avvengono in una determinata società, trascinino con sé provvedimenti, che quasi sempre hanno ragion d'essere, ma che offuscano altre criticità spesso molto violente. Tuttavia, in Italia esiste quantomeno dal 2019 il reato di revenge porn, che è stato introdotto nell’ordinamento italiano dalla Legge 19 che fa parte del Codice Rosso. "Il reato punisce - si legge - chiunque invii video o foto sessualmente espliciti e destinati a rimanere privati, senza chiedere il consenso alla persona ritratta. Ma anche chi riceva tali contenuti e, a propria volta, ne consenta la diffusione". Rimane, però, fuori l'aggravante di quella che potremmo definire "creazione" di materiale sessualmente esplicito. Materiale che quasi sempre vede come oggetto della manipolazione il sesso femminile. La tecnologia è mirata in modo schiacciante contro alle donne. Oggi il The Guardian ricorda i risultati di uno studio del 2019 condotto da DeepTrace Labs, e citato nella proposta di legislazione statunitense, che aveva rilevato come il 96% dei contenuti video deepfake fosse materiale pornografico non consenziente con vittima una donna. La questione, per altro, è notevolmente peggiorata dal 2019. La "falsa pornografia", in cui un software di fotoritocco viene utilizzato per inserire il volto di una persona non consenziente in un'immagine pornografica esistente, ha visto aprirsi una nuova frontiera grazie alla sofisticazione dell’intelligenza artificiale, che può essere utilizzata per generare immagini del tutto nuove e altamente convincenti, anche utilizzando semplici comandi testuali. Il governo del Regno Unito ha reso illegale la pornografia deepfake non consensuale nel dicembre 2022, in un emendamento alla legge sulla sicurezza online che metteva fuori legge anche qualsiasi immagine esplicita scattata senza il consenso di qualcuno, comprese le cosiddette foto "downblouse", ovvero quelle fatte alle scollature. Dominic Raab, allora vice primo ministro, disse: “Dobbiamo fare di più per proteggere le donne e le ragazze da persone che scattano o manipolano foto intime per perseguitarle o umiliarle. Le nostre nuove normative daranno alla polizia e ai pubblici ministeri i poteri di cui hanno bisogno per assicurare questi codardi alla giustizia e salvaguardare le donne e le ragazze da questi vili abusi”. Ma c'è un problema, il più ovvio ma insidioso. Qualunque strumento possa combattere i deepfake – dai software fino alla moderazione umana – può intervenire solo a posteriori. Ma se si vuole ridurre il più possibile il numero delle vittime dei video manipolati, è fondamentale intervenire a priori. Rendendo un crimine non solo la divulgazione di materiale sessualmente esplicito e non consenziente, ma anche la “contraffazione digitale”. La prevenzione, e in questo caso è lampante, è fondamentale. Perché una volta on line, quel materiale è destinato ad esistere per sempre. Anche una volta rimosso dalla rete.

GLI ESSENZIALI
dock & bay telo mare asciugatura rapida, senza sabbia
courtesy photo
anker 621 power bank ricarica rapida con connettore lightning integrato
courtesy photo
mediterraneo. the passenger. per esploratori del mondo
courtesy photo