Mer. Feb 21st, 2024
deepfake

Siamo abituati ai rapidi progressi della tecnologia. La parola Intelligenza Artificiale ormai é presente ovunque e la velocitá con cui si sta sviluppando é eccezionale. Purtroppo c’é un aspetto da tenere in considerazione, la conseguenza piú pericolosa di questa innovazione rivoluzionaria. Stiamo parlando delle cosiddette Deepfake, ovvero di un sistema di tecniche per la creazione di contenuti digitali creati da software di intelligenza artificiale. Foto, video, telefonate che non esistono ma che sono semplicemente frutto della tecnologia e che purtroppo, ingannano ogni giorno migliaia di persone.

Ecco come ci truffa l’intelligenza artificiale.

Email o messaggio di phishing

Partiamo da quella che é la truffa che a molti di noi é capitata, ovvero l’email o il messaggio di phishing. Con il termine “phishing” intendiamo quel tipo di messaggio che mira a raccogliere informazioni dal destinatario, inducendolo a credere che l’email, l’SMS o il direct ad esempio, siano stati inviati da un mittente legittimo. Si tratta di una truffa a tutti gli effetti poiché lo scopo di chi la invia é quello di ricevere informazioni personali come dati finanziari o codici di accesso fingendosi un ente affidabile, come una banca. Si riconoscono soprattutto per la presenza di link che possono contenere vari virus. Il consiglio in questi casi é quello di non aprire mai il link presente nel messaggio ricevuto. In caso di una telefonata sospetta in cui ci vengano richiesti dei dati sensibili, é raccomandabile contattare attraverso i profili ufficiali l’istituto, l’agenzia o qualsiasi altra entitá che ci avrebbe contattato.

Falsificazioni di immagini e di video

Oramai, scrollando lo smartphone su qualsiasi social network, é sempre piú frequente imbattersi in immagini o video creati totalmente dall‘Intelligenza Artificiale. Se da un lato ci fanno sorridere, dall’altro é anche vero che possono risultare molto pericolose. É sempre piú difficile, infatti, riconoscere una foto autentica da una artificiale e il rischio che possano aumentare il sistema di fake news presente sui social network é sempre più evidente.

Sextortion

Basti pensare a quante pubblicitá siano state create utilizzando il volto di personaggi famosi o al caso del sextortion, dove persone reali vengono ricreate totalmente nude. Lo scorso anno in Extremadura, decine di ragazze hanno denunciato la circolazione di foto false dove apparivano nude create dall’Intelligenza Artificiale.

Esistono applicazioni alla portata di tutti e dal costo di 5 euro al mese che permettono ció, come Clothoff. Grazie a quest’app facilmente scaricabile é possibile creare delle foto di persone nude utilizzano semplicemente delle immagini del loro volto. Nei termini e condizioni di servizio si esplicita che l’utente é l’unico responsabile delle immagini generate e che l’azienda non reclama la proprietá del contenuto risultante, poiché il servizio é destinato ad un uso personale e non commerciale. É assurdo non tenere in conto di come queste applicazioni alimentino i rischi di pedopornografia, ricatti e truffe che ogni giorno causano sempre piú danni psicologici ed economici.

Se non é abbastanza, pensate che esistono profili di influencer inesistenti da centinaia di migliaia di follower. Come Aitana, una modella di Barcellona il cui profilo conta 121.000 follower e che genera un profitto di 10.000 euro al mese. Il profilo é stato creato da un’agenzia che ha deciso di creare una propria influencer da utilizzare come modello per i marchi che si rivolgevano a loro. Secondo il creatore di Aitana, Ruben Cruz, “le aziende vogliono un’immagine che non sia una persona reale in modo da non avere problemi di continuitá se devono licenziare o non possono piú contare su di lei”.

Falsificazione delle voci

A partire da campioni vocali registrati (voices samples) che possono essere ricavati da messaggi vocali o telefonate, é possibile riprodurre un testo scritto o la lingua parlata in modo tale che la voce artificiale possa essere facilmente scambiata per quella vera. Solamente nel 2022, Federal Trade Commission ha denunciato 36000 truffe telefoniche. Sono stati registrati molti casi di chiamate che inscenavano rapimenti di familiari o situazioni gravi, come un arresto o un ricovero in ospedale. Pensiamo sempre che solo i piú fessi possano cascare in queste truffe, ma é sempre piú difficile detectare gli inganni creati dall’Intelligenza Artificiale. Immaginiamoci di ricevere un messaggio vocale con la voce di un familiare che ci chiede di richiamarlo a quel numero. Quanti di noi ovviamente richiamerebbero? Pensate che semplicemente ció é sufficiente ad alimentare una truffa che ogni giorno causa migliaia di vittime.

Ecco come ci truffa l’intelligenza artificiale.

Anche in questo caso, esistono delle applicazioni che sono alla portata di tutti, come ElevenLabs e Resemble. Con la prima, in cambio di 25 file audio, é possibile clonare qualsiasi voce. Nel caso di Resemble, invece, si possono creare delle nuove voci usando delle frasi proposte dal servizio stesso.

Anche i pionieri dell’IA ne dichiarano la pericolositá

La perciolositá di un uso scorretto dell’Intelligenza Artificiale é un tema sempre piú diffuso e concreto. Il Centro Noprofit per la sicurezza IA (no profit Center for IA Safety) ha scritto una lettera aperta firmata da piú di 350 manager dove considera l’Intelligenza Artificiale come una minaccia, al pari delle guerre nucleari o delle pandemie. A sostenere l’appello ci sono anche personaggi che utilizzano l’IA nelle loro attivitá, come il direttore di ChatGPT (il sistema che ci permette di messaggiare con un robot per risolvere problemi) o l’amministratore delegato di Google Deepmind. Nella lettera si legge che “gli algoritrmi dell’IA si sono rivelati molto potenti nell’interfacciare le persone utilizzando i dati presenti sul web e il linguaggio naturale, cosí potenti che potrebbero generare effetti secondari imprevisti”. Inoltre si dichiara l’urgenza di creare regole chiare e una presa di coscienza, oltre alla necessitá di porre limiti e vincoli.

Come ci truffa l’intelligenza Artificiale

Abbiamo visto come le conseguenze di queste truffe possono essere devastanti, sotto vari punti di vista. É importante creare consapevolezza tra le persone per riconoscere i segnali di possibili truffe. Cosí come é necessaria una maggior regolazione e un maggior impegno da parte della legge e delle piattaforme online. Nonostante ció, spero davvero che un giorno l’intelligenza Artificiale possa essere usata solo a scopi benefici, come in campo biomedico o farmacologico.

Fonte immagine: Facebook, https://www.technologyreview.com/2019/12/12/131605/ethical-deepfake-tools-a-manifesto/

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *