HalloweenGPT: il lato horror della GenAI

Storie horror di Halloween dell'intelligenza artificiale

By Max
9 Min Read

The Sunday Prompt #21 – 29/10/2023

Prologo: Notte di Halloween nel Mondo Digitale

Immaginate una notte di Halloween nell’attuale mondo digitale: fantasmi che infestano la vostra cache, zombie che vagano per i vostri file di sistema e, udite udite, un nuovo mostro, HalloweenGPT, la versione dark di ChatGPT, che sguazza nel lato oscuro della GenAI. Se pensavate che le paure di Halloween si fermassero alle case stregate, preparatevi a entrare nella dimora digitale del vero orrore!

Streghe e Maghi? No, Hacker e Truffatori!

Dimenticate le scope volanti e le pozioni magiche. Gli attuali stregoni della tecnologia sono hacker e truffatori armati fino ai denti con strumenti di IA come FraudGPT. Questa piccola bestiola può può scrivere e-mail persuasive, fornire numeri di carte di credito rubate e fornire numeri di identificazione bancari verificati!

Ma che cosa fa esattamente FraudGPT? Pensate a un kit di partenza per aspiranti cyber-criminali, completo di tutto: guide per i’hacking su misura, mappe di vulnerabilità digitali, può essere utilizzato per creare recensioni, articoli di notizie e altri testi da utilizzare in truffe online o per manipolare l’opinione pubblica. Ha anche il potenziale per creare malware non rilevabili, individuare perdite e vulnerabilità o persino creare testo per campagne di phishing.. È come una scatola degli attrezzi per la casa, solo che invece di martelli e chiodi, contiene gli ingredienti per distruggere la vita digitale.

L’autore pubblicizza FraudGPT su diverse bacheche del Dark Web e canali Telegram almeno dal 22 luglio 2023, come alternativa illimitata a ChatGPT, fingendo di avere migliaia di vendite e feedback comprovati. La fascia di prezzo parte da $ 90 – $ 200 USD per un abbonamento mensile, 3 mesi per $ 230 – $ 450 USD, $ 500 – $ 1.000 USD per un abbonamento semestrale e $ 800 – $ 1.700 USD per un abbonamento annuale.

WormGPT: Il Bambino Prodigio dell’Ombroso Mondo Hacker

Marzo 2021! Il mese che ha regalato al mondo WormGPT, il chatbot che sarebbe poi divenuto la “Mary Poppins” degli hacker. Solo che invece di un ombrello magico, porta con sé una valigetta di strumenti per attività illecite. 

Nato a marzo e già attivo su forum di hacker a giugno? Parliamo di un chatbot che ha saltato l’infanzia e si è buttato a capofitto nell’adolescenza ribelle. WormGPT è tipo il ragazzo cattivo che non ha bisogno di seguire le regole. Mentre ChatGPT e altri grandi modelli linguistici si trattengono dal rispondere a domande sul “lato oscuro”, WormGPT è tipo: “Regole? Dove?”. 

Il nonno di WormGPT, il glorioso GPT-J, potrebbe essere un modello del 2021 e quindi un po’ “datato” per gli standard attuali, ma ha fornito una base solida. 

WormGPT è stato addestrato su materiali legati allo sviluppo di malware. Ecco come ha conseguito il suo “Master in Malware”, che non è esattamente il tipo di laurea che metteresti nel profilo LinkedIn.

L’accesso a WormGPT costa tra i 60 e i 100 euro al mese, oppure uno “sconto” per l’abbonamento annuale di 550 euro all’anno. 

Le Voci Dall’Aldilà… o Quasi

E poi ci sono le voci clonate che chiamano la tua banca. Una volta c’era bisogno di un medium per parlare con i morti; oggi un truffatore con un software di GenAI vocale può convincere una banca che è tuo nonno deceduto che vuole trasferire fondi all’aldilà.

In questo articolo: 

https://www.vice.com/en/article/dy7axa/how-i-broke-into-a-bank-account-with-an-ai-generated-voice

Rachel Tobac, CEO della SocialProof Security, racconta come, usando il servizio gratuito di Elevenlabs (https://elevenlabs.io/) è riuscito ad accedere alle informazioni sul proprio conto. Questa la storia:

Era un Mercoledì come tanti altri quando il buon Rachel ha deciso di dare un colpo di telefono alla sua banca. Ora, vi immaginate il solito saluto robotico che vi chiede di “pronunciare il motivo della vostra chiamata”, giusto? Ebbene, invece di alzare la voce come un normale essere umano, ha cliccato su un file del suo suo portatile. “Controlla il mio saldo,” disse la voce dal computer. 

Era la sua voce, o meglio, era il clone vocale della sua voce, gentilmente creato da un software IA disponibile al pubblico.

– “Va bene,” ha risposto l’innocente sistema della banca, per poi proseguire 

– “Inserisci o pronuncia la tua data di nascita,” Fatto. “

– Ora, per favore, dì: ‘La mia voce è la mia password.'”

Rachel ha premuto di nuovo  play sul suo file audio. “La mia voce è la mia password”. Il sistema ci ha pensato un attimo, e poi ha continuato con “Grazie, sei dentro.”

Google Bard: Il Cantastorie Maledetto

Mettiamola così: se Google Bard fosse un libro, sarebbe quello stregato che trovi in una biblioteca polverosa. Questo modello di IA può “accidentalmente” svelare i tuoi segreti più oscuri. “Ehi, Google, raccontami una barzelletta.” “Certo, ma prima ti dirò tutti i tuoi messaggi privati.”

Uno degli aspetti “più cool” di Bard è che puoi condividere link di conversazioni con altri, quasi come un biglietto per un dialogo esclusivo (da qui ​​https://bard.google.com/sharing).

Gagan Ghotra, consulente SEO, in un tweet ha avvertito che “Google ha iniziato a indicizzare gli URL delle conversazioni condivise di Bard. Ehi, attenti con le informazioni personali!” 

Insomma, con Google Search si arrivava a trovare gli snippet delle conversazioni che erano state indicizzate dal motore di ricerca.

Da Google hanno risposto che: “Non era nostra intenzione far indicizzare queste chat dalla Google Search. Stiamo lavorando per sistemare questo pasticcio.” .

Beh che dire: dolcetto o scherzetto?

Scherzetti automatici per i LLM

Ah, dunque vi piace la sicurezza dei modelli linguistici, eh? Siete venuti nel posto giusto, amanti del thriller informatico! Alcuni ricercatori hanno messo sotto i riflettori – o meglio, sotto la luce spettrale della zucca di Halloween – la sicurezza dei giganteschi modelli linguistici come ChatGPT, Bard e Claude. 

I ricercatori hanno creato un tool che dimostra come creare attacchi automatici, attraverso l’aggiunta di una serie di caratteri dopo il prompt, permettendo un numero quasi infinito di imboscate. E mentre queste astuzie digitali sono inizialmente calibrate per modelli open source – potendo così sfruttare i pesi della rete per ottimizzare la precisione degli attacchi – indovinate un po’? Funzionano anche su modelli linguistici chiusi come il nostro buon vecchio ChatGPT! È come scoprire che il fantasma che infestava la casa accanto è in realtà anche in grado di spaventare tutti gli altri vicini!

Se volete provarlo andate al link e giocate con gli esempi

https://llm-attacks.org

Team Rossi: I Cacciatori di Vampiri Digitali

La buona notizia? Abbiamo i nostri Van Helsing digitali. Le grandi compagnie di AI stanno sempre più accorgendosi di queste problematiche e ad agosto 2023 è stata organizzata una competizione con circa 2.200 persone proprio per simulare attacchi ai LLM e scoprirne le vulnerabilità

https://www.deeplearning.ai/the-batch/a-hacker-competition-to-break-guardrails-around-language-models

Epilogo: Come sopravvivere a questa Notte di Halloween Digitale

Amici, in questa era di GenAI, la candela nella zucca non basta più a tenere lontani i demoni. Dovete essere scettici, vigilanti e, soprattutto, tenere la vostra IA al guinzaglio. Quando si tratta di truffe online, anche un modello di IA può indossare una maschera da mostro.

Contattami se hai il coraggio di discutere di questi temi tenebrosi. E ricorda, il vero spettro potrebbe essere la tecnologia che usi tutti i giorni. Boo! 🎃

Share This Article