The Sunday Prompt #21 â 29/10/2023
Prologo: Notte di Halloween nel Mondo Digitale
Immaginate una notte di Halloween nellâattuale mondo digitale: fantasmi che infestano la vostra cache, zombie che vagano per i vostri file di sistema e, udite udite, un nuovo mostro, HalloweenGPT, la versione dark di ChatGPT, che sguazza nel lato oscuro della GenAI. Se pensavate che le paure di Halloween si fermassero alle case stregate, preparatevi a entrare nella dimora digitale del vero orrore!
Streghe e Maghi? No, Hacker e Truffatori!

Dimenticate le scope volanti e le pozioni magiche. Gli attuali stregoni della tecnologia sono hacker e truffatori armati fino ai denti con strumenti di IA come FraudGPT. Questa piccola bestiola può può scrivere e-mail persuasive, fornire numeri di carte di credito rubate e fornire numeri di identificazione bancari verificati!
Ma che cosa fa esattamente FraudGPT? Pensate a un kit di partenza per aspiranti cyber-criminali, completo di tutto: guide per iâhacking su misura, mappe di vulnerabilitĂ digitali, può essere utilizzato per creare recensioni, articoli di notizie e altri testi da utilizzare in truffe online o per manipolare lâopinione pubblica. Ha anche il potenziale per creare malware non rilevabili, individuare perdite e vulnerabilitĂ o persino creare testo per campagne di phishing.. Ă come una scatola degli attrezzi per la casa, solo che invece di martelli e chiodi, contiene gli ingredienti per distruggere la vita digitale.
Lâautore pubblicizza FraudGPT su diverse bacheche del Dark Web e canali Telegram almeno dal 22 luglio 2023, come alternativa illimitata a ChatGPT, fingendo di avere migliaia di vendite e feedback comprovati. La fascia di prezzo parte da $ 90 â $ 200 USD per un abbonamento mensile, 3 mesi per $ 230 â $ 450 USD, $ 500 â $ 1.000 USD per un abbonamento semestrale e $ 800 â $ 1.700 USD per un abbonamento annuale.
WormGPT: Il Bambino Prodigio dellâOmbroso Mondo Hacker

Marzo 2021! Il mese che ha regalato al mondo WormGPT, il chatbot che sarebbe poi divenuto la âMary Poppinsâ degli hacker. Solo che invece di un ombrello magico, porta con sĂŠ una valigetta di strumenti per attivitĂ illecite.Â
Nato a marzo e giĂ attivo su forum di hacker a giugno? Parliamo di un chatbot che ha saltato lâinfanzia e si è buttato a capofitto nellâadolescenza ribelle. WormGPT è tipo il ragazzo cattivo che non ha bisogno di seguire le regole. Mentre ChatGPT e altri grandi modelli linguistici si trattengono dal rispondere a domande sul âlato oscuroâ, WormGPT è tipo: âRegole? Dove?â.Â
Il nonno di WormGPT, il glorioso GPT-J, potrebbe essere un modello del 2021 e quindi un poâ âdatatoâ per gli standard attuali, ma ha fornito una base solida.Â
WormGPT è stato addestrato su materiali legati allo sviluppo di malware. Ecco come ha conseguito il suo âMaster in Malwareâ, che non è esattamente il tipo di laurea che metteresti nel profilo LinkedIn.
Lâaccesso a WormGPT costa tra i 60 e i 100 euro al mese, oppure uno âscontoâ per lâabbonamento annuale di 550 euro allâanno.Â
Le Voci DallâAldilà ⌠o Quasi

E poi ci sono le voci clonate che chiamano la tua banca. Una volta câera bisogno di un medium per parlare con i morti; oggi un truffatore con un software di GenAI vocale può convincere una banca che è tuo nonno deceduto che vuole trasferire fondi allâaldilĂ .
In questo articolo:Â
https://www.vice.com/en/article/dy7axa/how-i-broke-into-a-bank-account-with-an-ai-generated-voice
Rachel Tobac, CEO della SocialProof Security, racconta come, usando il servizio gratuito di Elevenlabs (https://elevenlabs.io/) è riuscito ad accedere alle informazioni sul proprio conto. Questa la storia:
Era un MercoledĂŹ come tanti altri quando il buon Rachel ha deciso di dare un colpo di telefono alla sua banca. Ora, vi immaginate il solito saluto robotico che vi chiede di âpronunciare il motivo della vostra chiamataâ, giusto? Ebbene, invece di alzare la voce come un normale essere umano, ha cliccato su un file del suo suo portatile. âControlla il mio saldo,â disse la voce dal computer.Â
Era la sua voce, o meglio, era il clone vocale della sua voce, gentilmente creato da un software IA disponibile al pubblico.
â âVa bene,â ha risposto lâinnocente sistema della banca, per poi proseguireÂ
â âInserisci o pronuncia la tua data di nascita,â Fatto. â
â Ora, per favore, dĂŹ: âLa mia voce è la mia password.'â
Rachel ha premuto di nuovo play sul suo file audio. âLa mia voce è la mia passwordâ. Il sistema ci ha pensato un attimo, e poi ha continuato con âGrazie, sei dentro.â
Google Bard: Il Cantastorie Maledetto

Mettiamola cosĂŹ: se Google Bard fosse un libro, sarebbe quello stregato che trovi in una biblioteca polverosa. Questo modello di IA può âaccidentalmenteâ svelare i tuoi segreti piĂš oscuri. âEhi, Google, raccontami una barzelletta.â âCerto, ma prima ti dirò tutti i tuoi messaggi privati.â
Uno degli aspetti âpiĂš coolâ di Bard è che puoi condividere link di conversazioni con altri, quasi come un biglietto per un dialogo esclusivo (da qui ââhttps://bard.google.com/sharing).
Gagan Ghotra, consulente SEO, in un tweet ha avvertito che âGoogle ha iniziato a indicizzare gli URL delle conversazioni condivise di Bard. Ehi, attenti con le informazioni personali!âÂ
Insomma, con Google Search si arrivava a trovare gli snippet delle conversazioni che erano state indicizzate dal motore di ricerca.
Da Google hanno risposto che: âNon era nostra intenzione far indicizzare queste chat dalla Google Search. Stiamo lavorando per sistemare questo pasticcio.â .
Beh che dire: dolcetto o scherzetto?
Scherzetti automatici per i LLM

Ah, dunque vi piace la sicurezza dei modelli linguistici, eh? Siete venuti nel posto giusto, amanti del thriller informatico! Alcuni ricercatori hanno messo sotto i riflettori â o meglio, sotto la luce spettrale della zucca di Halloween â la sicurezza dei giganteschi modelli linguistici come ChatGPT, Bard e Claude.Â
I ricercatori hanno creato un tool che dimostra come creare attacchi automatici, attraverso lâaggiunta di una serie di caratteri dopo il prompt, permettendo un numero quasi infinito di imboscate. E mentre queste astuzie digitali sono inizialmente calibrate per modelli open source â potendo cosĂŹ sfruttare i pesi della rete per ottimizzare la precisione degli attacchi â indovinate un poâ? Funzionano anche su modelli linguistici chiusi come il nostro buon vecchio ChatGPT! Ă come scoprire che il fantasma che infestava la casa accanto è in realtĂ anche in grado di spaventare tutti gli altri vicini!
Se volete provarlo andate al link e giocate con gli esempi
Team Rossi: I Cacciatori di Vampiri Digitali

La buona notizia? Abbiamo i nostri Van Helsing digitali. Le grandi compagnie di AI stanno sempre piĂš accorgendosi di queste problematiche e ad agosto 2023 è stata organizzata una competizione con circa 2.200 persone proprio per simulare attacchi ai LLM e scoprirne le vulnerabilitĂ
Epilogo: Come sopravvivere a questa Notte di Halloween Digitale
Amici, in questa era di GenAI, la candela nella zucca non basta piÚ a tenere lontani i demoni. Dovete essere scettici, vigilanti e, soprattutto, tenere la vostra IA al guinzaglio. Quando si tratta di truffe online, anche un modello di IA può indossare una maschera da mostro.
Contattami se hai il coraggio di discutere di questi temi tenebrosi. E ricorda, il vero spettro potrebbe essere la tecnologia che usi tutti i giorni. Boo! đ