Published
4 mesi agoon
 
																								
												
												
											Un nuovo allarme arriva dalla sicurezza informatica: ignoti criminali informatici stanno sfruttando v0, uno strumento di intelligenza artificiale generativa sviluppato da Vercel, per creare pagine di accesso false estremamente realistiche che imitano siti legittimi. Questo fenomeno segna un’evoluzione significativa nell’uso illecito delle tecnologie AI da parte degli hacker.
v0 è una piattaforma AI-powered che consente agli utenti di generare landing page e applicazioni full-stack semplicemente usando comandi in linguaggio naturale. Grazie alla sua semplicità d’uso, anche chi non ha competenze di programmazione può costruire rapidamente pagine web.
Secondo i ricercatori di Okta Threat Intelligence, gli attori malevoli utilizzano v0 per generare pagine di login false, replicando fedelmente quelle di grandi marchi, inclusi clienti della stessa Okta. Queste pagine di phishing sono ospitate direttamente sull’infrastruttura di Vercel, spesso includendo anche loghi e risorse ufficiali delle aziende imitate, aumentando così la credibilità e la capacità di ingannare le vittime.
Diverse di queste pagine sono state prontamente bloccate da Vercel dopo una segnalazione responsabile da parte degli esperti.
A differenza dei tradizionali kit di phishing, che richiedono conoscenze tecniche e tempi di configurazione, strumenti come v0 permettono di generare siti di phishing funzionanti con semplici comandi testuali. Questo abbassa notevolmente la barriera tecnica per i criminali, facilitando operazioni su larga scala anche da parte di soggetti poco esperti.
Come sottolineano i ricercatori, questo tipo di strumento aumenta drasticamente la velocità e la qualità dei siti di phishing prodotti, ampliando la portata e la frequenza degli attacchi.
L’uso di v0 si inserisce in una tendenza più ampia: i criminali informatici stanno sfruttando sempre più modelli di linguaggio di grandi dimensioni (LLM), spesso versioni “uncensored” e senza limitazioni, progettate appositamente per attività illecite. Modelli come WhiteRabbitNeo si presentano come AI “libere” da vincoli etici o di sicurezza, fornendo agli hacker strumenti potenti per creare contenuti dannosi o illegali.
Come evidenziato da esperti di Cisco Talos, questi LLM non allineati generano output sensibili, controversi o pericolosi senza alcun filtro, risultando ideali per usi criminali.
Oggi, il phishing non si limita più alle semplici email ingannevoli: l’intelligenza artificiale alimenta campagne di ingegneria sociale molto più sofisticate, includendo email fake, cloni vocali e video deepfake. Queste tecnologie permettono agli attaccanti di automatizzare e amplificare enormemente i loro attacchi, trasformando piccole frodi in operazioni su vasta scala.
La capacità di costruire interi sistemi di inganno sempre più realistici rappresenta una nuova sfida per la sicurezza digitale globale.
Avviso di criticità meteo in Campania prorogato fino a sabato

 
											 
											 
											

