L’intelligenza artificiale (IA), una tecnologia che ha trasformato settori come medicina, industria e comunicazione, sta emergendo anche come strumento potente nelle mani dei cybercriminali. Ciò che fino a pochi anni fa sembrava fantascienza — hacker che sfruttano modelli di IA per automatizzare e potenziare attacchi — è oggi una realtà consolidata, con conseguenze critiche per aziende, istituzioni e singoli cittadini. Gli ultimi report di sicurezza e le attività delle principali organizzazioni di cybersecurity evidenziano una tendenza in crescita: l’IA non è più soltanto difesa, ma anche offensiva.
Una minaccia in espansione
Secondo uno studio recente di Trend Micro™, la criminalità informatica ha ormai adottato strumenti di intelligenza artificiale in modo professionale, non più sperimentale. I cybercriminali migliorano tecniche di frode, malware e deepfake, riducendo i costi e aumentando l’affidabilità degli attacchi.
Analisi di mercato e osservatori di cybersecurity stimano che circa il 40% degli attacchi informatici del 2025 abbia fatto uso di IA, con numeri in crescita rispetto agli anni precedenti.
Phishing e social engineering: l’IA fa il trucco perfetto
Una delle aree dove l’IA ha avuto un impatto immediato è l’ingegneria sociale, ovvero la capacità di ingannare le persone manipolando emozioni e fiducia. Gli algoritmi generativi — inclusi i moderni large language model — consentono ai criminali di creare email di phishing estremamente convincenti e personalizzate, adattandosi ai dati pubblicamente disponibili sulle vittime.
Queste email non mostrano più gli errori grammaticali tipici di truffe rudimentali: possono imitare lo stile di comunicazione di un collega o capire riferimenti personali, rendendo più probabile il clic su link malevoli o l’inserimento di credenziali.
Deepfake: la truffa “visivamente reale”
Tecnologie basate su IA permettono anche di generare deepfake audio e video estremamente realistici: un messaggio vocale di un amministratore, un video di un dirigente aziendale che chiede informazioni riservate, o perfino un “CEO” che invita a installare software inviato via email. Queste tecniche amplificano le frodi e la manipolazione psicologica, rendendo sempre più difficile distinguere tra reale e artificiale.
Recenti attacchi hanno utilizzato deepfake avanzati per inserire malware attraverso chiamate video fasulle, portando a compromissioni su vasta scala di sistemi aziendali.
Malware “intelligenti” e automazione degli attacchi
L’IA non si limita all’inganno: viene impiegata anche per creare e potenziare malware. Strumenti malevoli possono ora autoreplicarsi, adattarsi alle difese e sfuggire ai controlli di sicurezza tradizionali. Alcuni tipi di malware integrano IA per eseguire codice direttamente in memoria, evitando l’identificazione da parte degli antivirus.
Modelli come quelli usati da Gemini o Claude sono stati osservati — e persino sottratti — da gruppi di hacker per generare codice dannoso o pianificare attacchi con maggiore efficienza.
Intelligence e malware come servizio
L’IA ha anche democratizzato l’accesso agli strumenti di cybercrime: non è più necessario essere esperti di programmazione per lanciare attacchi. Mercati clandestini offrono crimeware-as-a-service, kit di phishing generati dall’IA, deepfake personalizzati e persino bot autonomi pronti all’uso.
Questa “industrializzazione” della cybercriminalità rende più semplice per operatori di basso profilo lanciare attacchi efficaci con pochi clic.
Implicazioni per sicurezza e difesa
La diffusione di IA nel cybercrime ha costretto anche le organizzazioni di sicurezza a ricalibrare le proprie difese. Strumenti basati su IA sono ora impiegati anche per rilevare comportamenti anomali, identificare campagne di phishing e analizzare malware in tempo reale.
Tuttavia, la corsa agli armamenti tra tecnologie offensive e difensive si fa sempre più intensa: mentre le difese adottano IA per contrastare attacchi automatizzati, i criminali affinano i loro modelli per eludere questi sistemi.




