17 Febbraio 2026
17 Febbraio 2026

Intelligenza artificiale in mano ai cybercriminali: un’arma sempre più sofisticata

| di
Intelligenza artificiale in mano ai cybercriminali: un’arma sempre più sofisticata

L’intelligenza artificiale (IA), una tecnologia che ha trasformato settori come medicina, industria e comunicazione, sta emergendo anche come strumento potente nelle mani dei cybercriminali. Ciò che fino a pochi anni fa sembrava fantascienza — hacker che sfruttano modelli di IA per automatizzare e potenziare attacchi — è oggi una realtà consolidata, con conseguenze critiche per aziende, istituzioni e singoli cittadini. Gli ultimi report di sicurezza e le attività delle principali organizzazioni di cybersecurity evidenziano una tendenza in crescita: l’IA non è più soltanto difesa, ma anche offensiva. 

Una minaccia in espansione

Secondo uno studio recente di Trend Micro™, la criminalità informatica ha ormai adottato strumenti di intelligenza artificiale in modo professionale, non più sperimentale. I cybercriminali migliorano tecniche di frode, malware e deepfake, riducendo i costi e aumentando l’affidabilità degli attacchi. 

Analisi di mercato e osservatori di cybersecurity stimano che circa il 40% degli attacchi informatici del 2025 abbia fatto uso di IA, con numeri in crescita rispetto agli anni precedenti. 

Phishing e social engineering: l’IA fa il trucco perfetto

Una delle aree dove l’IA ha avuto un impatto immediato è l’ingegneria sociale, ovvero la capacità di ingannare le persone manipolando emozioni e fiducia. Gli algoritmi generativi — inclusi i moderni large language model — consentono ai criminali di creare email di phishing estremamente convincenti e personalizzate, adattandosi ai dati pubblicamente disponibili sulle vittime. 

Queste email non mostrano più gli errori grammaticali tipici di truffe rudimentali: possono imitare lo stile di comunicazione di un collega o capire riferimenti personali, rendendo più probabile il clic su link malevoli o l’inserimento di credenziali. 

Deepfake: la truffa “visivamente reale”

Tecnologie basate su IA permettono anche di generare deepfake audio e video estremamente realistici: un messaggio vocale di un amministratore, un video di un dirigente aziendale che chiede informazioni riservate, o perfino un “CEO” che invita a installare software inviato via email. Queste tecniche amplificano le frodi e la manipolazione psicologica, rendendo sempre più difficile distinguere tra reale e artificiale. 

Recenti attacchi hanno utilizzato deepfake avanzati per inserire malware attraverso chiamate video fasulle, portando a compromissioni su vasta scala di sistemi aziendali. 

Malware “intelligenti” e automazione degli attacchi

L’IA non si limita all’inganno: viene impiegata anche per creare e potenziare malware. Strumenti malevoli possono ora autoreplicarsi, adattarsi alle difese e sfuggire ai controlli di sicurezza tradizionali. Alcuni tipi di malware integrano IA per eseguire codice direttamente in memoria, evitando l’identificazione da parte degli antivirus. 

Modelli come quelli usati da Gemini o Claude sono stati osservati — e persino sottratti — da gruppi di hacker per generare codice dannoso o pianificare attacchi con maggiore efficienza. 

Intelligence e malware come servizio

L’IA ha anche democratizzato l’accesso agli strumenti di cybercrime: non è più necessario essere esperti di programmazione per lanciare attacchi. Mercati clandestini offrono crimeware-as-a-service, kit di phishing generati dall’IA, deepfake personalizzati e persino bot autonomi pronti all’uso. 

Questa “industrializzazione” della cybercriminalità rende più semplice per operatori di basso profilo lanciare attacchi efficaci con pochi clic.

Implicazioni per sicurezza e difesa

La diffusione di IA nel cybercrime ha costretto anche le organizzazioni di sicurezza a ricalibrare le proprie difese. Strumenti basati su IA sono ora impiegati anche per rilevare comportamenti anomali, identificare campagne di phishing e analizzare malware in tempo reale. 

Tuttavia, la corsa agli armamenti tra tecnologie offensive e difensive si fa sempre più intensa: mentre le difese adottano IA per contrastare attacchi automatizzati, i criminali affinano i loro modelli per eludere questi sistemi.

Consigliati per te

©Riproduzione riservata