
<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Cybersecurity | Giornale del Cilento</title>
	<atom:link href="https://www.giornaledelcilento.it/category/ai-hi-tech/cybersecurity/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.giornaledelcilento.it</link>
	<description>Notizie dal Cilento. News, Cronaca, Turismo e Territorio</description>
	<lastBuildDate>Thu, 09 Apr 2026 14:39:28 +0000</lastBuildDate>
	<language>it-IT</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>
	<item>
		<title>Cybersecurity con l’AI: l’intelligenza artificiale come arma di difesa e di attacco</title>
		<link>https://www.giornaledelcilento.it/cybersecurity-con-lai-lintelligenza-artificiale-come-arma-di-difesa-e-di-attacco/</link>
		
		<dc:creator><![CDATA[Marianna Vallone]]></dc:creator>
		<pubDate>Thu, 09 Apr 2026 14:39:26 +0000</pubDate>
				<category><![CDATA[AI & Hi-Tech]]></category>
		<category><![CDATA[Cybersecurity]]></category>
		<category><![CDATA[Intelligenza Artificiale]]></category>
		<category><![CDATA[attacchi informatici]]></category>
		<category><![CDATA[deepfake]]></category>
		<category><![CDATA[difesa digitale]]></category>
		<category><![CDATA[intelligenza artificiale]]></category>
		<category><![CDATA[Tags: cybersecurity]]></category>
		<guid isPermaLink="false">https://www.giornaledelcilento.it/?p=242109</guid>

					<description><![CDATA[L’intelligenza artificiale sta ridisegnando il panorama della cybersecurity in un’epoca in cui la difesa digitale e gli attacchi informatici sono sempre più sofisticati, veloci e automatizzati. Tecnologia chiave per analizzare [...]]]></description>
										<content:encoded><![CDATA[
<p>L’intelligenza artificiale sta ridisegnando il panorama della <strong>cybersecurity</strong> in un’epoca in cui la difesa digitale e gli attacchi informatici sono sempre più sofisticati, veloci e automatizzati. Tecnologia chiave per analizzare comportamenti, rilevare anomalie e rispondere a minacce in tempo reale, l’AI è diventata al tempo stesso uno strumento cruciale per proteggere reti e dati e un’arma potente nelle mani dei cybercriminali. </p>



<p>Nel mondo della difesa informatica, sistemi basati sull’intelligenza artificiale e sul machine learning vengono impiegati per <strong>rilevare attacchi, analizzare grandi volumi di traffico dati e identificare modelli sospetti non immediatamente evidenti agli strumenti tradizionali</strong>. Algoritmi di anomaly detection e fraud detection possono intercettare comportamenti anomali su server, dispositivi connessi e reti, fornendo alert in tempo reale e consentendo interventi tempestivi prima che gli attacchi causino danni significativi. </p>



<p>Per le imprese e le organizzazioni, l’AI rappresenta un vantaggio competitivo in un contesto in cui gli attacchi informatici sono sempre più frequenti: secondo analisi del settore, solo nell’area Emea ogni settimana si registrano migliaia di tentativi mediati da tecnologie nuove, con un impatto significativo sui sistemi di sicurezza tradizionali. </p>



<p>Ma la stessa tecnologia che protegge può essere trasformata in <strong>strumento di attacco</strong>. Cybercriminali utilizzano modelli generativi per creare <strong>phishing e social engineering più realistici e personalizzati</strong>, generare messaggi e-mail e messaggi vocali convincenti o manipolare immagini e video tramite <em>deepfake</em>, rendendo sempre più difficile distinguere comunicazioni fraudolente da quelle legittime. </p>



<p>Queste tecniche non sono più soltanto ipotesi teoriche: alcuni centri di sicurezza internazionali segnalano un aumento delle campagne fraudolente basate su contenuti sintetici e su strumenti di AI che scalano gli attacchi su larga scala e con velocità prima impensabili. </p>



<p>Inoltre, la ricerca evidenzia che malware e strumenti malevoli possono essere <strong>potenziati tramite AI per adattarsi all’ambiente in cui operano</strong>, ingannando contromisure tradizionali e diventando più difficili da rilevare. Questo fenomeno allarga il campo delle minacce, rendendo più complesso il lavoro dei team di sicurezza.</p>



<p>Per rispondere a queste sfide, esperti di cybersecurity sottolineano l’importanza di un approccio multilivello, che non si limiti alla semplice adozione di soluzioni automatizzate ma integri l’AI con <strong>strategie di protezione avanzate</strong>, educazione degli utenti e monitoraggio continuo. Sistemi di intelligenza artificiale impiegati per la difesa devono essere costantemente aggiornati per fronteggiare le evoluzioni delle minacce, così come occorre investire in tecnologie di <strong>deepfake detection e autenticazione avanzata</strong>. </p>



<p>La corsa tecnologica tra difensori e offensori nel cyberspazio – spesso descritta come un “braccio di ferro” continuo – mostra che l’AI non è una panacea, ma uno strumento che richiede governance, competenze e controllo per essere efficacemente impiegato. L’intelligenza artificiale rimane così una risorsa strategica per la sicurezza digitale, ma anche una sfida in continua evoluzione per imprese, istituzioni e cittadini.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Blockchain oltre le criptovalute: come sta cambiando supply chain, sicurezza e contratti digitali</title>
		<link>https://www.giornaledelcilento.it/blockchain-oltre-le-criptovalute-come-sta-cambiando-supply-chain-sicurezza-e-contratti-digitali/</link>
		
		<dc:creator><![CDATA[Redazione]]></dc:creator>
		<pubDate>Wed, 08 Apr 2026 15:09:56 +0000</pubDate>
				<category><![CDATA[AI & Hi-Tech]]></category>
		<category><![CDATA[Cybersecurity]]></category>
		<category><![CDATA[Digital Economy]]></category>
		<category><![CDATA[Senza categoria]]></category>
		<category><![CDATA[blockchain]]></category>
		<category><![CDATA[blockchain_distribuito]]></category>
		<category><![CDATA[blockchain_immutabile]]></category>
		<category><![CDATA[blockchain_registry]]></category>
		<category><![CDATA[Criptovalute]]></category>
		<guid isPermaLink="false">https://www.giornaledelcilento.it/?p=241965</guid>

					<description><![CDATA[Quando si parla di Blockchain, il pensiero va spesso alle criptovalute. In realtà, questa tecnologia sta trovando applicazioni sempre più ampie in diversi settori, dalla logistica alla sicurezza informatica, fino [...]]]></description>
										<content:encoded><![CDATA[
<p>Quando si parla di Blockchain, il pensiero va spesso alle criptovalute. In realtà, questa tecnologia sta trovando applicazioni sempre più ampie in diversi settori, dalla logistica alla sicurezza informatica, fino alla gestione dei contratti digitali.</p>



<p>La blockchain è, in sostanza, un registro digitale distribuito e immutabile, condiviso tra più soggetti. Ogni informazione inserita viene validata e resa difficilmente modificabile, garantendo trasparenza e tracciabilità. Proprio queste caratteristiche la rendono particolarmente utile in contesti complessi dove è necessario certificare dati e passaggi.</p>



<p>Uno degli ambiti più rilevanti è quello della supply chain. Le aziende utilizzano la blockchain per tracciare ogni fase della produzione e distribuzione di un prodotto, dalla materia prima fino al consumatore finale. Questo consente di verificare l’origine delle merci, contrastare contraffazioni e migliorare la fiducia lungo tutta la filiera. Nel settore agroalimentare, ad esempio, è possibile monitorare il percorso di un alimento e certificare la qualità e la provenienza.</p>



<p>Un altro campo in forte crescita è quello della sicurezza informatica. Grazie alla sua struttura decentralizzata, la blockchain riduce il rischio di attacchi hacker basati sulla manipolazione dei dati centralizzati. Le informazioni, infatti, non sono conservate in un unico punto vulnerabile, ma distribuite su una rete, rendendo più complessa qualsiasi alterazione fraudolenta.</p>



<p>Sempre più diffuso è anche l’utilizzo degli Smart contract, programmi informatici che eseguono automaticamente clausole contrattuali al verificarsi di determinate condizioni. Questo strumento permette di ridurre tempi, costi e intermediari, trovando applicazione in ambiti come assicurazioni, logistica e compravendite digitali.</p>



<p>Nonostante le potenzialità, restano alcune criticità. Tra queste, i limiti di scalabilità, i consumi energetici di alcune reti e le incertezze normative, che variano da Paese a Paese. Inoltre, l’adozione su larga scala richiede investimenti e competenze specifiche, non sempre disponibili in tutte le organizzazioni.</p>



<p>Il quadro, tuttavia, è in evoluzione. Sempre più aziende e istituzioni stanno sperimentando soluzioni basate su blockchain, con l’obiettivo di rendere i processi più efficienti, sicuri e trasparenti.</p>



<p>Al di là delle criptovalute, dunque, la blockchain si conferma come una tecnologia destinata a incidere profondamente sull’economia digitale, aprendo nuove prospettive per il futuro dei sistemi produttivi e delle relazioni contrattuali.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>5G e oltre: come le nuove reti stanno cambiando il mondo della connessione</title>
		<link>https://www.giornaledelcilento.it/5g-e-oltre-come-le-nuove-reti-stanno-cambiando-il-mondo-della-connessione/</link>
		
		<dc:creator><![CDATA[Redazione]]></dc:creator>
		<pubDate>Tue, 07 Apr 2026 15:11:38 +0000</pubDate>
				<category><![CDATA[AI & Hi-Tech]]></category>
		<category><![CDATA[Cybersecurity]]></category>
		<category><![CDATA[Intelligenza Artificiale]]></category>
		<category><![CDATA[Smart Life]]></category>
		<category><![CDATA[5g]]></category>
		<category><![CDATA[rete 5g]]></category>
		<category><![CDATA[reti internet]]></category>
		<guid isPermaLink="false">https://www.giornaledelcilento.it/?p=241801</guid>

					<description><![CDATA[L’evoluzione delle reti mobili sta entrando in una nuova fase. Dopo l’arrivo del 5G, già attivo in molti Paesi e in espansione in Italia e in Europa, il settore delle [...]]]></description>
										<content:encoded><![CDATA[
<p>L’evoluzione delle reti mobili sta entrando in una nuova fase. Dopo l’arrivo del 5G, già attivo in molti Paesi e in espansione in Italia e in Europa, il settore delle telecomunicazioni guarda ora alle tecnologie “oltre il 5G”, con l’obiettivo di garantire connessioni più veloci, stabili e intelligenti.</p>



<h3 class="wp-block-heading">Cos’è davvero il 5G</h3>



<p>Il 5G rappresenta la quinta generazione delle reti mobili e si distingue per tre caratteristiche principali: maggiore velocità, latenza ridotta e capacità di collegare un numero molto più alto di dispositivi rispetto alle generazioni precedenti.</p>



<p>In condizioni ideali, il 5G può raggiungere velocità teoriche fino a diversi gigabit al secondo e una latenza estremamente bassa, rendendo possibili applicazioni in tempo reale fino a pochi anni fa impensabili.</p>



<h3 class="wp-block-heading">Dallo streaming alle auto connesse</h3>



<p>Uno dei cambiamenti più evidenti riguarda l’esperienza quotidiana degli utenti. Il 5G migliora lo streaming video in alta definizione, il gaming online e le videochiamate, riducendo ritardi e interruzioni.</p>



<p>Ma il vero impatto si vede in settori più avanzati:</p>



<ul class="wp-block-list">
<li>automotive: sviluppo di veicoli connessi e sistemi di guida assistita</li>



<li>sanità: telemedicina e interventi a distanza</li>



<li>industria: fabbriche automatizzate e robotica avanzata</li>



<li>smart city: gestione intelligente del traffico e dei servizi urbani</li>
</ul>



<h3 class="wp-block-heading">Il ruolo dell’Internet of Things</h3>



<p>Il 5G è fondamentale anche per l’espansione dell’Internet of Things (IoT), ovvero la rete di dispositivi connessi tra loro. Sensori, elettrodomestici, sistemi di sicurezza e infrastrutture urbane possono comunicare in tempo reale, creando ecosistemi digitali sempre più complessi ed efficienti.</p>



<h3 class="wp-block-heading">I limiti ancora presenti</h3>



<p>Nonostante le promesse, la diffusione del 5G non è ancora uniforme. In molte aree la copertura è limitata e le prestazioni reali possono variare sensibilmente rispetto ai valori teorici.</p>



<p>Tra le principali criticità si segnalano:</p>



<ul class="wp-block-list">
<li>costi elevati di infrastruttura</li>



<li>copertura non omogenea</li>



<li>necessità di dispositivi compatibili</li>



<li>consumo energetico delle reti</li>
</ul>



<h3 class="wp-block-heading">Oltre il 5G: verso il 6G</h3>



<p>La ricerca è già proiettata verso le reti di sesta generazione, il cosiddetto 6G. Anche se ancora in fase sperimentale, il 6G promette velocità ancora più elevate, comunicazioni quasi istantanee e un’integrazione profonda con intelligenza artificiale e sistemi autonomi.</p>



<p>Le prime applicazioni commerciali non sono attese prima della prossima decade, ma i test sono già in corso in diversi centri di ricerca internazionali.</p>



<h3 class="wp-block-heading">Un’infrastruttura per l’intelligenza artificiale</h3>



<p>Uno degli aspetti più importanti delle nuove reti è il loro ruolo nel supporto all’intelligenza artificiale. Il traffico dati generato da modelli sempre più complessi richiede reti veloci, stabili e capaci di gestire enormi volumi di informazioni in tempo reale.</p>



<p>Il 5G e le future reti saranno quindi la base tecnologica per sistemi di AI diffusa, automazione avanzata e servizi digitali sempre più personalizzati.</p>



<h3 class="wp-block-heading">Impatto economico e sociale</h3>



<p>Secondo le stime degli analisti, lo sviluppo delle reti di nuova generazione avrà un impatto significativo sull’economia globale, con la creazione di nuovi mercati e la trasformazione di settori tradizionali.</p>



<p>Allo stesso tempo, si apre il tema del divario digitale: la disponibilità disomogenea delle infrastrutture rischia di ampliare le differenze tra aree urbane e rurali.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Deepfake e violenza digitale: la Germania sotto pressione per nuove leggi contro l’abuso AI</title>
		<link>https://www.giornaledelcilento.it/deepfake-e-violenza-digitale-la-germania-sotto-pressione-per-nuove-leggi-contro-labuso-ai/</link>
		
		<dc:creator><![CDATA[Redazione]]></dc:creator>
		<pubDate>Mon, 30 Mar 2026 15:53:54 +0000</pubDate>
				<category><![CDATA[AI & Hi-Tech]]></category>
		<category><![CDATA[Cybersecurity]]></category>
		<category><![CDATA[Leggi & Giustizia]]></category>
		<category><![CDATA[Sentenze e Giurisprudenza]]></category>
		<category><![CDATA[ai]]></category>
		<category><![CDATA[deepfake]]></category>
		<category><![CDATA[germania]]></category>
		<category><![CDATA[normativa]]></category>
		<category><![CDATA[violenza digitale]]></category>
		<guid isPermaLink="false">https://www.giornaledelcilento.it/?p=241028</guid>

					<description><![CDATA[Una vicenda di profilo internazionale legata alla diffusione di contenuti sessuali generati artificialmente ha scosso la Germania, portando alla ribalta il tema della violenza digitale e dei rischi legati ai [...]]]></description>
										<content:encoded><![CDATA[
<p>Una vicenda di profilo internazionale legata alla diffusione di contenuti sessuali generati artificialmente ha scosso la Germania, portando alla ribalta il tema della <strong>violenza digitale e dei rischi legati ai deepfake prodotti con intelligenza artificiale</strong>. Il caso, che ha coinvolto una nota attrice e conduttrice televisiva, ha innescato proteste di massa e spinto il governo a preparare nuove normative contro l’abuso digitale.</p>



<p>Secondo le denunce pubbliche, la showgirl tedesca ha accusato il suo ex marito di aver creato e diffuso online immagini e video pornografici falsificati con tecniche di deepfake – video manipolati tramite AI in cui il volto della vittima è inserito in contesti sessuali senza il suo consenso. La vicenda ha sollevato immediate reazioni sia dell’opinione pubblica sia delle istituzioni.</p>



<p>Le proteste, con oltre 10.000 persone radunate a Berlino per chiedere la fine della violenza digitale e maggiori tutele per le vittime, hanno evidenziato un malessere crescente rispetto alla rapidità con cui strumenti AI avanzati possono essere usati per ledere la dignità e la privacy delle persone.</p>



<p>Attualmente la legislazione tedesca punisce la <strong>distribuzione</strong> di materiale profanato o non consensuale, ma non vieta esplicitamente la <strong>produzione</strong> di deepfake pornografici. In risposta alla pressione sociale, il ministro della Giustizia ha annunciato la preparazione di un disegno di legge specifico per criminalizzare la creazione di tali contenuti e aumentare le responsabilità delle piattaforme digitali che li ospitano.</p>



<p>La diffusione di deepfake pornografici è in crescita a livello globale e si stima che la stragrande maggioranza dei contenuti deepfake online coinvolga materiale sessuale non consensuale, con le donne che risultano essere le principali vittime di questo fenomeno.</p>



<p>In parallelo alla mobilitazione in Germania, anche a livello europeo si stanno affermando iniziative normative: un accordo politico sugli emendamenti all’<strong>AI Act</strong> dell’Unione Europea include il divieto esplicito di immagini intime AI‑generate non consensuali, un passo significativo per colmare lacune legislative nell’era digitale.</p>



<p>Il caso e la reazione legislativa sottolineano la crescente sfida posta dall’intelligenza artificiale in materia di diritti digitali, protezione della persona e responsabilità delle piattaforme online, evidenziando la necessità di quadri normativi più chiari e strumenti di contrasto efficaci in tutta Europa.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Regolare l’Intelligenza Artificiale per combattere i crimini tecnologici</title>
		<link>https://www.giornaledelcilento.it/regolare-lintelligenza-artificiale-per-combattere-i-crimini-tecnologici/</link>
		
		<dc:creator><![CDATA[Redazione]]></dc:creator>
		<pubDate>Thu, 26 Mar 2026 13:24:22 +0000</pubDate>
				<category><![CDATA[AI & Hi-Tech]]></category>
		<category><![CDATA[Cybersecurity]]></category>
		<category><![CDATA[Senza categoria]]></category>
		<category><![CDATA[ai]]></category>
		<category><![CDATA[crimini informatici]]></category>
		<category><![CDATA[cyber security]]></category>
		<category><![CDATA[unione europea]]></category>
		<guid isPermaLink="false">https://www.giornaledelcilento.it/?p=240515</guid>

					<description><![CDATA[L’evoluzione dell’intelligenza artificiale sta trasformando profondamente il panorama della sicurezza digitale, aprendo nuove opportunità ma anche scenari di rischio sempre più complessi. La crescente diffusione di sistemi basati su AI, [...]]]></description>
										<content:encoded><![CDATA[
<p>L’evoluzione dell’intelligenza artificiale sta trasformando profondamente il panorama della sicurezza digitale, aprendo nuove opportunità ma anche scenari di rischio sempre più complessi. La crescente diffusione di sistemi basati su AI, infatti, è accompagnata da un aumento dei cosiddetti crimini tecnologici, che spaziano dalle frodi automatizzate agli attacchi informatici su larga scala.</p>



<p>Secondo esperti del settore, l’uso dell’AI da parte di attori malevoli consente di rendere gli attacchi più sofisticati, difficili da individuare e capaci di adattarsi in tempo reale. Tra le minacce emergenti figurano phishing avanzati generati automaticamente, deepfake utilizzati per manipolare informazioni e identità, e malware in grado di evolversi autonomamente.</p>



<p>In questo contesto, le istituzioni stanno accelerando sul fronte normativo. L’Unione Europea ha introdotto l’AI Act, considerato uno dei primi tentativi organici al mondo di regolamentare l’intelligenza artificiale. Il provvedimento stabilisce una classificazione dei sistemi AI in base al rischio, imponendo obblighi più stringenti per quelli considerati ad alto impatto, inclusi ambiti come la sicurezza e la sorveglianza.</p>



<p>Parallelamente, resta centrale il ruolo del Regolamento generale sulla protezione dei dati (GDPR), che continua a rappresentare un pilastro nella tutela dei dati personali anche nell’era dell’intelligenza artificiale. Tuttavia, secondo analisti, il GDPR da solo non è sufficiente a fronteggiare le nuove minacce generate da sistemi autonomi e predittivi.</p>



<p>“La sfida non è solo tecnologica, ma anche normativa e culturale”, sottolineano diversi osservatori. Le normative devono infatti riuscire a bilanciare innovazione e sicurezza, evitando di frenare lo sviluppo ma garantendo al tempo stesso protezioni efficaci contro gli abusi.</p>



<p>Un altro nodo riguarda la cooperazione internazionale. I crimini informatici non conoscono confini e spesso coinvolgono reti distribuite su scala globale. Organismi come l’Interpol e l’Europol stanno rafforzando le attività di coordinamento per contrastare il cybercrime, anche attraverso l’uso di strumenti basati sull’intelligenza artificiale.</p>



<p>Nel frattempo, il settore privato gioca un ruolo chiave. Le aziende tecnologiche sono chiamate a sviluppare sistemi più trasparenti e sicuri, adottando principi di “AI responsabile” e investendo in soluzioni di difesa avanzate.</p>



<p>Il futuro della sicurezza digitale dipenderà quindi dalla capacità di integrare innovazione, regolamentazione e cooperazione globale. In un contesto in cui l’intelligenza artificiale è destinata a diventare sempre più pervasiva, la definizione di regole chiare ed efficaci appare oggi una priorità non più rinviabile.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Sicurezza domestica, cresce l’uso di tecnologie smart: dalle telecamere agli allarmi integrati</title>
		<link>https://www.giornaledelcilento.it/sicurezza-domestica-cresce-luso-di-tecnologie-smart-dalle-telecamere-agli-allarmi-integrati/</link>
		
		<dc:creator><![CDATA[Redazione]]></dc:creator>
		<pubDate>Sat, 21 Mar 2026 13:34:39 +0000</pubDate>
				<category><![CDATA[AI & Hi-Tech]]></category>
		<category><![CDATA[Cybersecurity]]></category>
		<category><![CDATA[Smart Life]]></category>
		<category><![CDATA[sicurezza in casa]]></category>
		<category><![CDATA[telecamere in casa]]></category>
		<category><![CDATA[videocitofoni smart]]></category>
		<guid isPermaLink="false">https://www.giornaledelcilento.it/?p=239833</guid>

					<description><![CDATA[Sempre più famiglie italiane investono in sistemi di sicurezza domestica, spinti dalla diffusione delle tecnologie smart e da una maggiore attenzione alla prevenzione. Dalle telecamere interne ed esterne ai sensori [...]]]></description>
										<content:encoded><![CDATA[
<p>Sempre più famiglie italiane investono in sistemi di sicurezza domestica, spinti dalla diffusione delle tecnologie smart e da una maggiore attenzione alla prevenzione. Dalle telecamere interne ed esterne ai sensori per porte e finestre, il mercato offre oggi soluzioni accessibili e integrate, controllabili anche da smartphone.</p>



<p>Tra i dispositivi più diffusi ci sono le telecamere di videosorveglianza, utilizzate sia all’interno delle abitazioni sia nei giardini o nelle aree condominiali. I modelli più recenti permettono la visione in tempo reale, la registrazione su cloud e l’invio di notifiche in caso di movimenti sospetti. Molti sistemi integrano anche visione notturna e riconoscimento intelligente delle persone.</p>



<p>Accanto alle telecamere, restano centrali i sistemi di allarme, composti da centraline e sensori installati su porte e finestre. Questi dispositivi rilevano tentativi di intrusione e attivano sirene o notifiche immediate ai proprietari e, in alcuni casi, alle centrali operative di vigilanza privata. Sempre più diffusi anche i sensori di movimento da interno, in grado di coprire interi ambienti.</p>



<p>Un ruolo importante è svolto anche dai videocitofoni smart, che consentono di vedere e parlare con chi suona alla porta anche a distanza, e dalle serrature elettroniche, apribili tramite app o codici temporanei. Queste soluzioni vengono spesso adottate anche per la gestione di affitti brevi.</p>



<p>Tra gli strumenti di sicurezza domestica rientrano inoltre i rilevatori di fumo, gas e monossido di carbonio, fondamentali per la prevenzione degli incidenti domestici. Alcuni modelli sono collegati alla rete e inviano segnalazioni in tempo reale, contribuendo a ridurre i rischi.</p>



<p>Secondo gli operatori del settore, la tendenza è verso sistemi integrati che uniscono sicurezza, domotica e risparmio energetico. Le piattaforme più avanzate permettono di controllare luci, tapparelle e dispositivi elettronici, simulando la presenza in casa anche quando gli occupanti sono assenti.</p>



<p>Resta fondamentale, sottolineano gli esperti, un uso corretto delle tecnologie nel rispetto della normativa sulla privacy, soprattutto per quanto riguarda le riprese video in spazi condivisi o aperti al pubblico.</p>



<p>La sicurezza domestica, dunque, evolve verso soluzioni sempre più intelligenti e connesse, con l’obiettivo di garantire protezione, controllo e maggiore tranquillità nella vita quotidiana.</p>



<p>Fonte foto: <a href="https://casaoggidomani.it/approfondimenti/videocitofoni-smart-vantaggi/">https://casaoggidomani.it/approfondimenti/videocitofoni-smart-vantaggi/</a></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Gaming e rischi online: 7 minori su 10 sono esposti a situazioni di rischio, l’indagine di Associazione Meter</title>
		<link>https://www.giornaledelcilento.it/gaming-e-rischi-online-7-minori-su-10-sono-esposti-a-situazioni-di-rischio-lindagine-di-associazione-meter/</link>
		
		<dc:creator><![CDATA[Redazione]]></dc:creator>
		<pubDate>Wed, 04 Mar 2026 10:52:42 +0000</pubDate>
				<category><![CDATA[AI & Hi-Tech]]></category>
		<category><![CDATA[Attualità]]></category>
		<category><![CDATA[Cybersecurity]]></category>
		<category><![CDATA[associazione meter]]></category>
		<category><![CDATA[cyberbullismo]]></category>
		<category><![CDATA[gaming]]></category>
		<category><![CDATA[rischi online minori]]></category>
		<guid isPermaLink="false">https://www.giornaledelcilento.it/?p=237159</guid>

					<description><![CDATA[Una ricerca contenuta nel recente Report “Bambini Vittime” dell’Associazione Meter accende i riflettori sull’utilizzo della piattaforma di gioco Roblox da parte di bambini tra i 9 e gli 11 anni, evidenziando criticità [...]]]></description>
										<content:encoded><![CDATA[
<p>Una ricerca contenuta nel recente Report “Bambini Vittime” dell’Associazione Meter accende i riflettori sull’utilizzo della piattaforma di gioco <strong>Roblox</strong> da parte di bambini tra i 9 e gli 11 anni, evidenziando criticità significative.</p>



<p>Il&nbsp;<strong>70%</strong>&nbsp;dei minori coinvolti dichiara di essere stato esposto ad almeno una situazione di rischio durante l’esperienza di gioco online.</p>



<p>Tra i dati più allarmanti emerge che il 45% di quel 70%, vale a dire&nbsp;<strong>3 minori su 10</strong>, riferisce di aver ricevuto tentativi di&nbsp;<strong>adescamento</strong>&nbsp;da parte di sconosciuti tramite chat private o profili virtuali. Un dato che colpisce ancora di più se si considera che solo il&nbsp;<strong>10%</strong>&nbsp;degli intervistati dimostra una piena&nbsp;<strong>consapevolezza</strong>&nbsp;del fenomeno e della sua gravità.</p>



<p>Il&nbsp;<strong>50%</strong>&nbsp;dei minori afferma di aver&nbsp;<strong>bloccato</strong>&nbsp;utenti sconosciuti che richiedevano informazioni personali, spesso per timore di furti di identità o accessi non autorizzati ai propri account. Tuttavia, nella maggior parte dei casi, questi episodi non vengono segnalati agli adulti di riferimento, creando una zona d’ombra nella gestione del rischio.</p>



<p>Il fenomeno del&nbsp;<strong>cyberbullismo</strong>&nbsp;risulta altrettanto diffuso: il&nbsp;<strong>35%</strong>&nbsp;dei minori dichiara di aver subito offese, minacce, esclusioni intenzionali o comportamenti aggressivi durante le attività di gioco, con conseguenze potenzialmente rilevanti sul piano emotivo e relazionale.</p>



<p>Un ulteriore elemento critico riguarda il&nbsp;<strong>contesto familiare</strong>: il&nbsp;<strong>30%</strong>&nbsp;dei minori riferisce che l’uso dei dispositivi digitali è regolato dai genitori come forma di premio o punizione. Questa dinamica può incidere negativamente sulla propensione dei bambini a raccontare episodi problematici, per timore di restrizioni o divieti.</p>



<p><em>“Questi numeri sono un campanello d’allarme che non possiamo ignorare. Ogni bambino ha diritto a un’esperienza digitale sicura. È responsabilità di tutti garantire che il gioco online non si trasformi in un terreno di rischio per i nostri minori.”</em>&nbsp;commenta il Presidente di Meter don Di Noto.</p>



<p>I dati raccolti nel Report evidenziano con chiarezza la necessità di rafforzare le attività di prevenzione, educazione digitale e accompagnamento dei minori, promuovendo un utilizzo consapevole delle piattaforme online. È fondamentale consolidare la collaborazione tra famiglie, istituzioni educative e operatori del settore, affinché la tutela dei minori negli ambienti digitali diventi una responsabilità condivisa e concreta.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Quando un video privato diventa virale: privacy violata e come proteggersi</title>
		<link>https://www.giornaledelcilento.it/quando-un-video-privato-diventa-virale-privacy-violata-e-come-proteggersi/</link>
		
		<dc:creator><![CDATA[Redazione]]></dc:creator>
		<pubDate>Tue, 03 Mar 2026 18:23:43 +0000</pubDate>
				<category><![CDATA[AI & Hi-Tech]]></category>
		<category><![CDATA[Cybersecurity]]></category>
		<category><![CDATA[privacy online]]></category>
		<category><![CDATA[protezione dati]]></category>
		<category><![CDATA[revenge porn]]></category>
		<category><![CDATA[sicurezza digitale]]></category>
		<category><![CDATA[video privato]]></category>
		<guid isPermaLink="false">https://www.giornaledelcilento.it/?p=237064</guid>

					<description><![CDATA[Un contenuto intimo registrato nella sfera privata che, nel giro di poche ore, rimbalza tra chat e social network fino a diventare virale. È uno scenario sempre più frequente nell’era [...]]]></description>
										<content:encoded><![CDATA[
<p>Un contenuto intimo registrato nella sfera privata che, nel giro di poche ore, rimbalza tra chat e social network fino a diventare virale. È uno scenario sempre più frequente nell’era digitale, dove la condivisione incontrollata di materiale personale può trasformarsi in un incubo mediatico e giudiziario.</p>



<h3 class="wp-block-heading">Dalla dimensione privata alla gogna pubblica</h3>



<p>Spesso si tratta di video realizzati all’interno di una relazione consensuale, destinati a restare riservati. Ma basta una rottura conflittuale, un accesso non autorizzato a uno smartphone o un gesto irresponsabile per innescare una diffusione incontrollabile. In pochi minuti il contenuto può essere scaricato, ricondiviso e archiviato su server difficili da rintracciare.</p>



<p>Il passaggio da contenuto privato a fenomeno virale non è solo una questione tecnologica, ma culturale: la rapidità con cui utenti sconosciuti rilanciano materiale intimo evidenzia una scarsa consapevolezza delle conseguenze umane e legali di tali azioni.</p>



<h3 class="wp-block-heading">Le conseguenze per la vittima</h3>



<p>Le ripercussioni possono essere profonde: danni reputazionali, isolamento sociale, perdita del lavoro, fino a gravi conseguenze psicologiche come ansia e depressione. La diffusione non consensuale di immagini o video intimi è un reato in Italia dal 2019. Le vittime possono rivolgersi alla Polizia Postale e al <strong>Garante per la protezione dei dati personali</strong> per chiedere la rimozione urgente dei contenuti.</p>



<p>Il quadro normativo europeo promosso dall’<strong>Unione europea</strong> rafforza la tutela dei dati personali, ma la prevenzione resta fondamentale.</p>



<h2 class="wp-block-heading">Sicurezza digitale: cosa sapere prima di inviare un video privato</h2>



<p>Al di là degli aspetti legali, la prima forma di tutela è la prevenzione. Gli esperti di cybersecurity raccomandano alcune regole essenziali:</p>



<h3 class="wp-block-heading">1. Valutare il rischio reale</h3>



<p>Una volta inviato, un contenuto digitale può essere salvato, registrato o inoltrato. Anche piattaforme che promettono messaggi “temporanei” non garantiscono il controllo assoluto: screenshot o registrazioni dello schermo possono aggirare i sistemi di autodistruzione.</p>



<h3 class="wp-block-heading">2. Proteggere i dispositivi</h3>



<p>Utilizzare password complesse, autenticazione a due fattori e sistemi di blocco biometrico riduce il rischio di accessi non autorizzati. È importante mantenere aggiornati sistema operativo e applicazioni per evitare vulnerabilità.</p>



<h3 class="wp-block-heading">3. Attenzione al cloud</h3>



<p>Molti smartphone caricano automaticamente foto e video su servizi cloud. Verificare le impostazioni di backup può evitare che contenuti sensibili restino archiviati online senza piena consapevolezza.</p>



<h3 class="wp-block-heading">4. Evitare reti Wi-Fi pubbliche</h3>



<p>L’invio di file personali tramite reti non protette aumenta il rischio di intercettazioni. Meglio utilizzare connessioni sicure e private.</p>



<h3 class="wp-block-heading">5. Riflettere prima di condividere</h3>



<p>La regola più semplice resta la più efficace: non inviare contenuti che potrebbero causare danni se diffusi. Anche in presenza di fiducia, il contesto può cambiare nel tempo.</p>



<h3 class="wp-block-heading">Responsabilità collettiva</h3>



<p>La sicurezza digitale non è solo una questione tecnica, ma culturale. Condividere o inoltrare materiale intimo senza consenso significa partecipare attivamente alla violazione della dignità di una persona.</p>



<p>In un’epoca in cui la tecnologia rende tutto replicabile e permanente, la consapevolezza diventa lo strumento più potente di protezione. La prevenzione, unita a strumenti legali efficaci, è l’unica strada per arginare un fenomeno che continua a crescere insieme alla velocità della rete.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Intelligence e malware come servizio: il nuovo volto industriale del cybercrime</title>
		<link>https://www.giornaledelcilento.it/intelligence-e-malware-come-servizio-il-nuovo-volto-industriale-del-cybercrime/</link>
		
		<dc:creator><![CDATA[Redazione]]></dc:creator>
		<pubDate>Sun, 01 Mar 2026 16:18:54 +0000</pubDate>
				<category><![CDATA[AI & Hi-Tech]]></category>
		<category><![CDATA[Cybersecurity]]></category>
		<category><![CDATA[cyber security]]></category>
		<category><![CDATA[cybercrime]]></category>
		<category><![CDATA[digital forensics]]></category>
		<category><![CDATA[malware]]></category>
		<category><![CDATA[ransomware]]></category>
		<guid isPermaLink="false">https://www.giornaledelcilento.it/?p=236694</guid>

					<description><![CDATA[Nel mondo della criminalità informatica sta emergendo un modello organizzativo sempre più simile a quello delle imprese legali: servizi strutturati, assistenza clienti, abbonamenti e persino garanzie di risultato. È l’era [...]]]></description>
										<content:encoded><![CDATA[
<p class="p1">Nel mondo della criminalità informatica sta emergendo un modello organizzativo sempre più simile a quello delle imprese legali: servizi strutturati, assistenza clienti, abbonamenti e persino garanzie di risultato. È l’era dell’“intelligence e malware come servizio”, un fenomeno che sta trasformando il cybercrime in un’industria globale altamente organizzata e accessibile anche a chi non possiede competenze tecniche avanzate.</p>



<p class="p3">Il concetto non è del tutto nuovo. Già da anni si parla di “ransomware as a service”, un sistema attraverso il quale sviluppatori esperti mettono a disposizione software dannosi in cambio di una percentuale sui riscatti ottenuti. Oggi però il modello si è evoluto: non si vendono più soltanto strumenti per attaccare, ma pacchetti completi che includono raccolta di informazioni, analisi dei bersagli, personalizzazione delle campagne di phishing e distribuzione automatizzata del malware.</p>



<p class="p3">Nel sottobosco del web, soprattutto nei forum e nei marketplace del dark web, è possibile acquistare database aggiornati con indirizzi email, credenziali rubate, informazioni aziendali dettagliate e profili psicologici ricavati da dati pubblici. Questa “intelligence” consente agli attaccanti di colpire con precisione chirurgica, aumentando la probabilità di successo delle truffe e riducendo il rischio di essere scoperti. L’uso dell’intelligenza artificiale ha ulteriormente potenziato queste attività, rendendo più rapide l’analisi dei dati e la creazione di messaggi altamente credibili.</p>



<p class="p3">Parallelamente si è sviluppato il mercato del malware su richiesta. Oggi un cybercriminale può noleggiare un kit completo che comprende virus, trojan o ransomware già pronti all’uso, corredati da pannelli di controllo intuitivi che permettono di monitorare le vittime in tempo reale. Il servizio include spesso aggiornamenti continui per aggirare i sistemi di sicurezza e un supporto tecnico che guida l’utente nell’esecuzione dell’attacco. È una logica di “software as a service” applicata alla criminalità digitale.</p>



<p class="p3">Questo modello abbassa drasticamente la soglia d’ingresso nel mondo degli attacchi informatici. Non è più necessario possedere competenze di programmazione o conoscenze approfondite di reti e sistemi: basta acquistare un pacchetto, seguire le istruzioni e avviare una campagna. Il risultato è un aumento del numero di attori coinvolti e una moltiplicazione degli attacchi, spesso condotti da gruppi piccoli ma ben organizzati.</p>



<p class="p3">Le conseguenze per imprese e istituzioni sono significative. La combinazione tra intelligence dettagliata e malware personalizzato rende le offensive più mirate e difficili da intercettare. Le aziende non devono più difendersi solo da attacchi generici e massivi, ma da operazioni studiate su misura, basate su informazioni reali riguardanti dipendenti, fornitori e infrastrutture digitali. Il rischio non è soltanto economico, ma anche reputazionale e strategico.</p>



<p class="p3">Sul fronte opposto, anche le società di cybersecurity stanno adottando strumenti avanzati di analisi e sistemi basati su intelligenza artificiale per individuare comportamenti anomali e prevenire intrusioni. Si assiste così a una vera e propria corsa tecnologica tra chi sviluppa strumenti di difesa e chi offre servizi di attacco. In questo scenario, la cooperazione internazionale e la condivisione di informazioni tra enti pubblici e privati diventano elementi cruciali per contrastare reti criminali sempre più globalizzate.</p>



<p class="p3">L’industrializzazione del cybercrime rappresenta una delle sfide più complesse dell’era digitale. Intelligence e malware come servizio non sono più fenomeni marginali, ma componenti strutturali di un’economia sommersa che sfrutta le stesse logiche di efficienza e scalabilità del mercato legale. Comprendere questa trasformazione è il primo passo per rafforzare le difese e promuovere una cultura della sicurezza capace di proteggere cittadini, imprese e istituzioni in un contesto tecnologico in continua evoluzione.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>TikTok aggiorna termini e privacy nel 2026: cosa cambia per gli utenti</title>
		<link>https://www.giornaledelcilento.it/tiktok-aggiorna-termini-e-privacy-nel-2026-cosa-cambia-per-gli-utenti/</link>
		
		<dc:creator><![CDATA[Redazione]]></dc:creator>
		<pubDate>Wed, 25 Feb 2026 17:47:36 +0000</pubDate>
				<category><![CDATA[AI & Hi-Tech]]></category>
		<category><![CDATA[Cultura Tech]]></category>
		<category><![CDATA[Cybersecurity]]></category>
		<category><![CDATA[Intelligenza Artificiale]]></category>
		<category><![CDATA[Senza categoria]]></category>
		<category><![CDATA[tik tok]]></category>
		<guid isPermaLink="false">https://www.giornaledelcilento.it/?p=236085</guid>

					<description><![CDATA[Negli ultimi mesi TikTok ha aggiornato termini di servizio e politica sulla privacy con modifiche che sono state recepite e discusse da diverse fonti giornalistiche internazionali e tecniche. L’aggiornamento ha [...]]]></description>
										<content:encoded><![CDATA[
<p class="p1">Negli ultimi mesi TikTok ha aggiornato termini di servizio e politica sulla privacy con modifiche che sono state recepite e discusse da diverse fonti giornalistiche internazionali e tecniche. L’aggiornamento ha preso forma tra gennaio e febbraio 2026, ed è legato anche a un cambiamento nella struttura societaria negli Stati Uniti, dove una nuova entità legale gestisce le operazioni della piattaforma per soddisfare i requisiti normativi americani.&nbsp;</p>



<p class="p1">La nuova versione della Privacy Policy è entrata in vigore formalmente alla fine di gennaio 2026 e compare nel testo ufficiale con data di efficacia del 31 gennaio 2026. Questo documento è disponibile pubblicamente e può essere verificato attraverso archivi dei termini di servizio aggiornati.&nbsp;</p>



<p class="p1">Uno degli aspetti che ha attirato maggiore attenzione riguarda la possibilità di raccogliere dati più dettagliati rispetto al passato. Secondo testate come CBS News e altre analisi, nella versione aggiornata della policy viene indicato esplicitamente che TikTok può raccogliere informazioni di localizzazione precisa, se l’utente concede tale autorizzazione sul proprio dispositivo, cosa che prima la policy non dichiarava con la stessa chiarezza.&nbsp;</p>



<p class="p1">Parallelamente, il testo aggiornato elenca in modo più esplicito certe categorie di informazioni personali che la piattaforma potrebbe elaborare, come indicato dall’aggiornamento negli Stati Uniti, incluso lo status di cittadinanza o immigrazione. Questa parte della policy ha suscitato preoccupazioni perché molti utenti non si aspettavano di vedere tali riferimenti, ma esperti di privacy hanno spiegato che la lista riflette requisiti di trasparenza imposti da normative statunitensi sulla privacy piuttosto che una nuova, esplicita intenzione di “spiare” certi aspetti personali.&nbsp;</p>



<p class="p1">Il cambiamento societario sotto una nuova entità controllata negli Stati Uniti è stato presentato da TikTok come un modo per rafforzare la protezione dei dati e la sicurezza, con misure di trasparenza e governance locale, ma ha anche comportato la pubblicazione di nuovi termini a cui gli utenti devono acconsentire per continuare a utilizzare l’app.&nbsp;</p>



<p class="p1">Queste modifiche non sono limitate alla sola privacy: il nuovo testo dei termini di servizio include anche sezioni su come TikTok può utilizzare i dati per migliorare le funzioni basate sull’intelligenza artificiale, come l’etichettatura di contenuti AI generati, e su come determinati dati di attività possano essere usati per pubblicità mirata, anche fuori dalla piattaforma.&nbsp;</p>



<p class="p1">Dal punto di vista dell’utente, il cambiamento più tangibile è che, almeno negli Stati Uniti, per continuare a usare l’app è apparsa una notifica che invita ad accettare i nuovi termini e la politica sulla privacy quando si apre l’applicazione. Questo ha causato discussioni online e reazioni contrastanti tra chi ha espresso timori per la privacy e chi ha cercato di comprendere meglio cosa fosse effettivamente cambiato.&nbsp;</p>



<p class="p1">In conclusione, le regole e le policy di TikTok non si sono completamente rivoluzionate in un unico colpo, ma la versione 2026 dei termini e della privacy riflette un aggiornamento sostanziale nella trasparenza dei dati che possono essere gestiti dalla piattaforma, soprattutto in relazione alla nuova struttura legale statunitense e alle modalità di raccolta di informazioni come la localizzazione, con implicazioni che continuano a stimolare dibattito pubblico e tecnico.&nbsp;</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Password dimenticate, un problema quotidiano: ecco come gestirle in modo sicuro</title>
		<link>https://www.giornaledelcilento.it/password-dimenticate-un-problema-quotidiano-ecco-come-gestirle-in-modo-sicuro/</link>
		
		<dc:creator><![CDATA[Redazione]]></dc:creator>
		<pubDate>Sat, 21 Feb 2026 18:28:24 +0000</pubDate>
				<category><![CDATA[AI & Hi-Tech]]></category>
		<category><![CDATA[Cybersecurity]]></category>
		<category><![CDATA[autenticazione 2fa]]></category>
		<category><![CDATA[autenticazione a due fattori]]></category>
		<guid isPermaLink="false">https://www.giornaledelcilento.it/?p=235578</guid>

					<description><![CDATA[Dalla casella di posta elettronica ai servizi bancari, fino alle app della pubblica amministrazione, ogni utente oggi deve gestire decine di credenziali diverse. Ricordarle tutte è quasi impossibile. Eppure, secondo [...]]]></description>
										<content:encoded><![CDATA[
<p class="p1">Dalla casella di posta elettronica ai servizi bancari, fino alle app della pubblica amministrazione, ogni utente oggi deve gestire decine di credenziali diverse. Ricordarle tutte è quasi impossibile. Eppure, secondo gli esperti di sicurezza informatica, il vero rischio non è dimenticarle, ma riutilizzarle o conservarle in modo insicuro.</p>



<p class="p1">Il primo errore: la stessa password ovunque</p>



<p class="p3">Usare la stessa password per email, social network e servizi finanziari è una pratica molto diffusa, ma pericolosa. Se un sito subisce una violazione dei dati, le stesse credenziali potrebbero essere usate per accedere ad altri account personali.</p>



<p class="p3">Il problema riguarda anche servizi sensibili come quelli offerti da Poste Italiane, che includono conti correnti, carte e identità digitali. In questi casi, una password debole o riutilizzata può avere conseguenze economiche concrete.</p>



<p class="p1">La soluzione più efficace: i password manager</p>



<p class="p3">Gli specialisti consigliano di utilizzare un “password manager”, ovvero un software che genera e memorizza password complesse in modo cifrato. Tra i più noti ci sono 1Password, Bitwarden e LastPass.</p>



<p class="p3">Questi strumenti permettono di:</p>



<p class="p1">Creare password lunghe e uniche per ogni servizio Compilarle automaticamente nei siti web Sincronizzarle tra smartphone, tablet e computer Proteggere tutto con un’unica password principale (detta “master password”)</p>



<p class="p3">In alternativa, molti sistemi operativi e browser integrano già un gestore di password, come Google con il suo Password Manager integrato negli account Gmail o Apple tramite Portachiavi iCloud.</p>



<p class="p1">Autenticazione a due fattori: una barriera in più</p>



<p class="p3">Oltre alla password, è sempre consigliabile attivare l’autenticazione a due fattori (2FA), quando disponibile. Questo sistema richiede un secondo codice temporaneo generato da un’app o inviato via SMS. Anche se qualcuno scoprisse la password, non potrebbe accedere senza il secondo elemento di verifica.</p>



<p class="p3">Per servizi finanziari, identità digitale e caselle email principali, la 2FA è ormai considerata uno standard minimo di sicurezza.</p>



<p class="p1">E se non si vuole usare un’app?</p>



<p class="p3">Chi preferisce metodi più tradizionali può adottare alcune regole pratiche:</p>



<p class="p1">Creare una frase lunga facile da ricordare (passphrase) invece di una parola semplice Non salvare le password in file non protetti sul computer Evitare fogli scritti lasciati in luoghi accessibili</p>



<p class="p3">Un’agenda cartacea conservata in casa, in un luogo sicuro, può essere più sicura di un file digitale non protetto.</p>



<p class="p1">La regola d’oro</p>



<p class="p3">Non esiste memoria umana capace di ricordare decine di password complesse. La soluzione non è semplificarle, ma organizzarle in modo sicuro. Utilizzare strumenti adeguati, attivare la doppia verifica e differenziare le credenziali è oggi una necessità, non un optional.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Blockchain protegge le transazioni digitali ma non elimina tutti i rischi</title>
		<link>https://www.giornaledelcilento.it/blockchain-protegge-le-transazioni-digitali-ma-non-elimina-tutti-i-rischi/</link>
		
		<dc:creator><![CDATA[Redazione]]></dc:creator>
		<pubDate>Thu, 19 Feb 2026 15:07:52 +0000</pubDate>
				<category><![CDATA[AI & Hi-Tech]]></category>
		<category><![CDATA[Cybersecurity]]></category>
		<category><![CDATA[blockchain]]></category>
		<category><![CDATA[cybersecurity]]></category>
		<category><![CDATA[sicurezza digitale]]></category>
		<category><![CDATA[tecnologia emergente]]></category>
		<category><![CDATA[transazioni online]]></category>
		<guid isPermaLink="false">https://www.giornaledelcilento.it/?p=235303</guid>

					<description><![CDATA[In un’epoca in cui le violazioni dei dati e gli attacchi informatici plasmano l’agenda di governi e imprese, la tecnologia blockchain si è affacciata come una delle possibili soluzioni per [...]]]></description>
										<content:encoded><![CDATA[
<p>In un’epoca in cui le violazioni dei dati e gli attacchi informatici plasmano l’agenda di governi e imprese, la tecnologia <strong>blockchain</strong> si è affacciata come una delle possibili soluzioni per rafforzare la sicurezza delle transazioni digitali. Originariamente ideata per sostenere le criptovalute, questa tecnologia si basa su un registro distribuito e crittografato che lega ogni transazione a quelle precedenti, creando una catena immodificabile di informazioni. Questa caratteristica — insieme alla decentralizzazione — è vista dagli esperti come un elemento che può mitigare molti dei rischi legati alla cybersecurity tradizionale. </p>



<p>La blockchain elimina la dipendenza da un unico database centrale, che nei sistemi classici rappresenta spesso il “punto critico” vulnerabile a intrusioni, ransomware o attacchi DDoS. In una rete blockchain ogni nodo detiene una copia del registro, e questo significa che un tentativo di manipolazione richiederebbe un consenso su larga scala tra i partecipanti, rendendo così estremamente difficile alterare i dati <strong>senza che la modifica venga immediatamente rilevata</strong>. </p>



<p>Un altro elemento che ha catturato l’interesse sia delle imprese sia delle istituzioni è la <strong>trasparenza mantenuta insieme alla sicurezza</strong>. In un registro distribuito tutte le transazioni sono visibili e verificabili dai partecipanti autorizzati, creando un audit trail difficile da falsificare. Nei settori in cui l’integrità dei dati è cruciale — come quello finanziario, sanitario o delle supply chain — questa trasparenza può diventare una protezione aggiuntiva contro frodi e abuso di sistema. </p>



<p>Parallelamente, l’uso di crittografia avanzata e meccanismi di consenso distribuito consente di sviluppare <strong>soluzioni di autenticazione più robuste</strong> rispetto ai tradizionali modelli basati su password e server centralizzati. Sistemi di identità digitale decentralizzata, costruiti su blockchain, permettono agli utenti di controllare direttamente le proprie credenziali, diminuendo la vulnerabilità ai furti di identità e alle violazioni massicce di dati. </p>



<p>Queste potenzialità hanno alimentato progetti e applicazioni in ambiti che vanno oltre le criptovalute, spingendo le imprese a esplorare l’uso della blockchain per proteggere transazioni sensibili, garantire l’integrità dei dati e sviluppare nuovi paradigmi di fiducia digitale. </p>



<p>Tuttavia, la blockchain non è una tecnologia esente da <strong>limitazioni e criticità</strong>. La sua natura immutabile, per esempio, può entrare in conflitto con normative come il <strong>Regolamento generale sulla protezione dei dati (GDPR)</strong>, che include il diritto all’oblio: una volta registrato, un dato non può essere modificato o cancellato facilmente, sollevando dubbi sulla conformità in certi contesti. </p>



<p>Un altro problema riguarda la <strong>scalabilità</strong>. Molti sistemi blockchain, soprattutto quelli pubblici, incontrano difficoltà nel gestire grandi volumi di transazioni in tempi brevi senza intasamenti o rallentamenti. Per affrontare questi limiti, sviluppatori e ricercatori stanno sperimentando tecniche come le soluzioni “layer‑2” o forme di consenso alternative che riducano i costi energetici e migliorino l’efficienza. </p>



<p>A ciò si aggiunge la necessità di una <strong>regolamentazione chiara e condivisa</strong>. La natura globale e decentralizzata della blockchain complica l’applicazione delle leggi esistenti su privacy, responsabilità e standard di sicurezza, richiedendo un coordinamento normativo che spesso non ha ancora trovato una forma univoca. </p>



<p>Infine, l’adozione diffusa della blockchain nel campo della cybersecurity richiede competenze specialistiche e investimenti significativi, tanto a livello tecnico quanto organizzativo. La scarsità di professionisti esperti in questo campo continua a essere un ostacolo per molte organizzazioni. </p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Intelligenza artificiale in mano ai cybercriminali: un’arma sempre più sofisticata</title>
		<link>https://www.giornaledelcilento.it/intelligenza-artificiale-in-mano-ai-cybercriminali-unarma-sempre-piu-sofisticata/</link>
		
		<dc:creator><![CDATA[Marianna Vallone]]></dc:creator>
		<pubDate>Tue, 17 Feb 2026 16:27:03 +0000</pubDate>
				<category><![CDATA[AI & Hi-Tech]]></category>
		<category><![CDATA[Cybersecurity]]></category>
		<guid isPermaLink="false">https://www.giornaledelcilento.it/?p=234963</guid>

					<description><![CDATA[L’intelligenza artificiale (IA), una tecnologia che ha trasformato settori come medicina, industria e comunicazione, sta emergendo anche come strumento potente nelle mani dei cybercriminali. Ciò che fino a pochi anni [...]]]></description>
										<content:encoded><![CDATA[
<p class="p1">L’intelligenza artificiale (IA), una tecnologia che ha trasformato settori come medicina, industria e comunicazione, sta emergendo anche come strumento potente nelle mani dei cybercriminali. Ciò che fino a pochi anni fa sembrava fantascienza — hacker che sfruttano modelli di IA per automatizzare e potenziare attacchi — è oggi una realtà consolidata, con conseguenze critiche per aziende, istituzioni e singoli cittadini. Gli ultimi report di sicurezza e le attività delle principali organizzazioni di cybersecurity evidenziano una tendenza in crescita: l’IA non è più soltanto difesa, ma anche offensiva.&nbsp;</p>



<p class="p1">Una minaccia in espansione</p>



<p class="p3">Secondo uno studio recente di Trend Micro<img src="https://s.w.org/images/core/emoji/17.0.2/72x72/2122.png" alt="™" class="wp-smiley" style="height: 1em; max-height: 1em;" />, la criminalità informatica ha ormai adottato strumenti di intelligenza artificiale in modo professionale, non più sperimentale. I cybercriminali migliorano tecniche di frode, malware e deepfake, riducendo i costi e aumentando l’affidabilità degli attacchi.&nbsp;</p>



<p class="p3">Analisi di mercato e osservatori di cybersecurity stimano che circa il 40% degli attacchi informatici del 2025 abbia fatto uso di IA, con numeri in crescita rispetto agli anni precedenti.&nbsp;</p>



<p class="p1">Phishing e social engineering: l’IA fa il trucco perfetto</p>



<p class="p3">Una delle aree dove l’IA ha avuto un impatto immediato è l’ingegneria sociale, ovvero la capacità di ingannare le persone manipolando emozioni e fiducia. Gli algoritmi generativi — inclusi i moderni large language model — consentono ai criminali di creare email di phishing estremamente convincenti e personalizzate, adattandosi ai dati pubblicamente disponibili sulle vittime.&nbsp;</p>



<p class="p3">Queste email non mostrano più gli errori grammaticali tipici di truffe rudimentali: possono imitare lo stile di comunicazione di un collega o capire riferimenti personali, rendendo più probabile il clic su link malevoli o l’inserimento di credenziali.&nbsp;</p>



<p class="p1">Deepfake: la truffa “visivamente reale”</p>



<p class="p3">Tecnologie basate su IA permettono anche di generare deepfake audio e video estremamente realistici: un messaggio vocale di un amministratore, un video di un dirigente aziendale che chiede informazioni riservate, o perfino un “CEO” che invita a installare software inviato via email. Queste tecniche amplificano le frodi e la manipolazione psicologica, rendendo sempre più difficile distinguere tra reale e artificiale.&nbsp;</p>



<p class="p3">Recenti attacchi hanno utilizzato deepfake avanzati per inserire malware attraverso chiamate video fasulle, portando a compromissioni su vasta scala di sistemi aziendali.&nbsp;</p>



<p class="p1">Malware “intelligenti” e automazione degli attacchi</p>



<p class="p3">L’IA non si limita all’inganno: viene impiegata anche per creare e potenziare malware. Strumenti malevoli possono ora autoreplicarsi, adattarsi alle difese e sfuggire ai controlli di sicurezza tradizionali. Alcuni tipi di malware integrano IA per eseguire codice direttamente in memoria, evitando l’identificazione da parte degli antivirus.&nbsp;</p>



<p class="p3">Modelli come quelli usati da Gemini o Claude sono stati osservati — e persino sottratti — da gruppi di hacker per generare codice dannoso o pianificare attacchi con maggiore efficienza.&nbsp;</p>



<p class="p1">Intelligence e malware come servizio</p>



<p class="p3">L’IA ha anche democratizzato l’accesso agli strumenti di cybercrime: non è più necessario essere esperti di programmazione per lanciare attacchi. Mercati clandestini offrono crimeware-as-a-service, kit di phishing generati dall’IA, deepfake personalizzati e persino bot autonomi pronti all’uso.&nbsp;</p>



<p class="p3">Questa “industrializzazione” della cybercriminalità rende più semplice per operatori di basso profilo lanciare attacchi efficaci con pochi clic.</p>



<p class="p1">Implicazioni per sicurezza e difesa</p>



<p class="p3">La diffusione di IA nel cybercrime ha costretto anche le organizzazioni di sicurezza a ricalibrare le proprie difese. Strumenti basati su IA sono ora impiegati anche per rilevare comportamenti anomali, identificare campagne di phishing e analizzare malware in tempo reale.&nbsp;</p>



<p class="p3">Tuttavia, la corsa agli armamenti tra tecnologie offensive e difensive si fa sempre più intensa: mentre le difese adottano IA per contrastare attacchi automatizzati, i criminali affinano i loro modelli per eludere questi sistemi.</p>



<p class="p1"></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Social detox: come funziona la disintossicazione dai social e perché sempre più persone la scelgono</title>
		<link>https://www.giornaledelcilento.it/social-detox-come-funziona-la-disintossicazione-dai-social-e-perche-sempre-piu-persone-la-scelgono/</link>
		
		<dc:creator><![CDATA[Redazione]]></dc:creator>
		<pubDate>Fri, 13 Feb 2026 16:26:55 +0000</pubDate>
				<category><![CDATA[AI & Hi-Tech]]></category>
		<category><![CDATA[Cultura Tech]]></category>
		<category><![CDATA[Cybersecurity]]></category>
		<category><![CDATA[Senza categoria]]></category>
		<category><![CDATA[digital detox]]></category>
		<guid isPermaLink="false">https://www.giornaledelcilento.it/?p=234469</guid>

					<description><![CDATA[Meno notifiche, più concentrazione. È questa la promessa della social detox, la pausa volontaria dai social network che negli ultimi anni sta conquistando studenti, professionisti e persino creator digitali. L’obiettivo [...]]]></description>
										<content:encoded><![CDATA[
<p class="p1">Meno notifiche, più concentrazione. È questa la promessa della social detox, la pausa volontaria dai social network che negli ultimi anni sta conquistando studenti, professionisti e persino creator digitali. L’obiettivo non è demonizzare piattaforme come <a href="chatgpt://generic-entity?number=0">Instagram</a>, <a href="chatgpt://generic-entity?number=1">TikTok</a>, <a href="chatgpt://generic-entity?number=2">Facebook</a> o <a href="chatgpt://generic-entity?number=3">X</a>, ma ristabilire un equilibrio tra vita online e offline.</p>



<p class="p1"><strong>Un fenomeno in crescita</strong></p>



<p class="p3">La connessione permanente è diventata la norma: notifiche, messaggi, aggiornamenti continui. In questo contesto, cresce la consapevolezza dei possibili effetti collaterali di un uso eccessivo dei social: difficoltà di concentrazione, confronto costante con gli altri, alterazione del sonno, senso di dipendenza.</p>



<p class="p3">La social detox nasce proprio come risposta a questa sovraesposizione digitale.</p>



<p class="p1"><strong>Come funziona la social detox</strong></p>



<p class="p3">Non esiste un’unica modalità. C’è chi sceglie una pausa totale di 7, 14 o 30 giorni, chi limita l’utilizzo a determinati orari, chi elimina le notifiche o rimuove le applicazioni dallo smartphone.</p>



<p class="p3"><strong>Gli esperti suggeriscono tre passaggi fondamentali:</strong></p>



<p class="p1">Definire un obiettivo chiaro – Ridurre il tempo di utilizzo? Migliorare la qualità del sonno? Recuperare concentrazione? Creare barriere pratiche – Disinstallare le app, disattivare notifiche, impostare limiti di tempo. Sostituire l’abitudine – Riempire il tempo con attività alternative: lettura, sport, relazioni sociali dal vivo.</p>



<p class="p3">Senza una sostituzione concreta, il rischio è tornare rapidamente allo scroll compulsivo.</p>



<p class="p1"><strong>I benefici osservati</strong></p>



<p class="p3">Chi intraprende una pausa dai social riferisce spesso miglioramenti già nei primi giorni: maggiore lucidità mentale, riduzione dell’ansia, più tempo libero percepito. Dopo alcune settimane, molti riportano un rapporto più consapevole con il telefono e un calo dell’impulso automatico a controllare lo schermo.</p>



<p class="p3">Non si tratta necessariamente di abbandonare le piattaforme in modo definitivo. Per molti, la social detox rappresenta piuttosto un “reset” utile per riprendere il controllo.</p>



<p class="p1"><strong>Un equilibrio possibile</strong></p>



<p class="p3">I social network restano strumenti potenti per informarsi, lavorare e mantenere relazioni. La sfida non è eliminarli, ma usarli in modo intenzionale.</p>



<p class="p3">La social detox, in questo senso, non è una fuga dal digitale, ma un tentativo di rimettere al centro l’attenzione, il tempo e la qualità delle relazioni.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Cyber Security Foundation lancia “AI sicura”: la prima valutazione nazionale sulla sicurezza dell’intelligenza artificiale in Italia</title>
		<link>https://www.giornaledelcilento.it/cyber-security-foundation-lancia-ai-sicura-la-prima-valutazione-nazionale-sulla-sicurezza-dellintelligenza-artificiale-in-italia/</link>
		
		<dc:creator><![CDATA[Redazione]]></dc:creator>
		<pubDate>Fri, 06 Feb 2026 18:19:24 +0000</pubDate>
				<category><![CDATA[AI & Hi-Tech]]></category>
		<category><![CDATA[Cultura Tech]]></category>
		<category><![CDATA[Cybersecurity]]></category>
		<category><![CDATA['ndrangheta]]></category>
		<category><![CDATA[ai]]></category>
		<category><![CDATA[cyberattack]]></category>
		<category><![CDATA[cybersicurezza]]></category>
		<category><![CDATA[intelligenza artificiale]]></category>
		<guid isPermaLink="false">https://www.giornaledelcilento.it/?p=233348</guid>

					<description><![CDATA[AI SICURA è l’iniziativa della Cyber Security Foundation, la prima fondazione non profit italiana dedicata al mondo cyber, che ha avviato uno studio completo su come il Paese sta affrontando [...]]]></description>
										<content:encoded><![CDATA[
<p>AI SICURA è l’iniziativa della Cyber Security Foundation, la prima fondazione non profit italiana dedicata al mondo cyber, che ha avviato uno studio completo su come il Paese sta affrontando la sicurezza dell’intelligenza artificiale, con l’obiettivo di censire i livelli di protezione esistenti e proporre soluzioni concrete. Al centro del progetto c’è un’alleanza pubblico–privato per trasformare la sicurezza dell’AI in un vantaggio competitivo nazionale, coinvolgendo Pubblica Amministrazione, imprese, accademia e comunità di esperti.<br><br>Il progetto è stato presentato ufficialmente ieri a Roma, a Villa Blanc, sede della Luiss Business School, nel corso di un evento riservato ai Chief Information Security Officer (CISO) e ai dirigenti di area sicurezza.<br><br>Il cuore operativo del progetto è un questionario nazionale rivolto ai CISO e ai responsabili della sicurezza per rilevare: awareness sui rischi, architetture e modelli adottati, minacce più temute, strategie difensive e livello di preparazione del Paese. I risultati confluiranno nel “Rapporto sulla Sicurezza dell’AI in Italia”, successivamente corredato da un indice di maturità specifico, raccomandazioni strategiche e strumenti pratici per un’adozione dell’AI più sicura.<br><br>“Con AI SICURA vogliamo misurare con dati reali lo stato della sicurezza dell’intelligenza artificiale in Italia e abilitare un’alleanza pubblico–privato che la trasformi in un vantaggio competitivo, perché l’AI può essere il nostro più grande alleato o il nostro più grande rischio e la differenza la facciamo noi”, ha spiegato Fabio Battelli, Direttore del settore Intelligenza Artificiale per la Cyber Security Foundation.<br><br>Per gli aspetti scientifici dell’iniziativa la Cyber Security Foundation ha coinvolto la Luiss Business School, che contribuirà alla definizione del metodo di indagine e all’interpretazione dei risultati del questionario. «La Luiss Business School sta sviluppando studi e approfondimenti accademici sui temi della Information Safety, distinguendola dalla tradizionale Information Security, per affrontare le sfide specifiche poste dai contenuti generati dall’Intelligenza Artificiale. – ha dichiarato il Professor Cristiano Busco, Direttore BU Consulting, Luiss Business School – Questo lavoro, che sarà integrato nel progetto AI SICURA, ha portato alla definizione di una tassonomia che classifica l&#8217;informazione come &#8220;sicura&#8221; solo se corretta, aperta e benigna, offrendo linee guida essenziali per la governance del rischio e garantendo un impatto positivo sull&#8217;ecosistema sociale ed economico».<br><br>Il versante tecnologico del progetto è affidato invece a Palo Alto Networks, partner dell’iniziativa, chiamato a portare nel Rapporto la prospettiva delle soluzioni di cyber security più avanzate e delle minacce emergenti. «Palo Alto Networks è onorata di essere partner tecnologico della Fondazione. In questo ruolo, intendiamo contribuire allo sviluppo del Rapporto AI SICURA con la nostra profonda conoscenza delle minacce emergenti e le prospettive sulle soluzioni di cybersecurity più avanzate, essenziali non solo per proteggere gli ecosistemi di intelligenza artificiale, ma anche per sfruttare l’AI stessa per la difesa affinché diventi un reale vantaggio competitivo per ogni azienda» ha sottolineato Francesco Seminaroti, Sales Director Palo Alto.<br><br>Nel corso della mattinata, dopo uno scenario di contesto, Fabio Battelli ha illustrato l’impianto dell’iniziativa e i suoi obiettivi operativi. Con lui sono intervenuti, tra gli altri, Mattia Siciliano, Adjunct Faculty Member Luiss Business School e Ricercatore AI SICURA, e Giovanna Capilli, Avvocato e Professoressa ordinaria di Diritto privato, ricercatrice AI SICURA.<br><br>A seguire è stato inoltre presentato in anteprima un prototipo della piattaforma a supporto della gestione dei self-assessment, che consentirà successivamente di visualizzare benchmark nazionali per i diversi settori produttivi e di favorire un confronto continuo all’interno della comunità dei CISO.<br><br>Infine, si è tenuta la tavola rotonda in cui i CISO di alcune tra le principali amministrazioni pubbliche italiane ed aziende si sono confrontati su rischi, misure di mitigazione e governance della sicurezza dell’AI.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Oltre la Spagna: come il mondo sta regolando l’accesso dei minori ai social</title>
		<link>https://www.giornaledelcilento.it/oltre-la-spagna-come-il-mondo-sta-regolando-laccesso-dei-minori-ai-social/</link>
		
		<dc:creator><![CDATA[Redazione]]></dc:creator>
		<pubDate>Wed, 04 Feb 2026 12:54:08 +0000</pubDate>
				<category><![CDATA[AI & Hi-Tech]]></category>
		<category><![CDATA[Cultura Tech]]></category>
		<category><![CDATA[Cybersecurity]]></category>
		<category><![CDATA[Intelligenza Artificiale]]></category>
		<category><![CDATA[smartphone ai minori]]></category>
		<category><![CDATA[telefoni cellulari ai minori]]></category>
		<guid isPermaLink="false">https://www.giornaledelcilento.it/?p=232926</guid>

					<description><![CDATA[La decisione del governo spagnolo di proporre un divieto totale di accesso ai social media per gli under 16 – annunciata dal premier Pedro Sánchez durante il World Government Summit [...]]]></description>
										<content:encoded><![CDATA[
<p>La decisione del governo spagnolo di proporre un divieto totale di accesso ai social media per gli under 16 – annunciata dal premier Pedro Sánchez durante il World Government Summit di Dubai – non è un caso isolato, ma si inserisce in un fenomeno globale di stretta normativa digitale a tutela dei più giovani. Paesi in Europa, in Oceania e oltre stanno infatti rivedendo o inasprendo le proprie leggi per rispondere alle crescenti preoccupazioni su dipendenza, abuso, disinformazione e rischi psicologici legati alla presenza online dei ragazzi. </p>



<h2 class="wp-block-heading">Australia: il primo paese al mondo</h2>



<p>L’Australia è stata la prima nazione a introdurre per legge un divieto per i minori di 16 anni di possedere account sui principali social network. La legge, entrata in vigore alla fine del 2025, impone ai giganti tecnologici di implementare sistemi robusti di verifica dell’età, con multe salate in caso di violazione.&nbsp;</p>



<p>Il modello australiano è considerato una sorta di «standard globale», anche se pone sfide tecniche significative: verifica accurata dell’età, rispetto della privacy e tutela dei dati sono tutti aspetti ancora in evoluzione. Organismi internazionali come l’OECD sottolineano infatti che nessuna nazione ha ancora trovato una soluzione perfetta a questo problema tecnico e sociale.&nbsp;</p>



<h2 class="wp-block-heading">Europa: una regolamentazione a più velocità</h2>



<p>In Europa non esiste ancora un’unica normativa vincolante a livello comunitario che imponga limiti d’età rigidi per l’uso dei social, ma l’Unione Europea sta intensificando gli sforzi.</p>



<p>Nel novembre 2025 il Parlamento europeo ha adottato una risoluzione non vincolante proponendo un limite minimo di 16 anni per l’accesso alle piattaforme di social media, con possibilità di accesso tra i 13 e i 16 anni solo con il consenso dei genitori e sistemi di verifica dell’età affidabili.&nbsp;</p>



<p>Parallelamente, la Commissione europea ha pubblicato linee guida sulla protezione dei minori nell’ambito dei servizi digitali, indicando misure per prevenire adescamenti, bullismo e comportamenti che generano dipendenza digitale.&nbsp;</p>



<h3 class="wp-block-heading">Francia</h3>



<p>La Francia ha già varato una normativa che richiede il consenso dei genitori per i minori di 15 anni che vogliono creare un account, anche se l’effettiva applicazione tecnica incontra difficoltà pratiche. Il governo sta inoltre valutando ulteriori restrizioni, compresa la limitazione dell’uso di VPN per eludere i blocchi.&nbsp;</p>



<h3 class="wp-block-heading">Danimarca, Norvegia e altri Stati</h3>



<p>Anche la Danimarca ha annunciato piani per vietare ai minori di 15 anni l’accesso ai social, con alcune eccezioni per i parenti che conferiscono il consenso, mentre la Norvegia sta valutando alzare l’età minima di consenso digitale da 13 a 15 anni.&nbsp;</p>



<h2 class="wp-block-heading">Regno Unito: Online Safety Act</h2>



<p>Nel Regno Unito, il Online Safety Act, in vigore e implementato dal 2025, non fissa un limite d’età unico, ma obbliga le piattaforme a controllare attivamente chi accede ai servizi e a ridurre l’esposizione dei minori a contenuti dannosi. L’attenzione è rivolta soprattutto alla pubblicità mirata, algoritmi e strumenti di segnalazione dei rischi, piuttosto che a un semplice divieto.&nbsp;</p>



<h2 class="wp-block-heading">Altri esempi nel mondo</h2>



<ul class="wp-block-list">
<li>Italia: l’uso dei social da parte dei minori è regolato con il requisito del consenso dei genitori sotto i 14 anni, ma non esiste un divieto assoluto. </li>



<li>Germania: si può usare i social tra i 13 e i 16 anni con il consenso dei genitori — ma sono in corso studi su possibili misure più severe. </li>



<li>Malaysia ha annunciato l’intenzione di bandire l’accesso ai social per gli under 16 dal prossimo anno. </li>
</ul>



<h2 class="wp-block-heading">Verso una convergenza globale?</h2>



<p>La spinta verso una maggiore tutela dei minori online riflette una preoccupazione comune tra legislatori di tutto il mondo: la consapevolezza crescente dei rischi associati alla dipendenza digitale, all’esposizione precoce a contenuti inappropriati e alla manipolazione algoritmica. Molti analisti ritengono che, nonostante le differenze nei dettagli normativi, si stia formando una tendenza globale verso regole più stringenti sull’uso delle tecnologie da parte dei giovani.&nbsp;</p>



<p>Allo stesso tempo, resta aperto il dibattito su come bilanciare la protezione dei minori con la libertà di espressione, il diritto all’educazione digitale e la privacy. Le sfide tecniche legate alla verifica dell’età, alla tutela dei dati personali e all’efficacia delle misure applicate richiedono compromessi e soluzioni innovative.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>La Spagna dichiara guerra ai social: vietato l’accesso agli under 16 e piattaforme sotto accusa</title>
		<link>https://www.giornaledelcilento.it/la-spagna-dichiar-guerra-ai-social-vietato-laccesso-agli-under-16-e-piattaforme-sotto-accusa/</link>
		
		<dc:creator><![CDATA[Redazione]]></dc:creator>
		<pubDate>Wed, 04 Feb 2026 11:57:40 +0000</pubDate>
				<category><![CDATA[AI & Hi-Tech]]></category>
		<category><![CDATA[Cultura Tech]]></category>
		<category><![CDATA[Cybersecurity]]></category>
		<category><![CDATA[facebook]]></category>
		<category><![CDATA[giovani e social network]]></category>
		<category><![CDATA[La Spagna dichiara guerra ai social: vietato l’accesso agli under 16 e piattaforme sotto accusa]]></category>
		<category><![CDATA[spagna social]]></category>
		<category><![CDATA[TikTok]]></category>
		<category><![CDATA[X]]></category>
		<guid isPermaLink="false">https://www.giornaledelcilento.it/?p=232921</guid>

					<description><![CDATA[In una delle svolte più radicali nella regolamentazione digitale degli ultimi anni, il governo spagnolo guidato dal premier Pedro Sánchez ha annunciato un piano legislativo che punta a trasformare profondamente [...]]]></description>
										<content:encoded><![CDATA[
<p>In una delle svolte più radicali nella regolamentazione digitale degli ultimi anni, il governo spagnolo guidato dal premier Pedro Sánchez ha annunciato un piano legislativo che punta a trasformare profondamente il modo in cui i minori e le grandi piattaforme vivono il web. La proposta, illustrata venerdì scorso durante il World Government Summit di Dubai, prevede un divieto di accesso ai social network per i ragazzi sotto i 16 anni e una serie di misure severe per responsabilizzare direttamente le aziende tecnologiche. </p>



<h3 class="wp-block-heading">Stop ai social per i minori</h3>



<p>Al centro del pacchetto di norme c’è la decisione di vietare l’uso delle principali piattaforme digitali – da Instagram a TikTok, da X a Facebook – ai ragazzi che non hanno ancora compiuto 16 anni. L’obiettivo dichiarato dal governo è proteggere i giovani “dal Far West digitale”, un ambiente definito dal premier come uno spazio in cui le leggi vengono ignorate e i reati tollerati.&nbsp;</p>



<p>Per attuare il divieto, la legge prevede sistemi di verifica dell’età rigorosi che non si limitino alle autodichiarazioni: le piattaforme dovranno adottare strumenti tecnici efficaci per impedire l’accesso a chi non ha i requisiti anagrafici richiesti.&nbsp;</p>



<h3 class="wp-block-heading">Più responsabilità per le piattaforme</h3>



<p>La normativa non si limita ai limiti di età. Il pacchetto di cinque misure volute da Sánchez include:</p>



<ul class="wp-block-list">
<li>Responsabilizzazione legale dei dirigenti delle piattaforme per contenuti illegali, come discorsi d’odio o materiale vietato. </li>



<li>Nuove ipotesi di reato per la manipolazione degli algoritmi che amplificano contenuti nocivi. </li>



<li>La creazione di un sistema nazionale per tracciare e quantificare l’“impronta di odio e polarizzazione” sui social. </li>
</ul>



<p>Su questo fronte, Madrid intende anche cooperare con la Procura spagnola per esaminare eventuali violazioni commesse da intelligenze artificiali come Grok o da giganti come TikTok e Instagram. </p>



<p>La Spagna si inserisce in un trend internazionale che vede diversi Paesi valutare o adottare misure analoghe: l’Australia ha già introdotto un divieto per gli under 16, mentre la Francia ha fissato il limite a 15 anni e altre nazioni europee stanno discutendo provvedimenti simili.&nbsp;</p>



<p>A Dubai, Sánchez ha invitato gli alleati europei a unirsi a una regolamentazione più forte per contrastare abusi e manipolazioni online, indicando come sempre più governi siano preoccupati per la salute mentale dei giovani e la diffusione di disinformazione sui social. </p>



<p>Le proposte hanno già acceso un acceso dibattito. Da un lato, sostenitori della protezione dei minori salutano la mossa come un passo necessario per tutelare ragazzi e ragazze dagli effetti negativi di abuso, dipendenza e contenuti pericolosi. Dall’altro, critici della normativa – inclusi alcuni leader tecnologici – l’hanno definita eccessiva e potenzialmente dannosa per la libertà di espressione o per il funzionamento delle piattaforme.&nbsp;</p>



<p>Il progetto di legge dovrà ora superare l’iter parlamentare in Spagna e potrebbe subire modifiche prima di entrare in vigore. Tuttavia, la direzione politica è chiara: Madrid intende proteggere i giovani e riformare profondamente l’ecosistema digitale, con ripercussioni che potrebbero influenzare l’intera Europa.&nbsp;</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>WhatsApp e Meta AI: cosa cambia davvero per la privacy degli utenti</title>
		<link>https://www.giornaledelcilento.it/whatsapp-e-meta-ai-cosa-cambia-davvero-per-la-privacy-degli-utenti/</link>
		
		<dc:creator><![CDATA[Redazione]]></dc:creator>
		<pubDate>Mon, 02 Feb 2026 16:03:53 +0000</pubDate>
				<category><![CDATA[AI & Hi-Tech]]></category>
		<category><![CDATA[Cybersecurity]]></category>
		<category><![CDATA[Intelligenza Artificiale]]></category>
		<category><![CDATA[app di messaggistica]]></category>
		<category><![CDATA[cloud computing]]></category>
		<category><![CDATA[crittografia end-to-end]]></category>
		<category><![CDATA[dati personali]]></category>
		<category><![CDATA[GDPR]]></category>
		<category><![CDATA[IA generativa]]></category>
		<category><![CDATA[intelligenza artificiale]]></category>
		<category><![CDATA[Meta]]></category>
		<category><![CDATA[Meta AI]]></category>
		<category><![CDATA[privacy]]></category>
		<category><![CDATA[protezione dati]]></category>
		<category><![CDATA[sicurezza digitale]]></category>
		<category><![CDATA[tecnologia]]></category>
		<category><![CDATA[tutela utenti]]></category>
		<category><![CDATA[WhatsApp]]></category>
		<guid isPermaLink="false">https://www.giornaledelcilento.it/?p=232717</guid>

					<description><![CDATA[L’arrivo di Meta AI su WhatsApp segna un nuovo passaggio nella trasformazione delle app di messaggistica da semplici strumenti di comunicazione a piattaforme intelligenti, capaci di generare testi, rispondere a [...]]]></description>
										<content:encoded><![CDATA[
<p>L’arrivo di <strong>Meta AI su WhatsApp</strong> segna un nuovo passaggio nella trasformazione delle app di messaggistica da semplici strumenti di comunicazione a <strong>piattaforme intelligenti</strong>, capaci di generare testi, rispondere a domande e assistere gli utenti in tempo reale. Ma insieme alle nuove funzionalità, torna centrale una domanda che il settore non può eludere: <strong>che fine fanno i dati e la privacy degli utenti?</strong></p>



<p>WhatsApp, lo ricordiamo, basa la propria reputazione sulla <strong>crittografia end-to-end</strong>, che impedisce a terzi – inclusa la stessa Meta – di leggere il contenuto dei messaggi privati. Questo principio, almeno sul piano tecnico, non viene annullato dall’introduzione di Meta AI. Le chat personali restano cifrate e non accessibili automaticamente all’intelligenza artificiale.</p>



<p>Il punto critico, però, sta <strong>nell’interazione volontaria</strong> con l’IA. Quando un utente decide di usare Meta AI – ad esempio ponendo una domanda o inoltrando un messaggio all’assistente – quel contenuto <strong>esce dal perimetro della crittografia end-to-end</strong> e viene elaborato dai sistemi di Meta. In altre parole: non è WhatsApp a “spiare” le conversazioni, ma è l’utente che, consapevolmente o meno, fornisce dati a un sistema esterno.</p>



<p>Secondo quanto dichiarato da Meta, le conversazioni con Meta AI possono essere <strong>utilizzate per migliorare i modelli di intelligenza artificiale</strong>, nel rispetto delle normative vigenti e con processi di anonimizzazione. Tuttavia, per chi si occupa di privacy e protezione dei dati, questo passaggio resta delicato: l’anonimizzazione non equivale sempre all’impossibilità di re-identificazione, soprattutto quando i dati sono contestuali e ricchi di dettagli personali.</p>



<p>Dal punto di vista normativo, l’attenzione è alta. In Europa, il <strong>GDPR</strong> impone principi stringenti come minimizzazione dei dati, trasparenza e consenso informato. L’integrazione di Meta AI in un’app usata quotidianamente da miliardi di persone solleva interrogativi su quanto gli utenti siano realmente consapevoli di <strong>quando stanno parlando con una persona e quando con un sistema di IA</strong>, e su come vengano presentate le informative.</p>



<p>Un altro nodo riguarda l’uso “passivo” dei dati. Anche se Meta afferma che i messaggi privati non vengono letti per addestrare l’IA, restano aperte questioni legate ai <strong>metadati</strong>: informazioni come frequenza di utilizzo, interazioni con l’assistente, contesto delle richieste. Dati che, pur non includendo il contenuto dei messaggi, contribuiscono a costruire profili estremamente dettagliati.</p>



<p>Per gli utenti, la sfida è quella della <strong>consapevolezza digitale</strong>. Meta AI può essere uno strumento utile, ma va trattato come qualunque altro servizio basato su cloud: ciò che si condivide con l’IA non è più solo “una chat privata”. Per le aziende e i professionisti, il tema è ancora più sensibile, soprattutto quando WhatsApp viene usato per comunicazioni di lavoro, dati riservati o informazioni su clienti.</p>



<p>In prospettiva, il caso WhatsApp–Meta AI è emblematico di una tendenza più ampia: l’IA sta entrando in spazi comunicativi che consideravamo intimi e protetti. La vera partita non si gioca solo sulla tecnologia, ma su <strong>trasparenza, regolazione e fiducia</strong>. Perché la crittografia può proteggere i messaggi, ma solo scelte chiare e informate possono proteggere davvero le persone.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Tutela della privacy nell’era digitale: le ultime decisioni dei tribunali</title>
		<link>https://www.giornaledelcilento.it/tutela-della-privacy-nellera-digitale-le-ultime-decisioni-dei-tribunali/</link>
		
		<dc:creator><![CDATA[Redazione]]></dc:creator>
		<pubDate>Sat, 31 Jan 2026 16:49:18 +0000</pubDate>
				<category><![CDATA[Cybersecurity]]></category>
		<category><![CDATA[Leggi & Giustizia]]></category>
		<category><![CDATA[Sentenze e Giurisprudenza]]></category>
		<category><![CDATA[sentenze privacy]]></category>
		<guid isPermaLink="false">https://www.giornaledelcilento.it/?p=232462</guid>

					<description><![CDATA[Negli ultimi anni il diritto alla privacy nell’era digitale è diventato uno degli ambiti più complessi e rilevanti del diritto contemporaneo, intrecciandosi con l’evoluzione tecnologica, l’uso dei dati personali da [...]]]></description>
										<content:encoded><![CDATA[
<p>Negli ultimi anni il diritto alla privacy nell’era digitale è diventato uno degli ambiti più complessi e rilevanti del diritto contemporaneo, intrecciandosi con l’evoluzione tecnologica, l’uso dei dati personali da parte di piattaforme digitali e le esigenze di sicurezza pubblica. Le principali corti e autorità giudiziarie europee e nazionali hanno emesso decisioni fondamentali che ridefiniscono i confini della protezione dei dati personali, influenzando direttamente la vita dei cittadini e il modo in cui aziende e istituzioni trattano informazioni sensibili.</p>



<p>Una delle recenti pronunce con effetti di vasta portata in materia di protezione dei dati è la sentenza della Corte di giustizia dell’Unione europea (CGUE) del 4 ottobre 2024 nel caso Schrems vs Meta Platforms Ireland, che ha ribadito il principio secondo cui il semplice consenso dell’utente non può giustificare la conservazione dei dati personali a tempo indeterminato, neppure per finalità di pubblicità mirata. La Corte ha sancito che tale pratica costituisce un “interferenza sproporzionata” con i diritti fondamentali alla protezione dei dati, imponendo ai titolari del trattamento l’adozione di meccanismi di cancellazione temporanei e criteri differenziati basati sulla natura delle informazioni trattate. Questa decisione ha implicazioni importanti per tutti i soggetti che operano nel mercato digitale, in quanto richiede non solo trasparenza, ma anche un approccio più rigoroso al trattamento dei dati per finalità commerciali.&nbsp;</p>



<p>Parallelamente, tribunali europei stanno esplorando la nozione ampliata di danno non materiale legato alla protezione dei dati. Una recente decisione della Corte Federale di Giustizia tedesca nel caso Junghans vs Meta ha stabilito che la perdita di controllo sui propri dati personali, anche senza prova di un danno concreto come un danno reputazionale o psicologico evidente, può costituire sufficiente base per un risarcimento. Secondo questa interpretazione, il singolo cittadino può essere risarcito per il semplice fatto che terzi abbiano avuto accesso ai suoi dati senza autorizzazione, anche se non vi sia un danno tangibile dimostrabile. Questa impostazione più favorevole ai diritti degli interessati potrebbe ridefinire il modo in cui le violazioni della privacy vengono giudicate nei tribunali europei, ampliando l’accesso alla tutela giudiziaria per i cittadini.&nbsp;</p>



<p>Il quadro giurisprudenziale europeo si arricchisce inoltre di una decisione recente della autorità di controllo austriaca (DSB) che ha stabilito che Microsoft ha violato il Regolamento generale sulla protezione dei dati (GDPR) installando cookie di tracciamento su dispositivi scolastici senza un adeguato consenso, in violazione della trasparenza richiesta dal diritto europeo. La DSB ha imposto alla società di cessare queste attività di tracciamento sui dispositivi utilizzati da studenti, evidenziando un trend verso una maggiore responsabilizzazione delle grandi piattaforme cloud anche in contesti educativi regolamentati.&nbsp;</p>



<p>In Italia, la disciplina della privacy digitale si sta confrontando con i mutamenti tecnologici attraverso casi giudiziari e interventi delle autorità amministrative. Una recente pronuncia della Corte di Cassazione ha affrontato il tema dell’accesso ai contenuti delle email personali transitate su reti aziendali nel corso di una vertenza per concorrenza sleale, confermando il principio secondo cui la posta elettronica privata, seppure transitata su infrastrutture aziendali, non può essere utilizzata indiscriminatamente nei procedimenti giudiziari senza l’esplicito consenso dell’interessato. Questa decisione rafforza l’idea che la protezione della privacy si estende anche a comunicazioni digitali che, per ragioni tecniche, intersecano spazi privati e professionali.&nbsp;</p>



<p>A livello europeo, rimane centrale l’equilibrio tra diritto alla privacy e altri diritti fondamentali. La Corte di giustizia dell’Unione europea ha affrontato anche il bilanciamento tra accesso ai dati e tutela del segreto industriale, in una sentenza di febbraio 2025 che ha sottolineato l’importanza di evitare decisioni che ledano diritto alla riservatezza personale, ribadendo che ogni derogazione alla protezione dei dati deve essere giustificata e proporzionata.&nbsp;</p>



<p>L’attenzione delle autorità non si limita alle sentenze: l’Autorità Garante per la Protezione dei Dati Personali in Italia continua a emettere provvedimenti di vigilanza e sanzioni per garantire l’effettività delle norme a tutela dei dati personali. Tra questi, un provvedimento recente del 10 aprile 2025 riguarda la gestione dei procedimenti di opposizione a sanzioni, sottolineando l’importanza di un corretto bilanciamento tra diritti degli interessati e attività ispettiva dell’Autorità.&nbsp;</p>



<p>Queste decisioni mostrano come la disciplina della privacy stia evolvendo rapidamente in risposta alla trasformazione digitale. I tribunali e le autorità di controllo in Europa e in Italia stanno assumendo una posizione sempre più rigorosa nei confronti delle pratiche di trattamento dei dati, imponendo standard più elevati di conformità e responsabilità. Per i cittadini ciò significa una maggiore tutela giuridica dei propri dati personali, ma anche l’emergere di nuove sfide interpretative e applicative per gestire l’equilibrio tra innovazione tecnologica, diritti individuali e interessi collettivi nel mondo digitale.&nbsp;</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Data Poisoning: quando i dati avvelenano l’intelligenza artificiale</title>
		<link>https://www.giornaledelcilento.it/data-poisoning-quando-i-dati-avvelenano-lintelligenza-artificiale/</link>
		
		<dc:creator><![CDATA[Redazione]]></dc:creator>
		<pubDate>Fri, 30 Jan 2026 17:08:29 +0000</pubDate>
				<category><![CDATA[AI & Hi-Tech]]></category>
		<category><![CDATA[Cybersecurity]]></category>
		<category><![CDATA[algoritmi sicuri]]></category>
		<category><![CDATA[cyberattack]]></category>
		<category><![CDATA[data poisoning]]></category>
		<category><![CDATA[governance IA]]></category>
		<category><![CDATA[IA e finanza]]></category>
		<category><![CDATA[IA e sanità]]></category>
		<category><![CDATA[IA robusta]]></category>
		<category><![CDATA[integrità dei dati]]></category>
		<category><![CDATA[intelligenza artificiale]]></category>
		<category><![CDATA[machine learning]]></category>
		<category><![CDATA[minacce digitali]]></category>
		<category><![CDATA[sicurezza dei dati]]></category>
		<category><![CDATA[sicurezza informatica]]></category>
		<category><![CDATA[tecnologie emergenti]]></category>
		<guid isPermaLink="false">https://www.giornaledelcilento.it/?p=232333</guid>

					<description><![CDATA[Nel mondo dell’intelligenza artificiale, non sono solo gli algoritmi a fare la differenza. I dati che li alimentano possono diventare un’arma potente, capace di distorcere risultati, manipolare decisioni e creare [...]]]></description>
										<content:encoded><![CDATA[
<p>Nel mondo dell’intelligenza artificiale, non sono solo gli algoritmi a fare la differenza. I dati che li alimentano possono diventare un’arma potente, capace di distorcere risultati, manipolare decisioni e creare danni significativi. Questo fenomeno prende il nome di data poisoning, ovvero “avvelenamento dei dati”, ed è una delle minacce emergenti più insidiose per aziende, istituzioni e utenti.</p>



<h3 class="wp-block-heading">Cos’è il data poisoning</h3>



<p>Il data poisoning si verifica quando un attore malintenzionato inserisce dati falsi o manipolati nei dataset utilizzati per addestrare modelli di intelligenza artificiale. L’obiettivo è alterare il comportamento del modello, portandolo a commettere errori specifici o a favorire scelte desiderate dall’attaccante.</p>



<p>A differenza di un attacco diretto al software o ai sistemi informatici, il data poisoning colpisce la “materia prima” dell’IA: i dati stessi. Un modello addestrato su dati compromessi non sa distinguere il falso dal vero, e può propagare l’errore su larga scala. </p>



<h3 class="wp-block-heading">Esempi concreti e settori a rischio</h3>



<ul class="wp-block-list">
<li>Sanità: modelli di IA utilizzati per diagnosticare malattie possono essere indotti a falsi positivi o negativi se i dati clinici vengono manipolati. Ciò potrebbe portare a errori medici gravi.</li>



<li>Finanza: sistemi di trading automatizzato o modelli di scoring del credito possono essere ingannati da dati alterati, causando perdite economiche rilevanti.</li>



<li>Settore industriale e IoT: dispositivi intelligenti e sensori collegati a reti AI possono fornire letture falsificate, compromettendo sistemi di sicurezza o produzione.</li>
</ul>



<p>Un caso studio recente riguarda un modello predittivo in ambito assicurativo: alterando pochi dati nel dataset, i ricercatori sono riusciti a far sì che il modello sottovalutasse il rischio di alcune polizze, evidenziando quanto il sistema sia vulnerabile alla manipolazione dei dati. </p>



<h3 class="wp-block-heading">Come funziona tecnicamente un attacco</h3>



<p>Gli attacchi di data poisoning possono essere mirati o su larga scala:</p>



<ol start="1" class="wp-block-list">
<li>Mirati: il malintenzionato modifica pochi esempi chiave per influenzare specifiche predizioni, ad esempio facendo sì che un modello di riconoscimento facciale identifichi erroneamente una persona.</li>



<li>Broad-scale: i dati contaminati vengono inseriti in grandi quantità, degradando le performance complessive del modello.</li>
</ol>



<p>Questi attacchi sono difficili da rilevare perché i dati manipolati possono sembrare perfettamente normali all’occhio umano. </p>



<h3 class="wp-block-heading">Implicazioni per sicurezza e governance dell’IA</h3>



<p>Il data poisoning rappresenta una minaccia significativa per la fiducia nei sistemi di IA. Secondo studi pubblicati su riviste scientifiche, fino al 15‑20% dei modelli pubblici potrebbe essere vulnerabile ad attacchi mirati se non sono implementate adeguate contromisure.</p>



<p>Gli esperti sottolineano che la sicurezza dei dati è tanto importante quanto la sicurezza degli algoritmi. Strategie chiave includono:</p>



<ul class="wp-block-list">
<li>Validazione e pulizia continua dei dataset</li>



<li>Monitoraggio in tempo reale delle anomalie nei dati</li>



<li>Adozione di modelli robusti che possano resistere a input malevoli</li>
</ul>



<h3 class="wp-block-heading">Sfide future e responsabilità</h3>



<p>Con l’espansione dell’IA in settori critici — sanità, trasporti, finanza, sicurezza — il rischio di data poisoning diventa anche una questione di sicurezza nazionale e responsabilità legale. Le aziende e le istituzioni devono garantire tracciabilità dei dati, audit periodici e standard etici per ridurre il rischio che dati contaminati possano influenzare decisioni vitali. </p>



<p>Foto tratta da <a href="https://www.sciencealert.com/poisoned-ai-could-be-the-future-of-digital-security-risks">https://www.sciencealert.com/poisoned-ai-could-be-the-future-of-digital-security-risks</a></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Voce AI e deepfake audio: la nuova frontiera della frode digitale e come difendersi</title>
		<link>https://www.giornaledelcilento.it/voce-ai-e-deepfake-audio-la-nuova-frontiera-della-frode-digitale-e-come-difendersi/</link>
		
		<dc:creator><![CDATA[Redazione]]></dc:creator>
		<pubDate>Fri, 30 Jan 2026 16:57:49 +0000</pubDate>
				<category><![CDATA[AI & Hi-Tech]]></category>
		<category><![CDATA[Cybersecurity]]></category>
		<category><![CDATA[Intelligenza Artificiale]]></category>
		<guid isPermaLink="false">https://www.giornaledelcilento.it/?p=232322</guid>

					<description><![CDATA[Negli ultimi anni l’intelligenza artificiale ha reso possibile qualcosa che fino a poco tempo fa sembrava fantascienza: clonare la voce umana con una fedeltà tale da ingannare tanto gli esseri [...]]]></description>
										<content:encoded><![CDATA[
<p>Negli ultimi anni l’intelligenza artificiale ha reso possibile qualcosa che fino a poco tempo fa sembrava fantascienza: clonare la voce umana con una fedeltà tale da ingannare tanto gli esseri umani quanto i sistemi di sicurezza automatici. I deepfake audio — registrazioni vocali generate o manipulate con algoritmi di IA — non sono più un esperimento di laboratorio, ma una minaccia reale e crescente nel mondo della sicurezza digitale, delle frodi finanziarie e dell’identità personale.&nbsp;</p>



<h3 class="wp-block-heading">Cos’è un deepfake audio e come funziona</h3>



<p>Un deepfake audio è un file sonoro in cui la voce di una persona reale è stata replicata o alterata tramite tecnologie di machine learning e reti neurali, a partire da registrazioni esistenti o da pochi minuti di audio. L’intelligenza artificiale apprende il timbro, il ritmo e le caratteristiche vocali di un individuo per generare una voce sintetica che può sembrare identica a quella originale per chi ascolta o per i sistemi biometrici.&nbsp;</p>



<p>Questo tipo di tecnologia è stata resa accessibile grazie alla diffusione di strumenti come generatori di testo‑in‑voce avanzati e modelli di conversione vocale, che permettono anche a utenti senza competenze tecniche di creare voci sintetiche realistiche.&nbsp;</p>



<h3 class="wp-block-heading">Rischi concreti: dalle truffe personali alle frodi aziendali</h3>



<p>I deepfake audio non sono una semplice curiosità tecnologica: stanno diventando strumenti di frode sempre più efficaci. Secondo analisi recenti, casi di clonazione vocale sono stati utilizzati per convincere vittime a effettuare pagamenti o trasferimenti di denaro fingendo di essere un capo, un collega o un familiare.&nbsp;</p>



<p>Le tecniche di deepfake phishing utilizzano la voce sintetica di una persona di fiducia — come un parente in difficoltà — per richiedere codici di accesso, dati sensibili o trasferimenti finanziari, con conseguenze economiche gravi per individui e aziende.&nbsp;</p>



<p>In alcuni episodi documentati, i deepfake vocali sono serviti a orchestrare truffe mirate a società e organizzazioni: impersonando dirigenti, cybercriminali hanno autorizzato trasferimenti di fondi o ingannato team finanziari con messaggi audio convincenti, esponendo le imprese a perdite significative.&nbsp;</p>



<h3 class="wp-block-heading">Perché riconoscerli è così difficile</h3>



<p>Una delle caratteristiche più preoccupanti dei deepfake audio è che gli esseri umani non riescono facilmente a distinguerli da voci autentiche. Studi accademici mostrano che l’udito umano può identificare deepfake vocali con un’affidabilità non molto superiore al caso, intorno al 70‑75 %, anche quando l’ascoltatore è consapevole della possibilità di truffa.&nbsp;</p>



<p>Questo significa che, in assenza di strumenti tecnologici di verifica, fidarsi del proprio orecchio non è sufficiente per proteggersi. I deepfake audio sono progettati per sfruttare la naturale fiducia che gli individui ripongono nelle parole di una voce familiare.</p>



<h3 class="wp-block-heading">Impatto sulla sicurezza aziendale e digitale</h3>



<p>Per le imprese la minaccia non riguarda solo la frode finanziaria: i deepfake vocali mettono a rischio sistemi di autenticazione basati sulla voce, sempre più diffusi nei servizi bancari, negli assistenti vocali e nelle piattaforme di assistenza clienti. Ricercatori hanno evidenziato come i modelli di sintesi vocale possano bypassare i sistemi biometrico‑vocali di verifica, spingendo a ripensare questi strumenti di sicurezza.&nbsp;</p>



<p>Inoltre, l’automazione delle tecniche di deepfake rende possibile gli attacchi su larga scala, dove organizzazioni o reti criminali possono tentare frodi in modo massivo e sistematico. Per le imprese diventa quindi cruciale adottare contromisure avanzate e protocolli di verifica robusti, compresi software di rilevamento AI‑driven e formazione specifica per i dipendenti.&nbsp;</p>



<h3 class="wp-block-heading">Strumenti di difesa e tecnologie emergenti</h3>



<p>Per contrastare i deepfake audio, stanno nascendo soluzioni tecnologiche che combinano intelligenza artificiale con analisi del segnale vocale. Strumenti come Voice Shield analizzano le caratteristiche intrinseche di un audio in tempo reale per determinare se è autentico o manipolato, riconoscendo pattern che sfuggono all’udito umano.&nbsp;</p>



<p>Gruppi di ricerca stanno anche lavorando su approcci innovativi per proteggere la privacy vocale in tempo reale, usando perturbazioni di frequenza e tecniche di protezione che possono impedire a modelli di IA di clonare la voce con successo.&nbsp;</p>



<h3 class="wp-block-heading">Normative e strumenti legali</h3>



<p>A livello giuridico i deepfake audio rappresentano una sfida complessa: in molti ordinamenti, inclusa l’Italia, non esiste ancora una disciplina specifica, ma le condotte fraudolente basate su voce clonata possono essere perseguite attraverso norme generali come truffa, sostituzione di persona e interferenze nella vita privata.&nbsp;</p>



<p>Questo quadro legale richiede però un aggiornamento continuo, perché la tecnologia avanza più velocemente delle norme e richiede risposte giuridiche più puntuali.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Presentare una denuncia alla Polizia o ai Carabinieri: c&#8217;è differenza?</title>
		<link>https://www.giornaledelcilento.it/presentare-una-denuncia-alla-polizia-o-ai-carabinieri-ce-differenza/</link>
		
		<dc:creator><![CDATA[Studio Labonia]]></dc:creator>
		<pubDate>Thu, 29 Jan 2026 18:51:40 +0000</pubDate>
				<category><![CDATA[Codice della Strada]]></category>
		<category><![CDATA[Cybersecurity]]></category>
		<category><![CDATA[Legalità nel Territorio]]></category>
		<category><![CDATA[Leggi & Giustizia]]></category>
		<category><![CDATA[Novità Legislative]]></category>
		<category><![CDATA[Sentenze e Giurisprudenza]]></category>
		<category><![CDATA[arma dei carabinieri]]></category>
		<category><![CDATA[come fare denuncia]]></category>
		<category><![CDATA[denuncia polizia o carabinieri]]></category>
		<category><![CDATA[differenza polizia carabinieri]]></category>
		<category><![CDATA[diritto penale]]></category>
		<category><![CDATA[polizia di stato]]></category>
		<category><![CDATA[presentare querela]]></category>
		<category><![CDATA[procedura penale]]></category>
		<category><![CDATA[pronto intervento]]></category>
		<category><![CDATA[prossimità territoriale]]></category>
		<category><![CDATA[pubblica sicurezza]]></category>
		<category><![CDATA[sicurezza cittadini]]></category>
		<category><![CDATA[trasmissione denuncia procura]]></category>
		<category><![CDATA[uffici polizia specializzati]]></category>
		<guid isPermaLink="false">https://www.giornaledelcilento.it/?p=232177</guid>

					<description><![CDATA[Scioglie questo dubbio il commento dell&#8217;avvocato Simone Labonia, che coglie al volo l&#8217;occasione per indirizzare un cenno di gratitudine all’attività di tutte le istituzioni, impegnate sul territorio per la nostra [...]]]></description>
										<content:encoded><![CDATA[
<p><em>Scioglie questo dubbio il commento dell&#8217;avvocato Simone Labonia, che coglie al volo l&#8217;occasione per indirizzare un cenno di gratitudine all’attività di tutte le istituzioni, impegnate sul territorio per la nostra sicurezza.</em></p>



<p>Quando un cittadino deve presentare una denuncia, la scelta tra Carabinieri e Polizia di Stato è spesso dettata da abitudini o dalla semplice vicinanza fisica di un ufficio. Dal punto di vista giuridico, però, è bene chiarire subito un punto fondamentale: non esiste alcuna differenza di validità o di efficacia della denuncia a seconda che essa venga presentata all’Arma dei Carabinieri o alla Polizia di Stato.<br>Entrambe le istituzioni sono organi di polizia giudiziaria e di pubblica sicurezza, ai sensi degli articoli 55 e seguenti del codice di procedura penale.</p>



<p>Ciò significa che qualsiasi denuncia o querela raccolta da uno dei due corpi produce gli stessi effetti giuridici ed è trasmessa senza ritardo alla Procura della Repubblica competente.<br>Le differenze, semmai, emergono sul piano organizzativo e territoriale.</p>



<p>L’Arma dei Carabinieri si caratterizza per una presenza estremamente capillare: le stazioni sono diffuse anche nei piccoli comuni, nelle aree rurali e montane, dove spesso rappresentano l’unico presidio dello Stato. In questi contesti, rivolgersi ai Carabinieri è la scelta più immediata e naturale, soprattutto per fatti di minore complessità o per esigenze di pronto intervento.</p>



<p>La Polizia di Stato, invece, opera prevalentemente nei centri urbani medio-grandi ed è strutturata in uffici specializzati (Squadra Mobile, Digos, Polizia Postale, Polizia Stradale). Per questo motivo, in presenza di reati complessi o connotati da particolari profili tecnici, come truffe informatiche, cybercrime, reati finanziari o fenomeni associativi, può risultare utile rivolgersi direttamente a un ufficio della Polizia di Stato dotato di competenze specifiche.</p>



<p>Va comunque sottolineato che il cittadino non è tenuto a conoscere preventivamente quale forza di polizia sia “più competente”: l’eventuale specializzazione viene gestita internamente dagli uffici, attraverso la trasmissione degli atti o la delega investigativa disposta dall’autorità giudiziaria.</p>



<p>A fare la differenza è soprattutto la prossimità territoriale, che garantisce accessibilità, rapidità e maggiore tutela immediata. In un sistema integrato di sicurezza, le due istituzioni operano in modo complementare, assicurando al cittadino un unico obiettivo: la corretta attivazione della giustizia.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Digital tech e privacy: cosa rischiamo davvero con l’uso quotidiano dell’AI</title>
		<link>https://www.giornaledelcilento.it/digital-tech-e-privacy-cosa-rischiamo-davvero-con-luso-quotidiano-dellai/</link>
		
		<dc:creator><![CDATA[Marianna Vallone]]></dc:creator>
		<pubDate>Wed, 28 Jan 2026 13:28:26 +0000</pubDate>
				<category><![CDATA[Cybersecurity]]></category>
		<category><![CDATA[Intelligenza Artificiale]]></category>
		<category><![CDATA[cybersecurity]]></category>
		<category><![CDATA[privacy]]></category>
		<category><![CDATA[regolamento generale sulla protezione dei dati]]></category>
		<category><![CDATA[rischi privacy]]></category>
		<category><![CDATA[servizi digitali]]></category>
		<guid isPermaLink="false">https://www.giornaledelcilento.it/digital-tech-e-privacy-cosa-rischiamo-davvero-con-luso-quotidiano-dellai/</guid>

					<description><![CDATA[Con l’adozione sempre più diffusa dell’intelligenza artificiale nei servizi digitali della vita quotidiana, la privacy dei dati personali è diventata un tema centrale nel dibattito pubblico, normativo e tecnologico. L’IA [...]]]></description>
										<content:encoded><![CDATA[<p>Con l’adozione sempre più diffusa dell’intelligenza artificiale nei servizi digitali della vita quotidiana, la privacy dei dati personali è diventata un tema centrale nel dibattito pubblico, normativo e tecnologico. L’IA trasforma abitudini, relazioni e processi economici, ma la sua capacità di raccogliere, analizzare e utilizzare informazioni sensibili espone individui e società a rischi concreti. Comprendere questi rischi e il quadro regolatorio che li disciplina è fondamentale per valutare fino a che punto la tecnologia sta ridefinendo la tutela dei dati in un mondo digital tech.</p>
<h3>Il ruolo dei dati nell’IA</h3>
<p>Le tecnologie di intelligenza artificiale si basano su grandi quantità di dati per “imparare” e ottenere risultati predittivi o generativi. Questi dati possono includere informazioni personali come comportamento online, immagini, testi, dati biometrici e persino dettagli sanitari. La raccolta e l’uso di tali informazioni senza trasparenza o controllo esplicito da parte degli utenti possono violare principi fondamentali della protezione dei dati, come la limitazione delle finalità e la minimizzazione dei dati raccolti. I dati necessari per addestrare modelli di intelligenza artificiale sono spesso raccolti tramite tecniche come il web scraping di contenuti online o attraverso partnership commerciali che coinvolgono la condivisione di dataset tra aziende tecnologiche. Anche quando i dati appaiono “pubblici”, il loro impiego in sistemi IA può violare principi di tutela previsti dal GDPR e altre normative sulla privacy.&nbsp;</p>
<h3>Rischi concreti per la privacy</h3>
<p>Una delle principali criticità legate all’uso dell’IA è la possibilità che sistemi apparentemente innocui raccolgano e analizzino informazioni in modo invasivo. Sistemi di sorveglianza basati su IA, quali riconoscimento facciale o monitoraggio comportamentale, possono portare a forme di profilazione approfondita degli utenti senza consenso informato. In ambito medico, ad esempio, l’uso di assistenti virtuali o strumenti di diagnostica basati su IA implica l’elaborazione di dati sanitari estremamente sensibili. Anche se tali sistemi possono migliorare l’efficienza delle prestazioni, rischiano di esporre informazioni personali qualora non siano adottate robuste misure di sicurezza o se i dati vengono gestiti senza chiare garanzie di riservatezza. Secondo esperti, condividere dati sanitari con chatbot non coperti da specifiche normative di settore può risultare pericoloso per la tutela della privacy. Un altro caso rappresentativo riguarda l’uso di chatbot e assistenti digitali che conservano cronologie di conversazioni, input e preferenze degli utenti. La memorizzazione massiva di tali informazioni, se non correttamente anonimizzata, aumenta il rischio di esposizione in caso di violazioni o attacchi informatici, con conseguente possibile diffusione dei dati sul dark web o ad attori non autorizzati.&nbsp;</p>
<h3>Regolamenti e quadro giuridico</h3>
<p>La risposta normativa alla sfida dell’IA in relazione alla privacy è articolata e in evoluzione. In Europa, il Regolamento Generale sulla Protezione dei Dati (GDPR) rappresenta ancora il principale riferimento per la protezione dei dati personali. Questo quadro impone che ogni trattamento di dati sia lecito, trasparente e limitato allo scopo dichiarato, con obblighi di sicurezza e responsabilità per i titolari del trattamento. A questo si affianca il AI Act, entrato in vigore nel 2024, che mira a disciplinare l’uso dell’intelligenza artificiale in modo armonizzato in tutta l’Unione Europea. Il regolamento assegna particolare rilievo alla tutela dei dati personali nei sistemi ad “alto rischio”, richiedendo trasparenza algoritmica, supervisione umana e misure adeguate di conformità per ridurre potenziali violazioni dei diritti fondamentali. In Italia, oltre alle regole europee, la normativa nazionale ha integrato ulteriori obblighi di trasparenza e controllo per l’uso dell’IA nei servizi pubblici e privati, come previsto dalla Legge n.132/2025, che introduce registri nazionali degli algoritmi e un quadro più stringente di supervisione.&nbsp;</p>
<p>Nonostante l’assetto regolatorio, le proposte di modifica del Digital Services Act e di altri strumenti europei hanno suscitato critiche, con l’accusa di un possibile indebolimento delle protezioni penali e della trasparenza nell’uso dei dati per l’addestramento dei modelli di IA. Secondo osservatori di diritti digitali, tali modifiche potrebbero facilitare l’uso di dati personali senza un consenso adeguato.&nbsp;</p>
<h3>Esempi di contenziosi e sanzioni</h3>
<p>Il tema della privacy nell’intelligenza artificiale non è puramente teorico: autorità di controllo europee hanno già adottato misure sanzionatorie contro società tecnologiche. Nel 2025 il Garante per la protezione dei dati personali in Italia ha multato lo sviluppatore del chatbot Replika per milioni di euro, ritenendo che mancassero basi legali per il trattamento dei dati degli utenti e sistemi adeguati di verifica dell’età per tutelare i minori.&nbsp;</p>
<p>Anche in altri Paesi, le autorità di privacy stanno indagando su come i modelli di IA vengono addestrati e su possibili violazioni del GDPR, evidenziando l’importanza di conformarsi non solo alle regole di protezione dei dati, ma anche di comunicare in modo trasparente agli utenti l’uso delle loro informazioni.&nbsp;</p>
<h3>Verso un equilibrio tra innovazione e tutela della privacy</h3>
<p>La diffusione dell’intelligenza artificiale nella sfera digitale comporta vantaggi concreti per efficienza, personalizzazione dei servizi e innovazione tecnologica. Tuttavia, questi benefici non possono prescindere da un sistema di garanzie che metta al centro la tutela dei diritti degli individui. Per mantenere la fiducia degli utenti e rispettare i principi di privacy e trasparenza, è necessario che aziende e istituzioni adottino pratiche di protezione dei dati robuste, accompagnate da strumenti di controllo etico e da una cultura digitale consapevole. In un contesto in cui le tecnologie digital tech sono sempre più pervasive, la privacy non può essere un optional, ma deve essere parte integrante della progettazione, dello sviluppo e dell’uso dell’intelligenza artificiale.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Le macchine che persuadono: così l’intelligenza artificiale riscrive la disinformazione</title>
		<link>https://www.giornaledelcilento.it/le-macchine-che-persuadono-cosi-lintelligenza-artificiale-riscrive-la-disinformazione/</link>
		
		<dc:creator><![CDATA[Redazione]]></dc:creator>
		<pubDate>Sat, 24 Jan 2026 15:19:38 +0000</pubDate>
				<category><![CDATA[AI & Hi-Tech]]></category>
		<category><![CDATA[Cybersecurity]]></category>
		<category><![CDATA[Intelligenza Artificiale]]></category>
		<category><![CDATA[arte intelligenza artificiale]]></category>
		<guid isPermaLink="false">https://www.giornaledelcilento.it/?p=231425</guid>

					<description><![CDATA[Non sono più bot rudimentali né profili falsi facili da individuare. La nuova disinformazione digitale ha assunto la forma di sciami di intelligenza artificiale, sistemi composti da agenti autonomi capaci [...]]]></description>
										<content:encoded><![CDATA[
<p class="p1">Non sono più bot rudimentali né profili falsi facili da individuare. La nuova disinformazione digitale ha assunto la forma di sciami di intelligenza artificiale, sistemi composti da agenti autonomi capaci di coordinarsi, apprendere e modificare i propri messaggi in tempo reale. Secondo analisti ed esperti di sicurezza informatica, questa evoluzione segna un salto di qualità nella manipolazione dell’opinione pubblica, rendendola più efficace e difficile da contrastare.</p>



<p class="p3">A differenza delle campagne di fake news del passato, gli sciami di IA non si limitano a diffondere contenuti ingannevoli in modo massivo. Analizzano le dinamiche delle piattaforme sociali, osservano le reazioni degli utenti e adattano linguaggio, toni ed emozioni ai diversi contesti culturali e politici. In questo modo riescono a inserirsi nel dibattito pubblico senza destare sospetti, simulando comportamenti e opinioni credibili, spesso indistinguibili da quelle di utenti reali.</p>



<p class="p3">Il rischio, avvertono gli studiosi, è che queste tecnologie vengano utilizzate per influenzare processi democratici, orientare il consenso e amplificare divisioni sociali già esistenti. La forza degli sciami risiede nella loro capacità di apprendere rapidamente quali messaggi funzionano meglio, correggendo la strategia in corsa e rendendo inefficaci molti dei sistemi automatici di controllo oggi adottati dalle piattaforme digitali.</p>



<p class="p3">Di fronte a questo scenario, la questione non è soltanto tecnologica ma profondamente politica e culturale. Difendere lo spazio informativo significa ripensare le regole della comunicazione online, rafforzare la trasparenza degli algoritmi e sviluppare nuovi strumenti di monitoraggio. In gioco non c’è solo la qualità dell’informazione, ma la tenuta stessa del dibattito pubblico in un’epoca in cui le macchine non si limitano più a calcolare, ma imparano a persuadere.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Sorveglianza e privacy: quanto siamo davvero sicuri con l’IA</title>
		<link>https://www.giornaledelcilento.it/sorveglianza-e-privacy-quanto-siamo-davvero-sicuri-con-lia/</link>
		
		<dc:creator><![CDATA[Redazione]]></dc:creator>
		<pubDate>Mon, 19 Jan 2026 18:05:00 +0000</pubDate>
				<category><![CDATA[AI & Hi-Tech]]></category>
		<category><![CDATA[Cybersecurity]]></category>
		<category><![CDATA[ia]]></category>
		<category><![CDATA[intelligenza artificiale]]></category>
		<category><![CDATA[privacy]]></category>
		<category><![CDATA[security]]></category>
		<guid isPermaLink="false">https://www.giornaledelcilento.it/?p=230951</guid>

					<description><![CDATA[L’intelligenza artificiale è entrata nella vita quotidiana in modo silenzioso, pervasivo e spesso invisibile. Dagli smartphone alle smart city, dai social network alle telecamere intelligenti, l’IA è sempre più in [...]]]></description>
										<content:encoded><![CDATA[
<p>L’intelligenza artificiale è entrata nella vita quotidiana in modo silenzioso, pervasivo e spesso invisibile. Dagli smartphone alle smart city, dai social network alle telecamere intelligenti, l’IA è sempre più in grado di raccogliere, elaborare e analizzare dati personali. E con questa capacità, cresce anche il dibattito su privacy, sorveglianza e sicurezza. Quanto siamo davvero protetti? E quanto sappiamo di ciò che accade “dietro le quinte”?</p>



<h3 class="wp-block-heading">L’IA come occhi invisibili</h3>



<p>Le telecamere dotate di riconoscimento facciale, i sistemi di monitoraggio del traffico, gli algoritmi dei social network e le app di tracciamento dei contatti: tutti strumenti che utilizzano intelligenza artificiale per identificare modelli, persone o comportamenti. Non si tratta solo di strumenti tecnologici, ma di sistemi capaci di decidere automaticamente chi osservare e come interpretare i dati.</p>



<p>Negli ultimi anni, diverse inchieste hanno mostrato come queste tecnologie possano essere usate in modi non trasparenti: dalle città europee dove le telecamere monitorano movimenti e volti dei cittadini, agli Stati che impiegano IA per sorvegliare minoranze o dissidenti. Anche le aziende private, con i dati raccolti online, creano profili dettagliati di preferenze, abitudini e relazioni sociali.</p>



<h3 class="wp-block-heading">Privacy sotto pressione</h3>



<p>Secondo l’Autorità Garante per la Protezione dei Dati Personali, la maggiore diffusione dell’IA impone un delicato equilibrio tra innovazione, sicurezza e tutela dei cittadini. Gli algoritmi, infatti, non sono neutri: possono perpetuare pregiudizi o discriminazioni, spesso senza che gli utenti ne siano consapevoli.</p>



<p>Il caso dei social network è emblematico: l’IA analizza ogni click, ogni “like”, ogni ricerca, creando profili dettagliati per pubblicità mirata o per indirizzare contenuti personalizzati. Spesso, queste informazioni vengono conservate e scambiate senza un consenso chiaro, sollevando dubbi su quanto il cittadino sia davvero protetto.</p>



<h3 class="wp-block-heading">Sorveglianza predittiva e rischi legali</h3>



<p>Oltre alla raccolta dati, l’IA consente anche la sorveglianza predittiva. Algoritmi sempre più sofisticati possono individuare comportamenti “a rischio” o prevedere tendenze sociali. Se da un lato può aiutare a prevenire crimini o incidenti, dall’altro apre scenari pericolosi per la libertà personale, con il rischio di profilazioni ingiuste e abusi.</p>



<p>L’Unione Europea sta cercando di regolamentare questi strumenti con il Regolamento sull’intelligenza artificiale (AI Act), introducendo limiti per sistemi ad alto rischio come quelli di riconoscimento facciale o di sorveglianza pubblica. Tuttavia, la normativa è ancora in fase di definizione e, nel frattempo, cittadini e aziende si trovano a navigare in un terreno spesso ambiguo.</p>



<h3 class="wp-block-heading">Come difendersi</h3>



<p>Non esistono soluzioni perfette, ma alcune pratiche aiutano a ridurre i rischi: controllare le impostazioni della privacy su smartphone e social network; limitare la condivisione di dati personali con app e servizi online; utilizzare software aggiornati e strumenti di crittografia; chiedere maggiore trasparenza alle istituzioni e alle aziende che utilizzano IA.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Sicurezza digitale, accordo Carabinieri–Centrale del Latte: il messaggio arriva sulle confezioni</title>
		<link>https://www.giornaledelcilento.it/sicurezza-digitale-accordo-carabinieri-centrale-del-latte-il-messaggio-arriva-sulle-confezioni/</link>
		
		<dc:creator><![CDATA[Antonio Vuolo]]></dc:creator>
		<pubDate>Fri, 09 Jan 2026 10:35:00 +0000</pubDate>
				<category><![CDATA[Attualità]]></category>
		<category><![CDATA[Cybersecurity]]></category>
		<category><![CDATA[carabinieri]]></category>
		<category><![CDATA[centrale del latte]]></category>
		<category><![CDATA[cilento]]></category>
		<category><![CDATA[educazione]]></category>
		<category><![CDATA[famiglie]]></category>
		<category><![CDATA[prevenzione]]></category>
		<category><![CDATA[salerno]]></category>
		<category><![CDATA[sicurezza informatica]]></category>
		<guid isPermaLink="false">https://www.giornaledelcilento.it/sicurezza-digitale-accordo-carabinieri-centrale-del-latte-il-messaggio-arriva-sulle-confezioni/</guid>

					<description><![CDATA[Educare alla sicurezza informatica partendo dai gesti quotidiani. È questo l’obiettivo del nuovo accordo di collaborazione siglato questa mattina presso la sede salernitana della Centrale del Latte tra il Colonnello [...]]]></description>
										<content:encoded><![CDATA[<p>Educare alla sicurezza informatica partendo dai gesti quotidiani. È questo l’obiettivo del nuovo accordo di collaborazione siglato questa mattina presso la sede salernitana della Centrale del Latte tra il Colonnello Filippo Melchiorre, Comandante Provinciale dei Carabinieri di Salerno, e il dott. Diego De Martino, Coordinatore Generale BU Sud della Centrale del Latte d’Italia S.p.A.</p>
<p>L’iniziativa amplia e rafforza una collaborazione già avviata con successo in passato, in particolare con la campagna di sensibilizzazione contro le truffe agli anziani, e affronta oggi un tema di crescente rilevanza sociale: la sicurezza online, con particolare attenzione alle fasce più esposte. A partire da marzo 2026, oltre 660.000 confezioni di latte fresco e parzialmente scremato distribuite nella provincia di Salerno diventeranno uno strumento di informazione e prevenzione. Sulle confezioni comparirà l’immagine di un Carabiniere con il cartello “Naviga sicuro, non sei solo”, affiancato da una bambina e dal messaggio diretto: “Hai dubbi on-line? Chiama il 112”. Una grafica semplice e immediata, pensata per catturare l’attenzione di adulti e bambini e trasmettere indicazioni chiare su come riconoscere situazioni sospette e chiedere aiuto.</p>
<p>La scelta del latte come veicolo comunicativo non è casuale. La colazione rappresenta uno dei pochi momenti di condivisione quotidiana all’interno delle famiglie: parlare di sicurezza digitale davanti a un bicchiere di latte può favorire un confronto naturale e continuo tra genitori e figli. A questo si aggiunge la distribuzione capillare dei prodotti della Centrale del Latte, che garantirà un’ampia diffusione del messaggio su tutto il territorio.</p>
<p>L’iniziativa si inserisce nel più ampio impegno dell’Arma dei Carabinieri nel contrasto alla devianza minorile e nella promozione di comportamenti responsabili anche nello spazio digitale. L’obiettivo è rafforzare la consapevolezza dei rischi della rete, prevenire condotte dannose e incentivare il dialogo in famiglia attraverso strumenti semplici e immediatamente fruibili.</p>
<p>La campagna sarà inoltre affiancata dalle attività che il Comando Provinciale dei Carabinieri porta avanti da anni nelle scuole della provincia: incontri formativi con studenti e docenti, conferenze con esperti, distribuzione di materiali informativi e momenti di confronto dedicati alla diffusione della cultura della legalità. Un impegno congiunto che punta a tutelare i più giovani e a costruire una cittadinanza digitale più consapevole.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Sempre più connessi, ma anche più vulnerabili: circa 9 campani su 10 temono i rischi digitali</title>
		<link>https://www.giornaledelcilento.it/sempre-piu-connessi-ma-anche-piu-vulnerabili-circa-9-campani-su-10-temono-i-rischi-digitali/</link>
		
		<dc:creator><![CDATA[Redazione]]></dc:creator>
		<pubDate>Fri, 19 Dec 2025 11:12:25 +0000</pubDate>
				<category><![CDATA[Cultura Tech]]></category>
		<category><![CDATA[Cybersecurity]]></category>
		<category><![CDATA[Smart Life]]></category>
		<category><![CDATA[Tendenze e stili di vita]]></category>
		<category><![CDATA[attacchi hacker]]></category>
		<category><![CDATA[vulnerabilità digitale]]></category>
		<guid isPermaLink="false">https://www.giornaledelcilento.it/?p=227518</guid>

					<description><![CDATA[In un’Italia sempre più connessa cresce anche il senso di vulnerabilità digitale. Circa 9 campani su 10 dichiarano di essere preoccupati per l’esposizione ai rischi online, dai furti di dati [...]]]></description>
										<content:encoded><![CDATA[
<p>In un’Italia sempre più connessa cresce anche il senso di vulnerabilità digitale. Circa 9 campani su 10 dichiarano di essere preoccupati per l’esposizione ai rischi online, dai furti di dati agli attacchi di hacker, e altrettanti ammettono di non sentirsi sufficientemente informati sulle contromisure da adottare per proteggersi.</p>



<p>È quanto emerge dall’ultima indagine dell’Osservatorio Sara Assicurazioni.</p>



<p>Negli ultimi anni, l’attenzione ai rischi informatici è cresciuta per il 77% degli abitanti della Campania, mentre un ulteriore 21% dichiara di essere sempre rimasto allerta. Una preoccupazione tutt’altro che teorica: circa un campano su due afferma di aver subito, o quantomeno sospettato, una qualche forma di violazione digitale. I social network (17%), le e-mail (14%) e i conti bancari o app di pagamento (7%) risultano i canali più colpiti, seguiti dai siti di e-commerce o app di acquisti online (5%).</p>



<p>Alla domanda su cosa spaventi di più in caso di violazione dei propri dati digitali, al primo posto emerge il danno economico (43%) insieme al rischio che le informazioni personali vengano utilizzate per scopi illegali (43%), seguiti dal senso di vulnerabilità cui si sentirebbero esposti (23%) e dall’impatto psicologico (10%).</p>



<p>Un aspetto, quest’ultimo, che cresce di rilevanza se si considera il fenomeno del cyberbullismo, percepito come un rischio concreto soprattutto tra i più giovani: più di un intervistato su tre (36%) dichiara infatti di conoscere qualcuno che ne è stato vittima.</p>



<p>Sul fronte della prevenzione di questo fenomeno, la maggioranza dei campani attribuisce un ruolo chiave alle famiglie (58%) e alle scuole (56%), oltre a un maggior controllo da parte delle piattaforme social (28%) e alla responsabilizzazione degli stessi ragazzi (26%).</p>



<p>Eppure, nonostante i timori, quasi otto campani su dieci (78%) ignorano l’esistenza di polizze assicurative pensate per proteggere in caso di furto di dati, violazioni da parte di hacker o episodi di cyberbullismo. Più di uno su tre (40%) dichiara tuttavia che potrebbe valutarla per tutelarsi. Tra le ragioni figurano la copertura delle spese in caso di frode digitale (27%), il senso di sicurezza (22%), la tutela legale (21%) e la copertura della responsabilità civile dei genitori per danni causati dai figli minori online (16%).</p>



<p>«<em>La nostra ricerca evidenzia una crescente preoccupazione circa i rischi della vita digitale, e in questo scenario, insieme a consapevolezza e comportamenti preventivi, anche le soluzioni assicurative possono fornire una protezione efficace</em> – <strong>dichiara Marco Brachini, Direttore Marketing, Brand e Customer Experience di Sara Assicurazioni</strong> – <em>Noi di Sara siamo al fianco delle persone con polizze personalizzate, capaci di offrire coperture su misura contro rischi quali frodi digitali, la responsabilità civile dei genitori in caso di danni da violazione della privacy causati dai figli minori sui social e fatti illeciti legati al cyberbullismo subiti o commessi dai figli minori</em>.» </p>



<p>(<em>Indagine CAWI condotta dall’istituto di ricerca Nextplora su di un campione rappresentativo della popolazione italiana per quote d’età, genere ed area geografica.</em>)</p>



<figure class="wp-block-image size-large"><img fetchpriority="high" decoding="async" width="1024" height="740" src="https://www.giornaledelcilento.it/wp-content/uploads/2025/12/Rischi-digitali_Campania-1024x740.png" alt="" class="wp-image-227519" srcset="https://www.giornaledelcilento.it/wp-content/uploads/2025/12/Rischi-digitali_Campania-1024x740.png 1024w, https://www.giornaledelcilento.it/wp-content/uploads/2025/12/Rischi-digitali_Campania-300x217.png 300w, https://www.giornaledelcilento.it/wp-content/uploads/2025/12/Rischi-digitali_Campania-768x555.png 768w, https://www.giornaledelcilento.it/wp-content/uploads/2025/12/Rischi-digitali_Campania-1536x1110.png 1536w, https://www.giornaledelcilento.it/wp-content/uploads/2025/12/Rischi-digitali_Campania-2048x1480.png 2048w" sizes="(max-width: 1024px) 100vw, 1024px" /></figure>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Cybersecurity nazionale: la corsa italiana contro le minacce informatiche</title>
		<link>https://www.giornaledelcilento.it/cybersecurity-nazionale-la-corsa-italiana-contro-le-minacce-informatiche/</link>
		
		<dc:creator><![CDATA[Redazione]]></dc:creator>
		<pubDate>Wed, 17 Dec 2025 17:11:00 +0000</pubDate>
				<category><![CDATA[AI & Hi-Tech]]></category>
		<category><![CDATA[Cybersecurity]]></category>
		<guid isPermaLink="false">https://www.giornaledelcilento.it/?p=227240</guid>

					<description><![CDATA[Attacchi in aumento, infrastrutture critiche nel mirino e cittadini sempre più esposti. L’Italia rafforza la difesa digitale tra strategie governative, collaborazione pubblico-privato e una sfida che corre più veloce delle [...]]]></description>
										<content:encoded><![CDATA[
<p>Attacchi in aumento, infrastrutture critiche nel mirino e cittadini sempre più esposti. L’Italia rafforza la difesa digitale tra strategie governative, collaborazione pubblico-privato e una sfida che corre più veloce delle regole.</p>



<p>Roma — La guerra informatica non fa rumore, ma lascia segni profondi. Server bloccati, dati sottratti, servizi essenziali paralizzati. Negli ultimi anni l’Italia è diventata uno dei bersagli più frequenti di attacchi cyber in Europa, un segnale che ha acceso i riflettori sulla sicurezza digitale nazionale e sulla capacità del Paese di difendere infrastrutture, imprese e cittadini.</p>



<p>Secondo gli osservatori del settore, il numero e la sofisticazione degli attacchi informatici sono cresciuti in modo costante, con un picco legato al conflitto geopolitico internazionale e alla crescente digitalizzazione dei servizi pubblici. Nel mirino finiscono ospedali, pubbliche amministrazioni, aziende energetiche, trasporti e filiere industriali strategiche: obiettivi sensibili, dove un’interruzione può avere conseguenze reali sulla vita quotidiana.</p>



<h2 class="wp-block-heading">Un Paese sotto pressione digitale</h2>



<p>Ransomware, phishing evoluto, attacchi DDoS e violazioni di dati sono oggi le minacce più diffuse. In particolare, il ransomware resta l’arma preferita dei cybercriminali: colpisce i sistemi, cifra i dati e chiede riscatti milionari, spesso mettendo in crisi strutture che non possono permettersi lunghi tempi di inattività, come le strutture sanitarie.</p>



<p>“Non si tratta più di attacchi casuali”, spiega un esperto di sicurezza informatica che collabora con grandi aziende e istituzioni pubbliche. “Oggi gli attori malevoli studiano le organizzazioni, sfruttano vulnerabilità note e puntano su fattori umani come l’errore o la disattenzione. È una minaccia sistemica”.</p>



<p>A preoccupare è anche il dato culturale: molte piccole e medie imprese, cuore dell’economia italiana, investono ancora poco in cybersecurity, considerandola un costo e non una necessità strategica.</p>



<h2 class="wp-block-heading">La risposta dello Stato: tra prevenzione e coordinamento</h2>



<p>Negli ultimi anni il governo ha accelerato sul fronte della difesa digitale. Con la nascita e il rafforzamento dell’Agenzia per la Cybersicurezza Nazionale (ACN), l’Italia ha avviato una strategia più coordinata per la protezione del perimetro cibernetico nazionale, che include infrastrutture critiche, enti pubblici e operatori essenziali.</p>



<p>Il modello è chiaro: prevenzione, risposta rapida agli incidenti e collaborazione tra pubblico e privato. Sono stati introdotti obblighi più stringenti per la segnalazione degli attacchi, piani di continuità operativa e investimenti mirati nella formazione di personale specializzato.</p>



<p>“La cybersecurity non è solo tecnologia, è governance”, sottolinea un funzionario coinvolto nei programmi di sicurezza nazionale. “Servono procedure, responsabilità chiare e soprattutto una cultura della sicurezza diffusa”.</p>



<h2 class="wp-block-heading">Il ruolo delle imprese e della filiera privata</h2>



<p>Accanto allo Stato, il settore privato gioca un ruolo decisivo. Grandi aziende tecnologiche, operatori di telecomunicazioni e società di sicurezza collaborano sempre più spesso con le istituzioni, condividendo informazioni sulle minacce e sviluppando soluzioni di difesa avanzate basate su intelligenza artificiale e analisi predittiva.</p>



<p>Tuttavia, il livello di maturità resta disomogeneo. Se le grandi realtà industriali investono in centri di sicurezza operativi 24/7, molte PMI continuano a essere vulnerabili, diventando anelli deboli di filiere complesse.</p>



<p>“La sicurezza digitale è tanto forte quanto il suo punto più fragile”, avverte un analista di rischio cyber. “Un fornitore non protetto può diventare la porta d’ingresso per colpire un’intera catena produttiva”.</p>



<h2 class="wp-block-heading">Cittadini tra consapevolezza e vulnerabilità</h2>



<p>Anche i cittadini sono parte del fronte cyber. Truffe online, furti di identità, attacchi via email e social network colpiscono ogni giorno migliaia di persone. Password deboli, dispositivi non aggiornati e scarsa consapevolezza digitale rendono gli utenti bersagli facili.</p>



<p>Le campagne di sensibilizzazione avviate dalle istituzioni puntano proprio su questo aspetto: trasformare la sicurezza informatica in un’abitudine quotidiana, come chiudere la porta di casa o allacciare la cintura di sicurezza.</p>



<h2 class="wp-block-heading">Una sfida che corre contro il tempo</h2>



<p>La corsa italiana contro le minacce informatiche è ancora aperta. Le tecnologie evolvono, gli attacchi diventano più rapidi e automatizzati, mentre il quadro normativo cerca di tenere il passo. La cybersecurity non è più un tema per addetti ai lavori, ma una questione di sicurezza nazionale, economica e sociale.</p>



<p>In un Paese sempre più digitale, la vera sfida sarà costruire un ecosistema resiliente: capace non solo di difendersi, ma di reagire, adattarsi e continuare a funzionare anche sotto attacco. Perché nel cyberspazio, oggi, la sicurezza è già parte della sovranità.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Privacy e AI: quali dati stiamo davvero condividendo con i sistemi intelligenti</title>
		<link>https://www.giornaledelcilento.it/privacy-e-ai-quali-dati-stiamo-davvero-condividendo-con-i-sistemi-intelligenti/</link>
		
		<dc:creator><![CDATA[Redazione]]></dc:creator>
		<pubDate>Fri, 12 Dec 2025 16:07:28 +0000</pubDate>
				<category><![CDATA[AI & Hi-Tech]]></category>
		<category><![CDATA[Cybersecurity]]></category>
		<category><![CDATA[Intelligenza Artificiale]]></category>
		<guid isPermaLink="false">https://www.giornaledelcilento.it/?p=226731</guid>

					<description><![CDATA[Nel cuore della rivoluzione digitale, l’intelligenza artificiale non è più solo una promessa tecnologica: è parte integrante della nostra quotidianità. Dalle app che usiamo per organizzare viaggi e messaggi, ai [...]]]></description>
										<content:encoded><![CDATA[
<p>Nel cuore della rivoluzione digitale, l’intelligenza artificiale non è più solo una promessa tecnologica: è parte integrante della nostra quotidianità. Dalle app che usiamo per organizzare viaggi e messaggi, ai sistemi che analizzano la nostra voce o le nostre foto, AI raccoglie, elabora e inferisce dati. Ma qual è il confine tra innovazione e violazione della privacy? E, soprattutto, quali informazioni stiamo davvero condividendo – consapevolmente o no – con i sistemi intelligenti?</p>



<h3 class="wp-block-heading">L’AI non è neutrale: la dipendenza dai dati</h3>



<p>I sistemi di intelligenza artificiale si “nutrono” di quantità immense di dati per funzionare: dai testi digitati nelle chat ai comportamenti di navigazione, passando per immagini, video, profili social e persino dati biometrici. Questi dati non sono solo utilizzati per rispondere a una domanda o a una richiesta, ma spesso servono ad addestrare e ottimizzare i modelli, con l’obiettivo di renderli più precisi e performanti.&nbsp;</p>



<p>In pratica, ogni volta che interagiamo con un assistente vocale, con un chatbot o con algoritmi di raccomandazione, stiamo cedendo informazioni che possono essere conservate, analizzate e, in alcuni casi, riutilizzate per altri scopi – ben oltre la richiesta immediata dell’utente.&nbsp;</p>



<p>Il problema si complica ulteriormente quando dati raccolti per un determinato servizio vengono riutilizzati per addestrare modelli di AI generativa o condivisi tra partner tecnologici in modi non sempre trasparenti agli utenti.&nbsp;</p>



<h3 class="wp-block-heading">Quali dati sono in gioco? Dal superficiale al sensibile</h3>



<p>Molti utenti tendono a pensare che l’AI utilizzi solo dati “apparentemente innocui”: domande testuali, preferenze di consumo o cronologia di navigazione. In realtà, i sistemi avanzati possono raccogliere ed elaborare anche informazioni molto più sensibili:</p>



<ul class="wp-block-list">
<li>Dati biometrici come impronte digitali, scansioni facciali o modelli vocali, usati da strumenti di riconoscimento e sicurezza. </li>



<li>Dati comportamentali e psicometrici, estratti da pattern di utilizzo che permettono di profilare preferenze, attitudini e perfino stati emotivi. </li>



<li>Contenuti creati dagli utenti, inclusi testi, immagini e commenti pubblicati sui social: sebbene spesso pubblici, questi materiali possono finire nei dataset che addestrano nuovi modelli di AI. </li>
</ul>



<p>In casi più controversi, piattaforme di grandi dimensioni hanno annunciato l’intenzione di utilizzare contenuti degli utenti per l’addestramento di modelli AI, con obblighi di notifica e possibilità di opposizione imposti solo di recente anche in Europa.&nbsp;</p>



<h3 class="wp-block-heading">La sfida delle regole: trasparenza, consenso e diritto di opposizione</h3>



<p>Nel contesto europeo, la protezione dei dati personali è disciplinata dal Regolamento Generale sulla Protezione dei Dati (GDPR), che sancisce principi di minimizzazione, trasparenza e finalità specifica nel trattamento dei dati. Tuttavia, l’AI solleva questioni nuove. La Legge italiana 132/2025, ad esempio, introduce l’obbligo di spiegabilità dei sistemi intelligenti in linguaggio chiaro, per consentire agli utenti di conoscere cosa e come i loro dati vengono trattati.&nbsp;</p>



<p>Un elemento chiave è il consenso informato: non basta che un utente accetti una policy generica. La normativa richiede che le informazioni siano fornite con chiarezza, e – soprattutto – che l’utente abbia la possibilità di rifiutare specifici trattamenti senza compromettere l’uso del servizio.&nbsp;</p>



<h3 class="wp-block-heading">Rischi concreti: profilazione, “black box” e violazioni</h3>



<p>I modelli di intelligenza artificiale non si limitano a reagire a dati grezzi: essi costruiscono profili sofisticati degli utenti per prevedere comportamenti, suggerire contenuti o personalizzare servizi. Questo processo — seppure utile per migliorare l’esperienza — può portare a una forma di sorveglianza algoritmica, in cui il confine tra personalizzazione e invasione della privacy diventa sottile.&nbsp;</p>



<p>Un altro rischio è la cosiddetta “black box” dell’AI: sistemi tanto complessi da risultare difficili da interpretare, anche per gli stessi sviluppatori. Senza trasparenza, gli utenti non possono comprendere come e perché i loro dati vengono utilizzati e, di conseguenza, esercitare i propri diritti di accesso, rettifica o cancellazione.&nbsp;</p>



<h3 class="wp-block-heading">Salvaguardie e tecnologie per la privacy</h3>



<p>Mentre il quadro normativo evolve, crescono anche le tecnologie destinate a mitigare i rischi. Tra queste:</p>



<ul class="wp-block-list">
<li>Anonymizzazione e pseudonimizzazione dei dati, per ridurre l’identificabilità diretta delle informazioni condivise. </li>



<li>Federated learning, una tecnica che consente a modelli di apprendere da dati distribuiti senza trasferirli centralmente, preservando privacy e sicurezza. </li>



<li>Privacy by design, un approccio che integra la protezione dei dati sin dalla fase di progettazione dei sistemi intelligenti. </li>
</ul>



<h3 class="wp-block-heading">Il ruolo dell’utente consapevole</h3>



<p>Al di là delle tecnologie e delle leggi, la consapevolezza degli utenti resta fondamentale. Conoscere le implicazioni della condivisione di dati, leggere le policy con attenzione e utilizzare strumenti che offrono maggior controllo su quali informazioni vengono condivise può fare la differenza.</p>



<p>In un mondo in cui l’intelligenza artificiale permea servizi quotidiani, dai motori di ricerca ai suggerimenti di contenuti, capire cosa viene “invisibilmente” raccolto e utilizzato non è più un’opzione, ma una necessità per difendere la propria privacy digitale.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>L’intelligenza artificiale nella finanza: come gli algoritmi stanno cambiando trading, sicurezza e previsioni economiche</title>
		<link>https://www.giornaledelcilento.it/lintelligenza-artificiale-nella-finanza-come-gli-algoritmi-stanno-cambiando-trading-sicurezza-e-previsioni-economiche/</link>
		
		<dc:creator><![CDATA[Marianna Vallone]]></dc:creator>
		<pubDate>Tue, 09 Dec 2025 15:17:26 +0000</pubDate>
				<category><![CDATA[AI & Hi-Tech]]></category>
		<category><![CDATA[Cybersecurity]]></category>
		<guid isPermaLink="false">https://www.giornaledelcilento.it/?p=226277</guid>

					<description><![CDATA[Non è più solo una questione di velocità. L’intelligenza artificiale è diventata uno dei pilastri invisibili della finanza globale, capace di influenzare mercati, banche e investimenti in tempo reale. Dai [...]]]></description>
										<content:encoded><![CDATA[
<p>Non è più solo una questione di velocità. L’intelligenza artificiale è diventata uno dei pilastri invisibili della finanza globale, capace di influenzare mercati, banche e investimenti in tempo reale. Dai software di trading automatico ai sistemi antifrode, fino ai modelli predittivi che anticipano crisi e opportunità, l’AI sta riscrivendo il modo in cui il denaro viene gestito, protetto e moltiplicato.</p>



<p>Negli ultimi cinque anni, l’integrazione di algoritmi avanzati nei sistemi finanziari ha compiuto un salto qualitativo: non si limita più a eseguire ordini, ma interpreta dati, apprende dai pattern passati e prende decisioni autonome. Una trasformazione che riguarda da vicino non solo le grandi banche d’investimento, ma anche i risparmiatori comuni.</p>



<h3 class="wp-block-heading">Trading algoritmico: quando il mercato è questione di millisecondi</h3>



<p>Il cuore della rivoluzione è il trading algoritmico, oggi responsabile di oltre la metà delle operazioni effettuate sui principali mercati finanziari mondiali. Qui l’intelligenza artificiale analizza flussi enormi di dati – prezzi, volumi, notizie di agenzia, perfino trend social – e prende decisioni di acquisto o vendita in frazioni di secondo.</p>



<p>Le tecnologie più avanzate utilizzano modelli di machine learning e deep learning per migliorare continuamente le strategie operative. Non si limitano a seguire regole statiche, ma “imparano” quali schemi di mercato portano a risultati migliori, adattandosi a condizioni economiche e geopolitiche in costante mutamento.</p>



<p>Il vantaggio è evidente: velocità, precisione, capacità di gestire una complessità che sarebbe impossibile per un essere umano. Ma il rischio è altrettanto concreto: errori di programmazione o reazioni a catena possono amplificare le oscillazioni dei mercati. I cosiddetti “flash crash”, crolli improvvisi e rapidissimi delle quotazioni, sono in parte attribuiti proprio all’interazione tra algoritmi automatici.</p>



<h3 class="wp-block-heading">Prevenzione delle frodi: l’AI come guardiano digitale</h3>



<p>Se nel trading l’obiettivo è guadagnare, nella sicurezza finanziaria l’obiettivo è difendere. Qui l’intelligenza artificiale ha forse il suo impatto più positivo e meno visibile.</p>



<p>Le banche e i circuiti di pagamento utilizzano sistemi di AI per analizzare in tempo reale milioni di transazioni e individuare comportamenti anomali. Una carta che viene usata a Roma e, pochi minuti dopo, in un altro continente; un bonifico con caratteristiche insolite; una sequenza sospetta di micro-pagamenti: tutti segnali che gli algoritmi riconoscono grazie all’analisi di pattern.</p>



<p>A differenza dei vecchi sistemi a regole fisse, l’AI è in grado di aggiornare continuamente la propria idea di “normalità”, adattandosi alle abitudini specifiche di ogni cliente. Questo ha ridotto sensibilmente i tempi di individuazione delle frodi e limitato le perdite economiche.</p>



<p>Esiste però un rovescio della medaglia: il rischio di falsi positivi, con operazioni legittime bloccate per eccesso di prudenza. Per questo, molte istituzioni stanno cercando un equilibrio tra automazione e supervisione umana.</p>



<h3 class="wp-block-heading">Analisi predittiva: anticipare il futuro dei mercati</h3>



<p>La frontiera più ambiziosa resta quella dell’analisi predittiva. Gli algoritmi non si limitano più a fotografare il presente, ma provano a stimare scenari futuri.</p>



<p>Attraverso l’elaborazione di dati macroeconomici, indicatori finanziari, eventi geopolitici, andamenti storici e anche contenuti informativi, l’AI costruisce modelli probabilistici che aiutano a rispondere a domande decisive: quale settore crescerà? Quali asset sono sopravvalutati? Dove si annida il rischio di una crisi?</p>



<p>Questi strumenti sono usati da fondi di investimento, banche centrali e grandi istituzioni per orientare strategie e politiche. Tuttavia, la crisi finanziaria del passato e le recenti turbolenze globali mostrano che nemmeno il miglior algoritmo può prevedere davvero l’imprevisto: guerre, pandemie, crolli di fiducia restano variabili difficili da modellare.</p>



<h3 class="wp-block-heading">Il problema dell’opacità: chi controlla chi decide</h3>



<p>Uno dei nodi più delicati è la trasparenza. Molti modelli di intelligenza artificiale funzionano come “scatole nere”: producono decisioni senza rendere del tutto chiaro il percorso logico che le ha generate.</p>



<p>Questo pone problemi non solo etici, ma anche regolamentari. Le autorità europee e internazionali stanno lavorando su normative che impongano maggiore spiegabilità degli algoritmi soprattutto nei settori ad alto impatto, come la finanza. La sfida è trovare un equilibrio tra innovazione e controllo.</p>



<h3 class="wp-block-heading">Opportunità per i risparmiatori, rischi per il sistema</h3>



<p>Per i cittadini comuni, l’AI in finanza significa accesso a strumenti una volta riservati ai grandi operatori: robo-advisor che costruiscono portafogli personalizzati, app che suggeriscono strategie di risparmio, piattaforme che automatizzano investimenti.</p>



<p>Ma significa anche maggiore dipendenza da sistemi complessi, difficili da comprendere. La finanza del futuro sarà sempre più veloce, intelligente e automatizzata. Il vero punto non è se fidarsi o meno degli algoritmi, ma capire fino a che punto delegare loro decisioni che hanno un impatto diretto sulle nostre vite.</p>



<h3 class="wp-block-heading">Verso una finanza ibrida</h3>



<p>Il modello che si sta affermando è quello di una finanza “ibrida”, in cui l’intelligenza artificiale affianca l’intelligenza umana, senza sostituirla completamente. Gli algoritmi eccellono nella velocità e nell’analisi di enormi quantità di dati, gli esseri umani restano fondamentali nella comprensione dei contesti, dei rischi sistemici e delle conseguenze sociali.</p>



<p>La rivoluzione è già in corso. E, come tutte le rivoluzioni silenziose, sta avvenendo senza che la maggior parte delle persone se ne renda conto.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Mercato gaming in estrema crescita, previsto +4%: «Attenzione a cybersecurity»</title>
		<link>https://www.giornaledelcilento.it/mercato-gaming-in-estrema-crescita-previsto-4-attenzione-a-cybersecurity/</link>
		
		<dc:creator><![CDATA[Redazione]]></dc:creator>
		<pubDate>Wed, 03 Dec 2025 08:54:25 +0000</pubDate>
				<category><![CDATA[Cybersecurity]]></category>
		<category><![CDATA[Tendenze e stili di vita]]></category>
		<category><![CDATA[cybersecurity]]></category>
		<category><![CDATA[mercato gaming]]></category>
		<guid isPermaLink="false">https://www.giornaledelcilento.it/?p=225485</guid>

					<description><![CDATA[Quello del gaming è «un mercato in estrema crescita, è un mercato che prevede per il 2028 almeno 220 miliardi di investimento, con una crescita almeno del 4%. Le tematiche [...]]]></description>
										<content:encoded><![CDATA[
<p>Quello del gaming è «<em>un mercato in estrema crescita, è un mercato che prevede per il 2028 almeno 220 miliardi di investimento, con una crescita almeno del 4%. Le tematiche sono molto legate ai temi delle piattaforme di gaming, luoghi virtuali nei quali non solo si gioca, ma i ragazzi socializzano. Ed è questo uno degli scopi del progetto Upside che abbiamo avuto finanziato dal Mimit e che è in fase di conclusione</em>.» Così Angelo Giuliana, direttore generale del Centro di Competenza Meditech, parlando del progetto Upside che Giuliana definisce «<em>molto interessante e che sicuramente avrà la possibilità di poter rendere poi commerciabile il suo output in termini di piattaforme di gioco sul panorama italiano</em>.»</p>



<p>«<em>Il mondo dei videogiochi</em> &#8211; prosegue &#8211; <em>è un mondo che ha sempre anticipato la parte tecnologica. Si parlava già da dieci anni fa delle gpu grafiche per le workstation e oggi si utilizzano nel mondo dell&#8217;intelligenza artificiale. Quindi il mondo del videogaming è molto precursore su quelle che sono le tecnologie. L&#8217;intelligenza artificiale, sia quella generativa che quella di calcolo, sta entrando pesantemente all&#8217;interno del mondo dei videogiochi, ma non solo, perché il tema su cui bisogna fare molta attenzione nell&#8217;ambito del gaming, ed è uno dei temi affrontati nel progetto Upside, è quello della sicurezza informatica: piattaforme online o piattaforme estremamente diffuse si prestano ad attacchi o a cheating, all&#8217;introduzione di hackers all&#8217;interno del gioco stesso per modificarne la dinamica. Meditech sta lavorando da tempo su quelle che sono le tematiche tecnologiche a supporto del 5G, perché tutti questi giochi di piattaforme collaborative necessitano di bassa latenza quindi un 5G molto evoluto e della possibilità di poter avere anche gestione di grossi moli di dati che soltanto un&#8217;infrastruttura 5G può fornire</em>.»</p>



<p>«<em>C&#8217;è bisogno anche</em> &#8211; osserva Giuliana &#8211; <em>del supporto della modellizzazione quindi noi siamo molto specializzati sull&#8217;industria creativa e culturale: Meditech tra le varie specializzazioni ha avuto un focus sull&#8217;industria culturale quindi anche con il 3D creation, con l&#8217;utilizzo dell&#8217;intelligenza artificiale. Siamo parte della Casa tecnologie Emergenti di Napoli tutta focalizzata sul tema dell&#8217;industria creativa e culturale e molti dei nostri laboratori, sia qui che all&#8217;Albergo dei Poveri, sono dedicati proprio al tema del videogaming perché crediamo che sia uno dei temi crescenti</em>.» </p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
