Privacy Letters #60
Cybercrime, AI, privacy e sicurezza
Dalla lettera #60, inviata su canali criptati e dimenticati dai sistemi di controllo. Ecco i residui:
Intelligenza artificiale e cybercrime: l’era della Dark AI
Palantir, ICE e l’algoritmo delle deportazioni
Influencer artificiali e scandali sessuali
Anno Nuovo, Sicurezza Nuova: Privacy Stack 2026
Boot:
Per anni abbiamo raccontato la sorveglianza di massa come una deviazione autoritaria, un tratto distintivo dei regimi repressivi o degli Stati in emergenza permanente. Oggi questa lettura non è più sufficiente. La sorveglianza non è più un’eccezione ideologica: è diventata uno strumento di governo normalizzato, adottato trasversalmente da democrazie liberali, regimi ibridi e sistemi apertamente autoritari.
Cambiano le giustificazioni, cambiano i quadri normativi, ma la direzione è comune: più dati, più capacità di monitoraggio, più potere predittivo sul comportamento umano.
In Russia, l’intelligenza artificiale viene impiegata per individuare e bloccare il traffico VPN, colpendo direttamente l’anonimato e l’accesso a informazione non filtrata. In Europa, Stati come l’Irlanda stanno ampliando legalmente l’uso di spyware e strumenti di intercettazione, incardinandoli in cornici giuridiche che promettono controllo e supervisione. Negli Stati Uniti, sistemi di analisi predittiva, riconoscimento facciale e database interconnessi supportano operazioni di polizia e immigrazione su scala industriale.
Il punto non è stabilire quale modello sia “peggiore”. Il punto è riconoscere che la sorveglianza è diventata infrastruttura, non più misura straordinaria.
La differenza tra democrazia e autoritarismo oggi si gioca sempre meno sulla presenza o assenza di tecnologie invasive, e sempre più su come queste vengono raccontate. Dove un regime parla apertamente di controllo e sicurezza, una democrazia utilizza il linguaggio della prevenzione, dell’efficienza, della lotta al crimine o al terrorismo. Ma il risultato operativo converge: tracciamento continuo, profilazione algoritmica, conservazione estesa dei dati.
Questa normalizzazione ha un effetto silenzioso ma profondo. Quando la sorveglianza diventa ordinaria, il cittadino smette di percepirla come un evento eccezionale e inizia ad adattare il proprio comportamento. È il cosiddetto chilling effect: meno libertà di espressione, meno dissenso, più autocensura. Non perché qualcuno lo imponga esplicitamente, ma perché l’ambiente digitale lo suggerisce.
A rendere il fenomeno ancora più critico è il ruolo crescente dei fornitori privati. Molte delle infrastrutture di sorveglianza contemporanee non sono progettate dallo Stato, ma acquistate come servizi: piattaforme di analisi, intelligenza artificiale, database, sistemi biometrici. Questo sposta il baricentro del potere verso attori opachi, difficili da controllare democraticamente e spesso protetti da segreti commerciali.
Il risultato è un paradosso: più sorveglianza, meno trasparenza.
In questo contesto, difendere la privacy non significa negare i problemi di sicurezza né ignorare le minacce reali. Significa invece rifiutare l’idea che la raccolta illimitata di dati sia una soluzione neutrale o inevitabile. La storia dimostra che ogni infrastruttura di sorveglianza, una volta costruita, tende ad espandersi, a essere riutilizzata, a sfuggire alle intenzioni originarie.
La domanda centrale non è più se la sorveglianza sia legittima o meno. La vera domanda è chi la controlla, con quali limiti, per quanto tempo e contro chi può essere usata.
Se nel 2026 la sorveglianza di massa è diventata uno standard di governo, allora la privacy non può più essere trattata come un tema marginale o ideologico. È una questione di equilibrio democratico, di potere e di libertà concreta. Ed è una discussione che non può essere rimandata, né delegata esclusivamente alla tecnologia o al diritto.
Perché quando la sorveglianza diventa normale, è la libertà a diventare eccezione.
Intelligenza artificiale generativa e cybersecurity: quando l’innovazione diventa minaccia
L’intelligenza artificiale generativa sta ridefinendo in profondità il perimetro della cybersecurity. Se fino a pochi anni fa l’IA veniva considerata soprattutto un abilitatore di capacità difensive avanzate, oggi il quadro è più articolato e meno rassicurante. La stessa tecnologia che promette di migliorare la protezione dei sistemi informativi sta alimentando una nuova generazione di minacce digitali, più sofisticate, scalabili e difficili da attribuire.
Non si tratta di uno scenario teorico. L’uso offensivo dell’intelligenza artificiale è già una realtà operativa, con impatti concreti su aziende, infrastrutture critiche e governi. Comprendere questa trasformazione significa ripensare il concetto stesso di sicurezza digitale.
La natura duale della generative AI
La caratteristica centrale dell’intelligenza artificiale generativa è la sua ambivalenza. Gli stessi modelli capaci di analizzare grandi volumi di dati, individuare anomalie e supportare il rilevamento avanzato delle minacce possono essere impiegati per automatizzare attacchi informatici con un livello di precisione e personalizzazione senza precedenti.
Dal lato difensivo, la generative AI potenzia piattaforme SIEM e XDR, migliora il threat hunting e riduce i tempi di risposta agli incidenti. L’automazione intelligente consente di passare da una sicurezza reattiva a una sicurezza predittiva, aumentando la resilienza complessiva delle infrastrutture digitali.
Dal lato offensivo, però, le stesse capacità vengono sfruttate per generare malware, costruire campagne di phishing iper-mirate, creare contenuti ingannevoli credibili e testare in modo continuo l’efficacia degli attacchi contro le difese esistenti. La soglia di competenza necessaria per condurre operazioni avanzate si abbassa drasticamente, ampliando il numero di attori potenzialmente pericolosi.
Dall’abuso degli strumenti alla nascita della Dark AI
In una prima fase, l’uso offensivo dell’IA si è manifestato soprattutto attraverso l’abuso di strumenti legittimi. Modelli progettati per scopi generici venivano forzati o aggirati per produrre output malevoli. Oggi, tuttavia, il fenomeno ha assunto una forma più strutturata con l’emergere della cosiddetta Dark AI.
Con questo termine si indica un ecosistema di modelli generativi sviluppati o riconfigurati esplicitamente per finalità criminali. Non si tratta più di un uso improprio occasionale, ma di una vera industrializzazione dell’intelligenza artificiale offensiva. I modelli vengono spesso costruiti a partire da LLM open source, privati intenzionalmente di meccanismi di sicurezza, filtri etici e sistemi di tracciamento, e successivamente ottimizzati per attività malevole.
I casi più noti emersi negli ultimi anni rendono evidente questa evoluzione. WormGPT, ad esempio, è stato presentato nei circuiti underground come un modello “senza restrizioni”, pensato per la generazione automatica di codice malware e messaggi di phishing avanzati. Il suo successo ha aperto la strada a una proliferazione di strumenti simili, come FraudGPT, promosso come piattaforma per frodi digitali, social engineering e bypass dei controlli di sicurezza.
Parallelamente sono comparsi modelli come DarkBERT, addestrati specificamente su contenuti provenienti dal dark web e progettati per comprendere il linguaggio, le dinamiche e le tecniche dell’ecosistema criminale. Altri strumenti, come DarkGPT, vengono commercializzati come assistenti universali per attività illecite, con funzionalità che spaziano dalla generazione di exploit alla scrittura di campagne di disinformazione.
L’abbattimento della soglia di attacco
Uno degli effetti più rilevanti della Dark AI è l’abbattimento della soglia di competenza tecnica. Attività che in passato richiedevano conoscenze approfondite di programmazione, reverse engineering o psicologia dell’ingegneria sociale possono oggi essere svolte attraverso semplici interfacce conversazionali. Questo processo amplia enormemente il bacino di potenziali attaccanti e rende il panorama delle minacce più affollato e volatile.
Dal punto di vista operativo, questi modelli consentono una rapida iterazione. Il codice può essere modificato per eludere i sistemi di rilevamento, i messaggi adattati al contesto linguistico e culturale delle vittime, e le tecniche di attacco ottimizzate in tempo reale. Le difese basate su firme statiche risultano sempre meno efficaci in questo scenario.
Impatti strategici ed economici
La Dark AI non è solo un problema tecnico, ma un fattore strategico. La possibilità di acquistare o noleggiare capacità offensive avanzate introduce una nuova forma di asimmetria nel cyberspazio. Anche attori con risorse limitate possono oggi condurre operazioni con un impatto sproporzionato, sfruttando l’intelligenza artificiale come moltiplicatore di forza.
Questa dinamica assume particolare rilevanza in un contesto geopolitico instabile, dove le cyber-operations nella cosiddetta “zona grigia” si collocano al di sotto della soglia del conflitto armato ma producono effetti concreti su infrastrutture, informazione e stabilità politica. L’IA diventa così un elemento strutturale della competizione strategica digitale.
Governance, difesa e resilienza
Per i difensori, questo scenario impone un cambio di paradigma. Non è più sufficiente proteggere i sistemi da exploit noti o rafforzare le difese perimetrali. È necessario comprendere come i modelli di intelligenza artificiale possano essere abusati, monitorare l’evoluzione dell’ecosistema underground e sviluppare contromisure capaci di adattarsi con la stessa rapidità delle minacce.
Emergono anche questioni di governance ancora irrisolte. La facilità con cui modelli open source possono essere riconfigurati per usi malevoli solleva interrogativi su responsabilità, controllo e cooperazione internazionale. In assenza di un quadro condiviso, il rischio è che l’intelligenza artificiale diventi un moltiplicatore incontrollato di instabilità digitale.
Conclusione
L’intelligenza artificiale generativa non è intrinsecamente una minaccia, ma il suo utilizzo nel contesto della cybercriminalità ne amplifica enormemente l’impatto. I casi di WormGPT, FraudGPT, DarkBERT e strumenti analoghi mostrano come la tecnologia stia rapidamente passando da supporto offensivo occasionale a infrastruttura criminale strutturata.
La vera sfida non è decidere se adottare o meno l’IA, ma come governarla, come integrarla nelle strategie di sicurezza e quali limiti imporre per evitare che diventi un acceleratore incontrollato di rischio. In un mondo digitale sempre più instabile, la capacità di comprendere e anticipare queste dinamiche sarà uno degli elementi chiave della resilienza cyber.
Palantir, ICE e l’algoritmo delle deportazioni
Negli Stati Uniti sta emergendo una nuova forma di enforcement basata sui dati, in cui l’analisi algoritmica guida direttamente le operazioni sul territorio. Al centro di questo sistema c’è ELITE (Enhanced Leads Identification & Targeting for Enforcement), uno strumento digitale utilizzato dall’Immigration and Customs Enforcement (ICE) e sviluppato con il supporto tecnologico di Palantir.
ELITE non è un semplice database. È una piattaforma di analisi geospaziale e decisionale che consente di mappare interi quartieri, individuare potenziali obiettivi di arresto o deportazione e assegnare a ogni profilo un punteggio di probabilità legato alla sua presenza effettiva in un determinato luogo. In altre parole, trasforma dati amministrativi e commerciali in indicazioni operative.
Come funziona ELITE
Il sistema aggrega informazioni provenienti da diverse fonti governative e private. Tra queste figurano dati del Dipartimento della Salute e dei Servizi Umani (HHS), dell’US Citizenship and Immigration Services (USCIS) e di database commerciali utilizzati per verificare indirizzi e identità.
Per ogni persona identificata, ELITE genera un dossier digitale che include nome, fotografia, numero identificativo, data di nascita e indirizzo. A questi dati viene associato un “address confidence score”, un valore numerico che stima quanto sia probabile che l’individuo si trovi realmente in quella posizione, sulla base della fonte e dell’aggiornamento delle informazioni.
Questo punteggio non rappresenta una certezza, ma diventa uno strumento di priorità operativa. Gli agenti sono spinti a concentrarsi su aree ad alta densità di profili “affidabili”, piuttosto che su singoli indirizzi con bassa probabilità di successo.
Dalla mappa all’azione
Secondo testimonianze giurate e documenti giudiziari, ELITE è già stato utilizzato in operazioni reali. In un caso avvenuto in Oregon, gli agenti ICE hanno presidiato un complesso residenziale dopo aver identificato l’area come particolarmente “ricca di obiettivi”. Le operazioni sono state pianificate sulla base della mappa generata dal sistema, incrociando dati di localizzazione, registrazioni dei veicoli e strumenti di identificazione biometrica mobile.
Il sistema consente anche ricerche su larga scala: è possibile analizzare decine di profili contemporaneamente o filtrare la mappa attraverso categorie operative predefinite, denominate “operazioni speciali”, che rispondono a priorità stabilite dalla leadership dell’agenzia.
Automazione, sorveglianza e diritti
L’uso di ELITE solleva interrogativi profondi sul rapporto tra tecnologia, potere e diritti fondamentali. Organizzazioni per i diritti civili parlano di una infrastruttura di sorveglianza algoritmica, in cui decisioni ad alto impatto vengono prese sulla base di punteggi probabilistici e correlazioni statistiche.
Il rischio non è solo l’errore tecnico, ma la normalizzazione di un approccio in cui intere comunità vengono analizzate come superfici di dati. L’automazione tende a ridurre la complessità sociale a indicatori numerici, spostando il baricentro decisionale dagli individui ai sistemi.
Anche a livello politico emergono critiche. Alcuni esponenti istituzionali hanno definito questo modello “indiscriminato”, sottolineando come l’uso combinato di dati pubblici e privati possa portare a interventi sproporzionati, con conseguenze concrete su persone che non rappresentano una minaccia.
Il ruolo di Palantir
Sebbene i documenti ufficiali non indichino esplicitamente il nome dello sviluppatore, il sistema ELITE compare in estensioni contrattuali che collegano direttamente Palantir alle attività di prioritizzazione e targeting di ICE. I contratti, del valore di decine di milioni di dollari, prevedono servizi di configurazione, sviluppo e supporto per strumenti di enforcement avanzato.
Palantir collabora da anni con le agenzie di sicurezza statunitensi. Tuttavia, negli ultimi anni il focus si è spostato dalle indagini criminali tradizionali alle operazioni di deportazione, segnando un’evoluzione significativa nel rapporto tra aziende tecnologiche private e potere coercitivo dello Stato.
Una questione globale
Il caso ELITE non riguarda solo gli Stati Uniti. È un esempio concreto di come big data, analisi predittiva e intelligenza artificiale possano diventare infrastrutture decisionali, capaci di influenzare direttamente azioni sul campo e diritti fondamentali.
In un contesto globale segnato da instabilità geopolitica e crescente ricorso a tecnologie di controllo, la linea che separa sicurezza ed eccesso di sorveglianza diventa sempre più sottile.
Oltre l’efficienza: il prezzo della sorveglianza algoritmica
ELITE mostra che l’innovazione tecnologica non è mai neutrale. Quando mappe, punteggi e modelli predittivi guidano decisioni operative, non siamo più di fronte a semplici strumenti, ma a meccanismi di potere. Comprendere come funzionano, chi li costruisce e con quali garanzie è essenziale per qualsiasi dibattito serio su sicurezza e democrazia.
Influencer artificiali e scandali sessuali: l’IA come arma di disinformazione virale
Su Instagram si sta consolidando una nuova forma di abuso dell’intelligenza artificiale che combina disinformazione visiva, sfruttamento economico e violazione sistematica dell’identità digitale. Reti di profili gestiti da cosiddetti AI influencer stanno diffondendo immagini false che ritraggono presunti scandali sessuali con personaggi famosi, senza consenso e senza alcuna indicazione che si tratti di contenuti generati artificialmente.
Atleti, streamer, attori e persino leader politici vengono rappresentati in situazioni intime mai avvenute. Le immagini, pur completamente sintetiche, sono costruite per apparire plausibili e sfruttano la riconoscibilità dei volti per massimizzare engagement, click e monetizzazione. In alcuni casi, eventi geopolitici reali vengono incorporati nella narrazione per aumentare l’attenzione e la viralità.
Un’economia dell’inganno progettata per l’algoritmo
Questi contenuti non nascono in modo spontaneo. Seguono un format ripetibile e ottimizzato, pensato per sfruttare le dinamiche di raccomandazione di Instagram Reels. Lo schema è ricorrente: una prima immagine apparentemente innocua, che mostra l’influencer artificiale accanto a una celebrità, seguita da una seconda scena volutamente ambigua, accompagnata da audio virali già ampiamente diffusi sulla piattaforma.
L’uso degli stessi suoni consente di intercettare utenti che navigano per trend audio, creando una rete di contenuti quasi indistinguibili tra loro. Questo approccio abbassa i costi di produzione, accelera la diffusione e rende difficile per la moderazione intervenire in modo tempestivo.
Dalla viralità alla monetizzazione
L’obiettivo finale è economico. Gli utenti incuriositi cliccano sul profilo dell’influencer artificiale aspettandosi di trovare account simili a quelli di creator reali. Invece, vengono indirizzati verso piattaforme di contenuti per adulti più permissive rispetto a Instagram, dove gli account dichiarano – solo a quel punto – di essere generati o “potenziati” dall’IA e vendono immagini o video sintetici a pagamento.
Su Instagram, però, questa informazione è sistematicamente assente. La mancata trasparenza non è un dettaglio, ma un elemento centrale del modello di business: l’inganno iniziale è ciò che rende possibile la conversione economica.
Moderazione insufficiente e violazioni sistemiche
Questa pratica viola apertamente diverse policy della piattaforma, tra cui l’uso non consensuale dell’immagine di persone reali e l’assenza di disclosure sui contenuti generati artificialmente. Nonostante ciò, molti di questi Reel raggiungono milioni di visualizzazioni prima di essere rimossi, quando vengono rimossi.
Il fenomeno evidenzia una debolezza strutturale nella gestione dei contenuti AI-driven. I sistemi di moderazione appaiono inadeguati di fronte a contenuti che non sono illegali in senso stretto, ma che sfruttano zone grigie normative e tecniche per ottenere visibilità e profitto.
Dalla pornografia sintetica alla manipolazione reputazionale
Il problema non si limita all’ambito pornografico. Ciò che emerge è una nuova forma di manipolazione reputazionale su scala industriale, resa possibile dall’intelligenza artificiale generativa. Le immagini, pur false, contribuiscono a costruire narrazioni che possono danneggiare l’immagine pubblica delle persone coinvolte e alimentare disinformazione visiva.
Questa dinamica è particolarmente pericolosa perché sfrutta la fiducia visiva: gli utenti tendono a credere a ciò che vedono, soprattutto quando l’immagine appare coerente con il contesto e viene proposta in ambienti percepiti come informali o di intrattenimento.
Asimmetrie di potere e tutela dei diritti digitali
Le celebrità dispongono di risorse legali e visibilità per reagire, inviando diffide o intraprendendo azioni legali contro l’uso non autorizzato della propria immagine. Tuttavia, la maggior parte delle persone non gode della stessa protezione. L’IA rende possibile replicare queste pratiche anche contro individui comuni, con un potenziale impatto devastante sulla reputazione e sulla vita privata.
Si crea così una asimmetria profonda: la capacità di generare contenuti falsi è accessibile a chiunque, mentre la capacità di difendersi resta limitata a pochi.
Una questione di governance dell’IA
Il caso degli influencer artificiali non è un’anomalia, ma un segnale. Mostra come l’intelligenza artificiale stia trasformando l’economia dell’attenzione, rendendo scalabile la creazione di contenuti ingannevoli e abbassando drasticamente il costo della disinformazione visiva.
Senza obblighi di trasparenza, strumenti di verifica efficaci e responsabilità chiare per le piattaforme, questi fenomeni sono destinati ad aumentare. Il problema non è solo tecnologico, ma politico e normativo.
Quando l’IA riscrive la realtà
La proliferazione di influencer artificiali che sfruttano scandali falsi dimostra quanto sia fragile il confine tra intrattenimento, manipolazione e violazione dei diritti digitali. Non si tratta di casi marginali, ma di un nuovo paradigma di sfruttamento dell’identità nell’era dell’IA generativa.
Iniziamo il 2026 con buone abitudini di privacy e sicurezza digitale
Il nuovo anno è il momento ideale per rinnovare i nostri buoni propositi digitali. In un mondo dove i dati personali sono costantemente a rischio, costruire un privacy stack completo non è più un optional: è una necessità.
Oggi vi presento una configurazione di strumenti affidabili e testati, pensata per proteggere password, comunicazioni, dati e dispositivi, dalle minacce più comuni a quelle più sofisticate.
🔑 Gestione delle Password
Strumento consigliato: Bitwarden
Memorizza credenziali complesse e uniche
Sincronizza tra dispositivi
Genera password sicure per ogni account
🔐 Autenticazione a Due Fattori
Strumento consigliato: 2FAS
Protezione extra per account sensibili
Compatibile con la maggior parte dei servizi online
🗄️ Crittografia dei File
Strumento consigliato: VeraCrypt
Protegge dati locali o su chiavette esterne
Crittografia avanzata contro accessi non autorizzati
🌐 Navigazione Sicura
Browser consigliati: LibreWolf, Brave
Blocca tracker e pubblicità invasive
Riduce fingerprinting e tracciamento online
💬 Messaggistica P2P
Strumenti consigliati: Oxen, Briar, Jami
Comunicazioni cifrate end-to-end
Nessun server centrale che raccolga dati
📧 Email Sicura
Provider consigliati: ProtonMail, Forward Email
Client consigliato: Mozilla Thunderbird
Servizi di forwarding: Addy, Firefox Private Relay
Strumenti di sicurezza: Enigmail
Protezione completa da phishing e intercettazioni
Anonimizzazione tramite indirizzi temporanei
📱 Numeri di telefono virtuali
Strumenti consigliati: SMSPool, Crypton.sh
Protezione della privacy
Evita spam e separa identità reale e digitale
🛡️ VPN e Sicurezza di Rete
VPN consigliata: Mullvad
DNS e protezione tracker: NextDNS, DNSCrypt-proxy 2, Unbound
Firewall: NetGuard, NoRoot Firewall
Ad Blockers: Pi-hole, uBlock Origin
Nasconde attività online
Blocca tracker e pubblicità invasive
💾 Backup e Cloud Cifrato
Backup e Sync: NextCloud, SeaFile
Cloud cifrato: Tresorit
Protegge dati da perdita accidentale o ransomware
Mantieni il controllo totale sui tuoi file
🧹 Pulizia dei dati e metadati
Rimozione metadati: ExifCleaner, ExifTool
Cancellazione sicura: Eraser, Hard Disk Scrubber, SDelete
File, foto e documenti condivisi senza informazioni indesiderate
Perché questo stack funziona
Ogni strumento è selezionato per massimizzare la privacy senza compromettere la funzionalità. Combinati, offrono un ecosistema completo dove dati, comunicazioni e dispositivi sono protetti in modo coerente e professionale.
Non si tratta solo di strumenti: si tratta di cultura della sicurezza, consapevolezza e abitudini quotidiane che fanno davvero la differenza.
🚀 Prendi il controllo della tua privacy nel 2026
Blink News:
Il governo irlandese ha avviato la bozza di un nuovo disegno di legge, il Communications (Interception and Lawful Access) Bill, che mira ad aggiornare la normativa sulla sorveglianza risalente al 1993 consentendo l’intercettazione di tutte le forme di comunicazione digitale, inclusi messaggi criptati, email e dati IoT. Il testo prevede una base giuridica per l’uso di spyware e software di sorveglianza covert, strumenti di scansione dei dispositivi mobili per raccogliere identificatori come IMSI/IMEI, e la possibilità di accedere a contenuti e metadati indipendentemente dal livello di cifratura. In risposta alle critiche sulla privacy, il governo ha annunciato che l’intercettazione richiederà autorizzazione giudiziaria e controlli proporzionati, ma gruppi per i diritti civili hanno espresso forti preoccupazioni sui poteri estremamente invasivi che la legge potrebbe conferire alle forze dell’ordine.
Durante il primo giorno del contest Pwn2Own Automotive 2026, i ricercatori di sicurezza sono riusciti a compromettere con successo sistemi di importanti costruttori e fornitori dell’industria auto. Tra i target violati figurano Tesla, Sony (per componenti legati ai sistemi di infotainment) e Alpine, con exploit che hanno dimostrato vulnerabilità in software di bordo critici e possibili scenari di attacco remoto o locale. Le tecniche di exploit hanno evidenziato come le auto moderne, sempre più connesse e software-defined, espongano nuove superfici di attacco per potenziali crisi di sicurezza. In linea con le regole della competizione, le vulnerabilità sono state replicate sotto controllo per permettere ai vendor di correggerle prima di una divulgazione completa. Queste dimostrazioni sottolineano l’importanza della sicurezza embedded e della gestione delle vulnerabilità nei veicoli connessi, prima che gli stessi difetti possano essere sfruttati su
Le autorità russe stanno sviluppando un sistema basato su intelligenza artificiale per identificare e bloccare il traffico VPN, parte di un piano più ampio per rafforzare la censura online nel 2026. Il progetto, guidato dal regolatore delle telecomunicazioni Roskomnadzor, prevede l’integrazione di modelli di machine learning nella piattaforma di filtraggio esistente (Technical Means of Countering Threats) per superare i limiti delle tecniche tradizionali come il Deep Packet Inspection (DPI), poco efficaci contro traffico cifrato o anonimizzato. L’IA analizzerà comportamenti di traffico, metadati e schemi di pacchetti per rilevare VPN, protocolli cifrati e strumenti di elusione, permettendo blocchi o limitazioni mirate. L’iniziativa fa parte dell’espansione dei poteri di sorveglianza digitale del Paese, in un contesto in cui le autorità hanno già intensificato i blocchi VPN e restrizioni su servizi esterni.
C’è in atto una campagna di email phishing, con obbiettivo LastPass. Queste email truffaldine invitano gli utenti a cliccare su link malevoli per “verificare” o “ripristinare” il backup, con l’obiettivo di rubare le credenziali di accesso o indurre a inserire informazioni sensibili. I messaggi utilizzano l’aspetto visivo e il linguaggio tipico delle comunicazioni legittime di LastPass per aumentare la credibilità e aggirare i filtri antispam. La raccomandazione degli esperti è di non cliccare su link sospetti, verificare l’autenticità delle email direttamente all’interno dell’app o del sito ufficiale e attivare meccanismi di sicurezza come l’autenticazione a più fattori per proteggere gli account. Questo episodio evidenzia come i cybercriminali continuino a sfruttare la popolarità dei password manager per lanciare campagne di phishing mirate.



Lo stavo utilissimo, grazie!
Praticamente Elite is the new Samaritan (qualcuno si ricorda la serie Person of interest? Se no, da guardare assolutamente)