Privacy Letters #62
Spionaggio IA, Caos Epstein Files: sicurezza digitale in crisi
Dal nodo #62, tra traffico cifrato e log cancellati. Questi i frammenti che resistono:
Spionaggio tecnologico sull’IA
App Android con IA espongono segreti Google
La campagna “Encrypt It Already” e la difesa della privacy digitale
Epstein Files : Dati, IA e il nuovo caos informativo
WhatsApp e Privacy: Come Proteggere i Tuoi Dati
Boot:
C’è un punto in cui disinformazione, fuga di dati e intelligenza artificiale smettono di essere problemi separati e diventano un’unica questione sistemica. Il caso Epstein, tra immagini generate o manipolate con l’IA e account reali violati grazie a password esposte, è un esempio perfetto di questa convergenza tossica.
Da un lato, contenuti falsi ma verosimili circolano con una velocità tale da rendere quasi impossibile distinguerli dalla realtà. Dall’altro, dati autentici, email, credenziali, account personali, finiscono in mano a chiunque sappia dove cercare. Il risultato è un ecosistema informativo in cui il vero e il falso si rafforzano a vicenda, alimentando confusione, sfiducia e narrazioni manipolabili.
Il punto non è stabilire se una singola immagine sia falsa o se un leak sia “davvero rilevante”. Il punto è che la fiducia digitale è diventata fragile, e ogni nuova fuga di dati o contenuto generato artificialmente erode ulteriormente la capacità collettiva di capire cosa stia davvero accadendo.
In questo scenario, la sicurezza non è più solo protezione dei sistemi, e l’IA non è più solo una tecnologia emergente. Sono entrambi strumenti che incidono direttamente sul potere di raccontare la realtà. Ed è su questo terreno, molto più che sul singolo scandalo, che si gioca una delle partite più decisive del nostro presente digitale.
Ex ingegnere Google condannato per aver passato segreti sull’IA alla Cina: un campanello d’allarme globale
Un ex ingegnere di Google è stato condannato per aver trasferito informazioni riservate legate all’intelligenza artificiale a un governo straniero, in particolare alla Cina. La sentenza arriva al termine di un’indagine durata diversi mesi e rappresenta uno dei casi più rilevanti di spionaggio tecnologico legato all’IA emersi nella Silicon Valley negli ultimi anni.
Secondo quanto emerso in tribunale, l’uomo aveva accesso a progetti altamente sensibili durante il suo periodo in Google. Approfittando di questa posizione, avrebbe copiato e condiviso documenti tecnici e materiali di ricerca con contatti all’estero. Le informazioni trafugate includevano dettagli su algoritmi avanzati, modelli di machine learning e possibili applicazioni future — elementi che, se utilizzati da governi o industrie concorrenti, possono garantire un vantaggio competitivo enorme.
Perché questo caso conta davvero
Non si tratta di un semplice furto di dati aziendali. Questo episodio tocca temi molto più ampi, come la sicurezza nazionale, la competizione tecnologica globale e il controllo delle tecnologie emergenti. Negli ultimi anni, Stati Uniti e Cina sono impegnati in una vera e propria corsa alla leadership nell’intelligenza artificiale, una tecnologia ormai centrale in settori strategici come difesa, sanità, finanza, energia e sorveglianza.
Quando un ingegnere di una delle aziende tecnologiche più influenti al mondo trasferisce conoscenze così sensibili all’estero, il problema smette di essere interno all’azienda e diventa una questione di interesse nazionale e geopolitico. Entrano in gioco fattori come la sicurezza dello Stato, la perdita di know-how critico e l’equilibrio della competizione globale.
L’IA come risorsa strategica del XXI secolo
L’intelligenza artificiale è oggi uno degli asset più preziosi e contesi a livello mondiale. La sua capacità di accelerare la ricerca scientifica, automatizzare processi complessi, potenziare sistemi di difesa e analizzare enormi quantità di dati la rende una leva di potere economico e politico senza precedenti.
Per questo motivo, governi e grandi aziende trattano l’IA come in passato si trattavano il nucleare o la corsa allo spazio: non solo come una tecnologia, ma come uno strumento strategico fondamentale per mantenere influenza e leadership.
La minaccia arriva anche dall’interno
Uno degli aspetti più delicati messi in luce da questo caso è che il pericolo non proviene solo dall’esterno, come hacker o servizi di intelligence stranieri. Spesso la minaccia nasce all’interno delle stesse aziende. I dipendenti che lavorano su progetti avanzati hanno accesso a codice, dati e ricerche che valgono milioni se non miliardi di dollari.
La condanna dell’ex ingegnere di Google evidenzia due criticità principali: la necessità di rafforzare i controlli di sicurezza interna, soprattutto nei team che sviluppano IA avanzata, e il fatto che la fiducia personale non basta più in un contesto di competizione tecnologica globale. Servono sistemi strutturati di protezione, monitoraggio e prevenzione.
Privacy, sovranità digitale e sicurezza
Quando si parla di sicurezza digitale, spesso si pensa solo ad attacchi informatici esterni. Tuttavia, la fuga di informazioni dall’interno è una minaccia ancora più difficile da individuare, perché avviene in ambienti legittimi e lascia pochi segnali evidenti fino a quando il danno è ormai fatto.
In un mondo in cui dati e intelligenza artificiale sono risorse strategiche, proteggerle non è più solo una questione aziendale, ma una priorità per governi, istituzioni e regolatori dell’economia digitale.
Conclusione
Il caso dell’ex ingegnere di Google condannato per aver passato segreti sull’IA alla Cina è un chiaro segnale d’allarme. L’era digitale non riguarda più soltanto software e innovazione, ma anche equilibri geopolitici, sicurezza nazionale e perdita di vantaggio tecnologico.
Quando l’intelligenza artificiale diventa un bene strategico, la sovranità digitale smette di essere un concetto astratto e diventa un elemento concreto della competizione globale.
📱 App Android IA e chiavi API Google esposte: nuova vulnerabilità di sicurezza
Negli ultimi giorni una notizia ha iniziato a circolare con una certa insistenza tra addetti ai lavori e appassionati di sicurezza informatica: diverse app Android basate sull’intelligenza artificiale stanno lasciando trapelare, senza volerlo, segreti tecnici e credenziali legate ai servizi Google. Non si parla di un bug isolato o di un singolo sviluppatore distratto, ma di un problema più ampio che coinvolge intere categorie di app IA e mette in luce quanto il rapporto tra intelligenza artificiale e sicurezza sia ancora delicato.
È importante chiarirlo subito: Google non è stato “bucato” e non c’è stata una fuga di massa di dati personali degli utenti. Il nodo centrale è un altro. Alcune app gestiscono male le chiavi API e i token necessari per collegarsi ai servizi cloud di Google. Queste credenziali, invece di restare protette lato server, finiscono incorporate nel codice dell’app e diventano accessibili a chiunque sappia analizzarlo.
In pratica, chi scarica l’app o chi la smonta con strumenti relativamente comuni può recuperare le chiavi usate per accedere a modelli IA, servizi di analisi, traduzione o storage. A quel punto è possibile sfruttare quei servizi come se si fosse l’app originale, con conseguenze che vanno dall’uso fraudolento delle risorse fino a costi imprevisti per gli sviluppatori.
🔍 Perché accade così spesso
Le app Android che integrano funzionalità di intelligenza artificiale raramente funzionano da sole. Di solito si appoggiano a:
API di elaborazione del linguaggio naturale
servizi di visione artificiale
piattaforme cloud per calcolo e archiviazione
strumenti di analisi e traduzione
Per far funzionare tutto questo servono chiavi di accesso. Il problema nasce quando queste chiavi:
sono inserite direttamente nel codice dell’app
non sono cifrate in modo adeguato
non vengono mai ruotate o revocate
In questi scenari, basta un minimo di competenza tecnica per estrarle e riutilizzarle. Non serve essere un hacker esperto: spesso è sufficiente curiosità e qualche tool facilmente reperibile online.
🛑 Perché è una questione seria
Questa vulnerabilità è tutt’altro che marginale:
le app mobile si diffondono rapidamente, moltiplicando l’impatto di una singola falla
le chiavi esposte aprono l’accesso a servizi cloud reali, con costi e rischi concreti
non si rubano dati utente, ma “identità tecniche” che permettono abusi silenziosi
In un contesto in cui sempre più sviluppatori integrano modelli IA esterni per accelerare lo sviluppo, una gestione superficiale delle credenziali può tradursi in danni economici e reputazionali senza che l’utente finale se ne accorga subito.
📌 Un problema strutturale, non un incidente
Queste falle non sono semplici sviste. Raccontano qualcosa di più profondo: l’adozione dell’IA corre più veloce della cultura della sicurezza. A volte manca esperienza, altre volte pesa la fretta di pubblicare un prodotto funzionante. Il risultato è lo stesso: pratiche di sicurezza sacrificate sull’altare della velocità.
Che tutto questo avvenga su Android, con milioni e milioni di dispositivi attivi, rende il tema ancora più urgente. Non stiamo parlando di prototipi o app sperimentali, ma di strumenti usati ogni giorno.
🔧 Impatti su sicurezza e fiducia digitale
Anche se non vengono sottratti dati personali, la fuga di chiavi API mina la fiducia nell’intero modello di sicurezza delle app IA. Se le chiavi che dovrebbero essere protette sono facilmente recuperabili, allora tutto il sistema che dipende da quelle chiavi diventa fragile.
Questo fenomeno si inserisce in una tendenza più ampia: l’adozione rapidissima dell’IA senza un parallelo rafforzamento delle infrastrutture di sicurezza. È come guidare un’auto potentissima senza aver imparato davvero a controllarla.
🧠 In conclusione
Le app Android con IA che espongono segreti Google non rappresentano solo una notizia tecnica per specialisti. Sono un segnale chiaro: l’evoluzione verso sistemi sempre più intelligenti sta superando la maturità delle pratiche di sicurezza.
In un’epoca in cui la fiducia dell’utente passa anche dalla gestione delle chiavi, delle identità e delle infrastrutture cloud, questa vicenda ci ricorda una verità fondamentale: la sicurezza non va tralasciata, va progettata fin dall’inizio e mantenuta nel tempo.
👉 La sicurezza delle app IA è parte integrante della privacy digitale.
✊ Encrypt It Already: perché la crittografia end-to-end deve diventare lo standard per la privacy digitale
Negli ultimi anni la crittografia end-to-end (E2EE) si è affermata come uno dei cardini della sicurezza digitale personale. Parliamo di un sistema in cui solo chi invia e chi riceve un messaggio può leggerne il contenuto, senza intermediari. Eppure, nonostante la sua importanza, molte piattaforme continuano a non adottarla in modo completo. Da qui nasce “Encrypt It Already”, una campagna che chiede a servizi di messaggistica e social network di rendere la crittografia end-to-end lo standard minimo per tutti gli utenti.
Non si tratta di uno slogan vuoto: è una richiesta diretta alle grandi aziende tecnologiche che, pur gestendo enormi volumi di informazioni sensibili ogni giorno, non garantiscono ancora protezioni forti per impostazione predefinita.
Perché la crittografia end-to-end è fondamentale
L’E2EE è, prima di tutto, una questione di fiducia tecnica. Se implementata correttamente, impedisce persino al gestore del servizio di accedere ai contenuti delle comunicazioni. Questo livello di protezione difende da:
intercettazioni esterne,
abusi o accessi impropri da parte dei fornitori,
richieste invasive di governi o agenzie,
fughe di dati in caso di violazioni informatiche.
In un contesto in cui i dati personali vengono raccolti, analizzati e monetizzati, la crittografia end-to-end non è solo una funzione tecnica: è una vera barriera contro la sorveglianza digitale di massa.
Le richieste di “Encrypt It Already”
La campagna avanza richieste chiare e concrete:
E2EE attiva di default su app di messaggistica e social media, non nascosta tra le opzioni avanzate.
Trasparenza reale sui sistemi di sicurezza, con audit indipendenti che ne verifichino l’efficacia.
Nessuna backdoor, eccezione legale o accesso privilegiato che possa indebolire la crittografia, nemmeno con la giustificazione della sicurezza nazionale.
Il messaggio è semplice: la protezione dei dati non deve essere un privilegio per pochi utenti esperti, ma una garanzia di base per tutti.
Perché proprio adesso
Questa richiesta arriva in un momento delicato:
le piattaforme accumulano quantità sempre maggiori di dati,
gli attacchi informatici diventano più sofisticati,
molti governi spingono per ottenere accessi speciali alle comunicazioni cifrate,
anche i servizi più noti ammettono di poter analizzare metadati e informazioni indirette.
Tutto questo rafforza l’idea che le protezioni opzionali non siano più sufficienti: una crittografia solida deve essere la norma, non l’eccezione.
Sicurezza pubblica o sicurezza digitale?
Chiedere E2EE per default non significa ignorare il tema dell’ordine pubblico. Significa, piuttosto, riconoscere che ogni “backdoor” crea una vulnerabilità. Una volta esistente, quella porta può essere sfruttata non solo da chi ha un mandato legittimo, ma anche da criminali e attori ostili.
Molti esperti di sicurezza concordano su un punto: l’unico modo per proteggere davvero le comunicazioni è non introdurre eccezioni tecniche che ne indeboliscano la struttura.
Il futuro della privacy digitale
“Encrypt It Already” mette in evidenza una verità spesso trascurata: la privacy non dipende solo dalle scelte dell’utente, ma da come i sistemi vengono progettati. Se le piattaforme più usate non adottano le migliori tecnologie di protezione come impostazione di base, la maggioranza delle persone resta vulnerabile per definizione.
In un panorama dove intelligenza artificiale, sorveglianza statale e raccolta commerciale dei dati si intrecciano sempre di più, la crittografia end-to-end resta una delle poche difese concrete a disposizione degli utenti.
📬 Perché tutto questo conta
Se l’E2EE fosse la regola e non l’eccezione, miliardi di utenti avrebbero una difesa tecnica contro:
sorveglianza non autorizzata,
raccolta di dati senza consenso,
intrusioni commerciali nei flussi comunicativi,
pressioni statali per accessi privilegiati.
In un mondo in cui l’informazione è potere, proteggere le comunicazioni significa difendere la propria sovranità digitale personale.
Conclusione
La campagna Encrypt It Already non è un’utopia tecnologica, ma una richiesta pragmatica: proteggere le persone con sistemi che nessuno possa forzare, leggere o indebolire per convenienza legale o commerciale.
In un’epoca in cui le comunicazioni definiscono relazioni, idee e identità, la crittografia non è un lusso per pochi, ma un diritto fondamentale alla sicurezza digitale.
📂 Epstein Files: quando i dati e l’IA ridefiniscono la “verità” digitale
Negli ultimi giorni due sviluppi legati alla cosiddetta Epstein Files hanno fatto rumore nel mondo della sicurezza digitale:
la diffusione di immagini generate o alterate da IA, attribuite falsamente a persone coinvolte nei documenti
la pubblicazione di password di account legati alla vicenda insieme ai file, con utenti che ne hanno ottenuto accesso illecito.
Questi due eventi, all’apparenza diversi, sono due facce della stessa trasformazione profonda: i dati grezzi non sono solo vulnerabili a fughe accidentali o malevole, ma possono essere manipolati e resi strumenti di disinformazione e abuso. E la combinazione di IA con dati non protetti crea un cocktail di rischio che va ben oltre il furto di identità o la semplice violazione.
🧠 IA e immagini: oltre il deepfake, verso la narrativa
Da un lato, i file che circolano associati alla vicenda Epstein sono stati usati come terreno fertile per modelli di IA in grado di generare immagini realistiche ma completamente false rappresentanti persone che compaiono nei documenti. Queste immagini non sono solo artefatti tecnici: diventano strumenti di narrazione alternativa, che possono influenzare l’opinione pubblica, diffondere accuse non verificate o – peggio – creare storie visive completamente costruite.
L’elemento che cambia il gioco è la qualità e la credibilità: modelli avanzati di IA sono ormai capaci di generare volti, pose, scene plausibili, tali da superare il filtro intuitivo dei lettori. Questo significa che persone citate nei documenti, giornali o database possono apparire in immagini che non sono mai esistite — e molte persone potrebbero prenderle sul serio.
La facilità con cui si possono generare questi contenuti rende centrale una domanda:
Quando la tecnologia non distingue più tra verità e plausibile, cosa rimane della nostra fiducia nelle prove visive?
La risposta non è tecnica: è culturale e politica.
🔐 Dati esposti e password leaked: il rischio reale
Dall’altra parte, l’aspetto più pragmatica della vicenda è quello della sicurezza delle credenziali. Insieme ai cosiddetti Epstein Files, sono state diffuse password o dati di accesso legati a servizi digitali delle persone coinvolte. In alcuni casi, ambienti di condivisione online come Reddit hanno permesso ad altri utenti di accedere a questi account.
Qui la questione non è solo “qualcuno ha rubato una password”. È che:
molte persone riutilizzano le stesse credenziali su più sistemi;
una singola fuga di password può trasformarsi in un ponte per attacchi più ampi;
la somma di dati personali e credenziali provenienti da fughe può mappare l’identità digitale di qualcuno in modi drammatici.
Quando i dati non sono protetti correttamente, si aprono vie per:
account takeover,
furti d’identità,
ricatti,
attacchi mirati a reti aziendali o personali.
La fuga di password associata a un documento così sensibile come gli Epstein Files diventa quindi un caso esemplare: non è un incidente isolato, ma uno specchio delle pratiche deboli di gestione delle credenziali nel digitale globale.
🤯 Perché questi due fenomeni convergono
Da un lato abbiamo immagini AI che creano realtà alternative.
Dall’altro, credenziali che aprono porte reali nei sistemi.
Queste due dinamiche sono connesse più di quanto si pensi:
📌 Entrambe sfruttano la fiducia degli utenti.
Le immagini manipolate sfruttano la nostra fiducia visiva; le password rubate sfruttano la nostra fiducia digitale nei sistemi di autenticazione.
📌 Entrambe mettono in discussione ciò che consideriamo “prova” o “sicuro”.
Non basta che un documento o un’immagine abbia una storia: può essere fabbricata o violata.
📌 Entrambe sono potenziate dal medesimo pilastro tecnologico:
l’IA e l’economia dei dati.
Quando un’infrastruttura tecnica fallisce — per esempio perché le password sono state archiviate senza adeguata protezione — i dati non sono solo trafugati: diventano materiale grezzo per narrazioni false, impersonazioni e attacchi più sofisticati.
🔎 Le implicazioni per privacy e sicurezza digitale
Il caso Epstein Files, in questo senso, non è una curiosità di cronaca: è un caso scuola di come l’ecosistema digitale contemporaneo crea nuovi vettori di rischio. In particolare:
1. Le immagini AI possono influenzare l’opinione pubblica
Non più solo deepfake su celebrità: immagini attribuite a persone reali nei documenti possono essere usate per manipolare discorsi pubblici, strategie mediatiche o perfino giudizi legali.
2. Le fughe di dati espongono identità digitali
Ogni password violata, ogni account compromesso, è parte di un mosaico di identità che può essere sfruttato per attacchi più ampi, ricatti o furti di dati secondari.
3. La combinazione di IA e dati vulnerabili è una minaccia sistemica
L’IA non è solo uno strumento di produzione di contenuti: è uno strumento di manipolazione. E quando i dati su cui si basa l’IA sono già esposti o compromessi, le conseguenze si moltiplicano.
📌 Conclusione: cosa ci insegna questa vicenda
Le tecnologie di generazione di contenuti e i sistemi di autenticazione non sono problemi separati. Sono punti di una stessa rete di rischio digitale che va compresa in profondità:
non è sufficiente proteggere i dati personali,
non è sufficiente mettere filtri alle immagini,
non è sufficiente addestrare modelli IA migliori.
Serve una cultura di responsabilità digitale che combini:
✔ protezione dei dati e gestione delle credenziali,
✔ trasparenza su come vengono generati e usati i contenuti IA,
✔ alfabetizzazione critica sui media digitali,
✔ governance e standard internazionali su IA e sicurezza.
In un’epoca in cui l’informazione e la sicurezza sono due facce della stessa medaglia, qualsiasi falla nell’una si riflette sull’altra. E questa è una realtà che non possiamo più permetterci di ignorare.
WhatsApp e la Controversia sulla Privacy: Come Proteggere i Tuoi Dati
Il recente dibattito sulla sicurezza di WhatsApp ha sollevato interrogativi importanti sulla privacy delle nostre comunicazioni digitali. Una causa legale e l’analisi di esperti di crittografia hanno riacceso il dibattito su quanto possiamo davvero fidarci delle nostre chat.
Cosa è Successo?
Una causa legale intentata a San Francisco nel gennaio 2026 ha accusato Meta di consentire ai propri dipendenti di accedere ai messaggi WhatsApp degli utenti tramite strumenti interni. Le affermazioni, amplificate da figure pubbliche come Elon Musk e Pavel Durov di Telegram, hanno generato panico tra gli utenti della piattaforma.
Ma secondo Matthew Green, rinomato crittografo della Johns Hopkins University, queste accuse mancano di fondamento tecnico. La causa non presenta prove concrete: nessun campione di codice, nessun report di audit, solo testimonianze anonime vaghe.
WhatsApp utilizza il protocollo Signal, considerato lo standard d’oro per la messaggistica sicura. In pratica:
I messaggi vengono criptati sul tuo dispositivo prima dell’invio
Solo il destinatario può decriptarli sul proprio dispositivo
Le chiavi di crittografia non lasciano mai il controllo degli utenti
Nemmeno WhatsApp dovrebbe poter leggere i contenuti
Per violare questo sistema, Meta dovrebbe modificare l’app stessa per inviare copie in chiaro dei messaggi o delle chiavi di crittografia ai propri server. Un’operazione del genere sarebbe tecnicamente rilevabile attraverso il reverse engineering e lascerebbe tracce forensi evidenti.
Il Problema della Trasparenza
La differenza cruciale tra WhatsApp e Signal risiede nel fatto che Signal è open-source: chiunque può esaminare il codice e verificare che non ci siano backdoor. WhatsApp, invece, è closed-source, il che significa che dobbiamo fidarci della parola di Meta.
Questa mancanza di trasparenza crea un inevitabile gap di fiducia, soprattutto considerando il modello di business di Meta basato sulla raccolta dati.
Cosa Meta Può Davvero Vedere
Anche se i contenuti dei messaggi sono criptati, Meta ha comunque accesso a una quantità significativa di informazioni:
Metadati sempre accessibili:
Con chi comunichi e quando
La frequenza delle tue conversazioni
Informazioni sul dispositivo utilizzato
La tua posizione (se condivisa)
I tuoi contatti in rubrica
Backup non criptati: Se attivi il backup su iCloud o Google Drive senza crittografia end-to-end, copie in chiaro delle tue chat vengono salvate su server di terze parti, dove Meta e le autorità potrebbero potenzialmente accedervi.
Tutorial: Come Migliorare la Privacy su WhatsApp
Anche se non puoi controllare completamente cosa fa Meta con i tuoi metadati, esistono diverse impostazioni per limitare le informazioni che condividi con altri utenti e proteggere meglio le tue conversazioni.
1. Nascondi l’Ultimo Accesso e lo Stato Online
Perché è importante: L’ultimo accesso rivela quando sei attivo su WhatsApp, informazione che può essere utilizzata per tracciare le tue abitudini.
Come fare:
Apri WhatsApp
Vai su Impostazioni (⚙️)
Seleziona Privacy
Tocca Ultimo accesso e online
Imposta su Nessuno o I miei contatti
Disattiva Chi può vedere quando sono online
Nota: Se nascondi il tuo ultimo accesso, non potrai vedere quello degli altri utenti.
2. Disattiva le Conferme di Lettura (Spunte Blu)
Perché è importante: Le doppie spunte blu indicano che hai letto un messaggio, creando aspettative di risposta immediata e permettendo agli altri di monitorare quando leggi i messaggi.
Come fare:
Vai su Impostazioni → Privacy
Disattiva Conferme di lettura
Limitazioni: Questa impostazione non funziona nei gruppi e non impedisce agli altri di vedere quando hai visualizzato i messaggi vocali.
3. Controlla Chi Può Vedere il Tuo Profilo
Foto profilo:
Vai su Impostazioni → Privacy
Seleziona Foto del profilo
Imposta su I miei contatti o Nessuno
Info personali:
Nella stessa sezione, seleziona Info
Scegli chi può vedere la tua biografia
Consiglio: Usa una foto neutra (paesaggio, logo, immagine astratta) invece di una foto personale riconoscibile, specialmente se fai parte di molti gruppi con sconosciuti.
4. Usa un Nome Falso o Generico
WhatsApp permette di modificare il nome visualizzato:
Vai su Impostazioni → Profilo
Tocca il tuo nome
Modifica con un nickname, iniziali o nome generico
Esempi:
Invece di “Mario Rossi” → “M.R.” o “Mario”
Usa un soprannome che solo i tuoi contatti riconoscono
Importante: Questo non modifica il numero di telefono associato all’account, che rimane il tuo identificativo principale.
5. Proteggi WhatsApp con Password/Biometria
Per iPhone:
Vai su Impostazioni → Privacy
Seleziona Blocco schermo
Attiva il blocco e scegli l’intervallo di tempo
Per Android:
Vai su Impostazioni → Privacy
Seleziona Blocco con impronta digitale (o Face Unlock)
Attiva e configura
Questa funzione richiede l’autenticazione biometrica o il PIN del dispositivo ogni volta che apri WhatsApp.
6. Proteggi Chat Specifiche con Password
WhatsApp offre la funzione Chat bloccate per nascondere conversazioni sensibili:
Come fare:
Apri la chat che vuoi proteggere
Tocca il nome del contatto/gruppo in alto
Scorri e seleziona Attiva Lucchetto
Per accedere alle chat bloccate:
Scorri verso il basso nella lista chat
Autenticati per visualizzarle
Consiglio avanzato: Puoi anche nascondere le notifiche dalle chat bloccate per maggiore privacy.
7. Attiva i Messaggi Effimeri (Autodistruttivi)
I messaggi effimeri si cancellano automaticamente dopo un periodo prestabilito.
Per singole chat:
Apri la conversazione
Tocca il nome del contatto in alto
Seleziona Messaggi effimeri
Scegli la durata: 24 ore, 7 giorni o 90 giorni
Per tutti i nuovi gruppi:
Vai su Impostazioni → Privacy
Seleziona Timer predefinito messaggi
Scegli la durata
Limitazioni importanti:
I destinatari possono comunque salvare screenshot
I messaggi possono essere inoltrati prima della scadenza
I media salvati nella galleria non vengono eliminati automaticamente
8. Disattiva il Download Automatico dei Media
Impedisci che foto, video e documenti vengano salvati automaticamente:
Vai su Impostazioni → Spazio e dati
Seleziona Download automatico media
Disattiva per Foto, Audio, Video e Documenti
Configura separatamente per dati mobili, Wi-Fi e roaming
Benefici:
Controllo su cosa viene salvato sul dispositivo
Protezione da contenuti indesiderati o dannosi
Risparmio di spazio di archiviazione
9. Gestisci la Privacy nei Gruppi
Limita chi può aggiungerti ai gruppi:
Vai su Impostazioni → Privacy
Seleziona Gruppi
Scegli I miei contatti o I miei contatti eccetto...
Esci silenziosamente dai gruppi: WhatsApp ora permette di uscire dai gruppi senza notificare tutti i membri (solo gli amministratori vengono avvisati).
10. Verifica la Crittografia End-to-End
Per verificare che una chat sia effettivamente criptata:
Apri la chat
Tocca il nome del contatto
Seleziona Crittografia
Confronta il codice QR o il numero a 60 cifre con il tuo contatto di persona
Se i codici corrispondono, la connessione è sicura e non ci sono intermediari.
11. Attiva il Backup Criptato
Se usi i backup, assicurati che siano criptati end-to-end:
Come fare:
Vai su Impostazioni → Chat
Seleziona Backup delle chat
Tocca crittograia end-to-end
Crea una password forte (non dimenticarla!)
Conferma
Importante: Senza la password, non potrai mai recuperare il backup. WhatsApp non può aiutarti a recuperarla.
12. Limita la Condivisione della Posizione
Per la posizione in tempo reale:
Usa la funzione “Posizione in tempo reale” con parsimonia
Impostala sempre con un timer limitato (15 minuti, 1 ora, 8 ore)
Verifica chi può vederla
A livello di sistema:
Su iOS/Android, vai nelle impostazioni del telefono
Limita l’accesso di WhatsApp alla posizione a “Solo mentre usi l’app” o “Chiedi ogni volta”
Blink News:
l popolare editor di testo open-source Notepad++ è stato oggetto di un attacco informatico sofisticato attribuito a un gruppo di hacker presumibilmente sponsorizzato dallo Stato cinese. L’incidente non è derivato da vulnerabilità nel codice dell’applicazione, ma da un compromesso dell’infrastruttura di aggiornamento: dal giugno al dicembre 2025 gli autori dell’attacco sono riusciti a intercettare e reindirizzare il traffico di aggiornamento verso server controllati da loro, consentendo la distribuzione di pacchetti malevoli invece degli aggiornamenti ufficiali.
Le organizzazioni della società civile stanno criticando aspramente il fatto che aziende produttrici di spyware legate a gravi violazioni dei diritti umani stiano cercando di inserirsi nel Pall Mall Process, un’iniziativa diplomatica internazionale per regolamentare l’uso di strumenti di intrusione informatica commerciale. In particolare, NSO Group ha pubblicizzato la propria partecipazione al processo come prova del suo impegno verso una governance “responsabile”, nonostante un lungo elenco di abusi documentati del suo software Pegasus contro attivisti, giornalisti e difensori dei diritti umani. Francia e Regno Unito, che guidano il processo, hanno chiarito che la semplice partecipazione a consultazioni non implica un impegno formale o compliance, e che la presenza di aziende nel forum non significa automaticamente che agiscano in modo responsabile. I critici sostengono che includere aziende con storie di abusi senza criteri chiari rischia di minare la credibilità dell’iniziativa e di trasformarla in uno strumento di whitewashing delle reputazioni piuttosto che in un reale mezzo di riforma del mercato dello spyware.
I Paesi Bassi stanno esplorando l’idea di innalzare l’età minima per accedere ai social media a 15 anni, diventando così uno degli ultimi paesi europei a proporre un divieto per i più giovani nell’uso di piattaforme come TikTok o Instagram. Questo progetto è parte di un accordo della nuova coalizione di governo olandese che mira anche a spingere per un limite minimo europeo di 15 anni con sistemi di verifica dell’età rispettosi della privacy.



