Privacy Letters #67
Crittografia Quantum Safe,IA e molto altro...
Dalla missiva #67, dispersa tra nodi criptati e proxy fantasma. Ecco i dati sopravvissuti:
IBM e Signal per la crittografia Quantum Safe
Google usa l’IA contro le truffe telefoniche
Come l'IA sta riscrivendo la guerra online
Approfondimento partnership tra GrapheneOs e Motorola
IBM e Signal collaborano per sviluppare la crittografia “quantum-safe” per la messaggistica
La sicurezza delle comunicazioni digitali potrebbe presto affrontare una nuova sfida: i computer quantistici. Anche se questa tecnologia è ancora in fase di sviluppo, molti esperti di cybersecurity ritengono che in futuro potrebbe essere in grado di rompere gran parte dei sistemi di crittografia attualmente utilizzati su Internet.
Per anticipare questo scenario, i ricercatori di IBM stanno collaborando con gli sviluppatori di applicazioni di messaggistica sicura come Signal e Threema per progettare nuovi sistemi di crittografia resistenti agli attacchi quantistici, spesso chiamati “quantum-safe” o “post-quantum”.
L’obiettivo è semplice ma ambizioso: garantire che le conversazioni private restino sicure anche in un futuro in cui i computer quantistici saranno abbastanza potenti da attaccare gli algoritmi crittografici di oggi.
Perché i computer quantistici rappresentano una minaccia
La maggior parte delle comunicazioni online — dalle email alle transazioni bancarie — è protetta da sistemi di crittografia basati su problemi matematici molto complessi.
Con i computer tradizionali, rompere queste chiavi di cifratura richiederebbe centinaia o migliaia di anni di calcolo.
I computer quantistici, però, sfruttano principi della fisica quantistica per eseguire alcuni calcoli in modo estremamente più veloce. Questo significa che, una volta sufficientemente sviluppati, potrebbero decifrare rapidamente molti dei sistemi crittografici attuali.
Questo scenario è spesso descritto con l’espressione:
“Store now, decrypt later”
ovvero attaccanti che raccolgono oggi dati cifrati con l’idea di decifrarli in futuro quando la tecnologia quantistica sarà pronta.
L’obiettivo: crittografia resistente al quantum
Per prevenire questo rischio, i ricercatori stanno sviluppando nuove tecniche chiamate post-quantum cryptography, progettate per resistere anche agli attacchi di computer quantistici.
La collaborazione tra IBM e Signal punta proprio a integrare queste tecnologie nei sistemi di messaggistica sicura.
Questo significa creare protocolli che possano:
proteggere le conversazioni nel lungo periodo
garantire sicurezza anche contro futuri attacchi quantistici
mantenere alte prestazioni su smartphone e computer
L’idea è preparare l’infrastruttura di sicurezza prima che la minaccia diventi reale.
Come funziona oggi la sicurezza di Signal
Signal è già considerata una delle app di messaggistica più sicure al mondo grazie alla crittografia end-to-end.
Questo sistema garantisce che solo i partecipanti alla conversazione possano leggere i messaggi. Nemmeno il servizio stesso ha accesso al contenuto delle chat.
Alla base del sistema c’è il Signal Protocol, un meccanismo di gestione delle chiavi crittografiche che garantisce proprietà fondamentali come:
forward secrecy (i messaggi passati restano protetti anche se una chiave viene compromessa)
aggiornamento continuo delle chiavi di cifratura
protezione contro compromissioni future delle sessioni
Negli ultimi anni Signal ha già iniziato a integrare algoritmi post-quantum, combinando sistemi tradizionali con nuovi metodi progettati per resistere agli attacchi quantistici.
La collaborazione con IBM rappresenta un passo ulteriore per rafforzare queste tecnologie.
Perché la messaggistica è un campo cruciale
Le app di messaggistica sono diventate uno degli strumenti principali per comunicazioni personali, professionali e persino politiche.
Proteggere queste conversazioni è fondamentale perché spesso contengono:
informazioni personali
dati aziendali sensibili
comunicazioni giornalistiche o diplomatiche
Se in futuro i sistemi di crittografia attuali diventassero vulnerabili, grandi quantità di dati archiviati oggi potrebbero essere decifrate.
Per questo motivo molti ricercatori sostengono che la transizione alla crittografia post-quantum dovrebbe iniziare già adesso.
La corsa globale alla sicurezza post-quantum
La collaborazione tra IBM e Signal fa parte di un movimento molto più ampio nel settore tecnologico.
Negli ultimi anni:
governi
università
aziende tecnologiche
stanno investendo nello sviluppo di nuovi standard crittografici resistenti al quantum.
Anche il NIST (National Institute of Standards and Technology) negli Stati Uniti ha iniziato a standardizzare nuovi algoritmi post-quantum che potrebbero diventare la base della sicurezza digitale dei prossimi decenni.
Il futuro della sicurezza delle comunicazioni
Anche se i computer quantistici capaci di rompere la crittografia attuale non esistono ancora, molti esperti ritengono che la preparazione debba iniziare ora.
Aggiornare le infrastrutture crittografiche globali richiederà anni di lavoro, perché i sistemi di sicurezza sono integrati in:
smartphone
server
reti internet
servizi cloud
Collaborazioni come quella tra IBM e Signal dimostrano che il settore tecnologico sta cercando di anticipare la prossima grande sfida della cybersecurity.
Proteggere le comunicazioni del futuro significa iniziare a costruire la sicurezza oggi.
Se vuoi restare aggiornato su crittografia, privacy digitale, intelligenza artificiale e nuove minacce informatiche, continua a seguire e condividere Privacy Letters per analisi e approfondimenti sul mondo della sicurezza tecnologica.
Come Google usa l’intelligenza artificiale per combattere le truffe telefoniche
Le truffe telefoniche e via SMS sono diventate uno dei problemi più diffusi nel mondo digitale. Ogni giorno milioni di persone ricevono chiamate o messaggi da truffatori che si fingono banche, corrieri, servizi tecnici o enti pubblici. Con tecniche sempre più sofisticate, questi criminali cercano di convincere le vittime a condividere dati sensibili o a effettuare pagamenti fraudolenti.
Per contrastare questo fenomeno, Google ha iniziato a integrare strumenti basati sull’intelligenza artificiale direttamente nei dispositivi Android, con l’obiettivo di individuare i tentativi di truffa in tempo reale e avvisare l’utente prima che sia troppo tardi.
Il problema crescente delle truffe telefoniche
Negli ultimi anni le frodi digitali si sono evolute rapidamente. I truffatori non si limitano più a inviare messaggi palesemente sospetti: spesso costruiscono conversazioni lunghe e credibili, utilizzando strategie di ingegneria sociale per guadagnare la fiducia della vittima.
Ad esempio, una truffa può iniziare con un semplice messaggio su una consegna mancata o un’offerta di lavoro. Solo dopo diversi scambi arriva la richiesta di denaro o di dati personali. Questo tipo di approccio rende le truffe molto più difficili da individuare rispetto al classico spam.
Secondo Google, molte persone ricevono almeno una chiamata sospetta al giorno, il che dimostra quanto il fenomeno sia ormai diffuso. Proprio per questo l’azienda ha deciso di sfruttare l’intelligenza artificiale per rafforzare la protezione degli utenti.
AI integrata negli smartphone Android
Uno degli aspetti più interessanti della soluzione di Google è che l’AI lavora direttamente sul dispositivo dell’utente, senza dover inviare i contenuti delle conversazioni ai server dell’azienda.
Questo significa che lo smartphone analizza in autonomia messaggi e chiamate per individuare segnali sospetti. Quando il sistema rileva un possibile tentativo di truffa, l’utente riceve immediatamente un avviso che lo invita a prestare attenzione o a bloccare il contatto.
Questo approccio permette di combinare due elementi fondamentali:
maggiore sicurezza
maggiore tutela della privacy
Poiché l’elaborazione avviene sul telefono, le conversazioni restano private e non vengono archiviate su server esterni.
Rilevamento delle truffe nei messaggi
Una delle funzionalità più importanti riguarda Google Messages, l’app di messaggistica predefinita su molti smartphone Android.
Grazie all’intelligenza artificiale, l’app è in grado di analizzare i modelli linguistici tipici delle truffe. Se il sistema riconosce una conversazione che segue schemi sospetti — ad esempio richieste urgenti di denaro o link fraudolenti — mostra un avviso direttamente nella chat.
In questi casi l’utente può:
ignorare l’avviso
bloccare il mittente
segnalare la conversazione come truffa
Il sistema è progettato soprattutto per monitorare conversazioni con numeri sconosciuti, dove il rischio di frode è più elevato.
Protezione anche durante le chiamate
Google ha esteso questo sistema anche alle telefonate, introducendo una funzione di rilevamento delle truffe durante le chiamate vocali.
Quando la funzione è attiva, l’intelligenza artificiale analizza in tempo reale ciò che viene detto durante la conversazione. Se emergono frasi tipiche delle truffe — come richieste di pagamento tramite carte regalo o pressioni per fornire password e codici di sicurezza — il telefono può inviare avvisi sonori, vibrazioni o notifiche sullo schermo.
In questo modo l’utente riceve un segnale immediato che qualcosa potrebbe non andare.
Su alcuni dispositivi più recenti, come gli smartphone Pixel, questa tecnologia è alimentata da modelli di intelligenza artificiale locali progettati proprio per analizzare conversazioni e individuare schemi sospetti.
I tipi di truffe più comuni riconosciuti dall’AI
I sistemi sviluppati da Google sono stati addestrati per riconoscere molti dei metodi più usati dai truffatori. Tra i più comuni troviamo:
falsi operatori bancari
richieste di pagamento tramite carte regalo
truffe legate a consegne o pacchi
falsi servizi di assistenza tecnica
truffe legate a criptovalute o investimenti
L’AI analizza il linguaggio utilizzato nella conversazione e confronta i messaggi con modelli tipici di frode.
Privacy e sicurezza: come funziona davvero
Uno dei timori più comuni quando si parla di AI è la privacy. Google ha cercato di affrontare questo problema progettando il sistema in modo che l’elaborazione avvenga direttamente sul telefono.
Ciò significa che:
i messaggi non vengono inviati ai server di Google per essere analizzati
le conversazioni restano private
i modelli AI lavorano localmente sul dispositivo
Solo se l’utente decide di segnalare una conversazione sospetta vengono condivise alcune informazioni limitate per migliorare i sistemi di rilevamento.
L’AI non è una soluzione perfetta
Nonostante questi strumenti siano sempre più avanzati, gli esperti sottolineano che l’intelligenza artificiale non può eliminare completamente le truffe.
I criminali cambiano continuamente strategie e linguaggio per aggirare i sistemi di sicurezza. Inoltre, molti attacchi si basano proprio sulla manipolazione psicologica delle vittime.
Per questo motivo la tecnologia deve essere accompagnata da consapevolezza e buone pratiche di sicurezza.
Come proteggersi dalle truffe telefoniche
Anche con l’aiuto dell’AI, alcune regole restano fondamentali:
non condividere mai codici di verifica o password
diffidare di richieste urgenti di denaro
non cliccare link sospetti ricevuti via SMS
verificare sempre l’identità di chi chiama
Spesso bastano pochi secondi di attenzione per evitare una truffa.
Il futuro della sicurezza sugli smartphone
L’uso dell’intelligenza artificiale per la sicurezza mobile è solo all’inizio. Nei prossimi anni potremmo vedere sistemi ancora più sofisticati capaci di:
riconoscere truffe vocali generate da AI
bloccare automaticamente numeri sospetti
analizzare comportamenti anomali durante le chiamate
In un mondo sempre più digitale, strumenti di questo tipo saranno fondamentali per proteggere milioni di utenti dalle frodi online.
Una marea di falsi: come l’intelligenza artificiale sta riscrivendo la guerra
Quello che appare sui tuoi schermi non è necessariamente quello che sta accadendo.
Mentre nel Medio Oriente si spara sul serio, sui tuoi schermi si combatte un’altra guerra. Meno visibile, forse più pericolosa.
Scorri il feed. Vedi un missile su Tel Aviv. Un palazzo in fiamme nel Golfo. Una base militare ridotta a macerie. Una città nel caos.
Fermati un secondo.
Quella scena potrebbe non essere mai avvenuta.
Non sono fotomontaggi. È molto di peggio.
Fino a qualche anno fa, i falsi si riconoscevano. Le ombre sbagliatem le proporzioni che non tornano, qualcosa che stonava in generale la si trovava.
Oggi no.
I nuovi sistemi di intelligenza artificiale non producono immagini “finte” nel senso classico. Producono immagini costruite per sembrare reali nel modo in cui siamo abituati a vedere la realtà: tremolii della telecamera, pixel compressi, luce sporca, angolazioni da ripresa amatoriale. Imitano persino le imperfezioni che il nostro cervello associa all’autenticità.
Il risultato è inquietante: ciò che una volta ti avrebbe fatto alzare un sopracciglio, oggi ti sembra realtà.
Chi produce questi contenuti, non punta a convincerti di una versione specifica dei fatti. Punta a confonderti.
Una marea di narrazioni alternative, parzialmente plausibili, che si sovrappongono e si contraddicono. Il messaggio implicito è semplice: se tutto può essere falso, allora nulla è affidabile. E se nulla è affidabile, ciascuno si rifugia nella propria bolla, credendo solo a ciò che già crede.
Le immagini generate dall'IA sono l'arma perfetta per questo scopo. Si adattano in tempo reale all'evoluzione del conflitto. Parlano alla pancia più che alla mente. E spesso non serve nemmeno che tu ci creda fino in fondo: è sufficiente che tu le condivida nel dubbio.
“Ho chiesto all’IA e mi ha detto che era vero”
C’è un corto circuito che trovo particolarmente preoccupante.
Sempre più spesso, quando le persone vedono un video sospetto, fanno la cosa che sembra più ragionevole: chiedono conferma ad un chatbot. Ehi, questo video è autentico?
Il problema è che quei chatbot imparano da quello che leggono online. E se online circola già la versione falsa, magari riportata da migliaia di account, magari citata superficialmente da qualche sito di notizie, il chatbot potrebbe confermarla. Non perché voglia ingannarti. Perché non sa fare la differenza.
Il guaio vero, però, è culturale. Quando un’intelligenza artificiale risponde in modo ordinato e articolato, ci fidiamo. Confondiamo la forma con la sostanza. Una risposta ben costruita ci rassicura anche quando lo strumento non ha le informazioni necessarie per dirti la verità.
Chiedere all’IA è diventato un rituale. Non una verifica.
Le piattaforme stanno reagendo. Ma in ritardo
Qualcosa si muove. Alcune piattaforme hanno iniziato a penalizzare chi pubblica video di guerra generati dall’IA senza dichiararlo. Sospensioni, etichette, sistemi automatici di rilevamento.
Bene. Ma non basta, per due motivi semplici.
Il primo: chi usa questi strumenti per fare disinformazione vera, operazioni coordinate, stati, gruppi politici, non sta cercando di guadagnare soldi su YouTube. Tagliargli i proventi non li ferma.
Il secondo: quando arriva l’etichetta, il video ha già fatto il suo giro. Ha già raggiunto milioni di persone. Ha già depositato un’impressione. La smentita arriva dopo, quando l’attenzione si è già spostata altrove.
Funziona così: il falso corre, la correzione zoppica.
Il sistema è costruito per premiare esattamente questo
E qui arriviamo al problema di fondo, che nessuna singola soluzione può risolvere da sola.
Le piattaforme guadagnano quando guardi, clicchi, commenti, condividi. Il contenuto che fa questo meglio è il contenuto estremo, emotivamente carico, visivamente sconvolgente. L’intelligenza artificiale generativa produce esattamente questo tipo di contenuto in modo veloce, economico, su scala industriale.
Chi vuole raccontare la realtà parte svantaggiato. Verificare un video richiede ore, competenze, accesso a fonti affidabili. Generare un falso convincente richiede un prompt e due minuti.
Il problema non è l’IA. È che l’IA si inserisce in un sistema già orientato nella direzione sbagliata.
Cosa puoi fare, concretamente
Le cose che senti sempre dire — verifica le fonti, controlla la data, cerca riscontri — sono giuste. Ma in un conflitto armato, con il cuore che batte e le notifiche che arrivano ogni tre secondi, è difficile applicarle.
Quindi, più che una lista di consigli tecnici, ti lascio tre domande da farti ogni volta che stai per condividere qualcosa:
Questa immagine da dove arriva davvero? Non il profilo che l’ha condivisa. La fonte originale.
Ho già visto questo filmato in un altro contesto? I falsi vengono riciclati. Un video del 2021 può diventare la “prova” di qualcosa che è successo ieri.
Sto per condividere perché so che è vero, o perché mi fa pensare che ho ragione? Questa è la domanda più difficile. Ed è quella più importante.
Quello che rischiamo davvero
Ogni crisi geopolitica futura sarà accompagnata da questa guerra parallela. Ogni volta sarà più difficile distinguere il reale dal generato, il documento dalla finzione, la testimonianza dalla propaganda.
L’intelligenza artificiale ha messo nelle mani di chiunque la capacità di manipolare quello che vediamo. Non ha ancora messo nelle nostre mani, con la stessa forza, gli strumenti per difenderci.
La vera posta in gioco non è chi vincerà questa guerra. È se riusciremo ancora, come società, a metterci d’accordo su cosa è successo. Su cosa è reale. Su cosa vale come prova.
Un mondo in cui nessuna immagine è credibile, nessun video è una testimonianza, nessun frame è un appiglio alla realtà è un mondo che non fa bene a nessuno. Tranne a chi ha interesse, che tu smetta di cercare la verità.
Se qualcosa di questo articolo ti ha fatto riflettere, giralo a qualcuno. Non per allarmismo ma perché la prima difesa contro la disinformazione è capire come funziona.
Motorola e GrapheneOS: nasce la partnership che vuole ridisegnare la privacy sugli smartphone Android
Un accordo pluriennale tra il marchio storico di Lenovo e il progetto open source più rispettato nel mondo della sicurezza mobile. Cosa significa davvero, per chi è pensato e perché potrebbe cambiare le carte in tavola nel mercato Android.
Un’alleanza inaspettata, ma non casuale
Motorola e GrapheneOS hanno annunciato una collaborazione pluriennale che a prima vista potrebbe sembrare un accostamento strano: da un lato un grande produttore di smartphone con decenni di storia e milioni di dispositivi venduti, dall’altro un progetto open source di nicchia, amato da esperti di sicurezza e attivisti per la privacy. Eppurem guardando al contesto, l’accordo ha una logica precisa.
Siamo nel 2026: la sovranità digitale non è più un tema da addetti ai lavori. Governi, aziende e semplici cittadini si interrogano su chi controlla i dati che transitano dai loro telefoni. In questo scenario, Motorola ha scelto di scommettere su sicurezza e privacy come elementi differenzianti, abbandonando la corsa alle specifiche tecniche per puntare su qualcosa di più difficile da copiare: la fiducia.
Che cos’è GrapheneOS e perché è diverso da un Android normale
GrapheneOS non è una semplice variante personalizzata di Android. È un sistema operativo costruito da zero con la priorità assoluta sulla sicurezza e sulla protezione della privacy, pensato per chi non vuole scendere a compromessi su questi fronti.
In pratica cosa significa? Significa che GrapheneOS:
Riduce drasticamente la quantità di dati inviati a Google e ad altri servizi terzi
Applica protezioni avanzate contro gli exploit e gli attacchi informatici
Gestisce i permessi delle app in modo molto più restrittivo rispetto ad Android standard
Mantiene la compatibilità con le app Android più diffuse, pur mantenendo alto il livello di controllo
Fino a poco tempo fa, usare GrapheneOS richiedeva competenze tecniche specifiche: bisognava acquistare un Google Pixel, sbloccare il bootloader e installare manualmente il sistema. Un percorso accessibile a pochi. La partnership con Motorola mira proprio a superare questo ostacolo, portando GrapheneOS fuori dalla nicchia.
In sintesi: GrapheneOS è Android, ma senza i compromessi sulla privacy che ci siamo abituati ad accettare.
Cosa prevede concretamente l’accordo
Non si tratta di un semplice logo su una scatola. La collaborazione tra Motorola e il team di GrapheneOS prevede una progettazione condivisa dei futuri dispositivi, che dovranno rispettare requisiti tecnici precisi per poter supportare il sistema operativo in modo sicuro e completo.
Tra questi requisiti ci sono elementi come il boot verificato, la protezione hardware contro i tentativi di forzatura del PIN e l’utilizzo delle funzionalità di sicurezza avanzate presenti nei moderni processori. In altre parole, la sicurezza dev’essere integrata nell’hardware, non aggiunta in seguito come una vernice.
Nel breve periodo, i modelli Motorola attualmente in commercio non sono ancora supportati ufficialmente da GrapheneOS. Le prime integrazioni concrete arriveranno con le prossime generazioni di top di gamma, attese nei prossimi anni. Nel frattempo, la collaborazione prevede anche uno scambio tecnico reciproco: GrapheneOS ottiene accesso a informazioni più dettagliate sull’hardware di Motorola, mentre Motorola potrà integrare alcune delle best practice di sicurezza di GrapheneOS anche nella propria versione standard di Android.
Perché Motorola ha fatto questa scelta
Le ragioni sono in parte strategiche, in parte commerciali e in parte legate a una lettura molto precisa del mercato.
In un settore dove tutti i produttori Android si somigliano sempre di più per specifiche tecniche, Motorola ha bisogno di una narrazione diversa. Abbracciare GrapheneOS significa costruire un’identità precisa: “il produttore Android più rispettoso della tua privacy”.
Questo messaggio funziona su segmenti molto diversi tra loro:
Governi e pubbliche amministrazioni alla ricerca di dispositivi meno esposti al rischio di sorveglianza
Aziende in settori critici come energia, difesa e infrastrutture, che trattano dati sensibili
Professionisti e giornalisti che operano in contesti ad alto rischio
Utenti avanzati che fino a ieri consigliavano solo Pixel per motivi di privacy
C’è anche un vantaggio economico: i dispositivi posizionati sulla sicurezza giustificano prezzi più alti rispetto a un normale smartphone Android, perché il valore non è solo nell’hardware ma nella combinazione di software sicuro, aggiornamenti a lungo termine e supporto dedicato.
Infine, va considerata la sinergia con Lenovo — casa madre di Motorola — e le sue soluzioni di sicurezza enterprise già consolidate nel mondo business con il marchio ThinkShield. L’aggiunta di GrapheneOS completa un’offerta che ora può coprire una gamma importante di prodotti , dal laptop al telefono.
Lo scenario geopolitico: opportunità e ombre
L’accordo non cambia da solo gli equilibri globali, ma si inserisce in un dibattito sempre più caldo sulla sovranità digitale. Per molti governi e organizzazioni, avere a disposizione uno smartphone commerciale di marca, dotato di un sistema operativo rafforzato e non legato all’ecosistema Google, rappresenta un’opzione concreta di autonomia tecnologica.
Allo stesso tempo, c’è un elemento di ambiguità che non può essere ignorato: Motorola appartiene a Lenovo, gruppo con sede in Cina. Questo potrebbe alimentare diffidenza in alcuni Paesi che già guardano con sospetto l’hardware proveniente dalla sfera cinese. Il paradosso è evidente: uno smartphone progettato per proteggere la privacy potrebbe diventare terreno di scontro geopolitico proprio a causa della sua catena di fornitura.
Per attivisti, giornalisti e ONG che operano in contesti autoritari, la possibilità di acquistare un telefono commerciale con GrapheneOS preinstallato è una notizia potenzialmente molto rilevante. Fino a oggi, proteggersi richiedeva competenze tecniche non comuni. Domani potrebbe bastare entrare in un negozio.
Attenzione: Alcuni regimi potrebbero rispondere limitando o monitorando la vendita di questi dispositivi, come già avvenuto con VPN e software di cifratura.
Cosa cambia oggi per l’utente comune
Essere onesti è importante: nel breve periodo, per chi compra uno smartphone Motorola oggi, cambia poco o nulla. I modelli attualmente in vendita restano basati su Android tradizionale. I vantaggi concreti di questa partnership arriveranno con i futuri top di gamma, progettati appositamente per supportare GrapheneOS.
Chi vuole usare GrapheneOS adesso in modo stabile e completo deve ancora affidarsi a un Google Pixel. I Pixel restano gli unici dispositivi pienamente supportati e maturi per questo scopo.
Nel medio periodo, però, lo scenario potrebbe cambiare significativamente. Se l’operazione avrà successo, Motorola potrebbe diventare il primo grande produttore alternativo a offrire telefoni “privacy-centrici” certificati. Questo ridurrebbe la dipendenza dal solo ecosistema Google anche per chi tiene alla sicurezza, aprendo una concorrenza sana in un segmento oggi quasi monopolizzato.
Conclusione: una scommessa sul futuro
La partnership tra Motorola e GrapheneOS è ancora in fase embrionale, ma il segnale che manda è chiaro. In un’epoca in cui la fiducia vale quanto le specifiche tecniche — se non di più — costruire smartphone pensati per rispettare davvero la privacy degli utenti potrebbe diventare un vantaggio competitivo significativo.
Non è detto che ci riescano. Le variabili sono molte: la complessità tecnica dell’integrazione, la diffidenza legata a Lenovo, la capacità di spiegare il valore di GrapheneOS a un pubblico mainstream. Ma la direzione intrapresa è quella giusta, e in un mercato che fatica a innovare davvero, questo merita attenzione.
Blink News :
Un recente rapporto segnala che hacker legati alla Russia stanno prendendo di mira gli account Signal e WhatsApp utilizzati da funzionari governativi, militari, diplomatici e giornalisti in diversi paesi. L’obiettivo non è violare la crittografia delle app, ma prendere il controllo direttamente degli account delle vittime.Un’altra tecnica consiste nello sfruttare la funzione che consente di collegare dispositivi aggiuntivi agli account. In questo modo gli attaccanti riescono a monitorare i messaggi senza dover compromettere direttamente l’infrastruttura delle piattaforme.Le autorità di intelligence olandesi hanno confermato che anche alcuni dipendenti governativi sono stati colpiti, avvertendo che queste campagne di spionaggio informatico potrebbero esporre informazioni sensibili. Nonostante ciò, le piattaforme di messaggistica non risultano tecnicamente violate: gli attacchi sfruttano soprattutto errori umani e funzionalità legittime delle applicazioni.
Il gruppo di cyber-spionaggio APT28, noto anche come Fancy Bear e collegato all’intelligence militare russa, ha recentemente riattivato e aggiornato un toolkit avanzato di malware utilizzato in operazioni di spionaggio informatico contro organizzazioni strategiche. Questo gruppo è attivo da anni e prende di mira soprattutto governi, istituzioni militari, organizzazioni internazionali e aziende coinvolte in settori sensibili.Il toolkit rinnovato include strumenti progettati per infiltrarsi nelle reti delle vittime, mantenere l’accesso nel tempo e raccogliere informazioni sensibili senza essere scoperti. Le operazioni spesso iniziano con campagne di spear-phishing, che inducono le vittime ad aprire documenti o link malevoli. Una volta compromesso il sistema, il malware consente agli attaccanti di installare ulteriori componenti, eseguire comandi da remoto e muoversi all’interno della rete bersaglio.Il ritorno di questo toolkit dimostra come i gruppi di hacker legati agli stati continuino a riutilizzare e migliorare strumenti già testati in precedenti campagne, rendendo più difficile per le organizzazioni difendersi.
Meta ha introdotto nuovi strumenti anti-truffa basati sull’IA per WhatsApp, Facebook e Messenger con l’obiettivo di proteggere meglio gli utenti da frodi e tentativi di furto degli account.Le nuove funzionalità utilizzano sistemi di AI per analizzare comportamenti sospetti nelle conversazioni e nelle attività degli account. Quando viene rilevata un’azione potenzialmente fraudolenta, come il tentativo di collegare un account WhatsApp a un nuovo dispositivo o messaggi che seguono schemi tipici delle truffe online, la piattaforma mostra automaticamente un avviso all’utente.
Gli strumenti sono progettati per riconoscere alcune delle truffe più diffuse, tra cui impersonificazione di persone o aziende, falsi investimenti e tentativi di convincere gli utenti a condividere codici di verifica o altre informazioni sensibili.




