Privacy Letters #66
Guerra IA , GrapheneOS,Privacy e influencer...
Dalla lettera #66, inviata ai margini della rete sotto scudo crittografico. Ciò che resta, sopravvissuto alla sorveglianza:
Guerra per il controllo dell’IA: Anthropic VS OpenAI
Nuova Partnership tra Motorola e GrapheneOs
Governare le proprie tracce digitali
L’illusione di Dubai: Influencer in Fuga
Boot:
L’utilizzo di sistemi di intelligenza artificialem inclusi quelli sviluppati da OpenAI e Anthropic in contesti militari segna una soglia critica che non può essere liquidata come semplice evoluzione tecnologica.
Il punto non è solo che l’IA venga usata in guerra, ma come e con quali garanzie. Questi modelli non sono armi convenzionali: sono sistemi opachi, probabilistici, addestrati su enormi quantità di dati civili, culturali e politici. Delegare loro analisi di intelligence, simulazioni di scenari o supporto decisionale significa introdurre bias, allucinazioni e logiche statistiche in contesti dove l’errore non è correggibile a posteriori.
C’è poi un problema di controllo democratico. Molti di questi strumenti nascono come prodotti commerciali, regolati da contratti privati e clausole di riservatezza. Quando vengono integrati in operazioni militari o di sicurezza nazionale, sfuggono di fatto al dibattito pubblico, al controllo parlamentare e persino alla piena responsabilità giuridica. Se un’IA contribuisce a una decisione letale, chi risponde? Il comandante? Il fornitore? L’algoritmo?
Infine, l’uso bellico dell’IA accelera una corsa globale difficilmente reversibile. Se una potenza integra modelli avanzati nei propri sistemi militari, le altre seguiranno. Non per scelta etica, ma per deterrenza. Il risultato è una normalizzazione dell’IA come infrastruttura di guerra, prima ancora che la società abbia deciso se sia disposta ad accettarlo.
In questo senso, la questione non riguarda solo Trump, l’Iran o una singola operazione militare. Riguarda il precedente che stiamo creando: un mondo in cui l’intelligenza artificiale smette di essere uno strumento di supporto umano e diventa un moltiplicatore automatico di conflitto.
Ed è proprio per questo che parlarne ora non è allarmismo, ma lucidità.
🚨 Guerra per il controllo dell’IA: Anthropic, il Pentagono e la resa dei conti tecnologica
Negli ultimi mesi, un conflitto silenzioso ma fondamentale si è sviluppato all’incrocio tra intelligenza artificiale, strategia militare e valori etici. Al centro c’è una startup di IA con sede a San Francisco: Anthropic. Nota per il suo modello Claude, un sistema di intelligenza artificiale avanzato orientato alla sicurezza, l’azienda ha rifiutato l’ultima richiesta del Dipartimento della Difesa statunitense (DoD) di rimuovere alcune salvaguardie etiche dalle sue tecnologie per consentire un uso militare “senza restrizioni”. Questo rifiuto ha innescato una reazione politica e istituzionale con implicazioni che vanno ben oltre una singola compagnia.
⚖️ L’ultimatum: sicurezza contro uso militare senza vincoli
La disputa è iniziata con le negoziazioni tra il Pentagono e Anthropic per definire come l’IA Claude potesse essere utilizzata nei sistemi militari statunitensi. Il Dipartimento della Difesa ha chiesto contratti con una clausola “any lawful use”, ovvero la possibilità per il governo di impiegare l’IA in qualsiasi campo considerato legale, incluso massiccio monitoraggio interno (mass surveillance) e sistemi d’arma completamente autonomi — tecnologie che possono operare senza supervisione umana diretta.
Anthropic ha rigettato questa richiesta, sostenendo che non è etico né sicuro rimuovere i limiti di sicurezza che proibiscono l’uso dell’IA per tali finalità. Il CEO Dario Amodei ha dichiarato che il modello non è affidabile abbastanza per sorveglianza di massa o per controllare armi letali senza supervisione umana, e che tali protezioni rappresentano limiti morali indispensabili.
🛑 La risposta del governo: blacklisting e proibizioni
In risposta, il presidente Donald Trump e il Segretario alla Difesa Pete Hegseth hanno dato un segnale senza precedenti. Trump ha ordinato a tutte le agenzie federali di cessare immediatamente l’uso della tecnologia di Anthropic, definendola un rischio per la sicurezza nazionale. Il Pentagono ha quindi designato l’azienda come “supply chain risk”, una classificazione normalmente riservata a imprese straniere considerate minaccia, come accade di solito per giganti tecnologici con legami con Stati avversari.
La designazione ha effetti concreti:
tutte le forniture militari e i contratti di sicurezza tra appaltatori federali e Anthropic sono proibiti;
i partner che lavorano con il Pentagono devono certificare di non utilizzare l’IA di Anthropic nei loro workflow;
un contratto di difesa da fino a 200 milioni di dollari è in pericolo di cancellazione;
l’azienda ha sei mesi per ridurre la sua presenza nei sistemi governativi.
Anthropic ha definito la mossa “legalmente insostenibile” e ha annunciato l’intenzione di impugnare la decisione in tribunale, sostenendo che designare una società americana come rischio per la catena di approvvigionamento è senza precedenti e pericoloso per il futuro dei rapporti tra governo e privati in tecnologie strategiche.
🌐 IA in battaglia
La questione si carica di paradossi. Claude, pur sotto ban da parte del governo federale, è stato utilizzato dal militare statunitense nel mondo reale, inclusa una recente operazione congiunta contro l’Iran, dove l’IA ha supportato analisi di intelligence e simulazioni di scenario di combattimento poche ore dopo il divieto ufficiale. Questo è dovuto alla profonda integrazione tecnica di Claude nei sistemi classificati, il che rende difficile un distacco improvviso.
🤝 OpenAI prende il posto di Anthropic… con garanzie
Mentre la disputa tra governo e Anthropic si inaspriva, OpenAI ha raggiunto un accordo separato con il Pentagono per l’uso dei suoi modelli nei sistemi classificati, formalizzando garanzie specifiche che impediscono l’uso dell’IA per mass surveillance interna e armi autonome. Questa svolta mostra che non è impossibile negoziare limiti etici, ma che la battaglia politica e commerciale per imporli è feroce.
🧠 Le implicazioni sono massive
Questo scontro non è solo una disputa contrattuale: è una crisi paradigmatica sulla governance dell’intelligenza artificiale. Da una parte c’è la visione del governo che vuole massima flessibilità operativa sulle tecnologie emergenti per rafforzare capacità militari. Dall’altra, c’è una scuola di pensiero — incarnata da Anthropic — che guarda alla custodia etica dell’IA e rifiuta l’uso di modelli avanzati per scopi che considera incompatibili con valori democratici e diritti civili.
Se gli sviluppatori di IA cedono su sorveglianza o autonomia letale, il rischio è che queste tecnologie diventino parte integrante di sistemi che non solo difendono, ma potrebbero anche comprimere libertà civili o automatizzare decisioni di vita e morte senza supervisione umana reale. L’esito di questa battaglia definirà non solo chi controlla la tecnologia, ma come e per cosa viene usata.
⚖️ Cosa resta aperto
Il contenzioso tra governi e industria — tra sicurezza, etica e innovazione — non è risolto. Anthropic ha promesso di sfidare la decisione in tribunale, mentre OpenAI e altri grandi attori guardano con attenzione, consapevoli che un precedente di questo tipo può ridefinire le relazioni tra aziende e governi nel campo strategico dell’intelligenza artificiale.
Aggiornamento
Nel momento in cui stavo per pubblicare la newsletter è arrivata la notizia che Dario Amodei, CEO di Anthropic, sta cercando un ultimo accordo con il Dipartimento della Difesa degli Stati Uniti per evitare che la sua azienda venga esclusa dalla supply chain militare.
Ha avuto colloqui con Emil Michael, sottosegretario alla Difesa per ricerca e ingegneria, per definire un contratto sull’uso dei modelli di IA di Anthropic da parte del Pentagono.
In sintesi
Questa vicenda segna una linea di frattura nella storia dell’IA:
un governo può limitare o vietare l’uso di IA basata su principi etici;
un’azienda può resistere per valori di salvaguardia e trasparenza;
un’altra può negoziare limiti e rimanere nel giro dei contratti governativi.
E più di ogni altra cosa, ci ricorda che il controllo dell’intelligenza artificiale non è solo tecnologico, ma profondamente politico, legale e morale.
Approfondisci :
https://www.br1s.com/guerra-ia-microsoft-amazon-google-anthropic-openai/
Motorola e GrapheneOS Foundation: quando la privacy smette di essere uno slogan
Al Mobile World Congress 2026, Motorola ha annunciato qualcosa che in pochi si aspettavano: una partnership con la GrapheneOS Foundation, l’organizzazione no-profit dietro a uno dei sistemi operativi mobile più seri in fatto di sicurezza e privacy. Non è il solito accordo commerciale con tanto di slide patinata — è qualcosa che, se mantenuto nelle promesse, potrebbe cambiare davvero le carte in tavola per chi vuole uno smartphone che non ti spia.
L’obiettivo è portare GrapheneOS su futuri dispositivi Motorola. Fino ad oggi, l’unica strada per usare questo sistema operativo era comprare un Google Pixel — scelta dettata dagli standard di sicurezza hardware di quei dispositivi, non certo dal caso. Un vincolo reale, che ha tenuto fuori dal gioco molti utenti interessati.
Cosa c’è sotto il cofano di GrapheneOS
GrapheneOS è un sistema operativo open source costruito su Android (AOSP), ma con una filosofia completamente diversa: la sicurezza non è un’aggiunta, è la fondamenta. I servizi Google non ci sono di default — e con loro spariscono gran parte del tracciamento, della telemetria e di tutte quelle dipendenze silenziose che di solito diamo per scontate. Tecnicamente parlando, introduce protezioni avanzate contro exploit di memoria, un sandboxing molto più rigido per le app e un controllo dei permessi talmente granulare da sembrare quasi chirurgico. Vuoi usare le app Google? Puoi farlo, ma in una sandbox isolata, senza i privilegi speciali a cui sono abituate. Il controllo rimane tuo.
Perché questo accordo mi sembra una buona notizia
Sono convinto che questa partnership vada nella direzione giusta. Non perché Motorola sia improvvisamente diventata una paladina della privacy — il tempo e i dispositivi effettivi lo diranno — ma perché rompe un monopolio silenzioso che stava iniziando a pesare.
Fino ad oggi, scegliere GrapheneOS significava quasi obbligatoriamente scegliere un Pixel, con i prezzi che ne conseguono. Motorola copre una fascia di mercato molto più ampia, e questo apre scenari interessanti: è lecito sperare in dispositivi compatibili a prezzi più accessibili, senza dover sacrificare la sicurezza per il portafoglio.
C’è anche un segnale più sottile, forse il più importante: altri produttori iniziano a capire che la privacy non è solo un tema da convegno. Può essere una caratteristica tecnica concreta, misurabile, che gli utenti cercano davvero. Se questa tendenza si consolida, potremmo avvicinarci a un futuro in cui sicurezza e privacy non siano il lusso di pochi, ma uno standard che chiunque può aspettarsi dal proprio telefono.
Per ora è un primo passo. Ma è un passo reale.
Privacy non è sparire: è governare le proprie tracce digitali
La maggior parte delle persone associa la privacy online a impostazioni complicate, documenti legali e rischi informatici.
In realtà, la questione è più semplice e più profonda: riguarda la capacità di decidere quali informazioni su di noi resteranno accessibili nel tempo, a chi e in quale contesto.
Questo breve percorso propone alcuni passaggi concreti per prendere il controllo delle proprie tracce digitali, senza estremismi, ma con metodo.
Passo 1 – Definire ciò che può essere pubblico
Il primo atto di tutela è una scelta consapevole: cosa può essere pubblico e cosa no.
Non si tratta di segretezza, ma di delimitare uno spazio informativo aperto e uno riservato.
Suggerimento pratico per il lettore:
- Scrivere tre categorie di informazioni che si accettano come pubbliche (es. ruolo professionale, settore in cui si lavora, alcune passioni generali).
- Scrivere tre categorie che dovrebbero restare circoscritte (situazioni familiari, dati sanitari, convinzioni politiche dettagliate, informazioni economiche).
Questa distinzione diventa il riferimento per valutare cosa pubblicare e dove.
Passo 2 – Costruire un “profilo ufficiale” e ridurre il rumore
È utile pensare alla propria presenza online come a un “profilo ufficiale” e a una serie di frammenti sparsi.
L’obiettivo è fare in modo che, cercando il nostro nome, emerga soprattutto ciò che abbiamo scelto di mettere in primo piano.
Azioni suggerite:
- Curare 1–2 luoghi principali (es. un sito personale, un profilo LinkedIn aggiornato, un profilo social pubblico sobrio).
- Rivedere e, se necessario, chiudere o rendere privati vecchi account che non rappresentano più la persona di oggi.
- Usare periodicamente la ricerca del proprio nome per verificare quali contenuti emergono e decidere quali mantenere, correggere o rimuovere.
Passo 3 – Ridurre i dati condivisi “per automatismo”
Molte informazioni vengono fornite non per reale necessità, ma per abitudine o per fretta.
Un approccio più attento consiste nel distinguere tra ciò che serve davvero per un servizio e ciò che è semplicemente opzionale.
Indicazioni concrete:
- Compilare solo i campi strettamente necessari nei moduli online; lasciare vuoti quelli non indispensabili.
- Limitarsi, quando possibile, a indicazioni generiche (ad esempio, la città invece dell’indirizzo completo).
- Prima di confermare un modulo, chiedersi: “Questa informazione è proporzionata a ciò che sto ottenendo in cambio?”
Passo 4 – Separare ambiti diversi con identità distinte ma corrette
Non è necessario usare un’unica identità digitale per ogni scopo.
È legittimo separare alcuni ambiti, pur rimanendo corretti e trasparenti.
Esempi:
- Usare un indirizzo email dedicato per iscrizioni, test di servizi, newsletter di prova, distinto da quello principale.
- Differenziare gli account per sfera professionale, personale e sperimentale, evitando che tutto converga sugli stessi contatti e profili.
- Prestare attenzione a non “ricollegare” identità che si desidera tenere separate tramite gli stessi username, le stesse foto o gli stessi collegamenti social.
Passo 5 – Limitare i collegamenti automatici fra dati
Molti rischi per la privacy non derivano da una singola informazione, ma dall’incrocio di tanti piccoli dati.
Ridurre i collegamenti automatici tra servizi e piattaforme è un passo importante.
Buone pratiche per il lettore:
- Disattivare il caricamento automatico della rubrica nelle app quando non è strettamente necessario.
- Preferire, quando possibile, la creazione di un account con email e password, invece dell’accesso tramite “Accedi con X”.
- Usare username diversi a seconda del contesto, in particolare per attività che non si desidera siano associate immediatamente al proprio nome e cognome.
Passo 6 – Fare manutenzione periodica del proprio passato digitale
La privacy riguarda anche il futuro: contenuti che oggi sembrano innocui potrebbero diventare delicati con un cambiamento di ruolo, di lavoro o di paese.
Per questo è utile trattare il proprio archivio online come qualcosa da rivedere nel tempo.
Proposta di rituale semplice:
- Una o due volte l’anno, dedicare del tempo a rivedere post pubblici, foto, commenti e vecchi profili.
- Chiedersi per ciascun elemento: “Se qualcuno lo trovasse fra cinque anni, mi rappresenterebbe ancora in modo corretto?”
- Archiviare o rimuovere ciò che non corrisponde più alla propria immagine attuale o futura.
Conclusione
Governare le proprie tracce digitali non significa vivere nella paura, ma introdurre un criterio di proporzione e coerenza nelle informazioni che lasciamo circolare.
Non tutti abbiamo bisogno delle stesse misure, ma tutti possiamo trarre beneficio da una maggiore consapevolezza su cosa rimane, dove e per quanto tempo.
Un buon punto di partenza è scegliere una delle azioni sopra e metterla in pratica nei prossimi giorni, trasformando la privacy da tema astratto a abitudine concreta.
Avete dubbi o curiosità su strumenti e soluzioni di sicurezza e privacy? Scrivetemi nei commenti, vi risponderò volentieri!
L’illusione di Dubai: quando la geopolitica bussa alla porta degli influencer
Per anni, aprire Instagram o TikTok voleva dire imbattersi in Dubai. Skyline dorati al tramonto, yacht, brunch infiniti, piscine a sfioro con vista sul Burj Khalifa. E poi sempre loro: i creator, sorridenti, abbronzati, con una vita che sembrava progettata apposta per far scattare l’invidia.
Dubai non era solo una città. Era diventata una promessa: puoi vivere così. Puoi farcela anche tu.
Come Dubai è diventata la capitale dei creator
Dietro a quella patina dorata c’è una logica molto concreta. Dubai ha attirato creator e imprenditori digitali da tutto il mondo per motivi tutt’altro che casuali: quasi zero tasse, un clima favorevole agli affari, e una concentrazione di hotel, beach club e location da sogno che rendono ogni contenuto social praticamente già confezionato.
Il risultato? Una vera e propria fabbrica di lifestyle aspirazionale, dove l’immagine di una città sicura, stabile e lussuosa è diventata il cuore del prodotto che gli influencer vendono ogni giorno ai loro follower. Non solo vacanze o vestiti: vendono un’idea di vita.
Poi è arrivata la realtà
Ma negli ultimi giorni qualcosa ha iniziato a scricchiolare.
Le crescenti tensioni geopolitiche nel Golfom attacchi, instabilità regionale, notizie che non si possono ignorarem hanno fatto emergere una domanda scomoda: quanto è solida, quella narrazione?
Secondo molti analisti, la fragilità del modello sta diventando visibile. Gli influencer a Dubai si trovano davanti a un bivio che nessuno aveva messo nel piano editoriale: ignorare quello che succede intorno a loro e continuare a postare cocktail e tramonti, oppure riconoscere che la realtà è più complicata di un Reel ben montato.
Nessuna delle due opzioni è comoda. La prima rischia di sembrare cinica o disconnessa. La seconda mette in discussione il brand che hanno costruito in anni di contenuti.
Il problema è strutturale
Il punto è che il lavoro di un influencer funziona quando la storia è semplice e rassicurante: lusso, successo, libertà. L’economia dell’attenzione ama le narrazioni lisce, senza attriti.
La geopolitica, invece, è l’opposto. Porta con sé contraddizioni, sfumature, domande senza risposta. Cose difficili da far stare in un feed costruito per sembrare perfetto.
E qui emerge qualcosa che spesso si dimentica: gli influencer non sono solo intrattenitori. Quando raccontano un posto a milioni di persone, diventano — che lo vogliano o no — costruttori di narrazioni. Contribuiscono all’immagine internazionale di una città, di un paese, di un modo di vivere. Hanno un peso geopolitico reale, anche se nessuno li ha eletti per averlo.
La fine del sogno Dubai?
Probabilmente no, almeno non nell’immediato. Dubai resta uno dei nodi globali più importanti per turismo, finanza e creator economy. Non scompare da un giorno all’altro.
Ma quello che sta venendo a galla è qualcosa di più interessante della semplice crisi di un luogo: è la crisi di un modello. L’idea che si possa costruire un brand personale su un’immagine di mondo perfetto, stabile, senza increspature e che quella immagine possa reggere a tempo indeterminato.
La vera domanda non è se gli influencer lasceranno Dubai.
È se l’influencer economy, così come la conosciamo, possa sopravvivere in un’epoca in cui la realtà si infila sempre più spesso nel feed. Senza chiedere permesso.
Cose che potrebbero interessarti:
https://www.br1s.com/credenziali-anonime-privacy-identita-digitale/
Blink News:
Il centro dati di Amazon Web Services (AWS) negli Emirati Arabi Uniti è stato colpito da un grave incidente durante l’escalation di tensioni in Medio Oriente. Il 1° marzo 2026 uno dei data center AWS nella regione mediorientale è stato raggiunto da oggetti non identificati, che hanno causato un incendio all’interno della struttura. Per sicurezza i vigili del fuoco hanno interrotto temporaneamente l’elettricità alla zona colpita per spegnere le fiamme, provocando una significativa perdita di connettività e servizi cloud nella regione.Questa situazione evidenzia i rischi crescenti per le reti cloud globali quando le infrastrutture digitali si trovano in aree di instabilità geopolitica, soprattutto mentre grandi aziende tecnologiche espandono centri di dati e hub intelligenti (AI) in Medio Oriente.
L’Parlamento europeo ha espresso sostegno per l’introduzione di limiti di età uniformi per l’accesso ai social media in tutta l’Unione Europea, con l’obiettivo di colmare le lacune nelle leggi vigenti sulla protezione dei minori online.Secondo l’opinione approvata dai deputati, l’uso dei social network non dovrebbe essere permesso ai bambini sotto i 13 anni, mentre i giovani tra 13 e 15 anni potrebbero accedervi solo con il consenso dei genitori, e l’accesso sarebbe consentito liberamente solo dai 16 anni in su.La proposta include anche controlli efficaci di verifica dell’età in tutta l’UE e vuole uniformare regole oggi differenti tra i singoli paesi, evitando protezioni disomogenee.
Una ricerca recente mostra che i modelli di intelligenza artificiale di grande scala (LLM) sono in grado di identificare persone dietro profili anonimi o pseudonimi su Internet con sorprendente accuratezza. Questi sistemi analizzano i testi pubblicati (post, commenti, interviste) per estrarre indizi come professione, interesse e località e poi confrontano queste informazioni con profili reali presenti online.
Nel contesto delle crescenti tensioni in Medio Oriente, gruppi hacker filo-iraniani hanno intensificato le operazioni di cyberattacco contro obiettivi occidentali e israeliani. Secondo analisti di sicurezza, le campagne includono attacchi DDoS, intrusioni nelle reti e tentativi di compromettere infrastrutture critiche.
Molti di questi attacchi sono condotti da collettivi hacktivisti e gruppi legati all’Iran, spesso coordinati tramite campagne online come #OpIsrael. Gli esperti avvertono che queste attività fanno parte di una strategia di guerra ibrida, in cui il cyberspazio viene utilizzato per colpire avversari e amplificare l’impatto dei conflitti geopolitici.
Un’operazione internazionale guidata dal Federal Bureau of Investigation e coordinata da Europol ha portato alla chiusura di LeakBase, uno dei più grandi forum online dedicati alla compravendita di dati rubati e strumenti per hacker. L’operazione ha coinvolto 14 paesi, con sequestri di domini, server e database della piattaforma.Il sito contava oltre 142.000 membri ed era utilizzato per condividere database violati, credenziali rubate, numeri di carte di credito e altri dati sensibili spesso impiegati per frodi e attacchi informatici.Durante l’operazione le autorità hanno effettuato perquisizioni, interrogatori e diversi arresti, mentre i dati della piattaforma – inclusi messaggi privati e indirizzi IP degli utenti – sono stati sequestrati come prove per le indagini in corso.
Un’operazione internazionale coordinata da Europol e supportata da aziende tecnologiche tra cui Microsoft ha portato allo smantellamento della piattaforma di cybercrime Tycoon2FA, un servizio usato dagli hacker per lanciare campagne di phishing e aggirare i sistemi di autenticazione a più fattori (MFA).Il servizio funzionava come “phishing-as-a-service”, permettendo anche a criminali con poche competenze tecniche di creare pagine di accesso false e intercettare credenziali e sessioni degli utenti. Le autorità e i partner privati hanno sequestrato o disattivato oltre 300 domini utilizzati per gestire l’infrastruttura degli attacchi.Attiva almeno dal 2023, la piattaforma era collegata a campagne di phishing su larga scala che colpivano organizzazioni in tutto il mondo, tra cui scuole, ospedali e aziende. Nonostante il takedown, gli esperti avvertono che servizi simili potrebbero emergere rapidamente nel panorama del cybercrime.



